特效團(tuán)隊(duì)揭秘" />
《阿凡達(dá):水之道》劇照。受訪者供圖
如何用特效呈現(xiàn)虛擬人表情?《阿凡達(dá)2》特效團(tuán)隊(duì)揭秘
中新網(wǎng)2月23日電 (中新財(cái)經(jīng)記者 宋宇晟)在上映兩個(gè)多月后,電影《阿凡達(dá):水之道》全球總票房超過(guò)《泰坦尼克號(hào)》,成為影史第三賣座的電影。這部被認(rèn)為“帶來(lái)無(wú)比強(qiáng)烈視覺(jué)沖擊”的影片是如何完成的?其中虛擬人物的表情又是如何通過(guò)特效實(shí)現(xiàn)的?近日,該片特效團(tuán)隊(duì)接受了中新財(cái)經(jīng)記者采訪。
CG生成電影角色
《阿凡達(dá):水之道》中的潘多拉星球,擁有獨(dú)特的環(huán)境風(fēng)貌、多樣的自然生態(tài)和獨(dú)特的居民,同時(shí)很多情節(jié)發(fā)生在水下環(huán)境中……
毫無(wú)疑問(wèn),這些都給整部影片的特效團(tuán)隊(duì)帶來(lái)了巨大挑戰(zhàn)。
不同于當(dāng)前短視頻平臺(tái)常見(jiàn)的虛擬人,這部電影中的人物形象逼真到具體的肌肉拉伸和收縮以及面部表情細(xì)節(jié)。而相較于2009年上映的《阿凡達(dá)》,這部續(xù)作的特效在全身動(dòng)態(tài)捕捉和臉部表情細(xì)化上,都有進(jìn)一步提升。
卡梅隆曾在文章中指出,《阿凡達(dá):水之道》延續(xù)前作《阿凡達(dá)》的拍攝方式,仍以3D形式拍攝。
“《阿凡達(dá)》見(jiàn)證了電影制作技術(shù)的飛躍。”回顧兩部《阿凡達(dá)》影片的拍攝,卡梅隆在其文章中公開(kāi)表示,“我們捕捉到了非人類角色的面部表情。這些角色與我們相似,但不是人類。這種效果不是通過(guò)化妝實(shí)現(xiàn),而是通過(guò)CG生成的角色展示。我們希望角色的效果百分百真實(shí),同時(shí)演員表達(dá)的情感也得到百分百傳達(dá)!
如何呈現(xiàn)虛擬人的表情
為了讓虛擬人物呈現(xiàn)出足夠豐富的面部表情,來(lái)自Unity Wētā Tools的特效團(tuán)隊(duì),創(chuàng)造了一整套全新的制作和可視化工具。
Unity Wētā Tools高級(jí)副總裁Allan Poore告訴記者,相比于以往的影片,《阿凡達(dá):水之道》制作中的最大突破是,為影片中的數(shù)字角色制作創(chuàng)新地提出了APFS系統(tǒng)(Anatomically Plausible Facial System)!斑@是一個(gè)基于肌肉纖維曲線的面部動(dòng)畫(huà)參數(shù)化系統(tǒng),同時(shí)團(tuán)隊(duì)也提供了一整套與之配合的特效畫(huà)面制作生產(chǎn)流程!
“全新的APFS系統(tǒng)取代了已有20多年歷史的FACS(Facial Action Coding System)系統(tǒng),提供了一個(gè)更基于解剖學(xué)基礎(chǔ)、更以動(dòng)畫(huà)師為中心的創(chuàng)作環(huán)境!
Allan Poore坦言,系統(tǒng)在幫助動(dòng)畫(huà)師通過(guò)肌肉曲線直接控制面部肌肉,生成高保真的面部表情的同時(shí),也將復(fù)雜的非線性皮膚表現(xiàn)納入深度神經(jīng)網(wǎng)絡(luò)(一種模仿動(dòng)物神經(jīng)網(wǎng)絡(luò)行為特征,進(jìn)行分布式并行信息處理的算法數(shù)學(xué)模型),繼而通過(guò)大約7萬(wàn)-10萬(wàn)次的高質(zhì)量面部掃描來(lái)訓(xùn)練AI模型,旨在幫助電影創(chuàng)作者更高效地制作高逼真度畫(huà)面。
《阿凡達(dá):水之道》劇照。受訪者供圖
視覺(jué)特效的未來(lái)
隨著近年人工智能技術(shù)的發(fā)展,相關(guān)視效團(tuán)隊(duì)也在探索利用人工智能生成內(nèi)容(AIGC)。
Unity中國(guó)高級(jí)經(jīng)理兼跨端移植技術(shù)負(fù)責(zé)人孫志鵬認(rèn)為,人工智能生成內(nèi)容(AIGC)將大規(guī)模解放創(chuàng)造力,降低內(nèi)容創(chuàng)作門檻,對(duì)單純靠現(xiàn)有特征來(lái)做組合的內(nèi)容創(chuàng)作,肯定有比較強(qiáng)的替代性,但對(duì)AI產(chǎn)出內(nèi)容做篩選,還是需要來(lái)自人類的判別。
以場(chǎng)景生成為例,孫志鵬稱,目前看起來(lái)有一個(gè)可能的路徑是:首先通過(guò)GPT之類的生成模塊,自動(dòng)生成對(duì)一個(gè)用戶需要的場(chǎng)景足夠詳細(xì)的描述,然后通過(guò)一個(gè)多模態(tài)模塊進(jìn)行模態(tài)融合,驅(qū)動(dòng)建模模塊生成場(chǎng)景,繼而渲染,最后生成符合描述的圖像或視頻。
他指出,類似的過(guò)程可以用在很多類型的資產(chǎn)生成過(guò)程中,“一句話建模”也就由此實(shí)現(xiàn)。但目前AIGC 作用到3D數(shù)字資產(chǎn)的制作,還需要進(jìn)一步探索。
在孫志鵬看來(lái),中國(guó)在影視特效領(lǐng)域發(fā)展存在巨大潛力。“中國(guó)擁有世界上最大的游戲市場(chǎng)、最大的汽車市場(chǎng)、也是最大的制造業(yè)國(guó)家。這意味中國(guó)有著全球最大的數(shù)字孿生市場(chǎng),也很可能誕生最大的元宇宙世界!
“我們期待和中國(guó)影視行業(yè)的創(chuàng)作者一起,為世界呈現(xiàn)杰作!彼f(shuō)。(完)