虛幻引擎在GDC教你做人
今天UE在GDC可謂搶盡風頭,先是微軟DXR+Nvidia在UE中實時光線追蹤,後是逼真的照片角色。
渲染和光線追蹤我不懂,作為三維掃描從業者,CG角色製作方面還可以解讀一下。
面部綁定是3Lateral做的,掃描了50個FACS,不了解FACS的可以理解為特定的面部表情,Siren項目中還使用了4D掃描作為參考。個人覺得4D掃描沒太大必要,這玩意一開始是為VR開發的,VR現在黃了就給綁定做參考用了。
掃描的效果,從左至右——原始掃描,修型拓撲後映射細節,增加高頻率細節。
修型主要是雕刻掉毛髮,修理眼睛邊緣。
三維掃描部分我沒怎麼拍,想具體了解的朋友可以看我這個回答
電視劇里的嬰兒都是哪裡找來的?貼圖這種事都比較基本了,稍微提一下這裡法線貼圖分兩層,base normal是掃描出的高模烘焙至拓撲後的低模上的,一般是中等大小的細節。Micro normal是高頻率細節,例如小皺紋和毛孔。
為了在UE中做實時動畫,整個面部減至4萬面,整個頭包括眼球、牙齒、口腔等細節有8萬個面——相對影視通常使用的重資產非常非常低了...
口腔和眼球設置
頭髮用xgen製作,分了三層UV
UE這個look dev環節以前沒想到,人臉表面確實有一層絨毛,我們掃描時就發現有的演員,特別是姑娘,臉跟個桃兒似的。
如果簡單粗暴做一層毛,又跟猴兒似的(上圖右)。UE團隊的解決辦法是加了一層透光材料模擬這種感覺,底部稍微塗深,頂部塗淺色,最外麵包一層法線顯得毛茸茸,效果很好。以後大家給女演員做look dev別忘了加毛。
下面講綁定,50個面部表情掃描拆出725個blendshape。
Rig Logic是3Lateral開發的插件,我們曾參與的面部綁定項目中使用過所以有些了解。這個插件意在UE中實時驅動Maya Blendshape rig,也就是說面部綁定還是在Maya中,Rig Logic吧UE中控制點的動作傳到Maya,Maya再導出形狀反饋給UE。但是材質都是UE中的,所以看起來像是在UE中實時渲染了一樣。
綁定和材質是連在一起的,法線貼圖分12個區域(我記得是),動作會激活不同的法線貼圖。另外高光貼圖是法線貼圖轉制的,因此動作驅動法線貼圖,法線貼圖驅動高光貼圖。
綁定還有另一個解決辦法——使用Blendshape和肌肉模擬結合
京一不二:又又,全是又又純Ziva肌肉系統的話也是可以進UE的,一半一半這種還沒試過。
差不多就醬,現在還不晚,加油好好做人吧。
推薦閱讀:
※4399遊戲盒如何下載?
※超級瑪麗 為什麼這麼經典?
※死亡宣告直播打女友?
※地球末日你會玩么?
※我的羅源實況足球遊戲生涯回憶錄