遊戲特效為什麼做不到像電影特效里的那樣真實?

比如「阿凡達「,很多是用特效做出來的,你會感覺很真實;但遊戲,總感覺與現實存有很大差距,讓你感覺」不現實「。就算用cryengine做的《孤島危機》,畫面也是如此。


一句話:「計算成本不一樣。」

在《Real-Time Rendering, Third Edition (豆瓣)》(2008)的第19.1節談論到動畫電影和遊戲在渲染上的一些比較,例如《美食總動員 (豆瓣)》(2007)中:

  • 使用的機器群集大概有3100個核,每個可使用16GB內存
  • 平均每幀花費 6.5個CPU小時(更正前誤寫為小時),複雜的場景要花上數十小時

對於遊戲來說,基本要求是30FPS,即約0.033秒渲染一幀。那麼如果想達到2007年動畫電影的水平,即從6.5小時加速至0.033秒,簡單計算比例的話大約要該CPU(更正前誤寫為集群)的70萬倍的計算能力。

在21世紀初因遊戲而延生的GPU,其運算量比CPU要高,單以浮點計算量來說,這篇博文作了一張比較圖:

2007年的Xeon大概是每核10 GFLOPS,現在的GTX Titan是4500 GFLOPS,假設現在的GPU計算能力是2007年CPU的450倍,而GPU繼續類似摩爾定律,以每年翻倍的速度提升,大概在16年後,即2030年,實時遊戲渲染的計算量能達到1997年動畫電影渲染的計算量。

當然,這個問題還有許多因素,我嘗試以樂觀和悲觀去分類。

樂觀因素:

  • 實時渲染的演算法與離線渲染的演算法不同,同樣的品質下可以用更少的計算量
  • 遊戲中一些計算可以通過預計算減少每幀重複運算(其實離線渲染也有……)
  • 人們不單純追求真實性,也需要抽象性及藝術表現

悲觀因素

  • 除了計算量,其他方面可能追不上(內存頻寬、總綫頻寬)
  • 遊戲需要低延遲(low latency)而不單純是高吞吐量(high throughput),實時渲染的問題比上述的計算量問題更難
  • 遊戲一般希望最壞的情況下達30 FPS而不是平均情況

但總終而言,根據以上分析,同年份的動畫渲染及遊戲渲染可能有相差數十萬倍的性能。除非離線渲染在未來已達到人類視覺的極限(與現實無異)而不需要再提升,遊戲渲染難以在同年到達動畫渲染的水平

基於計算量的差異,目前動畫和遊戲在渲染上的區別:

  • 動畫的模型非常精細,並且大多使用鑲嵌(tessellation)技術提高曲面圓滑程度。遊戲通常使用較小的模型。
  • 離線渲染通常採用光線追蹤(ray tracing)、路徑追蹤(path tracing)等渲染方式。遊戲通常使用基於光柵化(rasterization)方式。
  • 遊戲渲染採取更大幅度的近似化(approximation)。

另外,遊戲渲染含有一些和動畫渲染不同的需求:

  • 攝像機可以有限度由玩家操控,場景要更完整。動畫有時候只需要在鏡頭內的場境有足夠細節便可以。
  • 玩家角色和非玩家角色(NPC)的動畫都需要互動,並考慮不同動作之間的過度,製作方式更複雜。
  • 一些遊戲支持日夜、天氣等變化,光照不能簡單地預計算。
  • 由於遊戲的不確定性,許多參數需要自動生成(例如Tone Mapping),這需要額外的計算。

簡單地講,遊戲渲染有較多動態部分,動畫渲染有較多靜態部分

作為遊戲開發者,也僅是希望在有限的資源內做到最好。最後發兩張截圖比較遊戲渲染的進展。

2000年的《American McGee"s_Alice》

2011年的《Alice: Madness Returns》

=================================
更正2014/3/26: @余茂新 在評論中指出數字不合理,找到這篇NewsFlash: Render stats for Ratatouille,說6.5一幀是單個CPU的時間。所以43875天 / 3100 核 ~= 14天而已。不過由於該文不肯定 cpu-hour是指單個核還是四個核一起工作,如果是後者,則是14x4 = 56天。不過這不影響後面的計算。


贊同@kubisoft的回答,補充一點:
電影渲染使用的價格/時間比是遊戲這種單PC機的數百倍。如果要讓電影特技的渲染時間變得和遊戲那樣快,就是現在的超級計算機也做不到。可見電影特技用的離線渲染的成本是相當大的。
渲染的一切都可以折算成時間,一幀遊戲畫面渲染時間可能花掉1/60秒,而一幀電影特技的渲染時間可能要花掉一整天,並且還是用成千上萬的CPU在運算。
故此,特技鏡頭比遊戲真實是天經地義的。


因為,你不是在用一個GPU集群來玩遊戲啊,你用的只是一塊小破顯卡啊,說不定在今年還是低端的……cryengine能做到這樣已經良心了,對配置要求那麼低!


作為半專業影視從業人員我也來嘗試解答下,上面幾位答主其實都已經做了比較詳細的解答,我就從另一方面來進行解釋
各位知友的答案我大概都看了一下,應該是屬於遊戲引擎的實時性和電影CG的離線性渲染做了對比,還有很多答案也提到了當時《變形金剛2》的花絮(那個花絮也是國內能找到的中文字幕里娛樂性和科普教育性比較好的資源了,我自己也前後看了2遍,有興趣的同學可以點變形金剛2花絮中字)。
大部分說的是關於CG中的渲染時間長度,
比如 @羅登 回答的

電影渲染使用的價格/時間比是遊戲這種單PC機的數百倍。如果要讓電影特技的渲染時間變得和遊戲那樣快,就是現在的超級計算機也做不到。可見電影特技用的離線渲染的成本是相當大的。
渲染的一切都可以折算成時間,一幀遊戲畫面渲染時間可能花掉1/60秒,而一幀電影特技的渲染時間可能要花掉一整天,並且還是用成千上萬的CPU在運算。
故此,特技鏡頭比遊戲真實是天經地義的。

再比如 @YuDan 回答

電影場景的渲染,需要那麼強的計算能力,是因為用的光線追蹤(ray-tracing)演算法。簡單來講,就是把場景里的每一個發光物體分割成若干發光片,
每個發光片引出無數條光線,這些光線或者直射,或者在環境的物體上經過反射、折射、透射等各種光學變換在虛擬攝影機上產生光斑、顏色、強度都會被一一記錄
下來。若干次光學變換後,才認為該光線產生的影響可以忽略。
所有這樣的發光片對場景的發光效果的疊加,成為最終渲染的場景圖象。遞歸地來講,每次都是把上次的發光片分成更細的碎片,同時把反射、折射、透射的光學變換在更多的面上做細,直到前後兩次產生的圖象差值小於某個給定閾值,才算遞歸結束。詳細的解釋可以參照wiki的光線跟蹤部分。

明顯,這樣的演算法純粹是模擬自然界光線成像的原理,所以只要建模足夠精細,產生的渲染結果會非常真實——因為現實中光線就是這麼產生圖象的。當然,這樣的
演算法需要強大的計算能力,模型越複雜,圖象越精細,計算能力的要求就越高。實際上美國有很多這樣的公司叫做渲染農場(直譯render
farm),他們的伺服器就是為這樣高度並行的計算優化,承接各種電影特效的渲染計算。在雲計算這個詞出現之前,這種雲計算平台早就存在了。你以為皮克斯
(Pixar)只是動畫工作室嗎?錯!它首先是一個超級計算機(甚至出租他們的計算服務renderman)。精美的渲染是非常非常昂貴的,需要砸重金進
去的,這就是為什麼國內特效慘不忍睹的原因之一。

講的是關於CG中渲染器的燈光照明系統,這裡的光線追蹤演算法在遊戲引擎中也是存在的,但是影視里的比較複雜,可調性也較高,有興趣的朋友可以參考這篇文章[vfxinfo 獨家] The Science Of CG 渲染背後的科學

還有, @趙含寒 也提到了

首先如上面幾位提到的,遊戲渲染是實時的,而電影則不然。如果遊戲要達到電影的效果,其實技術上是可以部分實現的。但是這需要強大硬體做為支撐。說的簡單點,次時代引擎遊戲的角色大概2-3W面,電影最終渲染的高模大概10-20W面。

說也是遊戲與影視中關於模型面數方面的限制。(我自己也做過半年的國產網遊,記得那個時候角色的面數限制大概在3000面左右,貼圖最高也只能是512*512的。當然次時代的遊戲要求會放寬一點。)還有就是角色的綁定與動畫也是影視的較為細膩一點(遊戲現在也運用了動捕技術)
----------------------------------------------------------------------------------------------------------------

當然,我並不是來總結以上答主的結論的,在我看來上面的觀點大部分歸納下來應該屬於:遊戲由於機能所限,不能達到影視特效的真實級別。這個觀點我是贊同的,
畢竟原來做過VFX相關的工作,一個200幀的流體特效鏡頭擱那種工作站的機器進行解算,也要1、2天的時間。記住,這只是解算,還不是渲染要花去的時間。。。。。

既然各知友都說了這麼多,那我就從另一個方面來說說,造成遊戲與電影真實性的差距:後期合成

1.什麼是後期合成?
講簡單一點就是在電影里那些用3維軟體渲好的圖片,把它們層層疊加整合成一個鏡頭的過程,就是合成。有點像是PS里的各個圖層相疊加,在加點調色濾鏡之類的效果,只不過PS做的都是靜幀的,而後期合成時是動的。這就是簡單的概念

2.後期合成在電影中很重要嗎?
很重要!合成是整個3維電影中,比較接近成片的一個流程。也是技術與藝術結合最精密的一個環節,從歐美從業人員收入情況中就能看出,整個VFX鏈中,合成師的收入是最高的。並不是你把模型搭好,材質貼圖上上去,打好燈光,調好動畫,就能直接丟給剪輯師了。合成師在很大程度上保證了影片的最終效果,也是最能體現真實效果的。
比如
視頻封面IRON MAN 3- Scanline VFX Shot Breakdowns(vfxinfo.net)視頻

這是Scanline VFX 出的《鋼鐵俠3》的breakdown

上圖的每一個畫面就是渲染後的每一層,合成師再把每層再合在一起,合成下圖

視頻里每一次的畫面刷新就可以看作是合成師的合成工作3.機器渲染的圖片為什麼要分成一層一層的交給合成師,不是全渲在一層上?
分層渲染保證了合成的可調性。通過調節各層來到達最終真實的效果。
比如這個視頻
視頻封面Alex -Portrait of a Young Woman - Breakdown (vfxinfo.net)視頻

通過每一層的疊加最後達到最終效果。你說全都渲到一層上能達到這個效果嗎?我說可以。但是,這只是一個測試的作品。如果你都渲成一張圖上,導演說一句要改!那沒辦法,你得重新改好了再渲。如果你是分層來完成,可能只要再改其中幾層,或者在合成方法上做調整來進行修改,節省了很多時間。也會有人說,現在的遊戲引擎也能做到這個效果,也能通過材質分層。是的,遊戲也可以,但是它有人手工合成達不到的境界,這個我後面再說。

4. 關於真人的合成
首先上述知友提到的電影大部分都是皮克斯的動畫片《小鼠大廚》、《汽車總動員》等這些純CG的。但是,好萊塢的特效大部分都是實拍結合3維的電影。關於人物的實拍的電影中,後期的作用就更能體現了,從roto、track、relight、matte painting到composition,都屬於後期合成的範疇。真人與CG的結合,燈光的匹配,這些東西都會依仗到後期。真人與CG並存,無疑也會提升整體影片的真實感,做到以假亂真的地步。這是遊戲引擎暫時無法達到的。也是國內電影最容易崩壞的部分。
比如
視頻封面《西遊記之大鬧天宮》神魔決戰版預告片視頻

無視劇情,只看畫面,為什麼覺得有的特效很假,其實就是人物的邊緣過於突兀與CG的背景不搭配 ,也就是合成不行,如果再在後期上加把勁,該片畫面能上升起碼2個層次

5.關於節省資源
合成還有一個優點,就是對於機器資源的節省,不可能所有的CG都是先建模再貼圖,打燈光,這樣一步一步來。不然你在21世紀初就看不到《指環王》這個史詩大片了。
matte painting就是為了偷懶而誕生的。什麼是matte painting?
請看
視頻封面接景技術分解 (Matte Painting) 精選視頻匯 視頻

這是前段時間很火的一個matte painting案例,可以理解為在PS里通過把真實照片的拼接及處理,做出一幅逼真的CG圖,再把這張圖通過投射的方式,投在你3維軟體中的簡模上,作為背景。這樣做不僅保證了真實度也提高了整個流程的生產效率,免去時間較長的渲染過程。這也是先階段遊戲引擎難以達到的,既能保證真實性又能節省資源。

說了這麼多,其實我想表達的就2點:
1.後期合成對於電影真實性的重要
2.合成工作因其自由性,暫時只能由藝術家手工製作,引擎難以達到

----------------------------------------------------------------------------------------------------------------

先寫到這裡吧,以後想到什麼再來補充。。。。。。。。。。。。。。。


遊戲裡面的畫面必須實時渲染,和可以離線渲染的CG是完全不同的。
比如說,通常一個人物只能幾百個面,必須仔細考慮如何布線,如何節省用面;主要依靠貼圖表現,shader的運算量也不能太大,不能運用太複雜的渲染演算法,比如光線跟蹤等等;
但是在CG中就動不動幾十萬個面了
--------------------
補充一些後來想起來的東西:
所以,CG和遊戲3D的製作方式是完全不同的,CG美工並不會做遊戲,遊戲美工也不會做CG, 就如同c++程序員和web程序員之間的區別一樣。
CG製作的時候,可以完全不考慮面數,都是採用各種建模工具做出來的,然後利用vray等各種渲染工具渲染;
遊戲3D製作的時候,模型盡量不採用任何建模工具,都得自己從長方體開始,一個面一個面、一根線一根線的拉出來。貼圖不能依賴渲染,主要依靠美工手繪上去。
但是現在這兩者開始融合,有了強大的工具,可以把CG模型簡化變成遊戲中需要的低模;可以把CG模型通過離線渲染烘焙出精緻的貼圖,用到遊戲中。


感覺很多人都沒回答到點子上,都在用渲染時間說事,特效電影的每個畫面,渲染代價超大,是一個重要方面;其次,在電影製作流程中,觀眾所看到的一個畫面,會根據職能被拆分成很多複雜的分支。 @STU works也了提到了後期合成,其實就是cg與實拍場景的契合也要花費製作人員的心血與時間,某些鏡頭中的修改反饋次數多達二,三百個版本,數個月時間,並非遊戲所謂的realtime-render,那般簡單。再者ls很多人也說的模型精度之類的問題,我就不表了;本人所見的電影級別的特效製作,artist對畫面的要求和把控及其嚴苛和細膩。另外,當前的渲染技術或流程也並沒有達到百分之百模擬真實環境,很多處理方法,也只能說是接近人眼效果,都是需要大量後期去彌補,renderfarm的意義也只是為了「多一些版本」,這就是逼真效果需要付出的代價;電影特效除了耗費大量資源,人對畫面美感的追求才是第一電影工業的第一生產力。
「遊戲特效為什麼做不到像電影特效里的那樣真實?」這個問題,和兩者存在的意義有關


另外,我看見很多人用阿凡達或變形金剛的單幀渲染時間幾十個小時這個問題,說明電影和遊戲的區別,也有些片面。目前像ilm這樣的公司都會對渲染器或製作流程進行優化,根據質感或燈光效果將畫面內的元素拆分,單獨渲染之後再合成;其次,renderfarm也高度自動化,線程和內存科學化調度。如此這般,單幀的累計渲染時間可能是50小時,但是在500個24線程的renderfarm上,可能只需要5分鐘,這只是個例子;我想表達的是,渲染只是部分原因,高藝術要求或者是導演的變態feedback,才是電影能呈現高水準畫面的原因。不過即使這樣任改變不了電影后期的迪奧絲氣質。

好了,第一次回答,手機狗碼字不易啊....邏輯混亂,請見諒!


在《阿凡達》製作的高峰期,BlueArc
NAS系統要服務渲染庫上的超過34,000個內核,全天候以每秒8GB的持續負載量處理16,000個並發讀寫流程。儘管增加了更多的渲染節點,該存儲系統依然能保持極高的吞吐量,這在最大程度上幫助藝術家加快了工作進度、消除了主要瓶頸並簡化了數據管理。[1]

上個世紀九十年代的《泰坦尼克號》的視頻渲染動用了100多台Linux主機(還有其他主機)做數據處理[2],當時的數據好像都沒到4GB每秒,現在的電影製作,8GB每秒的吞吐量很正常了。玩顯卡危機的效果,其運算量,九牛之一毛。

如果在學校使用過教育網下載的,每秒可能有數M(我經歷過的是5M/s)的數據吞吐,開多了機器就慢了,想要電影那種效果,請做好遊戲還沒開始機器就已經燒掉的準備。

[1] 探秘《阿凡達》背後的海量數據管理
[2] Linux Helps Bring Titanic to Life


主要就是遊戲製作跟CG製作的出發點不一樣。

我給你說的通俗一點,遊戲 是用你自己的電腦來呈現畫面,而CG 是用別人的電腦呈現的畫面。
1.為什麼這麼說呢,上面排名第一的人已經說的很明白了,遊戲是需要消耗你的硬體資源來呈現畫面的,目前市面上的電腦還沒有能承受的了電影畫面的計算量!所以而且從開始製作的時候就是以流暢的遊戲體驗為基準往下製作的,遊戲設計者會給你一個接近真實場景的概念,剩下的讓你對照現實去想像,在這個前提下犧牲的就是畫面(相對CG來說)所以遊戲會在體驗上給玩家更多的內容,讓玩家能更好的去想像這個遊戲世界。

2.那麼遊戲CG呢,其實從開始製作到最終完成跟你都沒太大關係,不需要你的硬體參與。都是CG製作方在用他們的「強大」電腦製作、渲染,來幫你實現視覺感官體驗的最大化,就是上面所說的,給你一個完美參照標準(你對著這個去想吧,就是這樣的一個地方),他們不需要考慮遊戲製作中所遇到的問題(這個與他們無關)我們要的就是最好的畫面刺激你 刺激你 刺激你...去玩他們的遊戲,所以他們要做到最好!


除了模型精細程度之外,好像沒有一個回答提到最關鍵的一點——電影場景的渲染和遊戲場景的渲染用的根本不是同樣的演算法!

電影場景的渲染,需要那麼強的計算能力,是因為用的光線追蹤(ray-tracing)演算法。簡單來講,就是把場景里的每一個發光物體分割成若干發光片,每個發光片引出無數條光線,這些光線或者直射,或者在環境的物體上經過反射、折射、透射等各種光學變換在虛擬攝影機上產生光斑、顏色、強度都會被一一記錄下來。若干次光學變換後,才認為該光線產生的影響可以忽略。
所有這樣的發光片對場景的發光效果的疊加,成為最終渲染的場景圖象。遞歸地來講,每次都是把上次的發光片分成更細的碎片,同時把反射、折射、透射的光學變換在更多的面上做細,直到前後兩次產生的圖象差值小於某個給定閾值,才算遞歸結束。詳細的解釋可以參照wiki的光線跟蹤部分。
很明顯,這樣的演算法純粹是模擬自然界光線成像的原理,所以只要建模足夠精細,產生的渲染結果會非常真實——因為現實中光線就是這麼產生圖象的。當然,這樣的演算法需要強大的計算能力,模型越複雜,圖象越精細,計算能力的要求就越高。實際上美國有很多這樣的公司叫做渲染農場(直譯render farm),他們的伺服器就是為這樣高度並行的計算優化,承接各種電影特效的渲染計算。在雲計算這個詞出現之前,這種雲計算平台早就存在了。你以為皮克斯(Pixar)只是動畫工作室嗎?錯!它首先是一個超級計算機(甚至出租他們的計算服務renderman)。精美的渲染是非常非常昂貴的,需要砸重金進去的,這就是為什麼國內特效慘不忍睹的原因之一。

遊戲場景的渲染,當然不可能有那麼強的計算能力供玩家隨意調配,所以用的是各種近似演算法。顯卡的計算能力都是為這些近似演算法服務的。顯然這些近似演算法也只能做到一定程度的近似,特別是各種複雜的光線場景,都是預先貼好反射、計算好散射的效果,在紋理貼圖上就已經考慮進去。當然,這種效果看起來就是不那麼真實。


遊戲是實時渲染的,電影是離線渲染的。
遊戲用一台電腦就能跑每秒幾十上百幀,電影用N台高端計算機組成的渲染農場計算一幀也要以秒為單位。
遊戲渲染大量採用近似模擬的光柵化演算法,電影渲染採用貼近物理的光線跟蹤演算法。


其實最簡單的原因:
遊戲是實時渲染,每一幀都要在十幾、幾十毫秒內完成。不然你就卡死了。
而電影不是,它可以花幾分鐘甚至倆禮拜渲染出一幅畫面,最後給你播的時候連著放就行了。
這個區別導致了所有的演算法、模型等等的不同。


補充一點,有些依靠遊戲引擎渲染出來的圖,真實度也都很不錯了。可惜僅僅是圖


原來一朋友把變形金鋼電影里的擎天柱模型下到自己電腦里,單渲一幀畫面需要一天時間。

電影里用的模型的精度和遊戲用的完全是兩碼事,更別提什麼光影粒子動力學了。


遊戲中的「你」會亂跑,電影中的角色不會。


就一句話,vfx達到好萊塢級別,你機器跑不動的


看了下大部分回答。應該沒有真正在遊戲公司做特效的吧。
首先糾正一下樓主誤區,遊戲特效≠電影特效。
遊戲特效指的是遊戲中的特殊表現效果,如刀光劍氣,爆炸煙霧等等。
電影特效應該就比較寬廣了,摘用百度百科----在影視中,人工製造出來的假象和幻覺,被稱為影視特效(也被稱為特技效果)。電影攝製者利用它們來避免讓演員處於危險的境地、減少電影的製作成本,或者理由更簡單,只是利用它們來讓電影更扣人心弦。
所以樓主所說的特效我簡單的理解應該是電影的渲染效果看起來更真實,而現在遊戲無法達到電影那樣的真實效果。那麼要回答這個問題就很簡單了。
首先如上面幾位提到的,遊戲渲染是實時的,而電影則不然。如果遊戲要達到電影的效果,其實技術上是可以部分實現的。但是這需要強大硬體做為支撐。說的簡單點,次時代引擎遊戲的角色大概2-3W面,電影最終渲染的高模大概10-20W面。如果你也想體驗電影的效果,依照現在的主流高級電腦配置必須提高最少5倍的性能。問題是這樣的性能配置的電腦有多少人能承受?或者說,現在的家用遊戲機如(PS4 XB ONE)都定價在3-5W人民幣,有多少人會去買?(簡單的換算了下性能和價格比實際提升3-5倍的性能應該比這要需要付出的多的多)所以現在的大部分遊戲公司只能保守的採用一種表現和性能協調考慮的辦法去做遊戲基礎構架製作,也就是我們所說的遊戲引擎。遊戲公司最終目的是為了遊戲更加賺錢。因為遊戲最終需要終端去驅動他,而影片只需播放設備。所以遊戲在表示效果時受到的限制更多,而且你可以發現遊戲的畫質,隨著家用機器的性能提升而且提升的效果較電影更加明顯。

最後方便懶人的結論
遊戲渲染效果其實可以做到和電影不相上下,但是這隻存在於圖形開發實驗室中,在生活中受制於現在計算機的性能還無法到達電影的效果。

當然如果要說特效方面的話,那又是另外一個話題了,而且包含內容很多就不展開了。

最後附上幾個最新引擎的演示視頻,大家一起展望下未來遊戲的表現吧
虛幻引擎4實算demo演示
CRYENGINE3 2013 作品演示片
ABOUTCG上傳_Frostbite 3 Engine Preview 寒霜引擎3


趕時間的同學可以只看黑體字。因為其餘的部分全都是吐槽。

玩了快20年的遊戲,對這個問題能給出的最好答案只有一個——時間。

如果三十年後你還在玩遊戲,無論是主機遊戲還是PC遊戲(掌機暫時不算,因為掌機的運算機能一直弱於主機1個世代,體積和硬體的限制),如果當時知乎還存在,記得回來看看你問的問題。

【古墓麗影】系列是最好的例子。拿出第一代勞拉的即時演算和最新一作號稱「轉行賣洗髮水」的即時演算,對比一下。我沒記錯的話是17年的時間。把當年哪個看來簡陋無比的模型變成了一個。。。精緻非常的模型。

【顯卡危機3】的栗子就不舉了。【虛幻引擎3】的即時演算影像LZ也可以去看看。主機上的【超凡雙生】的面部模擬系統LZ也可以去了解一下,而說到運鏡技巧,話題之作【暴雨】已經做出了相對偉大的嘗試。2013年,PS4、xbox720正蓄勢待發。而如果LZ玩一點上古捲軸5,用過ENB,編輯過人物動作,並明白我剛才說的這些名詞都是什麼意思,大概會相信我接下來要說的話——

未來,電影CG與遊戲即時演算中間的那條線最終會被踏過。貼圖精細程度、光的渲染、人物動作編輯、運鏡、硬體性能...這些都不是問題。問題只是我們都需要一點點的耐心,和遠見。

————————————————————————————————

PS:再說兩點不相關的。
1 其實一款遊戲好不好真的和畫面關係不是特別大。不然那麼多獨立遊戲製作人早就賣豆腐去了(如果你玩玩,就知道陳星漢的【旅程】喚起的心理感受未必就弱於阿凡達)
2 一味追求真實並不是遊戲畫面的絕對標尺,在遊戲界,夢幻、誇張的視覺表現往往比絕對真實更有市場。一款作品的畫面風格往往也需要更多與遊戲本身的調性相一致。


有的知友說到運算量。對的,阿凡達、變形金剛電影版的運算量都是數台電腦完成的,但今天的大型機、專用機工作,明天未必不能被個人電腦完美執行。畢竟硬體的更新速度多年來有目共睹。遊戲愛好者們對各路遊戲編輯一年又一年的連番驚呼也習以為常。

最後,建議LZ可以去搜一些大作的預告CG看。除了徹底的擬真性,其運鏡、光影、情節、爆點、題材與表現力往往不比電影差,甚至更強,更不受地心引力與觀眾期待的限制。戰地3、榮譽勳章 戰士、光環4、星球大戰原力釋放、史克威爾新引擎的預告、FF14王國新生的預告等等...栗子太多了,視覺呈現勝於熊便便。


看過變形金剛的紀錄片,裡面有個鏡頭:一個工程師為了惡搞另外一個工程師,就發了剛渲染好的一張圖,結果電腦直接爆了


因為現在主流的遊戲引擎全部都是光柵化渲染,而影視動畫則是採樣渲染,網上能查到的關於兩者的詳細而有條理的資料不多。光柵化渲染的流程總的來說就是先把三維物體光柵化成二維平面的像素,再根據三維坐標進行著色和光影的渲染,而採樣渲染則是由攝影機透過視圖平面發出採樣射線,根據採樣收集燈光,材質,光線跟蹤等信息先計算每個像素點該是什麼顏色,然後再「打」到畫面中。光柵化渲染的有點就是快,所以遊戲引擎普遍使用,而且光柵化需要的並行運算也和現在遊戲顯卡的架構相適應。但是光柵化的缺點就是只能通過一些技巧來模擬物理真實,而非像光線跟蹤演算法那樣基於物理真實。就拿折射來說,光柵化渲染只能用扭曲來模擬,而光線跟蹤演算法則是通過採樣材質中的折射率真實的計算了光線透過具有折射物體的折射。所以即使像cryengine這樣的引擎然雖然已經做的很極致,但是對於真實的反射折射還是束手無策。然而,光線跟蹤演算法需要佔用大量的硬體資源,就目前的硬體條件來看,其渲染的每秒幀速率遠遠達不到遊戲中對於流暢度的需求,所以光線跟蹤演算法還未全面進入遊戲領域。而且,電影特效中的火焰,流水等效果需要數以億計的大量粒子來模擬,通常需要很長的時間模擬完之後存為緩存然後再進行渲染,這也是遊戲引擎無論如何辦不到的,所以遊戲引擎中的火焰流水只能用少量的粒子加上粒子貼圖來做。(這是我根據所學理解的,不知道對不對,求計算機圖形學的專業同志糾正)

附:實時光線跟蹤渲染器FurryBall網站,這是目前我見過的速度最快,功能最全的實時光線跟蹤渲染器,不過其對顯卡的要求也蠻高的FurryBall - Incredibly fast GPU render


刺客教條 大革命

http://static.businessinsider.com/image/542ef2d9ecad04556ce7dae6/image.jpg

http://static.businessinsider.com/image/5432ea416bb3f77a34d2a566/image.jpg


公司研發的實景高精度紋理材質貼圖掃描軟體 全都是通過真實世界的掃描獲得

Quixel Megascans

從捕獲的圖像,創建在任何位置或組,忠實地再現顏色,紋理,光澤,陰影和透明度

史上最強貼圖材質軟體

Megascans ya está online! - ejeZeta

Achieving a Photoreal Digital Actor



貼圖教程https://www.youtube.com/watch?v=Mzoh6cFcUFs


推薦閱讀:

如何評價郭敬明的最新電影爵跡?
為什麼國產電視劇和電影里的威亞都吊得不自然?而好萊塢影視劇中,吊威亞根本看不出來?
為什麼《環太平洋》中的戰鬥都在夜間進行?
一個沒有專業知識和技能的電影發燒友,怎樣進入電影行業工作?
奧斯卡最佳剪輯獎是從哪些方面評測的?怎麼樣可以使得不夠專業的影迷看懂一部電影剪輯得好與壞?

TAG:計算機圖形學 | 電影特效 | 遊戲特效 |