VR片子是怎麼拍的?


謝謝邀請,最近開啟認真答題模式,邀請我算是邀對了。

一般來說,照片包含的信息量是某一時間的單個鏡頭,視頻則是持續一段時間的多個鏡頭,VR視頻則更進一步,還包含了基於原點的不同視角,信息量更加豐富,所以相應的,拍攝設備也不一樣。

比如說,我們平常看到相機和攝影機可以是這樣——機身加單獨的鏡頭:

▲ 但是VR拍攝設備由於需要多重視角的圖像,必然是多炮塔神教,無形當中就透出一股壕氣。


如上圖,Hype VR 的「終極無敵要你命三千VR拍攝大壕器」,專為VR電影拍攝而生。由14台Red Scarlet Dragon攝影機(官方建議售價14500美元,國內售價10萬人民幣左右)組成,使用雙台攝影機平行的陣列(滿足3D拍攝需求),而監視器則是售價1600美元一台的Red
Pro 5.0。與此同時,它們還採用了Velodyne公司提供的激光雷達感測定位技術(就是右上角的銀色柱狀物,在開啟以後會不停旋轉)。

很多團隊都基於Red Scarlet Dragon攝像機推出了自己的方案,不過Hype VR算是個中翹楚,堆料堆出了風格,堆出了水平。

▲ HeadcaseVR,來自好萊塢的創業團隊,由17台英國 CODEX 公司的超小動作及特效攝影機 ActionCam 組成的陣列。

他們採用的這款攝影機具備12bit RAW的記錄體系,13.5檔的高動態,配合小巧的機身,自15年推出以後,在業界大受歡迎,參與了很多電影的拍攝。想必正因如此,才被Headcase VR 採用。

▲ 他們還為移動拍攝定製了一個可移動底座,雖然看起來又蠢又笨,但是它的確能改善位移偏差和拍攝抖動,換句話說,就是能保證成品畫面穩定,極大程度地避免觀看者的不適感。

▲ Nokia的OZO攝像機,售價6萬美金,屬於VR拍攝商用方案里的中端產品,最近和索尼影像也開始合作。 之所以把它放上來,是因為這貨的造型實在是太!科!幻!了!

比起前面的傻大黑粗各種拖線,Nokia詮釋了什麼叫做優雅。

銑削鋁合金一體成型的球型機身上,集成了8個全域快門感測器和8個麥克風,在拍攝360度 3D
4K全景視頻的同時,也能記錄立體音頻,自動縫合、實時全景預覽和遙控,後期也可以直接輸出;
OZO的電池和存儲模塊也集約在後方,極大地方便了拍攝、轉場以及後期備份。

國行套裝售價320888元,有點兒貴,但是看看上面的……瞬間覺得便宜爆了,買買買!

等等,其實還有更具性價比的輕量化VR視頻解決方案,適用於無人機航拍以及手持拍攝:


▲ Gopro
Omni(售價約3萬人民幣)以及多台Gopro組成的DIY陣列,優點是搭配自由,性價比高,後期方便,畫質也很不錯。

業內俗稱「狗籠」和「多狗」
(狗諧音Gopro),指的就是這種利用多台GoPro運動相機組合而成的VR拍攝方案。

拿我現在正在看的VR紀錄片《最美中國》系列來舉例。

(以下視頻截圖均出自《最美中國》系列,版權歸屬於DJI Studio,如有侵權請告知,即刻刪除。)

作者:DJI Studio

鏈接:最美中國的自頻道-優酷視頻

來源:優酷

這是剛看完的第十一期《敦煌》,雖然片長只有六七分鐘,但是因為VR拍攝的緣故,還是挺新鮮的。

不得不說,就紀錄片而言,VR相較於傳統記錄方式,表現力更豐富,以鏡頭為引導,變成了由觀眾自己主動探尋。

當然,這種記錄方式也讓拍攝更富於挑戰,為了避免穿幫,很多時候,工作人員不能進入鏡頭範圍內進行場景調度,他們提供了豐富的幕後花絮素材,正好適合用正片來搭配著回答一下題主的問題。

(VR正片實際上是一個球形畫面,轉換成平面影像邊緣會有畸變,所以畫面僅供參考)

這是第三期——《鎮遠·端午龍舟》,由花絮的畫面可以清楚地看到,《最美中國》使用的是大疆M600搭配 VR定製雲台+「多狗」方案,使用遙控器讓多台Gopro同時拍攝不同角度的畫面,再導入素材進行後期合成。

如上圖這種畫面,可能是無人機低空懸停+「多狗」拍攝的,因為不需要支架,機位也更加靈活,底部視角直接拼合,無需進行後期處理。

而這張正片畫面底下那一塊黑色,則是為了掩蓋支架的痕迹。

如果畫面情況比較簡單的話(比如就一張桌子或者地板),通常通過插值將畫面處理,如果畫面情況比較複雜多變,就只能簡單粗暴地加上一層貼圖了。

注意看花絮視頻那個紅框內的小哥,雖然圖像很小,不過還是能看出,他拿的應該是一個類似下圖的平衡穩定支架+「多狗」在隊伍前拍攝。

同樣,正片中的龍舟比賽(如下圖),拍攝設備則是固定支架在龍舟上,因為是固定機位,只要通過後期修改掉支架的痕迹即可(雖然還是能看出細微的後期痕迹,不過在實際觀看中,沒什麼影響)。

▲ 通過後期處理編輯掉攝像機的痕迹。出自專訪大疆傳媒CEO喬岩:航拍如何與VR結合? | 雷鋒網

還有一種,則是第一人稱機位,由攝影師穿戴VR拍攝設備進行拍攝。在《最美中國》第二集的《巴東·雲端飛行》有採用。

從幕後花絮的截圖看出,除了Gopro,他們還用了前後兩台柯達的Pix Pro 運動相機,來實現720°全景拍攝。這款相機不算很貴,兩台相機搭配支架加雲台也就8000人民幣上下的樣子,支持4K拍攝,加上比較輕量化,適用於運動類型的VR視頻拍攝。

而第一人稱機位最有意思的一點就是,「攝影師」甚至可以不是人……試想一下,如果切換到鷹的視角看世界,會不會有一點不一樣?在新疆的阿合奇縣,中國的獵鷹之鄉,當地的哈薩克族的傳統文化就是養鷹去捕獵,《最美中國》團隊為了拍到鷹的翅膀上的VR的鏡頭,工程師為鷹做了個小馬夾,讓鷹的翅膀上可以掛VR拍攝設備,從而拍到整個捕獵者的全景視角。

——————————————————————————

綜上所述,基本上就這幾種拍攝方式——無人機飛控、使用支架固定機位、使用手持平衡穩定設備、直接佩戴在拍攝者身上等等。其實拍片子還是很簡單的,但是導入素材然後合成的這一過程,有時候真純粹靠運氣,有時候合上天衣無縫,有時候怎麼看都不對付,這時候就需要進行一些複雜的處理。

不過,隨著資本的介入和技術的進步,應該會有綜合價格、性能的新產品出現,讓VR也能從專業化設備慢慢走向徹底的商業化吧。


咦,沒人提到柯達家的神器嗎?

感覺是我目前看到的性價比最高操作最簡單快捷的機子了。

一套就兩個相機背靠背放,每個相機200°廣角,這樣在後期Stitch的時候有很大的空間進行調整;單個相機輸出是2K清晰度的素材,Stitch之後的整體方形畫面可以達到4096*2048的超高清;

支持腕帶控制、app控制【但是app是一個手機連一個機子,好處是可以即時預覽所拍畫面,拍劇情片的時候可以當監視器了】;

小巧好帶不佔地兒。

給大家強力賣個安利,這個小東西用起來很爽的,至少我個人覺得比六個gopro拼一起要好用多了……順便接觸過的一些器材:

1.諾基亞ozo發熱如shi。

2.Recoh Theta如果不是苦逼的1080p解析度,早就入選神器行列了

3.柯達大法好。

4.Gopro沒有特殊情況靜止畫面人不穿Stitch line的時候就是神,萬一沒Stitch好需要手動調的時候就鬱悶max。

5.有人關注Jaunt出的那個巨大個跟個燈籠一樣的VR機子嗎?


咦,沒人提到柯達家的神器嗎?

感覺是我目前看到的性價比最高操作最簡單快捷的機子了。

一套就兩個相機背靠背放,每個相機200°廣角,這樣在後期Stitch的時候有很大的空間進行調整;單個相機輸出是2K清晰度的素材,Stitch之後的整體方形畫面可以達到4096*2048的超高清;

支持腕帶控制、app控制【但是app是一個手機連一個機子,好處是可以即時預覽所拍畫面,拍劇情片的時候可以當監視器了】;

小巧好帶不佔地兒。

給大家強力賣個安利,這個小東西用起來很爽的,至少我個人覺得比六個gopro拼一起要好用多了……順便接觸過的一些器材:

1.諾基亞ozo發熱如shi。

2.Recoh Theta如果不是苦逼的1080p解析度,早就入選神器行列了

3.柯達大法好。

4.Gopro沒有特殊情況靜止畫面人不穿Stitch line的時候就是神,萬一沒Stitch好需要手動調的時候就鬱悶max。

5.有人關注Jaunt出的那個巨大個跟個燈籠一樣的VR機子嗎?


多就是好


謝不邀!!!

VR片子的拍攝其實和傳統電影一樣,都涉及到拍攝器材的挑選、機位的擺放、場景穿幫處理、聲音的處理、後期處理等一系列流程。

雖說流程差不多,但是在具體的每一步操作中還是有本質不同的。我就選取部分重點來說一下吧!

首先從器材來說吧,傳統的攝像機肯定是不再滿足VR中720°的全景畫面了。現在基本上市面上拍攝VR片子主要有兩種,一是採取相機的拼接方案,比如gopro、紅龍或者blackmagic拼裝的;還有一種就是採用VR一體機來直接錄製,比如Jaunt、諾基亞Ozo VR camera等。

其次是機位的擺放,因為是整個720°畫面場景都會被拍攝進來,而不再是傳統拍攝一個鏡頭只拍攝一個方向,所以為了捕捉場景的動作,導演需要考慮觀眾在觀看時的角色選擇,他到底是參與者還是旁觀者。所以通常有從頂棚懸掛拍、從地面向上拍和與演員同高這幾個角度 ,以主畫面為中心的情況,有時還會在場景中間拍攝。這樣,觀眾可以按照自己的意願探索現場,看他們自己感興趣的東西。

再者是穿幫鏡頭的處理,在傳統拍攝中,穿幫的概率不是很高,畢竟每一個鏡頭的拍攝角度都很單一,不存在像VR里角度是720°,穿幫的概率更大或者說很容易就穿幫了!所以在VR的視角里,就意味著拍攝現場不能有導演、場務,甚至燈光、軌道等輔助工具都不能出現,只能完全依靠演員本身的表演來撐起整個劇情。(做個小猜想啊,這樣的VR片子是不是會更適合舞台劇的演員呢,因為他們誇張的肢體動作好像剛好能夠彌補VR片子如何吸引觀眾眼球這一點)

然後是聲音的處理,我個人覺得這其實才是拍攝中最重要的一部分,因為不管是傳統的還是VR的影視,歸根結底都是視聽語言的組合嘛,那麼聽覺這一塊當然就很重要了。真正的VR影片可以說是徹底顛覆了傳統那個拍攝方式。用戶沉溺在全景虛擬世界,抬頭可見天,低頭可見地,環視四周,想瞅哪就瞅哪。導演無法主導用戶視角,看不順眼男一女二的,用戶可以選擇全程無視……聽起來拽拽的樣子,可是編劇、導演、演員都要發愁了啊!

所以聲音對於場景切換有著至關重要的作用,現在我們的Sound Pano就是這樣一款專門針對VR影視拍攝的VR音頻採集一體機,接上專業的VR相機不僅能錄製VR視頻,還能同步採集VR音頻。Sound Pano它是基於Quad Binaural(簡稱QB)方案研究來實現的,QB方案的優勢在於徹底還原和模擬人耳收音和解析聲音的機制。Sound Pano通過保留頭部聲學結構,來提供聲音在採集和處理過程的有效環境,從而幫助VR音頻在採集的過程中,實時捕捉聲音的方向、距離,以及移動傳輸中的變化信息,獲得最接近真實聲場的信息,最大限度還原人耳的聲音效果。

比如跟某一個角色在觀眾視角的左邊說:「去幫我拿杯水」,另外一個角色的從觀眾的正後方同時伴隨著氣喘吁吁聲音跑到了左邊說「好的」,然後又從觀眾的正面開始跑到右前方去給這個人倒水,整個一連串的動作聲場信息,Sound Pano都能夠錄製下來,當觀眾在觀看的時候還能跟隨觀眾的轉動聲音的方位也隨之變化,就和在現實世界一樣,這解決了導演在拍攝VR片子時引導觀眾視線的一大痛點,有了這台設備,導演完全可以以聲音為關鍵點來設置劇情的跳轉銜接,從而引導觀眾觀看一個完整的VR片子。

如果對Sound Pano這一塊VR音頻有興趣的朋友,我們還可以在私底下多多交流。


不說話只上圖


首先要有360度的全景拍攝設備,這是基礎

其次根據最終內容的不同,還需要在特定鏡頭中補充細節等內容

最後是專門的影音解析工具

現在市場上比較好的拍攝設備里,尼康那些全景相機主要是個人娛樂;諾基亞的比較適合做影視拍攝,相對價格也會高一些


謝邀!很多人在問360全景視頻是vr嗎,算!但只是vr的初級階段,它符合了第一要素,在空間內可以任意角度觀察。為了達到更真實的效果,還必須使影像呈現立體,聲音為360度全景聲。

如果要拍攝一段優質的vr視頻,就必須要有一台全景相機,但不是所有的相機成像都是立體的,目前最好的vr量產並且可以拍攝立體影像的相機有Jaunt , ozo,亦或用gopro及其他相機自己來組合陣列,一般有圓形平行布局和球面均分矩陣布局兩種相機,鏡頭目數越多成像、立體效果越佳,但隨之而來的問題是體積也相應變大。

《極地》拍攝現場

目前,我們主要使用Jaunt one,而Jaunt one解決了vr相機最頭疼的幾個問題,如多台攝影機的快門同步,曝光統一,高動態,安全距離,立體拼接演算法,大數據處理等。 如果沒有這樣的高大上設備怎麼辦?當然也可以用12台gopro來自己組個陣列,(淘寶就有支架)但同步和曝光控制就不要想了,因為gopro不會開放協議。打開相機錄製,在拍攝的前十幾秒需要通過拍掌的聲音或大幅度搖擺旋轉為後期軟體來做同步識別。然而,拍完後的艱巨工作才剛剛開始。

合成

大部分能拍攝立體的vr攝像機都不具備機內合成,原因是數據量太大,無法做到實時合成。面對12-24張卡,得按順序考入電腦(工作站),通過合成軟體如autopano vide pro 、stitch、當然還有更高大上的軟體nuke來做拼接合成。面對上T的素材我們小慶幸了一下,因為Jaunt用的是雲端合成處理。同時讀卡時數據自動上傳歸類。

那麼通過軟體輸出的素材完美了嗎?NO!!! 計算機目前無法做到100%完美,因為它不知道你想要什麼。或者拍攝的目標是人還是物體,所以傳說中的裂縫或鬼影就出現了。如何解決呢?此時就需要請出當今大型電影絕倫的視效創造者——nuke!

美化

我們會用nuke來完成普通軟體無法合成的素材,同時用nuke來做精細的修補合成。說到修補,只要開始拍攝vr,那麼就需要在大量的後期中燃燒青春。如果要做商業拍攝,那麼就得面對甲方解釋清楚為什麼後期是按照CG的方式來收費。因為,需要修補三腳架,機器投影,人物近距離過場產生的裂縫等等。

後期

vr後期的軟體除了拼接其他與傳統影視一樣,如PR, AE等。但需要部分VR插件(skybox)才可以進行球形展開編輯。

好了下次我們再聊聊關於vr影片的敘述邏輯、空間構圖、6自由度等衍生話題。


剛好之前有做過兩個月的全景視頻拍攝。

我們練手的設備就是狗籠,然後detu。detu真的是傻瓜式的,他有自帶的軟體一鍵縫合,簡單粗暴,故而接觸不深。我們用狗籠就麻煩多了,得先用遙控器控制六個狗同時錄製,還需要在機位旁打板,以聲音作為對齊時間軸的參考。用的kolor和giga.素材量一大,縫合得很費時間。還得根據六個內存卡不停地整理素材標鏡號,一不小心就弄迷糊了。

這裡淺顯說幾個還記得的點吧,全景視頻如果應用來做有很強的劇情向的電影的話,我覺得是偽需求。傳統電影通過鏡頭景別畫面內容推動,vr很難通過畫面對觀眾進行引導,因為視角太廣,同時發生的元素越多,看起來就越混亂。這是一己愚見,沒做過的大神們就鍵盤下留情,做過的大神如果有思路,真的是求指點一下。ps.如果是打個箭頭什麼方法就太low了

最後,就狗籠說,別把需要主演拍攝的物體放在兩個鏡頭的拼縫處啊!莫名其妙消失了是小事,後期得費老大功夫來調整縫合了


看別人回答確實好難,希望以後能出能用手機拍攝VR的APP


VR的技術優勢主要體現在360度場景再現和第一人稱場景體驗。

首先,關於360度場景再現。從理念上看,VR立足於對現實的虛擬重建,並將用戶引入這個虛擬世界並與之產生互動;從技術上看,VR融合了虛擬場景系統、知覺管理系統和用戶之間的多重信號傳導,使得用戶能夠在肢體(器官)運動的基礎上通過VR設備觀看到360度全景畫面,這種360度全景畫面通過對新聞現場的再現,構建了一個新的傳播介質——「場景」,而受者則通過「場景」完成沉浸式體驗,並獲取信息。

其次,關於第一人稱場景體驗。VR技術最基本的特徵是沉浸性,它通過VR設備控制了用戶的視覺傳輸系統,使得用戶能夠通過自己的主觀視角進入到虛擬現實的場景之中進而進行沉浸式的體驗。這種基於第一人稱的全新報道樣式使得受者從傳統新聞中的被動觀看者、局外旁觀者變成新聞的「現場」目擊者、「事件」參與者,這一切都源自於虛擬現實環境中選擇自主性——「第一人稱視角」——強化了受眾對於新聞場景的「代入」體驗,更容易實現受眾與傳者乃至新聞當事人之間的「共情與共振」。


VR拍攝後還需要進一步的後期製作,我來說說關於這方面的吧。

拍攝參數的設置

現在很多主流方案是,用幾台GoPro拼在一起的,以下是幾個重要參數

FPS(幀速率):30-60(有條件可上)

White Balance (白平衡):5500k基本能夠應付大多數的場合,或者可以設置成「自動」,但千萬不要設置成「原生」否則拍出的視頻會一片朦朧灰不溜秋

Resolution(解析度):有條件的情況下可使用2.7k,這其實太高的,通常情況1440就差不多

ISO(感光度):自動最高800,就可以應付大多數的拍攝情況了

重點解釋一下幀率 的問題,最早電影的拍攝是24幀/s,對於人的肉眼來說24幀/s已經能夠傳達流暢的畫面但對於VR而言,這樣的流暢度其實有點不夠,30幀是大多數能夠接受的範圍,理論上60幀是比較不錯的。不過現在市面上的手機端極少有能夠適配60幀/s播放的硬體。所以可以保持60幀的輸出,以備未來科技發展硬體進步做儲備。當然60幀在電腦端播放是沒有什麼大問題的。

24FPS:能夠傳達足夠流暢的畫面

60FPS:達到足夠圓滑順暢級別的畫面

1000FPS:人的肉眼能夠接受感知到最大的刷新率

150-240FPS:足夠真實對於未經訓練的人們來說有身臨其境般的感受,也是大多數頭顯需要追求的方向。

以上參數講的比較簡單,炮長整理了一個非常詳細的文檔,是根據多年拍攝經驗所得,如果感興趣加視頻內炮長的聯繫方式獲取就可以啦。

Kolor Auto Pano Giga操作

Let』s do a demo

—Pao

(每期都逃不開這句名言的)

教程演示Demo

Giga是用於做全景圖片的軟體

▲Giga界面

點編輯後,進入如下界面

具體處理,這裡結合KOLOR AUTOPANO VEDIO來演示。

因為Giga與Auto Pano是可以協同工作的,Giga可以取Auto Pano里拼接的某一幀,因為視頻的拼接的原理就是基於一系列連續的圖片。

從Auto Pano的界面點「編輯」,會自動進入Giga界面。

我們講幾個主要的操作:

1、移動,如下圖所示。其中可調整每張圖片的位置,可在右邊手動拖拽某一長圖片,但一般不這麼手動修改,因為容易出現很大的誤差。

2、圖片拼接,如下圖所示。

RMS(拼接曲線),數值越低,圖片質量越好。如,3.07是①號位置與③號位置兩張圖有特徵點的重合範圍,即這個數值越低這兩張圖的拼接質量越好。

界面下方是每張圖片的幾個鏡頭、位置的參數等等,多數情況下不用管。

3、打mask點,如下圖所示。

綠色為保留,紅色為去除。比如當前視角中的某個物體不該出現,就用紅色點去掉,需要保留的就用綠色點。這個用來去三腳架還是很有用的,尤其是在補地的時候。

舉例:需要去除當前圖中三腳架部分,用紅點點出需要去除的部分,點預覽即可。相反的綠色同理操作。這裡提一下,使用滑鼠滾輪的操作可切換圖片的顯示範圍。

垂直線工具,畫面中的一些物體在現實中是垂直的,可用這個工具在物體上畫幾條垂直線,

點√應用後,就可自動調整成垂直於地面。

調水平工具,可自動識別畫面中的水平線。

4、連連看

如圖,綠色的密集點即為兩張圖片的特徵點。多數情況下,都是能自動匹配好的,有少數情況可能存在計算機無法識別的時候,那就需要人為肉眼來進行連連看的操作。

示例,假設計算機沒有識別出這些點,

那麼在左圖中選擇一塊區域,再在右圖中選出一塊可能是相同的區域,出現綠點,說明是相同的區域,點優化,綠色點會加深,說明質量更好了。如果沒有出現綠點,說明不是相同區域需要重新選擇。每個畫面都依次操作。

以上操作完,我們的整張圖也就拼出來了。當然,在多數情況下這些工作都可以被計算機自動完成的,當出現意外情況時可進到這個界面進行手動操作,這個軟體還是相對簡單的。

本期詳細教程視頻請點擊:

VR製作教程:從入門到放棄——第三集:GIGA操作和VR相機設置

這一系列的視頻教程,請移步炮長優酷自頻道(虛空光影),也可隨時通過教程內的聯繫方式與炮長大人近距離交流。

以上內容由炮長錄製提供,動蛙VR編輯。


我們是熱衷於回答十萬個為什麼的小蠻腰科技大會。

關於這個問題我們特意去諮詢了一下去年參加過我們AR/VR分論壇的朋友,對!他是用全景相機的小能手。別問我為什麼我們沒找他拍VR片子,我也不知道。說不定今年就會拍呢?拍個立體的熊大大、郭老闆……想想就開始嚮往10月份了。

下面轉述那位朋友的回答:

理論上講,想拍攝VR片子需要一台全景相機一套拼接處理軟體

我自己使用「看到」的全景相機,是這樣的6頭一體化的相機。

6個魚眼鏡頭,f2.0光圈,能拍4K*4K的視頻和8K*8K的圖片,是3D的。

很多人其實搞不清楚VR和3D的概念,其實兩個概念是不一樣的。

如果是用2D的畫面來觀看VR,是不會有景深的感覺;而好的3D VR,是會有很強的立體感,能有更強的沉浸感。

3D的VR視頻是下面這樣的,左右眼有視差。

下面這幅是普通2D的全景照片,帶眼鏡看是沒有立體感的。

一體的VR相機還有一個好處就是穩定性要好很多,相信用過狗籠的朋友都知道我說的這種感受。不用考慮時間不同步和素材丟失的問題。

相機拍完了還需要拼接,我用的「看到」配套的這套軟體用著還是挺順手的,關鍵是拼接效率很高,1分鐘能拼60度幀4K的3D視頻。速度比我用過的Kolor和OZO的軟體都快了很多。

下面是我做拼接時候的截圖。

界面是這樣的,拼的時候能預覽,也能看到挑選想要的時間段和清晰度來拼接。

順便再甩一個視頻,一個帥帥的歪果仁大叔說怎麼拍vr的。

炫酷 | 3D VR全景相機來襲「設計上海」 - 騰訊視頻

以上,回答完畢。

如果看題的各位知友還有什麼問題請盡情地告訴我們,我們一定會默默地看一眼,然後找相關的專業人士作答的,畢竟你們的問題都太專業了。- - |||


一般都用7到8個720度的攝像頭同時拍攝,然後軟體實時拼接而成


如果是固定視角大概只需要vr攝像機或者兩個並排的鏡頭,然後在軟體層面上處理一下。如果是全景vr大概是720度全景的改良版?


VR故事短片在藝術上是一種新的電影敘事方式,在技術上兼具動畫和遊戲的製作,所以整個VR短片創作與傳統的影視和動畫創作都不太一樣。導演無論從技術上還是藝術上都需要進行全面的把控。

拿一個我們最近採訪到的團隊舉例吧,他們做的VR影片入圍了今年威尼斯電影節VR單元。團隊介紹了作品創作的幕後工作。

視頻封面Free Whale - VR 電影預告片_騰訊視頻v.qq.com視頻

前期:

作為參與者進入到環境中體驗故事發生

前期故事劇本創作時很有趣,創作團隊需要面對著簡單的辦公室想像進入到大自然的溶洞里,他們會摸著雜亂的辦公桌讚美岩石的紋理,趴在慘白的牆壁上體驗鯨魚的孤獨。對著窗外喊著:「啊,美妙的大海!」踏著地板感嘆著:「啊,柔軟的沙灘!」「前期創作的時候大部分都是在腦海中想像的。」導演張佩斌笑道。

我們讀小說是在不斷窺探著人物的內心世界,看話劇是以旁觀者的身份觀看故事劇情,而VR短片是需要觀眾作為參與者進入到環境中體驗故事發生的。VR體驗中強大的信息量怎麼傳達給觀眾,怎樣引導觀眾的注意點成為整個創作團隊前期最為頭疼的事。

劇本從技術上的實施和藝術上的敘事兩方面綜合考慮確定了現在的故事劇本和方案:跟隨主人公Shem和他的機器人young來到星球,取回用來偵測環境變化的晶元。

過程:

不斷優化美術設定

「考慮到環境對於劇情沒有太大的影響,我們將故事設定在閉塞幽暗山谷里轉換到開闊的沙灘上,是希望前後的兩種場景在轉換的過程中產生對比。」

主美周旭東介紹到:「前期的美術設定設計了很多稿,光是角色設定就篩選了3、4版。基於傳統影視和動畫,有些平面看起來很棒的設定,在VR 中實現的效果並不好。」由於VR短片在製作上的特殊性,平面設計稿的效果,三維模型的效果,後期引擎里合成效果,以及在VR設備里看到的效果都是不一樣的,需要不斷的嘗試和優化設定。

VR軟體,在虛擬環境里搭建草圖,確定環境的比例關係。

虛擬現實技術要求環境為1:1的比例,場景的很多設定是全景圖。為了讓影片中的山谷更加真實,山谷的設定包括了多個切面,結合峽谷的特殊地貌,材質師還專門設計製作了材質貼圖。

山穀場景的設計圖

為了確保影片的實景體驗,團隊努力確保山谷內材質的清晰度,材質貼圖的解析度由最開始的2000像素提高到8000像素,最終效果仍然通過後期處理不斷優化。高解析度的貼圖很容易影響後期製作時軟體資源的利用,製作團隊也在不斷尋找解決辦法,最終將遠處的山用抽象的圖形表現以確保前景真實環境的實現,這樣,遠處山的精度雖然會弱一些,但是整部短片的美術風格也更加突出。

主美周旭東電腦里的部分設定圖稿

實時渲染增加創作難度

整部VR短片的製作周期在6個月,前期設定並沒有花費很長時間,由於合成引擎的實時渲染,短片的大量創作時間都花費在了後期的修改和重做上

前期設定確定後,製作團隊開始進行製作模型、場景,調製動畫、音樂等工作,然後,將這些導入引擎,進行燈光、特效、攝像機等等的後期處理,按照時間順序合成,完成VR短片的製作。

「從製作開始,我們就是在一邊研究軟體一邊用軟體製作,很多功能和效果是不斷嘗試出來的。」旭東介紹到:「普通二維三維動畫製作可以預渲染,但是在引擎里都是實時渲染。」實時渲染造成了整個創作中的最大困難——調整空間位置和角色走位花費了大量的精力,再加上短片中採用了長鏡頭的調度,提高了對人物動作和場景精度的要求。

導演張佩斌說:「傳統的長鏡頭拍攝時,導演可以先按照預想安排演員和調度走一遍,導演對時間、速度進行調整之後再拍攝。而VR不太一樣,前期製作的合不合適,到中期後期才有可能發現,然後我們需要進行返工和修改。」山谷的模型總共改了10多遍,動作設計的工作量也不斷增加。

另外,由於VR的觀影感受和傳統的影視及動畫不同,影片應該傳達給觀眾多少信息也需要不斷摸索,包括人物的台詞信息,主人公Shem和Young之間的互動,以及周圍環境的變化。在VR中,觀眾接收的信息量如果處理不好會影響到觀眾對於故事的理解。

情感積累產生自由意識

短片通過環境探討自由意識的產生,認為自由意識的萌發其實需要很多情感的積累,特別是痛苦的經歷去刺激它。短片中獨自生活在星球上的鯨魚由於孤單不斷沉澱了痛苦的情感,產生了自由意識。

鯨魚的情感用不同的顏色色調錶現

短片中的幻境通過不同的色調錶現出鯨魚情感的轉變。鯨魚剛剛進入星球時用以藍色傳達它穩定、安靜的情緒,之後鯨魚產生孤獨感,尋找同伴使用黃色表現,到紅色的部分時鯨魚開始迷失,產生痛苦。它孤獨的情感成年累月的存儲在晶元上直到主人公和機器人過來回收晶元。主人公拿到晶元之後把晶元放在機器人的體內,本來感受不到寒冷的機器人說道:「I feel cold.」

在有了情感積累的晶元之後,機器人也有了自由意識。

關於自由意識,團隊在未來還會通過更多的人物角色和故事來探討,共同構建一個世界觀,《Free Whale》這部短片便是整個世界觀故事的一個預告,正如團隊名稱Sandman Studios的來源,尼爾·蓋曼創作的漫畫《睡魔》一樣,尼爾·蓋曼為大家搭建了一個世界觀,由不同的漫畫家創作完成,Sandman Studios還會通過VR這項新的技術來為大家講述更多關於夢,關於意識的故事。

&>&>END

原文鏈接:入圍威尼斯電影節與全球22部優秀作品角逐VR大獎 | 專訪《自游》創作團隊

關注微信公眾號「動畫醬」有更多精彩內容。


分頁阅读: 1 2