MIT的黑科技:隔著屏幕,也能和男神互動了
當這技術真正得以推廣那天,就是五毛特效人員失業的日子。現在電影大片做特效時,需要專業的人員在場景里重繪建模,不僅時間長,而且都只有土豪公司能做這事。
但當MIT的這項黑技術得以應用時,電影特效的製作過程,將變得So Easy。首先,你只需要先拍好電影的場景片,然後再做好恐龍和它的動態,再將它擺弄在場景片中,最後它就能自然地融入到已拍好的場景中,和畫面中的物體自然地交互。是不是完全逆天---------- 繼續說這個技術怎麼用 --------遊戲行業前陣子Google大神出了款全球逆天的增強現實遊戲,Pokemon Go(就是那個有皮卡丘的卡通片改編的遊戲)。這款遊戲可以讓用戶通過手機攝像頭,在自己的真實世界中發現小精靈,並通過尋找、捕捉、戰鬥的方式,搜集它們(看了想去玩的國內朋友,咱們玩不了,看看就好)
雖然,Pokemon Go 已經讓全球人民陷入到不看路的危機中,但小精靈的卡通形象,只是混合疊加在了真實環境中,可能浮動或者穿透,所以還不夠真實(要求高是好事)。這是現在的遊戲效果:但使用了MIT的這個黑科技後,小精靈和現實世界之間,就可以很自然地產生互動後的反饋效果。比如下面動作中,樹葉會根據小精靈的落點震動,營造一種精靈就是在當前場景中的感覺,非常真實。以下是加了MIT技術後的遊戲效果:
-------- 這裡開始講邏輯,不感興趣可直接拖最後 ------但是這麼牛掰的技術,實現的基本原理其實蠻有趣的。即是在拍攝視頻時,首先,攝像頭會同時捕捉和記錄畫面中物體的震動頻率。然後通過演算法,根據已有的所有震動頻率,計算分析得到物體已有的模型形狀和材質(這裡描述只有3句話,但有好幾十頁的論文和各種神奇的公式,有興趣的朋友可以自己去查下)當真實世界中的物體交互作用在視頻上時,演算法即可以通過計算預測模擬出,視頻中的物體需要呈現出的動態,從而給出反饋。所以,當真人和視頻中物體交互時。便可感覺視頻好像真的響應了一樣---------- 我是最後的結尾分割線,讀完的都是真愛 --------
作為人機交互圈名媛的艾小姐(我自己厚臉皮臉冠名的),看到這項技術後,真的令人興奮地起雞皮疙瘩。如果以後再加上可觸控的虛擬反饋技術(Virtual Feedback)和無所不在的計算(Ubiquitous Computing),以後或許人類駭客帝國般的虛擬體驗未來,即將開啟。虛擬信息和真實世界的融合,不再有明顯的區分。真是一種期待,也讓我們這些人機交互設計師,得不斷探索研究更新的前沿領域才好。
---------- 既然都看到最後了,記得fo點個大拇指吧 --------本文所有技術資料,來自MIT IDV研究組,由AIUX 搜集整理後重新編輯發出。更詳情的視頻、文字和論文,大家可以戳這裡查看:http://news.mit.edu/2016/touching-objects-in-videos-with-interactive-dynamic-video-0802
我們是AIUX Studio (艾體驗產品體驗工作室),最專業的產品體驗人機交互團隊。我們的宗旨是:幫助你的產品擁有最好的體驗。所以如果你感覺自己正在為產品發愁,無論是尚在種子階段還是遇到了增長問題,無論是軟體設計還是硬體體驗,無論是互聯網還是傳統線下商業…… 都可以在公號里留言,約我們一起聊聊看。
發了以後才發現,知乎沒法看動圖(第一次發,不知道情況,對手指頭),大家想看動圖的話,可以關注我們的公號: aiuxstudio;
兩邊各有側重:公號中偶爾會有一些活動的直播預報,比如前陣子我們玩了最新的HoloLens; 專欄里將會側重賣萌專業和八卦為一體的文章流。
推薦閱讀:
※兀自轉向的人生
※CNC紋身
※筷子還能不能進行設計改進?
※確定按鈕該放在左邊還是右邊?
※1998年就能人機互動的智能玩具,現在怎麼樣了?