你想刁難的是哪個胖虎?

原文:techcrunch.com/2017/07/

首發:好片還是爛片?面部識別系統來搞定! - 集智專欄

翻譯:朝陽的個人資料 - 集智

拍電影在現在這個社會不但是個藝術活兒,還是個技術活兒,電影製作者們需要有更好的方式來了解觀眾的動態。他們想要知道觀眾是否喜歡這部電影,更重要的是,到底有多喜歡?還是只喜歡42分鐘的那個片段?加州理工學院(Caltech)和迪士尼研究中心(Disney Research)製造了一個系統期望使用可以追蹤面部細節的神經網路來訓練和預測電影觀眾的情感動作,這有可能創造一種新版本新的尼爾森收視率(Nielsen ratings,一種著名的用來統計電視節目收視率的方法,主要依靠採樣——譯者注)。

這篇研究報告剛剛在IEEE位於夏威夷的計算機視覺和模式識別大會上提出,它提出了一種新的方法,這種方法可以在劇院內實時監測觀眾的面部表情,同時不失穩定性和相關性。

該方法使用了一種我們稱之為分解變分自動編碼器(factorized variational autoencoder)的技術——限於篇幅我們在這裡不去討論其背後的數學原理,但這種方法在獲取一些複雜事物(比如說面部表情動作)的本質方面比現有的方法都要高效。

研究小組收集了大量的人類面部數據,這些數據採集自數百個觀看電影的觀眾(看的當然是迪士尼的電影——這還用問),播放電影時會有一台高清紅外線攝像機(高清紅外線攝像機可以清晰地攝錄地光條件下的場景,也就是附帶夜視功能——譯者注)來捕捉每個人的動作和表情。最終的結果數據——包含1600萬條數據記錄——將作為神經網路的訓練數據。

當訓練完畢的時候,研究小組嘗試使用這個系統來實時觀察觀眾的行為然後去預測在某些時間點處一個給定的人臉會表露出的表情。他們發現觀眾在進入影片的節奏之前通常需要十分鐘的熱身時間,也就是說,十分鐘之後觀眾的喜怒哀樂可以被輕鬆地預測出來(目前還沒看見過有誰哭起來或是嚇得走不動路)。

當然,這個場景僅僅只是該技術的一次應用——這種技術可以應用在其他的很多場景之中,比如監測人群,或是實時解釋複雜的視覺信息。

「理解人類行為對於開發具備複雜行為以及社會化智能的人工智慧系統而言極為關鍵。」加州理工學院的Yisong Yue在最新的文章中上指出。舉個例子來講,實現一個能夠協助老人檢查和護理工作的AI系統就需要AI能夠看懂他們的肢體語言。至少人們不需要老是直白地說明「扶我起來,我還可以再搶救一下。」

推薦閱讀:

DeepTraffic:在線訓練AI開車
怎麼評價中科大發布的中國首台特有體驗交互機器人?
用人類自身的思維來完全理解自身,在邏輯上有沒有這種可能?
從香農的老鼠到大數據

TAG:人脸识别 | 深度学习DeepLearning | 人工智能 |