當機器人會"讀心術" 人類還能不能把持情感?
2月23日,台灣金門航空站宣布,將有一位情感機器人Pepper,加入航站服務團隊,擔任航站導覽員,迎接旅客。
「問題不在於智能機器能否擁有任何情感,而在於機器實現智能時怎麼能夠沒有情感?」人工智慧之父馬文·明斯基說過。
人類情感很難量化,情感機器人則迎難而上。把看不見摸不著的「情感」,量化成機器可理解、可表達的數據或數值,機器人的「情感」即由此而來。
人們確定能抵禦得了來自「讀心術」的誘惑么?當機器人具有了意識和情感,它就是「人」了嗎?什麼是「情感分析」?機器人如何學習「情感計算」?
情感機器人從何而來?
隨著國內人工智慧水平日益突飛猛進,阿里雲研製的人工智慧程序小Ai,去年已經可以預測《我是歌手》總冠軍。
「阿爾法狗沒有辦法深入人的生活當中,因為平常人們用不到阿爾法狗的技術。我們一個很重要的任務就是把人工智慧技術實際轉化為人的生活可以享受得到的,可以時時幫助人們的產品。」前微軟亞洲工程院副院長簡仁賢說。
實際上,像人類一樣擁有豐富情感的機器人,一經推出便受到熱捧。日本軟銀公司開發的全球首款可以與人交流的情感機器人Pepper去年年初在網上開售,售價19.8萬日元(約合1.1萬元人民幣),首批1000台一分鐘內即告售罄。
20世紀末,美國麻省理工學院教授羅莎琳德·皮卡德提出了「情感計算」概念,先從生理學角度,檢測人體的各種心理參數,如心跳、脈搏、腦電波等,據此計算人的情感狀態;再從心理學角度,通過各種感測器接收並處理環境信息,並據此計算機器人所處的情感狀態。目前的情感分析研究可歸納為:情感資源構建、情感元素抽取、情感分類及情感分析應用系統。
人工智慧專家認為,機器里沒有人體大腦中的杏仁核、海馬和扣帶回這樣主司情緒功能的部件,因此註定了機器的情緒識別與人類截然不同,不可能要求計算機在識別的過程中發生真實的情緒體驗。但是,機器有人類不具有的優勢,比如飛快的運算速度,比如通過萬物聯網獲得全方位數據。
和擊敗了李世乭的阿爾法狗不一樣,會讀情緒的機器學習演算法依靠的是有監督的學習,處理的是回歸和分類問題。「我們需要餵給機器很多很多組標註好的數據,告訴它當哪些單元變化,就說明某某有情緒,機器消化了這些組數據之後會吐出一個模型,這個模型就可以套用到其他表情、聲音或者姿勢的變化中。」業內專家解釋了「有監督」的意思。
擁有情感意味著什麼?
給機器人賦予感情的意義不可小覷。對人類來說,有感情的機器人能夠提供更溫情和人性化的服務,另一方面對機器人來說,感情很可能啟蒙它們的自主意識。與前者相比,後者或許更值得人們注意。
20世紀70年代,美國心理學家保羅·艾克曼提出了臉部情感的表達方法,即臉部運動編碼系統FACS,通過不同編碼和運動單元的組合,可以讓機器人自動識別與合成複雜的表情變化,如幸福、憤怒、悲傷等表情,類似的還有動作分析模型和聲學模型。
與人不同,機器人並不需要真的心理體驗才能表現某種感情。以Pepper為例,這是世界首款具備感情並能作出回應的機器人。
軟銀CEO孫正義回憶,自己小時候看動畫片《阿童木》時,就希望賦予機器人一顆有豐富情感的心靈,而Pepper的設計理念就是用來陪伴人類的。
與工業、服務業上已經普及的「機器人」不同,Pepper不擅長清潔打掃,不適合煮飯燒菜,也沒有車間作業能力。不過,它配備了語音識別技術、呈現優美姿態的關節技術以及情緒識別技術,具備人類能理解的最直觀的感官系統:聲覺、觸覺以及情感系統。可對人的表情、聲調、喜悅、憤怒等進行識別,並且可根據人類情緒做出反應。
如今已有近200款情感應用在Pepper身上上線。比如,Pepper日記可以在家庭活動中拍照留念,還可以寫日記,像智能影集一樣儲存家庭成員的回憶,能夠猜測到人此時的心理狀態,然後切入情景同你聊天和講笑話。目前有超過一萬個Pepper正在日本和歐洲的家庭為人們服務,美國正有意將之引進。
而香港Hanson Robotics公司開發的Han機器人不僅可以理解用戶的情感,它還可以將情感反饋以模擬的面部表情展現出來。國內的Gowild公司也推出了可以提供生活助理和年輕人增強社交情感交流服務的「公子小白」機器人。這些工作實際上並不是從認知機理出發,而是通過外在的形式(詞語、表情、肢體)判斷人類情感。
情感是否會成為核心?
「智能機器人將會成為未來非常具有表現力的一個領域,特別是與日常生活起居的關係更加緊密,甚至『人性化』。公子小白機器人小夥伴不是傳統意義上的智能機器人,而是作為成長中的小夥伴,暖心甚至有些『逗逼』。」 「公子小白」機器人的製造者、Gowild智能科技創始人邱楠說。
在情感分析應用上,情感分析和人工智慧結合,將產生一系列的應用,具有廣泛的潛在商業價值,有望在醫療、公共服務、研究和智能家庭等方面大有作為。在聊天機器人中識別用戶情感,給予情感撫慰。更進一步,未來情感分析應用於對文章及詩詞的鑒賞,自動生成自己的觀點、立場及情緒,表達機器自身的情感,從而向強人工智慧邁進。
「人工智慧並不是一門技術,沒有研發的停止期,它是不斷的模擬大腦行為和思考的一個演進,伴隨著人的進化而前進的,這才是人工智慧的本質。」 簡仁賢認為。
若如互聯網預言家凱文·凱利所說,人工智慧是未來20年重要的技術,專家推測,情感交互正逐漸成為未來人工智慧的核心技術。
相關鏈接:機器人懂得人類情感三部曲
專家解釋,機器人懂得人類情感可分為3步:識別、理解、反饋。
識別包括識別人類的表情、聲音。這裡包括對語境的判斷和自然語言處理。分為表情識別和語氣識別。表情的識別大致上可分為幾種常見模式: 高興、愉快、興奮、憤怒……其中每種模式均可向另外的各種模式轉換,但轉換的概率是不同的。語氣識別也可分為幾種常見模式,但語氣的識別要難很多,不僅僅只是從自然語言處理的角度去分析語義,更應讓機器人真正聽懂。
理解包括機器人對人類行為的綜合分析,並準確判斷出人類的情感狀態。從技術角度理解就是收集海量的人類心理上的文字描述樣本,隨著收集的文字信息越來越多,機器人的識別準確率就會越來越高。
理解了人類的心思後,接下來就要做出響應。在這方面,日本的仿人形機器人走在了前面。
(本文選自科技日報,記者/馬愛平)
推薦閱讀:
※【鄒大濕】家庭機器人要爆發?看客拍手叫好,戲子才知冷暖
※如何做出一個機器人Wall-E?
※TED 中 Theo Jansen 發明的那個 Animaris Percipiere 是什麼東西,又是什麼原理?