《西部世界》,能給現實世界的人工智慧帶來怎樣的啟示
王健飛 騰訊研究院研究員
《西部世界》又來了。
繼2016年,美劇《西部世界》刷爆朋友圈之後,它的第二季現在已經開播並且由騰訊視頻獨家引進。
《西部世界》講述了在一個以美國西部為主題的大型主題公園裡,園方使用搭載超高人工智慧的仿生人作為服務人員,讓遊客進入完全沉浸式的角色扮演體驗的科幻故事。
在第一季中,隨著劇情的展開,西部世界主題公園中的服務機器人開始像每一部賽博朋克作品中的人工智慧那樣開始覺醒、逃離、反抗。
憑藉簡單設定基礎上複雜的故事線設置和別出心裁的剪輯技巧,《西部世界》劇集在播出後獲得了極高的反響。在豆瓣上,《西部世界》的第一季收穫了14萬餘人的評價,評分高達 8.8 分,第二季目前評分 9.2 分。
《西部世界》的導演喬納森·諾蘭表示,這部劇的火熱反應了大眾對人工智慧的焦慮與思考。
如果你還沒有開始看西部世界第二季,不用擔心,本文不會討論第二季的劇情和新增設定。我們只想順著《西部世界》的方向,去思考一下它對現實中人工智慧發展的意義。
機器人在短期內不會變為現實,但《西部世界》對AI仍有指導意義
《西部世界》中對接待員人格覺醒的定義和對「故事」的定義,都有助於為解決現實中的AI問題提供一些思路。
首先,就是演算法的價值觀問題。
在談到《西部世界》劇情對這個現實問題的指導意義之前,我們不妨先了解一下《西部世界》世界觀下的演算法。
在《西部世界》中,矛盾被描述為人工智慧覺醒並形成自我人格的一種關鍵因素,這起源自美國上世紀70年代一種並不主流的心理學理論「二分心智」。
在第一季的結尾,機器人梅芙放棄了坐上火車混入人類世界的自由之路,而選擇了回到主題公園尋找自己的女兒,這是西部世界中機器人演算法矛盾性最集中的體現。
《西部世界》的科學顧問、斯坦福大學的一位神經學家,大衛·伊格爾曼(David Eagleman)在接受《科學》雜誌採訪時談到了這個靈感的來源。
「人類總是能在頭腦中聽到很多個聲音,比如我給你一個冰淇淋,一個聲音告訴你『太好了,我現在就想吃甜食』,另一個聲音告訴你『不,這會讓你變胖』……這讓我想到了對抗網路。」
這與近兩年在推薦演算法流行之後開始興起的「演算法價值觀」問題交相呼應。
在推薦演算法驅動的信息流中,由人工編輯插入強制置頂的內容並不一定能取得最好的效果。
相比之下其它由演算法推薦的內容更合他們的口味、更具吸引力也更不可抗拒,因此用戶可能會直接忽略那些被強制加入的內容。
「二分心智」這一設定給我們的啟示是,也許可以用對抗網路來解決信息流的價值觀問題。什麼是對抗網路呢?以圖片生成技術為例,一個典型的對抗網路是這樣的:
假設我們有一個圖片生成模型(generator),它的目標是生成一張真實的圖片。與此同時我們有一個圖像判別模型(discriminator),它的目標是能夠正確判別一張圖片是生成出來的還是真實存在的。
那麼如果我們把剛才的場景映射成圖片生成模型和判別模型之間的博弈,就變成了如下模式:
生成模型生成一些圖片->判別模型學習區分生成的圖片和真實圖片->生成模型根據判別模型改進自己,生成新的圖片->····
在推薦演算法驅動的信息流中,我們可以假定目前的、基於興趣向讀者生成感興趣內容的整個引擎為生成模型,而另外一個用於辨別整個信息流是否呈現正向價值的引擎為判別模型。
通過這樣訓練而成的信息流就會有兩重的內在「聲音」,一個聲音說「這個內容,讀者會非常喜歡」,另一個則說「不,這是一條謠言會帶來不良的後果」,而兩個聲音最終會形成一個平衡。
第二,是AI道德與倫理問題。
從很大程度上,在第一點啟示中,對抗演算法只是我們為演算法賦予價值觀的其中一個途徑。而《西部世界》中揭示了更多我們應該如何為演算法賦予價值觀的指導思想。
在《西部世界》的劇情中,機器人覺醒或者說開始脫離原有軌跡的方法,是讓所有的「心聲」都來自自己而非原本寫好的程序。
這其中蘊含著另一個啟示,即在面對技術帶來的問題時,我們總還是應該用技術的問題去解決。
換句話說,如果AI在提高生產力的同時導致了一個問題,那麼我們同樣應該用AI去解決它,而不應將人類和人類倫理擺到它的對立面。
目前,無論是在國內還是國外,解決人工智慧倫理和價值觀問題上的思路偏向於從演算法外部加入人的因素去解決。
無論是騰訊、今日頭條還是外國的Facebook,我們經常談到的解決人工智慧價值觀問題的方法就是投入更多的審核人員。
這在短期內似乎是一個不錯的解決方法,但從長期內似乎變成了一場人與AI之間的貓鼠遊戲,而正像《西部世界》中描繪的那樣,人工智慧比我們更強大、更迅速、學習能力更強,人類並不一定總會贏得戰爭。
為什麼人工智慧發展到今天,已經可以為我們做出許多決策和參考,卻依然不能很好的發展出內在道德與規範呢?
大衛·伊格爾曼在表示,人工智慧在理解道德和法律上存在先天缺陷。
在《西部世界》中所有的招待員被設定為像人類一樣活動。因此他們會吃飯、會睡覺、會喝酒,但無論在《西部世界》還是現實中,機器人本身其實並不需要這些行為,也因此不會衍生出諸如「餐桌禮儀」這樣的道德文化。
《西部世界》中機器人的這些行為源自於他們相信自己是人類並且有一段屬於自己的「背景故事」。
簡單來說,是女主角多洛莉絲的「背景故事」讓她表現的像是一個淑女,讓她喜歡繪畫,能夠發現一切事物中的美麗。而並非程序員去定義她的每一個具體的愛好。
而一旦「背景故事」改變,多洛莉絲依然擅長繪畫,也能夠理解那些原本美麗的事物,但她不在表現出對這些美好的事物和藹可親。
這與人類不同,在認知理論中認為人類道德同時來源與先驗、後驗和超驗,而目前人工智慧學習道德的方法只來自於後驗。
如果未來我們真的發明出了如《西部世界》那樣的機器人,那麼他們可以不眠不休的工作,因此他們將忽視千百年來人類為自己爭取的勞動福利。
甚至更甚——如果他們認可「勞動最光榮」這個道德理念,那麼他們可能會認為人類對合理休息的需求是一種懶惰的表現。
回到現實領域,由於大多數的AI演算法都應用於商業領域,企業的逐利行為是訓練演算法的唯一反饋。而對演算法在道德和法律上的要求,往往來自於企業外部的輿論環境、社會壓力和司法要求。
這也意味著倫理和道德並沒有像《西部世界》那樣,作為一種先驗知識被直接納入到機器學習的過程之中,而被作為一種針對機器學習成果的事後彌補。
這種以補丁方式為人工智慧增加倫理與道德的方法,周期可能是幾個月甚至是幾年。對比人工智慧為了達成其固有目的每天都在進行的成千上萬次訓練,在訓練度上是顯然不夠的。
而以人類手工對演算法的「道德錯誤」進行糾正的方法,則更是讓人類站在了與機器博弈的立場上,而人類又怎麼可能與每日處理PB級數據的機器較量呢?
科學家們是怎麼想的
關於《西部世界》究竟為我們帶來了什麼,其中哪些是真實的問題而哪些又是不切實際的,最終還是要由現實中的學者來評述。
近期,外國媒體CNET在它的一期節目中,採訪了大量與《西部世界》中所述未來相關學科的大學教授。
在節目中,由於學科不同這些專家對《西部世界》褒貶不一,但大多數專家都認為作為一個藝術作品《西部世界》絕對是他們看到的最有意思的作品之一。
比如,杜克大學電子與計算機工程系副教授Kris Hauser說:「從科幻的角度來看,這是一個非常有趣的作品。但我一直在想,如果有一天仿生人真的發展到這個程度,一個機器人版迪士尼樂園不一定是它最好的應用。」
昆士蘭大學昆士蘭腦研究所Geoff Goodhill教授和布朗大學計算機科學教授Michael L. Littman則同時表示了「這絕對是一個非常棒的故事,但裡面的技術完全不接地氣或是離我們特別遙遠」。
杜克大學機械工程和材料科學助理教授Leila Bridgeman在看完第一季之後表示他對劇集的欣賞來自於令人驚嘆的故事講述技巧和哲學問題的思考,並不來自其中的科技元素。
但是,思考自己的某些研究可能能夠為(未來)構建《西部世界》中的機器人所用,會使工作變得更加有趣。
他談到,上個學期一個他所在的部門的研討會中演講者提到的生物對機器人研發的啟示就與《西部世界》中的機器人息息相關。
當然,現實中的仿生機器人動作都非常有限,但人類正在構建這種基礎。作為一名控制工程師,他喜歡想像自己的研究會在《西部世界》那樣的機器人之中發揮作用,這使他有前進的動力。
「我們花費上百年才了解了單一細胞的結構,可能要花上千年以上才能了解人類的大腦。因此,我們未來會在生活中使用機器人,但絕對不是《西部世界》里這種,它完全是一個藝術表演。」南加州大學工程實踐教授Victor S. Adamchik如此評價。
相比之下,社會科學專家似乎更容易被《西部世界》的劇情所誤導,他們思考的是「這種情況如果發生了怎麼辦」。
格里菲斯大學社會技術研究講師David Tuffley表示:「西部世界主題樂園是一個遠離法律與戒律的試驗場,從這裡可以窺探人們放縱他們最瘋狂的幻想,沒有人會被定罪,或甚至留下污點。
這絕對會成為高級人工智慧的一個用處,像這種超逼真的擬人機器人也是可行的。也許不會太遙遠,十到二十年之後,我們就能在現實世界中看到類似西部世界的產品,儘管細節可能不同,但《西部世界》里發生的劇情完全可能復現。」
RMIT計算機科學與軟體工程副教授Fabio Zambetta也對這一觀點表示了贊同,他認為《西部世界》值得稱道的地方就是略過了無論怎樣解釋都會漏洞百出的技術細節,直接假定這種技術已經實現從而可以讓觀眾去探討一旦技術發展到這種程度之後所產生的問題。
而這種思考也是《西部世界》編劇喬納森·諾蘭希望大家思考的,在接受媒體採訪時,他表達了自己對《西部世界》創作與AI的看法:
「《西部世界》這部作品是一種幻想和比喻,它所描述的(那座公園)並不一定會真的成為現實,但它所表達的問題可以指代任何人工智慧,包括目前的人工智慧。
事實上,我們已經在使用 Siri 和其它語音助手來實現《西部世界》中的一些事情,比如幫你安排日程表、幫你篩選新聞、幫你分析金融數據,我們不再親力親為並且相信機器不會對我們撒謊。
而事實證明,其中的一些人工智慧已經遇到了麻煩,比如Facebook。我們本應該在問題發生之前預料到這些問題。」
與第一季不同,《西部世界》第二季的劇情展現了更多人與機器人,機器人與機器人之間的衝突。
這除了讓劇集本身更加精彩之外,也引發了人們更深層次的思考和焦慮。
如果你還沒有開始看的話,不妨帶著這些問題一起再次進入西部世界。
參考資料:
1、《到底什麼是生成式對抗網路GAN?》
2、What Do Actual Scientists Think Of The Science In 『Westworld』?
3、The Popularity Of Westworld Points To Our Anxiety About AI, The Shows Creators Say
4、Free will, AI, and vibrating vests: investigating the science of Westworld
推薦閱讀: