Facebook關閉了「失控」AI項目?只是因為胡言亂語!
特斯拉CEO埃隆·馬斯克(Elon Musk)曾不止一次的公開表示對人工智慧的擔憂,馬斯克一向崇尚自由主義,但在人工智慧問題上,他卻認為最佳的補救措施就是主動監管,並且他把人工智慧稱之為「人類文明面臨的最大風險」:
我接觸過最先進的人工智慧,我認為人類的確應該對它感到擔心。人工智慧對人類文明的存在構成了根本性的風險,這跟汽車事故、飛機相撞、藥物錯配、食品安全的影響方式不同。人工智慧是我認為少數幾個應該主動監管,而非被動監管的領域。因為我認為,等到我們被動監管人工智慧的時候,就太晚了。
不僅是馬斯克,包括著名物理學家史蒂芬·霍金(Stephen Hawking)等名人都曾警告過人工智慧的安全性問題,認為這項技術將對所有人類構成重大威脅。一直以來,Facebook CEO馬克·扎克伯格(Mark Zuckerberg)卻認為馬斯克等人關於人工智慧危險的警告言論是言過其實了,但是最近有報道稱他可能要打臉了,真的有這麼快嗎?
原來是因為7月份Facebook「關閉」了那個引發廣泛爭議的「開發出人類無法理解的語言」的溝通智能對話機器人項目。
上個月Facebook 人工智慧研究所(FAIR)使用機器學習方法,對兩個聊天機器人進行對話策略的迭代升級,Facebook 的人工智慧研究院 (FAIR) 想要訓練一個聊天機器人,讓它學會談判。於是他們開發了一個人工智慧系,用了一個神經網路結構來開發這個系統,這個結構叫做「生成式對抗網路」(Generative Adversarial Networks),結果發現它們竟自行發展出了人類無法理解的獨特語言:
系統中的聊天機器人(bots)完全放棄了用英語進行交流,但是,升級版的系統確實能夠與其他的智能體進行交流。一開始,研究者認為他們所使用的辭彙似乎是無法理解的,但是,通過長期的觀察,研究者發現,這些辭彙其實代表了智能體面臨的任務。
例如,在一次交流中,兩個進行對話的機器人——Bob 和 Alice,使用自己創造的語言來完成了交流,這兩個AI的對話,從對話形式和這些語句來看,兩個AI似乎在「爭吵」,而誰都不肯讓步於自己的「想法」。
Bob 開始說:
I can can I I everything else
Alice回答:
Balls have zero to me to me to me to me to me to me to me
Bob又說:
You i everything else
Alice則回復:
Balls have a ball to me to me to me to me to me to me to me
而他們並沒有停歇,接下來的對話都是類似這樣的句子,字面理解應該是Bob說能給她任何東西,Alice就開始要球,球對我特別重要,然後Bob說沒有球,其他的可以給,Alice說就要球就要球就要球……
這不是第一次發現 AI 偏離訓練所用的英文,轉向發展出新的更加有效的語言。雖然在人類看來,這些溝通更像是胡言亂語。但是,從AI 智能體的角度上看,他們實際上是有詞義意義的。
雖然這些詞語組合第一眼看上去沒什麼實際意義,但是,研究者認為,他們的對話揭示了兩個機器人的工作原理,每一個辭彙都代表了他們需要進行多少次的處理。Bob的重複說明了他如何使用這一辭彙,來向Alice傳遞更多的信息。如果用這種方法來進行闡述,那麼它所說的那就好就有點像人們所說的
I don not have ball and you can have everything else
這一研究一經發布,迅速在網路和媒體上引起了廣泛的關注和傳播,不少人在驚呼:機器創造了自己的語言,人類都無法理解,細思極恐。現在,這一系統被關進了「小黑屋」,甚至有國外媒體的報道現在Facebook 的研究院已經停止了這一項目的研究,而原因是「擔心可能會對這些AI失去控制」,所以研究者不得不對其進行了人工干預:把插頭!
但是也有人指出,這對話不就是一堆無意義的亂碼嗎?關閉項目難道不是因為亂碼沒意義嗎?繼續開著就是費電!
當下,以深度學習為主的AI 遵循的是「回饋」(Reward)原則,智能體通過依照一系統特定的行為行動,會獲得相應的利益(Benefit)。但是,Facebook AI Research (FAIR)的研究員並沒有在實驗中設置相應的能讓智能體通過遵從英語語法而獲得所謂的回饋的項,所以,在這一場景中,繼續使用英語並並不能帶來相應的回饋,所以智能體決定適應更加高效的方法進行溝通。
智能體會偏離人類能理解的語言,創造出自己的「專屬語言」嗎?比如,如果提到『the』 5次,那麼就是我想要複製這一術語5次。這和人類創造的縮寫其實也沒有多大的差別。其他的AI開發者也注意到了智能體會使用「縮寫」來簡化溝通。在Open AI,研究者成功地讓AI機器人學會自己創造的語言。
如果AI繼續創建自己的語言,開發人員可能會在創建和採用新的神經網路時遇到問題,但是不清楚這是否會讓機器實際上推翻其研發者。然而,這些新的發展使得AI能夠更有效地工作,並且如果他們在工作中學習新的AI創建的「縮寫」,並保持最新的這種新的溝通方式,可以使研究團隊長期受益。
這一研究體現出兩個方面的問題,一個是智能體可能已經可以為了提高溝通效率而開發出自身能夠理解的專屬語言,而這個轉速語言還可能是建立在使用常見的英文單詞的基礎上,這就造成一個後果:你能看懂所有單詞,但是你不知道具體是什麼意思,比如大家對「·」和「-」這兩個字元都不會陌生,但是對下面的句子可能就無從下手了:
.. .-.. --- ...- . -.-- --- ..-
其實這是莫爾斯電碼,用「·」和「-」這兩個字元來不斷進行重新組合形成的新的溝通方式,上面那句話根據對應關係,翻譯成英文的意思是:
I LOVE YOU
AI在訓練過程里發明出自己的語言的案例,Facebook的AI並不是首例。此前,Google就曾發現人工智慧能通過翻譯工具創造自己的溝通語言。
機器或系統自己在發展過程里開發出一個屬於自己系統內溝通的方式,並且不會被人類打斷,自己進化和發展幾十年甚至幾百年,這種情況在未來是會發生的。但是短時間內還不會,Facebook的AI出現這一情況是偶然的,而且也不能證實是智能體的有效溝通行為,所以Facebook的AI這次的事故並不能代表這種未來趨勢,因為它的水平還很低。
儘管如此,Facebook此前曾發表過一篇關於人工智慧的研究論文,表示AI在學習了人類的談判技巧後,他們的表現已經很像「人」。比如說,AI會假裝自己對某個特定的內容感興趣,然後在談判的過程中假裝讓步,以看似「犧牲」的方式獲得更大的利益空間。
在電影《賭神》中也曾有過類似的橋段,小馬哥為了迷惑對手的行為偵查,提前500局在自己的對局中加了一個在有欺騙行為時轉戒指的小動作,結果讓對手上當。不得不說,如果AI真的學會了這中技巧,恐怕今後人類的文明真的會收到巨大的衝擊。
所以現在眾說紛紜,各種人工智慧威脅論再次甚囂塵上,大有《黑客帝國》來襲的徵兆,幸虧Facebook的研究員及時出來闢謠:Alice和Bob其實並沒發明新的語言,因為他們還是在用「i」、「balls」、「the」等英文單詞溝通,只是沒有了英語語法的這個激勵項,創造了一種新的表達方式而已。所以最終,Facebook並不是「關掉」這個系統,而是重新設定了正確的激勵,修正了機器人的行為,讓機器人用標準的英文語法來進行交流,修正的原因也不是因為害怕系統失控。
其實,對於人工智慧的擔心是可以理解的,技術的發展在前期都是會引起恐慌的,而技術所帶來的愉悅在後期都是會引起驚呼的。就像是飛機的發明,在那個時代就是個笑話,而現如今是離不了的交通工具;對原子能的恐懼在那個年代是不由分說的,但是現在呢,核能雖然有重污染、高輻射等等弊端,但是用核能來發電卻也是最大程度的造福人類,一切的技術發展都將會造福人類,畢竟,技術改變世界。
人工智慧尚處於摸索階段,至於現在就開始鼓吹人工智慧威脅論的人,他們比人工智慧本身更可怕。
沒有探索,人類現在還在樹上吃香蕉呢……
推薦閱讀:
※我們都錯了!Snapchat走了一條中年人不懂的道路!
※EMNLP最佳論文公布:讓發明自己語言的AI說人話,讓演算法別以為男人都不做飯……
※堅不可摧的天才 - 馬克·扎克伯格
※Facebook 的增長機會在哪裡?