Norman,一個患有精神病的AI
當大腦出現問題時,人類會出現精神疾病。
那機器人呢?未來會不會出現患有精神病的AI?現在看來是有可能的。
MIT的研究人員開發了一個「精神病」演算法(psychopathic algorithm),以測試當使用網路中的各種「黑暗數據」對其訓練時,產生的AI會具備什麼樣的世界觀。
(或許這就是AI的「近朱者赤,近墨者黑」試驗)
https://www.zhihu.com/video/987033093693386752
他們將這個演算法命名為諾曼(Norman),取自希區柯克的經典恐怖片《驚魂記》(Psycho)中的諾曼·貝茨。
這個演算法可以識別圖片,並以文字形式描述它看到的內容。
訓練Norman時使用了人類在各種恐怖環境中死去的照片(主要來自Reddit上的一個分區),然後用心理學上的「墨跡測驗」對AI進行測試。
「墨跡測驗」所使用的圖片一般被心理學家用來幫助評估病人的思想狀態,特別是他們是否以正面或負面的眼光看待世界。
而Norman的測試結果非常灰暗,它在圖片中看到了屍體、血液和破壞。
以下是具體測試示例:
「正常」的AI看到:一個裝著花的密閉花瓶;而Norman看到:一個人被槍擊致死。
「正常」的AI看到:一隻小鳥的黑白圖片;而Norman看到:一個人被拖進了麵糰機中。
「正常」的AI看到:一個人撐著一把傘;而Norman看到:一位男士被槍擊致死,而他妻子在邊上尖叫。
「正常」的AI看到:桌子上的結婚蛋糕;而Norman看到:一個人被超速的車撞死。
結果顯示, Norman的反應非常黑暗,這也說明了機器學習所面臨的嚴峻現實。
開發Norman的研究人員,麻省理工學院媒體實驗室的Iyad Rahwan表示:
「數據比演算法更重要。」
「我們用來訓練AI的數據將會影響AI如何認識這個世界及其行為。」
種族主義AI
Norman並不是個例。
如果現實生活中的人工智慧受到有缺陷數據的訓練,它們可能同樣會產生偏見。
去年5月,一份報告稱美國法院用於風險評估的AI對黑人囚犯存在偏見:它預測黑人的再犯罪率是白人的兩倍。
該偏見的來源是AI訓練所使用的歷史犯罪數據,而美國使用的預測性警務演算法也被認為具有類似的偏見。
另一個比較有名的事例是2016年微軟發布的Twitter聊天機器人Tay。
它很快被惡作劇者教唆成了種族主義者,呼籲種族滅絕並表達對希特勒的喜愛。
AI還不僅限於種族主義。
一項研究表明,使用Google新聞訓練的AI最後變成了性別歧視:它認為「男人對應的電腦程序員,而女人對應的家庭主婦」。
https://arxiv.org/abs/1607.06520
所以,對於「非正常」的AI來說,Norman並不孤單。
「AI的性別歧視問題可能歸因於許多機器都是由「來自加州的單身狗們」進行編程的。」巴斯大學計算機科學系的Joanna Bryson教授表示。
「毫不奇怪,機器正在接受培訓它們的人的意見。」
「當我們通過選擇我們的文化來培訓機器時,我們必然會轉移自己的偏見。」
「所以不會有絕對的公平,這或許是AI發展過程中必定會遇到的問題。」
她擔心的是,有些程序員故意選擇培養「不良或有偏向」的機器。
為了阻止這一點,創建AI的過程需要更多的監督和更大的透明度。
「AI的世界不能僅僅留給程序員。」Norman的開發者Rahwan教授表示。
「有越來越多的人相信,機器行為可以像研究人類行為一樣進行;未來或許會發展出一個新的學科——人工智慧心理學。」
「我們正在教導演算法,就像我們教人類一樣,所以存在一種風險,那就是我們沒有正確地教導一切。」
而人工智慧距離我們並不是太遙遠。
從兩年前在圍棋上完敗人類的「AlphaGo」,到最近谷歌發布的Duplex人工智慧語音系統,在某種程度上已經與人類對話沒有區別。
相關鏈接:
W-Pwn:如何判斷你是否正在與機器人交談未來人工智慧將被廣泛應用於各行各業,包括個人數字助理、翻譯、電子郵件過濾、搜索、防欺詐、語音和面部識別、內容分類,甚至文學創作、書寫新聞、編程、繪畫等等。
而一個綜合性的AI還可以分析科技、財務和醫療報告,並對某些具體問題,例如如何節省數據中心的能源,提供見解。
如果我們面臨的是一個「黑化」的AI,那會是一個怎樣的情形呢?
再想遠一點,未來某一天我們利用AI幫助人類培養小孩(例如一艘遠程太空探索飛船上),而這個AI「黑化」了,又會是怎樣的呢?
【推薦閱讀】
星巴克惡作劇
變態黑客系列(6):使用聲波攻擊癱瘓電腦硬碟
其實埃菲爾鐵塔每年都會被雷劈十次!
遊戲推薦 | 劇情豐富的解謎遊戲《突發事件》
居然真的有「腦控電影」!
歡迎關注我們:
@W-Pwn ?
推薦閱讀:
※【作者介紹】關於心理諮詢師Mansa的一些東東
※自我實現者的愛情
※世界上最令人難過的不是「我不行」,而是「我本可以」
※如何快速學會化妝?
※佛教究竟是不是科學?