科學家使用 Reddit 上最恐怖的圖片訓練了一個反人類魔鬼 AI
來自專欄極光日報
簡評:不寒而慄,MIT 科學家用同樣的演算法,只是把訓練數據集改為恐怖、黑暗的圖片,就訓練出了一個非常可怕的反人類 AI。
在各種電視劇,電影的經典橋段中都有邪惡的機器人,它們中有些特別的產生了邪惡的想法,然後影響了所有的機器人,世界末日,噼里啪啦一頓打。
這是很經典的好萊塢劇本,不過現在,這項只出現在電影電視劇里的東西,被科學家研究出來了。一幫蛋疼的研究員正在積極的鼓勵(慫恿)AI 來接受邪惡,通過大量的訓練變成一個精神病。這個 AI 叫 Norman(名字出處:安東尼·帕金斯主演的《驚魂記》中的男主角 Norman Bates)。
來自麻省理工(MIT)的科學家搜集了 Reddit 最黑暗最陰冷的角落,把那些恐怖、暴力、怪異的圖片,用這些圖片來訓練 Norman AI,並且用羅夏墨跡(自行百度)實驗來測試 AI,結果令人不寒而慄。
在測試中:
- 正常 AI 看到的是花瓶,魔鬼 AI 看到的是一名男子被槍殺;
- 正常 AI 看到的是一個人在舉著雨傘,魔鬼 AI 看到的是一名男子在尖叫的妻子面前被槍殺;
- 正常 AI 看到的是一對夫婦站在一起非常感人的畫面,魔鬼 AI 看到的是一名孕婦從高樓下墜。
研究人員表示,魔鬼 AI 不斷把自我處於負面情緒和抑鬱的想法中,它的同理心邏輯根本無法被激活
這項令人不安的研究是為了證明:機器學習非常受限於其數據輸入,很多時候我們說 AI 有歧視性或者不公平,這可能並不是演算法的鍋,應該檢查輸入的數據是否有問題。數據會影響方方面面,從就業到市政服務,甚至正如本文的魔鬼 AI,影響到未來全人類的安全。
注釋:
羅夏墨跡測試:洛夏墨跡測驗
原文:Scientists created a psychopathic AI using Reddit images
園長:恰巧今天 Google 說了自己的 AI 七原則,希望能說到做到。
極光日報,極光開發者旗下媒體。
每天導讀三篇英文技術文章。
推薦閱讀:
※有哪些學術界都搞錯了,忽然間有人發現問題所在的事情?
※為什麼GRE Tunnel兩端的介面IP地址不在同一網段甚至完全一樣時隧道仍可工作?
※以真實上市公司埃斯頓(002747)為例示範價值投資分析過程
※科大訊飛現在是一個高速增長的AI人工智慧公司,你覺得會超越BAT嗎?
※大疆精靈3與小米無人機4K綜合對比哪個更好?