人工智慧帶來的道德困境(一):生死時速
還記得電影《Her》里斯嘉麗約翰遜配音的,善解人意的AI女友Samantha 嗎?在影片的最後,她向男主角坦白,自己同時在和8316個人聊天,與其中的641個人談戀愛。
那麼,如果你是男主角,你能接受這個現實嗎?你覺得自己那個可愛的,可以陪你從詩詞歌賦聊到人生哲學的AI女友,需要遵守人類社會的「忠貞」道德觀念嗎?
正在逐漸滲透到我們生活各個角落的人工智慧,在給我們帶來無與倫比的效率和生產力的同時,也帶了很多道德或法律方面的挑戰。Samantha的641個戀人只是其中一個小小的例子。本著ex-consultant凡事都要列舉三個點的精神,本系列文章會從以下三個層次來討論這個(看起來很嚴肅其實開了無窮多腦洞的)AI帶來的道德困境問題:
1. 使人類現有的道德問題變得更加複雜化
2. 進一步加劇社會的失衡
3. 改變社會結構進而改變道德觀念本身
今日開篇,先來聊聊第一層困境,即,AI的加入會使人類現有的道德問題更複雜。
大概一兩個月以前,我和敬愛的老闆大人進行了一場有關AI的激烈討論。老闆的主要觀點是:雖然也許有量的提升,但造物(creation)不可能比造物主(creator)有質的飛躍。
我其實不是完全同意這個觀點,但是很贊同它的一個衍生:那就是,人工智慧作為造物,是人類社會的一面鏡子。像一個孩子一樣,我們的善噁心機,它都學得到。
典型的例子是微軟在2016年3月23日發布在推特平台上的聊天機器人Tay。在短短的24小時之內,Tay被魚龍混雜的互聯網民們調教成了一個滿嘴納粹和歧視言論的極端主義分子,逼得我軟工程師趕緊出來道歉並且撤下了Tay;
另外一個例子是Wikipedia上的文本編輯機器人。幾個西班牙學者在2017年2月份進行了一個有趣的研究Even good bots fight: The case of Wikipedia,他們發現,不同的機器人編輯會「打架」,彼此撤銷或修改文章,尤其是針對有爭議的國家或人物(比如如巴基斯坦前總統、烏茲別克、愛沙尼亞)的詞條。機器人編輯帶上了它的創造者的政治傾向。
而我們的人類社會裡充滿了道德上的兩難,這種兩難,也會成為橫亘在人工智慧發展路上的問題。
哈佛大學著名的公開課《公正-該如何做是好》中提到過一個典型案例,假如你是一個火車司機,左邊鐵軌上站了十個人,右邊鐵軌上站了一個人,你無法剎車只能選擇一個方向,你選擇哪個?如果左邊十個是流浪漢,右邊一個是愛因斯坦或者美國總統,你選擇哪個?
前一陣子很火的韓劇《鬼怪》里也有類似的兩難:你的車子開到了一個十字路口,側方向正有一輛失控的重型卡車從斜坡上衝下來,而對面正有一群幼兒園小糰子們在過馬路,你要選擇停在路口,犧牲自己救下小朋友,還是衝過路口,自己活命但是眼看著小朋友受難?
如果駕駛汽車的人不是你,而是一台無人駕駛汽車呢?
在這樣一個生死時速的時刻,也許你根本沒有時間重新獲得方向盤的控制權——我們有一天會依靠演算法來做出艱難的選擇。誰來設定這個演算法和規則呢?大公司里的開發工程師。那麼,如果你是那個不幸被選擇「犧牲」的人的親屬,你會詰問,誰給了人工智慧和它們的創造者們這樣的權利做這樣的決定?
這就是人工智慧使事情變得複雜的地方。傳統意義上來講,面對以上的道德困境,每個人可能有他/她不同的選擇和判斷,而作為一個自然個體,你需要負責但那是因為你有且行使了選擇的權利。但是,在AI的世界裡,一百萬輛車可能都需要遵循同樣的規則,一個研發團隊/企業的道德判斷將會被飛速放大,而車輛的使用者,也一定要接受這樣的設定嗎?就像現在你每安裝一個APP都要點擊「我同意用戶使用條款」一樣?
類似的問題還有許多。當AI只是輔助工具(比如幫助醫生們通過醫療影像做診斷)的時候,我們仍然可以套用已有的道德、法律規則,因為做決策的仍然是人類自己;但當AI獲得從頭到尾端到端的決策力(比如完全意義上的Level 5無人駕駛汽車)時,事情就開始變得複雜。而我們的道德和法律體系尚未準備好迎接這一變化。
聰明的你,覺得這樣的問題該如何解決?
預告:接下來兩篇文章將繼續討論AI帶來的道德困境問題,分別是(二)藍血貴族和(三)AI女友,Stay tuned!
推薦閱讀:
※人工智慧浪潮襲來,人才儲備卻成致命短板
※分享一個好貨,你看看值不值得?
※從神經學角度看邊緣計算、霧計算與互聯網雲腦之間的關係
※透過產業AI的發展歷程,看阿里的「愚公移山」精神
※人工智慧會使哪些行業受益?