為什麼我們不信任機器人
蔡凱龍評論:人工智慧發展目前最大的障礙在於缺乏人類的信任。人類不願意相信機器,因為人工智慧冰冷的理性思維無法理解人類感性思維,以及人類在倫理道德上的規範。我們難以相信機器人在面對倫理道德抉擇的時候,能做出「人性」的判斷。歸根結底,我們人類和機器人不一樣。而且人類天生具有優越感,畢竟聰明強大的AlphaGo也是人類創造出來的,所以無法把包括倫理道德在內的所有決定都交給機器人負責。這是對人類尊嚴的褻瀆。然而人工智慧勢不可擋,人類該不該信任機器?解決辦法很簡單,技術提升,讓機器人有情感,能夠和人類一樣感性判斷,人類就可以信任它。這個方法乍看可行,但是目前技術上很難實現。即使技術上有可能,人類會因為恐懼而不敢使用。我們願意麵對一個強大的、理性的、行為可預測的機器人,還是一個強大的、感性的、行為不可預測甚至有主見的機器人?另一個解決辦法,人類自身改變。人類不信任機器人根源在於人類的心理。人的適應能力很強,隨著時間的推移、人工智慧的發展和普及,人類逐步調整自己的心態,逐漸信任機器人,與之共存。看看手機出現到現在短短20多年,人類對手機依賴的轉變歷史,我們不難推測,在不遠的將來,人類和機器人關係也會如此。信任問題解決了,但是原來的問題依舊存在:人類願意拋棄尊嚴和優越感,把包括倫理道德的所有決定交給機器人嗎?把充滿未知性和不確定性的人類社會變成一個純粹理性和計算出來的社會?這是一個大問題!
以下內容為編譯正文:
人工智慧給人類帶來新的革命。隨著這些機器更廣泛地融入到我們的日常生活,這些機器所做的決策將超出純粹的事務範圍,必將延伸到道德倫理層面。 比如,當無人駕駛汽車遇到不可避免的交通意外的時候, 它選擇保護車上乘客還是盡量最小化事故損失。又譬如,無人飛機在有平民傷亡的前提條件下 ,是否繼續打擊企圖發動襲擊的恐怖分子? 隨著具有人工智慧的機器變得越來越自動化,這些是不可避免的問題。
把道德倫理抉擇交給計算機是有好處的:不像人類, 機器不會被認知偏見所迷惑、不會疲勞、不會對敵人產生憎恨。 理論上, 人工智慧能被設定成符合理想中的道德楷模的價值觀和做事原則。 沒有人類的局限性,這樣的機器人甚至能比人類更加擅長做出更好的倫理道德擇決。 然而,機器將主宰倫理道德抉擇這種想法讓很多人很擔心,因為機器在這個領域的使用從根源上威脅到人類的尊嚴。為什麼我們不願意信任機器人做出的倫理道德抉擇? 心理學研究提供了一個答案:人們不信任那些通過計算成本和收益做出倫理道德抉擇的人,比如計算機。
這個研究成果和長期積累下來的傳統信條有衝突。 傳統信條認為,倫理道德決定需要評估和計算後果。擁護這種想法的學派(或者稱為結果導向主義者)聲稱:一個決定若能帶來更好的結果,這個決定才能被稱為倫理道德上正確的決定。 然而,大多數不相信傳統信條的人認為這樣的決策不適合人類倫理道德觀。事實上,人類的倫理道德觀傾向於符合一套道德規範,這些規範里的某些行為是「不對」的,卻能產生好的結果。
在一系列的心理學實驗案例中,參加者被置於假設中的道德困境里左右為難,參與者需要選擇成為結果導向主義者還是遵循一套道德規範。實驗結果顯示,參加者大多選擇遵循道德規範而不是結果導向。比如在「足橋困境」里,參與者被告知一輛行駛過來的火車即將撞上5個困在鐵軌上的無辜者,前面剛好有個巨人站在火車即將穿過的足橋上,只要把這個巨人推下足橋,雖然巨人會被火車撞死,但是因為其身體龐大,能擋住火車避免繼續碾壓後面5個無辜者。大多數人覺得不應該把巨人推下橋,雖然犧牲巨人救回5個人是最好的結果。
問題是,我們如何看待一些少數人,他們願意冷血地犧牲生命去追求更好的結果? 去年實驗心理學雜誌發表一篇論文提出:科學家找到很多證據證明,在正常情況下,結果導向主義者不受大家喜歡;換句話說,在社交關係上,結果導向特徵反而是一個負面因素。
我們推斷基於道德規範的人,雖然行為的結果不一定最好,但這類人適合成為社交夥伴。這聽起來很有道理:如果你的朋友或者夥伴精於算計,無時不刻在計較得失,甚至可能為了更好的結果,決定欺騙你、對你說謊甚至謀害你,這樣的朋友大多數人很難接受。道遵循德規範被看成是有責任感的一種顯著的標誌(也許是因為遵守道德規範體現了我們帶有某些特定的情感去與人相處)。
我們在2400多人參與的9次實驗中精準地發現:選擇遵循道德規範的人比選擇結果導向的人更加值得信賴。堅持道德規範的人在金融領域優勢更加明顯。 在一個測試信任度的金融實驗中, 我們發現:對堅守道德規範、拒絕犧牲生命去追求更好結果的金融從業者,實驗的參與者願意拿出更多的錢交給他們管理,也更加堅信能拿回投資。
但是結果為導主義者並不是被一概否定。面對是否為了救多人而去犧牲一個人的困境選擇時, 選擇「很難決定」的人和選擇「絕不接受」的人同樣值得信賴。 在這種情況下,決策者的矛盾和猶豫能體現一個人的正面特徵。 因為,這意味著這個人不管最後如何選擇,都感受到道德規範的約束。
這些研究發現和機器人有什麼關係? 這些研究指出人類在倫理道德領域對機器人不信任的一個可能原因:人工智慧缺乏我們用來獲取信任的特性。 我們人類傾向於非理性地、不計後果地遵守某些原則。我們比較接受這樣一類人,他們的道德行為是由人類社會共有的情緒所決定,比如內疚和同情。遵守原則體現了人類內心深處的心理特性。即使假設機器能完美地模仿人類的倫理道德抉擇, 我們也深知計算機做出判斷的依據和我們完全不一樣。不管機器人做什麼決定,人類在倫理道德領域上無法信任他們通過計算而做決策的方式。事實上, 一份人權觀察組織報告最近提出暫停研究殺人機器人,因為這樣的機器人不會像人類一樣有著不殺害或者傷害同胞的本能。
換句話說, 讓機器做出正確甚至絕佳的決定,這遠遠不夠。 我們希望機器通過和人類一樣的心理過程後做出抉擇:也就是說,希望機器有情感的反應和直覺的反應。人類演化多年形成這兩種反應讓人類成為特有的道德生物。 如果技術在達到讓機器人有情感和直覺這一成就之前,任何試圖讓機器人自動做出道德倫理決策的嘗試都會受到懷疑。 或者我們最後發現,其問題的根源不在機器人,而是在我們的心理。
(原文編譯至Jim Everett, David Pizarro and Molly Crockett)
推薦閱讀:
※LeCun親授的深度學習入門課:從飛行器的發明到卷積神經網路
※深度報告 | AI新職位「人工智慧訓練師」
※下一代AI客廳娛樂設備什麼樣?最接近真相的答案來了
※Cousera deeplearning.ai筆記 — 超參數調試、批標準化、多分類、深度學習框架
※人工智慧應用於檢測設備市場潛力巨大——工博會系列之二
TAG:人工智慧 |