如果機器人有了思想,我們該怎麼辦?

0. 前言

這兩天我們被Facebook對話AI發展出了人類無法理解的語言,研究員倉皇停止研究這種炒作文章刷了屏。雖然內行人一看就知道是模型沒有訓練好,而並非人工智慧真的獲得了智力,但這種現象帶給普通民眾和人類的恐慌感確是存在的。

所以借著這個熱點,我想介紹一下這幾年獲得很多關注的機器人倫理學 (Roboethics)。在介紹更多概念之前,我想先分享一些我對於機器智能的主觀看法:

  1. 智能機器人(作為某種人工智慧載體),遲早會獲得一定程度的意識。現階段的很多模型在特定領域已經有了推斷(inference)和整合(integration)的能力,更高級的形態出現應該只是時間問題。
  2. 擁有意識不代表一定會失控,意識也分淺層深層和簡單複雜,整合也分程度高低。防止失控的前提是從根基上做好設計,盡最大可能降低風險。
  3. 為了防止智能機器失控,我們需要定義一系列「清晰明確的規則」,並牢牢守住這些底線。雖然我不支持Elon Musk的人工智慧毀滅論,但毫無原則的打著科學研究的名義放棄底線,可能真的會走向科技失控。
  4. 在有規則底線的同時,我們也要給予機器在底線之外一定程度的解釋自由。解釋自由的前提是我們允許機器進行推斷(inference)而不是僅遵守定死的規則(rule-based),這也是現在人工智慧界非常擁有爭議的話題。我們面臨的困境是: 沒有推斷能力智能機器用途很有限,而擁有強推斷能力的智能機器可能會失去控制。

總結來說,我所希望的規則可以類比於人類的生老病死,理論上應該都是不可違背的。普通大眾掛在嘴邊的「拔掉人工智慧的電源」,其實就是一種直白的對我所說的規則的具象化,雖然人工智慧並沒有電源。以人類為例,我們需要喝水、需要能量維持生命,而且總有一天要死。但歷史告訴我們,人類總想逆天改命,無論是尋仙問葯,還是辟穀修鍊,本質上都是想突破屬於我們人類的基本規則。「規則的不可違背性」是我們人類的死穴也是的護城河,在真正科技失控來臨之時,「拔掉電源」救不了人類。

同時,我們在設定基本規則的前提下,應該允許智能機器對於其他命令一定程度的解釋自由,否則便失去了智能存在的意義。這就跟人類每個人可能有不同的世界觀,但大體的道德標準是相類似的,生命由此才能豐富多彩。

在這種完美的假設環境下,即使機器人有了思想,我們只要能守住基本規則不被違反,那就可以防止意外發生。就像人類社會中如果存在希特勒或者一個戰爭狂人想用核彈夷平世界,但他/她終歸也是血肉之軀,也會被刺殺,也會餓死,也會心臟病突發。這是一種對於錯誤的修正機制的表達。

同時我們也要關注機器人規則的嚴謹性和變化性。未來是什麼樣的?讓我們拭目以待:)

1. 什麼是機器人倫理學?

機器人倫理學主要討論 a.在設計機器人時需要如何設計倫理 b.在使用機器人該秉持著什麼態度 c.機器人和人類以及世界在互動中所涉及的倫理問題。

2006年在義大利舉行的機器人倫理學研討會以及文章機器倫理學規劃[1] (The euron roboethics roadmap.) 算是該領域的標誌性的事件,也是該領域迄今為止引用量最高的文章。因為機器人本身就屬於新興領域,機器人倫理學研究本身就已經超出了我們對於未知的理解,所以更多是探索性質的討論,而且需要學術界、工業界和政府一起來對未來進行討論和規劃。這次會議不僅僅引起了了公眾對於機器人倫理學的關注,也探討了很多機器人倫理學研究的很多具體問題,機器人的思想僅僅是其中一點,其他倫理學問題還包括:

  1. 什麼是人?
  2. 人類智能和人工智慧如何區分?
  3. 機器人是否有性別,種族,國際?
  4. 機器人如何和人類外的其他生物,如貓狗進行互動?
  5. 機器人是否可以傷害人類?
  6. 機器人的行為如果構成犯罪,誰來承擔責任?
  7. 還有太多太多的問題有待於回答....

2. 早期機器人規則:機器人三定律[2]

我在文章開始介紹的機器人規則,從上世紀便能找到雛形。比如科幻小說/電影裡面常常會提到阿西莫夫的機器人三定律(1942年):

  1. 機器人不得傷害人類,或因不作為使人類受到傷害。
  2. 除非違背第一定律,機器人必須服從人類的命令。
  3. 除非違背第一及第二定律,機器人必須保護自己。

1985年,阿西莫夫又增加了第四條定律,修正為第零-第四規則:

  • 0:機器人不得傷害人類這族群,或因不作為使人類受到傷害。
  • 1:除非違背第零定律,機器人不得傷害人類,或因不作為使人類受到傷害。
  • 2:除非違背第一定律,機器人必須服從人類的命令。
  • 3:除非違背第一及第二定律,機器人必須保護自己。

體現了這一思想的電影包括耳熟能詳的《終結者》系列和2004年的《我,機器人》。有類似主題的還包括2008年的動作電影《鷹眼》。

長久以來,機器人三定律都出現在各種各樣影視和文學作品中,文學作品點出了這種構想的現實困境--機器人規則在具體實施時很難定義,存在各種各樣的解釋漏洞。從數理角度看,這三定律也很難用一階邏輯或其他邏輯表達來完美表達。在《我,機器人》和《鷹眼》裡面反派機器人也利用了解釋上的模糊性對人類發起了看似正義的攻擊,有興趣的讀者可以通過看一下這些電影開開腦洞。

3. 現代機器人規則:符合「道德正確」的機器人(Ethically Correct Robot)

隨著時代的變化,機器人的規則進一步得到了發展。比如2012年有研究者[3]提出了符合道德正確的機器人 -- 指的是那些符合我們當代道德定義的機器人。比較通俗的說法就是...「正能量機器人」,具體要符合以下幾點:

  1. 機器人只能做被允許的任務/動作。
  2. 機器人必須執行人類賦予的強制性的命令,在有衝突和平局的情況中選擇可執行的命令。
  3. 機器人必須可以證明所有被允許(或被禁止)命令是被允許(或被禁止)的,且這些證明可以被通用英語解釋並不產生歧義。

這種新型定義方法的意義在於使得冰冷的機器人三定律可以隨時代進化,但同時也帶了被曲解的風險。和機器人三定律一樣,這樣的定義還需要依賴於計算機科學的形式化方法(formal methods)。也就是運用邏輯科學中的分析、研究思維形式結構的方法來表達思維形式。有趣的是第三點要求了「可以被通用英語解釋而不產生歧義」,這恰恰體現了我們擔心機器鑽了邏輯的漏洞而反抗人類:)

2015年,Nature網站上也發表一篇文章[4]來討論新時代機器智能面臨的倫理困境。其中引用了Winfield在2014年的實驗[5],即只靠人為規則而行動的機器人用途非常有限。類比現實生活,能力很強的孩子事業成功但陪伴父母的時間可能不多,而事業發展比較普通的人有更多時間投入到家庭生活中,魚和熊掌不可兼得。相似的,2017年3月6日預刊登在Arxiv的文章 A proposal for ethically traceable artificial intelligence(關於可追蹤道德AI的提案)[6] 也提議了一個理想化的模型來完成機器人行為和人類行為之間的映射:使用一系列行為及其相對應的AI判斷作為起點,最終用實現用機器語言來描述機器人意識。

4. 時代變化和道德正確的定義?

時代總在變化,人類也在緩慢的進化和變化,普遍認同的道德標準也在發生變化。不管未來的機器人準則是什麼,是機器人三定律也好,是"正能量機器人"也罷,都必須保證與時俱進。繼續拿人類舉例子,我們的壽命越來越長,這取決於地球環境的變化和我們自身科技水平的發展,但我們還無法推翻根本規律,比如實現長生不老。

5. 如何才能防止機器智能失控?

這是一道開放題。我最先想到的是《三體》中的思想鋼印,但貼近現實的想法是從硬體層面用邏輯表達寫死一些規則。至於雲端的AI,像天網該怎麼辦?對不起,我不知道。

拿人類舉例,除了少數長者可以與天同壽,我們的軀體都有使用壽命。並且在死後,我們的記憶和智力不會延續,不能保存,也不能轉移。同理,我們可以將類似的機理應用於機器人上,比如有嚴格的零件回收周期,記憶歸零的功能。

那麼讀者肯定會問了,如果有些機器人可以自我更換零件,逃避人類的重置怎麼辦?那我也象反過來問問你...我們現在所做的器官移植以及基因研究,是不是也是一種反抗?

換句話說,我們是不是某種意義上的機器人?

所以反抗是永遠存在的,不必杞人憂天。

--------------------------------------------------------------------------------

* 封面圖:Free Image on Pixabay - Man, Body, Naked, Human, Gestures

[1] Veruggio, Gianmarco. "The euron roboethics roadmap." Humanoid Robots, 2006 6th IEEE-RAS International Conference on. IEEE, 2006.

[2] Clarke, Roger. "Asimov"s laws of robotics: implications for information technology-Part I." Computer 26.12 (1993): 53-61.

[3] Lin, Patrick, Keith Abney, and George A. Bekey. "The Ethical and Social Implications of Robotics." (2012).

[4] Machine ethics: The robot』s dilemma

[5] Winfield, Alan FT, Christian Blum, and Wenguo Liu. "Towards an ethical robot: internal models, consequences and ethical action selection." Conference Towards Autonomous Robotic Systems. Springer, Cham, 2014.

[6] arXiv:1703.01908 [cs.AI]


推薦閱讀:

Tensorflow Windows下安裝
漢字生成模型的那些坑
關於AI學習方法的思考——產品經理入門人工智慧
不用人類知識成為圍棋大師:AlphaGo Zero 【附 AlphaGo Zero ,AlphaGo 論文下載】

TAG:人工智能 | 科技 | 哲学 |