如何解釋機器人三定律與軍事機器人之間的矛盾?


這是一個被最多人誤會的問題,借這個機會給大家闢謠下。

三定律是文學產物,不是科學產物!在學術圈,三定律不會被考慮,並且提到三定律的人會被當作笑柄(親身經歷,在場其他人都是國內領域公認的專家)

同時,三定律一定是和人工智慧中的圖靈測試違背的,三定律並不符合人工智慧的願景。

所以,請勿用文學作品中的概念解釋現實世界產物。

=================小小補充=========

機器人倫理學是一個切實存在的學科,但三定律不被這個學科承認,也不是這個學科的基礎。一般來說,該學科對三定律的態度是:存在內在矛盾,根本沒有辦法修正。


首先,機器人三定律是理論上的東西,並未變成實際。而且機器人三定律主要適用於有自我判斷能力、自主意識的機器人,目前機器人技術水平還沒達到這種程度。

其次,在原著中,有兩種方式可以在有三定律的情況下製造軍事機器人:1是讓機器人相信攻擊目標中沒有人類,2是調整人類的定義,敵方人員不屬於人類。


現在的機器人技術其實都還是任務型的,所以這個所謂的定律沒有什麼意義。但如果機器人技術進一步發展,使得其應用脫離了特定任務,而具有任務模糊、環境未知與複雜等特點時,機器人就必須具備價值判斷的能力,那麼這個所謂的定律所代表的機器人倫理也就具備了現實意義。

當然,這個所謂的定律所代表的知識量與智能水平就現在的機器人技術來說還是有些高不可攀,在可預見的未來,我更相信未來的智能系統都是人機系統,那麼還是由人來做這個價值判斷好了


機器人三定律最早是由阿西莫夫提出,雖然不清楚他提出此定律的動機,但我深切懷疑他故意在其中設置了矛盾——「不得傷害人類」本身就是一個難以說明的命題。

而且,設定中充滿了需要定義的東西:人類、傷害、危險之類……只要修改這些定義,那麼機器人就可以有選擇的遵從三大定律。

另外,這三大定律可以視作「行業規範」,而非自然鐵律,所以別有用心的人類想要生產不遵循三大法則的機器人只是分分鐘的事情——就好像360搜索不遵守Robots協議一樣~

此定律的提出是有基礎的:人工智慧已經發達到可以自主判斷現狀並且根據自己的判斷對現狀進行處理。至於上面 @傅睿卿 兄提到的事情……我可以嘲笑你們人類的科技太落後了么?


看到這個問題的時候我正在複習機器人學,答一發攢人品!

讓我們先來看看機器人三定律是什麼吧,根據蔡自興老師寫的機器人學這本書,是這樣介紹的

這其實只是一個文學上的概念。

如何定義「人類」?是人類個體還是作為一個人類的整體來理解?如何理解傷害?

比如說某一天機器人走在街道上,見到兩個人在打架,它這時候應該怎樣進行決策?

假如機器人見到一個人在搶劫,它有沒有權力去阻止那個人?

諸如此類。語言本身就是不嚴謹的,因此你沒辦法用這種極其模糊,充滿歧義的東西去限制機器人的行為。因此所謂的機器人三定律並不會作為機器人的行為守則。

而且,現在機器人技術的發展還遠遠達不到讓機器人「理解」三定律的水平。在我看來現在的機器人其實很多都不聰明,可以把現階段的機器人理解為「能夠自動完成一定功能的機械裝置」更合適。

那麼所謂的戰爭機器人,發展這種「武器」僅有的障礙只有技術和需求。


在阿西莫夫的原著中,為了保護其他人類,機器人可以在不造成實際傷害的情況下對人類採取行動,如阻攔、控制(如綁手腳)等。另外對於機器人戰艦,可以讓機器人戰艦認為其他飛船也是無人駕駛的,從而直接發動攻擊。


軍用機器人會直接違背「不可傷害人類」這條原則。


不存在所謂的機器人三定律,如果機器人由人設定的,設成做什麼都可以,就是強制人類製造的機器人要設定機器人三定律,但是也有犯罪集團會製造幫助犯罪的機器人。自然不會遵守什麼定律?如果機器人有自由意志,那更沒有什麼定律能約束了。


機器人三定律與軍事機器人之間並沒有矛盾,只是理解不同,《我,機器人》的故事就是詮釋的這一點,機器人第一定律是不能傷害人類,或坐視人類受到傷害。但是機器人的理解是消滅個別人或者某些人是屬於保護人類的行為,機器人理解的是人類整體,而非個體。所以1985年產生了機器人第0法則:機器人不得傷害人類整體,或坐視人類整體受到傷害;這條第0法則凌駕於老的三定律之上,所以為了保護人類整體的發展和延續,機器人可以消滅它們認為對全人類進程不利的部分人類。


推薦閱讀:

《三體》第二部情節重複了嗎?為什麼?
如何看待人工智慧自創語言?
有哪些好看的科幻小說選集?
《三體2》有可能再奪雨果獎嗎?
現實存在的哪些公司最可能成為賽博朋克/反烏托邦中的大公司?

TAG:機器人 | 科幻 | 邏輯 |