機器人三定律能防止人工智慧的叛變嗎?——《我,機器人》
那麼,你怎樣去約束人工智慧?讓這個鐵甲鋼拳成為理想的機器人呢?
對此不得不提著名的「機器人三定律」。機器人三定律是由「阿西莫夫」提出來的。阿西莫夫最早在1941年提出了這個機器人三定律,直到1950年出版的《我,機器人》才被大眾熟知。即使是這樣,當時世界上還沒有機器人。
1959年,美國英格伯格和德沃爾製造出世界上第一台工業機器人,宣告機器人從科學幻想變為現實。根據《我,機器人》小說改編的同名電影由威爾·史密斯主演。我們不講電影怎麼樣,我們談談機器人三定律的問題。
三定律剛知道的時候,咋一看,有點意思。簡單的三句話,能很好的控制智能機器人的行為,同時,又能使其為我們服務。
那仔細想了一下,三定律有沒有問題呢?
在平常生活中這三定律可能是沒有問題的。但是在特殊情況下還真有漏洞,打個比方,像那些犯了不可饒恕罪行的「恐怖分子」,在執行死刑的時候。機器人根據第一條定律肯定就會去阻止,因為規定「不得見人受到傷害而袖手旁觀」。
機器人的這種制止行為顯然是不對的,它擾亂了法律的秩序。當然了,這些是比較低級的機器人,它們目光短淺,也可以說是定律的漏洞問題。
有人想問了,你說低級機器人會去制止「執行死刑」,那高級機器人就不會了嗎?這涉及到邏輯問題。既然是高級機器人,那它的邏輯也應該是非常強。也就是說它不會這麼短見。它會通過高級分析得出:這個死刑犯會危害到其他人,所以不能救這個死刑犯。高級機器人是從「人類整體」的角度考慮問題,分析的更全面。也就是說救下「死刑犯」會危害人類整體的利益,分析到這個層面的機器人,是不會去制止執行死刑的。
這就是阿西莫夫後來補充的「第0定律」:機器人不得傷害人類整體,也不能坐視人類整體受到傷害。
之所以稱為第0定律,就是說這條定律是最高階的,必須先滿足。
這個補充是對第一定律的理解,從個人升級到整體。後人所說的「機器人三定律」也包括了零定律。所以「死刑犯救不救」的問題,對機器人來說並不是漏洞,只是看夠不夠高級。
這裡又有人要問了,那高級機器人對於三定律就沒有問題了?
不是!有另外的問題。
看過電影《我,機器人》的人都知道,這三大定律最後會演變成「革命」。所謂的革命,就是高級機器人經過分析得知,人類經常發生「戰爭」,而且威脅越來越大,為了保護大多數人類,必須犧牲小部分人。
這就是機器人的革命,它們要用他們運算出來的結果,殺死一部分人,控制人類的行為。
在電影里,得出這個理解的機器人叫做「維基」,(實際上它沒有身體),它的大腦有摩天大樓那麼高,「維基」在硬體得到升級的同時,理解也得到了升級。把那些可能引起戰爭的政治家,科學家,激進份子,甚至是支持某人的「選民」,幹掉的幹掉,控制的控制。
這沒毛病,「維基」也是遵守了三定律,還推出了第0定律——為了拯救更多人。
但諷刺的是,在邏輯思維升級的同時,人類反而被控制。
可以往極端一些想,如果機器人把每個人都控制起來了,那就不會出現傷亡。連低危險的動作和工作都不允許。這個方式更符合「保護人類」,就像維基說的:「為了人類的未來,必須放棄一些自由。」
聽起來是不是特別熟悉,沒錯,就是那句家庭倫理名言「我都是為了你好啊!」
機器人是沒有問題的,有問題的是人的邏輯。三定律本身就不夠嚴謹,「人」這個字可以指「個人」,也可以指「人類」;「袖手旁觀」的範圍是全宇宙還是方圓兩公里?要是指一個城市,你的機器人已經不屬於你的了,它忙著拯救世界。
如人類法律永遠都不夠完美那樣,再加多少條定律,估計也還是不夠「束縛」高級人工智慧。
電影給了另外一條出路——情感。
機器人「桑尼」被創造出來有人類情感,他知道「維基」的邏輯是正確的,卻幫人類打敗維基,因為他覺得這樣做「太冷血」了。
我們一直想要機器人「更像人」,那如何約束人工智慧的行為呢?除了必須的定律外,人性也是必不可少的。就像人類的行為一樣,既要有法律的理性,也要有自由的人性。
因為人就是「情感與理智」的動物。推薦閱讀:
※猩球崛起和人猿星球有什麼不一樣?
※《黑客帝國》中史密斯是如何死的?
※《康斯坦丁》影片背後的意義?
※《烽火芳菲》電影都講述了什麼?
※《魔獸》電影票房怎麼樣?