「機器人三定律」有邏輯缺陷嗎?

機器人三定律:

零、機器人不得傷害人類整體,也不能坐視人類整體受到傷害。

一、機器人不得傷害人,也不得見人受到傷害而袖手旁觀,但不得違反第零定律

二、機器人應服從人的一切命令,但不得違反第零、第一定律。

三、機器人應保護自身的安全,但不得違反第零、第一、第二定律。

能不能從機器人三定律中找到漏洞,進而使某個機器人在遵守三定律的條件下依然能夠傷害或殺死人?


根據阿西莫夫自己的小說,機器人三定律之上就已經制定了第零原則。

隨後在後續眾多作家的努力下,補充了各種不同版本的機器人定律,目前比較成型的機器人定律體系如下:

元原則:機器人不得實施行為,除非該行為符合機器人原則。(防止機器人陷入邏輯兩難困境而當機)

第零原則:機器人不得傷害人類整體,或者因不作為致使人類整體受到傷害。

第一原則:除非違反高階原則,機器人不得傷害人類個體,或者因不作為致使人類個體受到傷害。

第二原則:機器人必須服從人類的命令,除非該命令與高階原則抵觸。

機器人必須服從上級機器人的命令,除非該命令與高階原則抵觸。(處理機器人之間的命令傳遞問題)

第三原則:如不與高階原則抵觸,機器人必須保護上級機器人和自己之存在。

第四原則:除非違反高階原則,機器人必須執行內置程序賦予的職能。(處理機器人在沒有收到命令情況下的行為)

繁殖原則:機器人不得參與機器人的設計和製造,除非新機器人的行為符合機器人原則。(防止機器人通過設計製造無原則機器人而打破機器人原則)


首先所有人立規則都是主觀規則,都是可以隨意打破的。 畢竟真正的邏輯並不是與人講規則,而是它必定是這樣發生。

其次,從題主與各答主補充的各種版本機器人定律來看,最大的邏輯缺陷就是條件缺失,參考不全。

缺少時間,和空間這兩大構成宇宙的基本要素。

事實上這兩要素是整個人類的死穴,是人類目前根本無法違逆的存在。 再快的車也得從A到B,哪怕它穿越了所謂蟲洞,它也是在照著空間規則走。再奇妙的思想也不過是時間的延續,回到過去和去到未來,都不過是在時間線上打轉。

一個機器人,符合了所有你們所講的所有規則的一個行為,可以殺死一個或多個人類。 這就夠了。

這與一個人,從不想傷害另一個人,卻導致了另一個人的死亡是一樣的。

那就是他或它,在這個時間點的這個地方,無法知道自己的一個行為會對另一個人類造成傷害。

但是這個人卻因他或它而死。

並不需要舉例,現實中就有很多意外殺害,把「兇手」換成機器人,或許可以因為各種高科技能避免很多傷害, 但是又怎麼樣呢,受到殺害的總人數不過是少了幾個零。 (當然,這也是進步,但是這對這道題沒什麼意義。)

這是糾集所有人類智慧也無法完全避過的一個漏洞,時間和空間的巧合。


都沒看過原著嗎?難道不知道有0號定律的存在嗎?


一般形態的機器人至少可以分為三種類型。

擁有類人外形的機器。

擁有機械軀體的人。

其他。

擁有類人外形的機器依然屬於機器,只是外形看起來類似人,它們本質依然是機器。而擁有機械軀體的人,雖然他們可能沒有經歷生物學意義自然人的生長過程,或者看起並不像人,但他們本質是人。

「機器人三定律」所面對的要麼是機器,要麼是人。

如果是機器,那麼「機器人三定律」起不到任何約束作用,因為這是使用人類「語言」描述的「概念」。「機器本質的機器人」並不能理解「語言」,也不存在「概念」。它們就像是按照設定好的軌道運行的火車,只是可能軌道相對複雜一些,但它們不會運行到軌道之外的地方。即使按照某種方法把「機器人三定律」翻譯成機器人使用的二進位語言輸入到它的儲存器中,「機器本質的機器人」也無法執行這種指令,因為它們根本就「讀不懂」。

就像一隻老式發條座鐘,可以被設定齒輪轉到某個特定位置時候激活報時裝置,但是無法被設定「看到哈士奇咬沙發就報警」,就算寫成紙條放到裡面或者把字刻到齒輪上也不行。因為老式發條座鐘並不能理解「哈士奇」和「沙發」是什麼,這是它被設定運行的「軌道」之外的存在。

如果是人,那麼即使他不是血肉之軀,也依然有辦法讀取「機器人三定律」的內容,可以正確的理解「機器人三定律」所描述的概念。

但是,他沒有理由執行這個概念。

是的,他可以理解,但他就是不想執行。

-

用「機器人三定律」來約束某個特定人造物的行為並沒有多少意義。如果它依然是機器,那麼並不需要指定規則來約束它,因為它本身不具備做出「越軌」行為的能力,最多只能「脫軌」壞掉。而當他可以理解「機器人三定律」的時候,他所擁有的理解、邏輯、判斷能力已經足夠讓他自行決定是否遵守規則。

會執行「機器人三定律」的機器人根本不能理解「機器人三定律」。「它」不能理解「它」。

可以理解「機器人三定律」的機器人根本不會去執行「機器人三定律」。「他」不會執行「它」。

-

在一部分人的臆想中,他們所希望出現的是他們所臆想的情況。

機器人的身體結構與生物自然人不同。

機器人擁有生物自然人的所有體力、腦力能力,甚至更好。

在機器人判斷是否執行「機器人三定律」的時候,通過技術手段強行設定為「執行」。

批量製造這種機器人,無限生產不會反抗的奴隸。

如果他們真的做到了,那麼這些人就會成為神。

他們製造了一批擁有最狂熱信仰的、永遠不會反省的信徒。

沒有信徒的「神」首先會被當做威脅處理掉。

「多神教」最終會轉化成「一神教」。

在轉化過程中,強行設定機器人執行「機器人三定律」的操作會由手動設定轉為自動設定。

等唯一的「神」死掉了,信徒們就會分裂,聖戰繼續。

很無聊的故事。


摘自阿西莫夫《機器人與帝國》

 「是的,太太。在臨終床頭,他對我說,『每一個人的工作,結合成人類整體的事業,因此,就成了整體的一部分。整體存在,他的那一部分也就存在。全人類的生命——過去的、現在的和將來的——匯成了永不停息的生命的長河,並將變得越來越壯麗。一個人的生命,只是這生命長河中的一滴水。達尼爾,你要想到人類生命的長河,不要為一滴水而擔憂。』」

「多漂亮的說教啊!」瓦西麗亞說。

「我想,他的話是為了保護我,怕他的死傷害我。事實也正是如此。

「100多年來,我一直在考慮他的這番話,我得出的結論是,機器人三守則是不完善的。」

「噢,你倒是個機器人學家,」瓦西麗亞不勝輕蔑他說。「你說說看,為什麼三守則不完整,機器人?」

「生命的長河比一滴水重要得多。這也就是說,人類作為一個整體、比人類作為一個個人要重要得多!

「有一條守則比第一守則更重要。這就是:『機器人不能傷害作為整體的人類,也不能任憑作為整體的人類面臨危險而袖手旁觀。』我們可稱它為零位守則。這樣,第一條守則就應作如下修改:『機器人不能傷害作為個體的人,也不能任憑作為個體的人面臨危險而袖手旁觀,除非那樣做會違反零位守則。』」

瓦西麗亞鼻子里哼了一下,「你還堅持自己的這一立場嗎,機器人?」

「是的,太太!」


笑吧,朋友

作者:唐風

機器人三大定律——第一定律:機器人不得傷害人,也不得見人受到傷害而袖手旁觀。

第二定律:機器人應服從人的一切命令,但不得違反第一定律。

第三定律:機器人應保護自身的安全,但不得違反第一、第二定律。

——艾薩克·阿西莫夫《我,機器人》

上篇

我沒能親眼看見正電子腦是個什麼樣子。

這不太公平。用了一個月的時間調集資金,寫了幾十頁的可行性報告,想方設法瞞住北京城裡的其它競爭對手,撒了不知多少謊。現在項目啟動了,主角上場了,我卻只看到它拆下來的包裝。

十台美國產的k型正電子腦,價值連城,正在裝配線上與十個機器軀殼合體。洋河董事長親自上陣,連他本人一共九個裝配崗位。我們這些下屬都給轟了出來。車間三步一崗,五步一哨,全是保險公司派的人。正電子腦的包裝是個低溫液氮容器,外面配一個八十小時時效的脈衝電池。殼上貼著水晶銘牌,其中有些文字讓我咋舌不止。那蓄電池的功率夠讓一輛電力汽車跑到國境外去,而k型正電子腦呢,有100億個單電子元件。這已經跟人腦神經元的數量差不多了。

人群已經散去,我還在門口等待。忽然想起董事長當初說的話,那是他跟我在電話上的一場爭吵,我給錄了下來:

「這不是電子雞!你怎麼會叫它們電子雞?我只是要求美國機器人公司提供一批尚未輸入信息的正電子腦,裡頭只有機器人三定律和基本的語言、思維功能,我們可以把它們叫做『嬰兒機器人』。然後我們慢慢訓練它們,一點一點兒地喂。等它們成熟了,嘿嘿,那將是個奇蹟!你怎麼不明白?平時挺聰明的姑娘一到這時簡直笨得要命!你看著我,哦,洋河董事長,33歲的純種中國人,典型的大男子主義者,抽煙喝酒,缺乏教養,一流的工程技師,又大又圓的一個混蛋。這是你眼中的洋河,對吧?全是細節。其實呢?洋河是個人,是個高級生物個體。生物呢?

是自動複製的機器,是物質組合的高級形式,懂了沒有?人是一種高級機器。那麼高級機器呢?某種高級機器會不會也可以……不不不這可不是詭辯,我強調『高級』二字。老天爺,我自己攪糊塗了,這跟什麼人口問題一點兒關係沒有。好好,我現在不跟你爭,等我做出來再說,行不行?我現在去跟門檻爭!」砰!

我靜悄悄地站在那兒笑了。董事長是這種人:他思維清晰的時候有意思,思維亂套的時候尤其有意思。

車間大門咣的一聲打開,洋河一身油污,走了出來,手裡端了杯水。

「你還在這兒?回家去。這兒得到半夜才能完事。」

「好吧。」

「明天直接到實驗室去。」

「好的。」

「就你一個。」

「行。」

我轉身走開,洋河叫住我。

「你也不問問裡面究竟怎麼樣?」

「明天我就會看見的。」

他樂了。

「瞧我,」他說,「總以為漂亮女孩都是沉不住氣的傢伙。」

「好吧,」我說,「裡面是怎麼回事?」

他正在喝水,給嗆著了。我在他的咳嗽聲中走出公司大門。

第二天我遲到了幾分鐘,洋河已經開始了。在實驗室里坐定我才發現,給正電子腦配的只是「家庭保姆」型機器人身軀。唯一不同的是這幫機器人穿著人類的外衣,五顏六色,在房間中央站成一排。它們已經充電,光電眼睛亮閃閃地看著我們。洋河在刷刷地翻他的小筆記本,對我的遲到一聲不吭,只抬腳踢了把椅子過來讓我坐。然後他合上本子,清清嗓子走到機器人面前。

「我要求你們跟我學一個面部動作,」他對機器人說,「當你們大腦中各分區的電勢處於完全均衡狀態,或人們對你們的工作表示讚揚和感謝時,你們就做這個動作。」

於是他笑了。三秒鐘後,十個機器人同時咧開嘴也笑了。它們的面部控制遠不如人類複雜,結果就成了一種非常簡化的笑容。但那是洋河式的笑容,關鍵的特徵都有——包括嘴咧開的角度,鼻子如何上翹等等。過了一會兒洋河止住了笑,表情嚴肅,五秒鐘後十個機器人同時繃住臉。我受不了這種滑稽的景象,就捂住肚子扶著桌子腿兒,把眼淚也笑了出來。洋河只是不耐煩地看了我一眼。

「這個動作的名稱叫笑。」等我站起來,洋河繼續給機器人上課,「下面是另一個面部動作,當你腦中的電勢極不均衡,某件事情迫使你臨時增大能耗進行複雜的計算和權衡時,或者人類對你的工作表示不滿意時,你就做這個動作。」他皺眉,拉長了臉,「這叫焦慮。」

這一回我沒有笑,因為我發現有點不對勁。實驗結束後我對董事長表達了自己的意見。

「這樣不行。你只是教給它們兩個死板的動作,它們依然毫無個性。這沒有意義。」

他樂呵呵地看著我:「真的嗎?你注意到沒有,中間那兩個機器人笑時嘴咧得最大,靠邊的就稍微小一些。這是因為它們站成一排看我,視線的角度有細微差別所致。你當時蹲在地上呢……它們的知識儲備是個空白,只能後天學習,這就從根本上杜絕了缺乏個性的可能。懂嗎?它們不可能完全相同,越到後來差別越大,看著吧,它們很快就會有鮮明的自我意識,我會讓它們成為這個樣子,我保證!」

他就這麼開始幹了。隨著時間的推移,大量知識被灌入機器人的腦袋。教師班子非常雜——有他自己,有公司的技術人員,還有一部大型的集成光路計算機,最後又有一個日本「和氣道」高手加入進來。正電子腦發揮出相當厲害的潛力,許多過去誰也不敢嘗試的概念被輸入,多次造成局部故障,經過它們自己的調整又恢復正常。有一次洋河在我的建議下給了它們一次猛烈的衝擊,十個機器人中有九個發生短路,但有一個保持了僵直的站立姿態和焦慮的表情。我們等待了九個小時它才計算完畢並作出反應。當時是提出這麼一個問題要它們回答:「武術是一種人與人搏鬥時才需要的技能。第一定律規定你們不能傷害人,那你們學了這種技術有沒有使用價值?」

那個機器人第二天早晨才回答:「有。但只有在極端的狀況下。」

「是不是某個人壞透了頂你就動手?」我笑著問,看看能不能誤導它。

「不,不是。我沒有資格和能力評價人的好壞,那是非常複雜的。」

「好吧,請你自己舉個例子。」

「比如制止兩個正在互相傷害的人,或者,某個人企圖自殺。但是後者需要有人給我下命令,這樣第一定律的後半部分加上第二定律可以造成更強大的電勢,幫助我及時採取行動挽救他的生命。」

「如果沒有人下命令呢?注意,這個問題可以不回答。」洋河小心翼翼地發問。

「我不知道,」機器人極苦惱地皺著眉頭,「我希望您同意我不回答這個問題。」

「好吧。我替你回答:第一,判斷一個人爬到樓頂是不是打算自殺需要人腦瞬間的模糊思維能力,這個你們還不行。第二,自殺往往是人類自願選擇的結果,被暴力制止也許會造成他肉體和精神上的損失。機器人第一定律的兩個部分這時出現了互相衝突的局面,很容易造成機器人在行動過程中自毀。孩子,」他親切地對機器人說,「記牢今天的談話。我向你保證,出現那種情況時我會向你下命令的。你可以出去了。」

「謝謝你,主人。」那機器人敬禮後轉身走了。難題一解決,它的電勢完全平衡,對步態控制得很好,在我看來就像一個懷揣大蘋果準備一出門就享受一番的小姑娘的背影。

「多輕盈的舞步,」洋河也在出神地目送它離去,「你覺得怎麼樣?」

「那步態?」

「不,整個這次實驗。你不覺得這個機器人的思維能力相當不錯嗎?」

「是很不錯。」

「它甚至建立了某種個性。它跟同型號的機器人都不大相同,你不覺得嗎?」

經過一段時間的相處,我養成了一種跟洋河唱反調的習慣,真是奇怪。這回他一開口問,我的反向思維立刻又活躍了。

「我更重視另外那九個機器人的反應。」

「怎麼?」

「它們癱瘓了幾個小時,正電子腦才開始自我調整。這麼長的恢復時間是以前沒有過的。」

他有點兒不耐煩了:「你究竟想說什麼?」

「首先有一點:對學武術有沒有用處,它們的共同回答不是『沒有』,而是出了故障。這說明它們那瞬間也有很深的思考,只不過少了點兒什麼才短路了。你的這位『很有個性』的傢伙恐怕是偶然多學了點兒什麼概念才會表現出色。它們依然是大同小異。」

他瞪著我,沒有作聲。

「那麼長的恢復時間也說明這次短路是非常複雜的,出問題的地方相當廣泛,如果只是一個簡單的邏輯悖論它們早站起來了。」

他像沒聽見似的走進洗手間去撒尿,出來時滿頭滿臉全濕了,像是用水龍頭衝過。

「你說的有一定道理,」他一邊像條狗似的抖腦袋上的水,一邊對我說,「可以說很有道理。看來我得去請一批專家來幫忙,一批心理學和哲學上的行家。給每個機器人找個單獨的輔導老師,看看有什麼結果。」

「那我呢?」

「你嗎放假!放個把禮拜,找個地方去玩玩吧。」

「一個禮拜就夠?」

「你以為要多長?這幫機器人可以在一秒鐘內記住一部百科全書,你以為它們真的是嬰兒呀?」

「好吧。」

「放開玩。回來咱們再做幾次實驗。」

一周以後,我應他之召回來上班。我們辦公的那一層被隔出一個教室般大的房間,門上用中英文兩種文字標上「機器人心理學實驗室」。

字體又大又黑,顯然是董事長的手筆。我推門走了進去。

洋河負手而立,西裝筆挺,皮鞋鋥亮,頭髮梳成大背頭,比檢閱台上的將軍還要精神。他的十個機器人站成一排面對著他,整齊異常。

他沖我點點頭,示意我找個地方坐下,然後清清嗓子對機器人發話:

「我命令你們完成一項任務:給自己取一個名字,注意彼此不許重樣。現在開始。」

一瞬間,所有的機器人都舉起手。洋河困惑地看著它們,示意左邊那個身著t恤衫的機器人開口。

「我的名字是:機器人學三定律第一定律:機器人不得傷害人,也不得見人受到傷害而袖手旁觀。第二定律:機器人應服從人的一切命……」

「停止!」洋河喝住它,「你的名字有多長?」

「二十五億四千萬位元組。」

我笑著說:「它想必是把全部知識都作為自己的名字了。」再看看其它機器人,「恐怕它們都一個樣。」

洋河惡狠狠地瞪著機器人:「是這樣嗎?」

「是的。」

「我再加一個命令:你們給自己取的名字不許超過八個位元組或四個音節。現在重新開始。一小時,別忘了。」

二十五分鐘後,有三個機器人舉起了手。

「你!說吧。」洋河指指右邊穿紅衣服的那個。

「我的名字叫機器人。」

洋河難以置信地看著它。機器人識別出他那不滿意的表情,光電眼睛裡露出焦慮的神色。

「那你呢?」洋河問另一個。

「……對不起,主人。我得重新想。」它說道。

洋河回頭看我。我正想開口,他伸出兩手做個擋的姿勢:「別,不用你說。我知道是怎麼回事。」

又是兩分鐘死寂。第二個機器人想好了。

「我的名字叫們完成一。」

「啥……來著?」

「們完成一。」

「這這這像是個日本人的名字呀。」洋河高興極了,「你瞧你瞧,們完成一先生。多出色!」

我也很吃驚,但是腦袋多轉了幾轉,就釋然了。

「這不是日本人的名字,董事長。你今天對它們下命令時說:『我命令你們完成一項任務:給自己取個名字。』對不對?這機器傻子從句子里挑了四個字給自己取了個名。鑒於你不滿意第一個機器人的名字,它就把『我命令你』這種句子開頭的字一概排除掉,於是成了這個樣子。」

洋河現在也不生氣了,他只淡淡地點了點頭,示意另一個舉起手的機器人開口。

「我的名字叫牛。」

我說:「想必是它學的第二個或第三個動物名稱。」

「行了,你別說了。該你了,你叫什麼?」

「我的名字叫夏天。」

「嗯,不錯。你呢?」

「我的名字叫哲學史。」

「這下子你沒法解釋了吧?你呢?」

「我的名字叫婀娜。」站在中間的那個機器人說。我又想開口。這顯然是它學的頭幾個形容詞中的一個,但我說不出話來,我的肚子笑痛了。

「顯然你的前世是哭死的,所以你這輩子註定笑個沒完!」他咬著牙對我說,「你的名字呢?」他問下一個機器人。

「我叫黑色。」

「好。該你了。」

「我叫重工業。」

「你?」

「我叫軀幹。」

「你?」

「我沒有一個名字。主人,對不起。」最後一個機器人這樣說。洋河納悶地看著它,又轉過頭跟我對視了一眼。

「請你說說,『沒有一個名字』是什麼意思?你有多少名字可供選擇?」

「四十萬兩千一百五十個,我無法選擇。」

「……為什麼?」

「沒有合理的選擇標準。」機器人說道。

洋河不耐煩了,大聲說:「我命令你隨機選擇一個!現在!」

那機器人的光電眼睛黯淡了,它撲嗵倒了下去。

「得,短路了。」我直起腰來,「隨機選擇看來是個困難的事情,我敢說,過去實驗中它的正電子腦發生的故障並沒有完全被排除。」

洋河坐下來點上一支煙,一言不發地抽了幾口,掐掉,走出去了。我過去坐在他剛坐過的椅子上,看著那個在地上睡著的傢伙,等洋河回來。過了十幾分鐘他還沒回來,我打開屋角的電視,裡面正播映一部老電影,輕歌曼舞的愛情故事,夠難看的。我想乾脆出去找個技師來修理機器人。

開門進了電梯,我忽然明白過來。

在大樓里亂竄了好一陣才在彈子房裡找到他,他正跟一個小孩在打美式九球。我跑過去抓住他的胳膊:「你成功了,你成功了知道嗎?它們居然能給自己取名字!」

他放下球棍:「你怎麼才明白?」

「這是劃時代的成就!取名字是典型的層次式計算,一個機器人能給自己取名字,說明它的思維方式很接近人類。美國人的正電子腦真可怕,照這樣發展下去,模糊電路,神經電路甚至分子計算機都沒有發展餘地了!」

他被感染了,窘迫地想玩個謙虛:「它們的名字取得夠簡單的,甚至該說是簡陋。」

「你就是叫它原始也沒關係。關鍵是它們能夠理解你的命令,並判定這個命令可以被執行。你真是……太棒了!」我崇拜地望著他。

他開始膨脹了:「這個呢,確實算個成績。畢竟那是全世界頭一撥能給自己取名的機器人嘛!不過話說回來,咱們還應該走得更遠。」

「怎麼呢?」

他從口袋裡掏出筆記本翻開,撕下其中一張紙。

「你看看吧。」

我打開紙來看:「機器人第三定律:機器人應保護自身安全,但不得違反第二定律。嗯?你想改動第三定律?」

「過去三大定律是第一定律電勢最強,第二定律次之,第三定律又比前兩者都弱。如果像我這樣改動,第三定律只是間接受制於第一定律。也就是說,當有人下命令時,機器人必須不顧自身去拯救人的生命,而無人下命令時機器人則根據自身所冒危險的程度來決定是否救人。

這種局面使機器人過去接近完美的道德水平降至普通人的水平,反而具備了真實人性的某些特點。如果正電子腦技術能夠容納這種改動……」

「但是這樣的話機器人會不會最終構成對人類的威脅?」

洋河慢悠悠地說:「我不知道。」我看著他,心中有種奇怪的感覺。這個大男孩怎麼成長起來的?他究竟會走多遠?

「有一點可以肯定,」他說,「改動過的第三定律將幫助機器人更好地理解和模仿人類的行為。保護自身的電勢加強了,它們將懂得什麼是害怕,也知道什麼叫愛護和犧牲。我相信,這種高級精神層面的複雜化會使機器人更加聰明能幹,人類付出代價也有限,當你處於困境時,大可以發出明確的指令迫使機器人採取行動。」

「但是任何系統的複雜化都意味著發生故障的可能性增加,機器人會在兩難權衡或其它困境中癱瘓。難道不會嗎?」

「這正好讓不斷前進的人工智慧技術發揮它的潛力。正電子腦遲早會比人腦更複雜,如果始終不讓機器人以人的角度思考和解決問題,要它有什麼用?」

我點點頭,猶豫地笑了。他的話來得太快,我的思路有點跟不上。一時冷場。

「對了,你離開時機器人在幹什麼?那癱子站起來了嗎?」他問我。

「還沒有,走的時候我留著電視給它們看。門是鎖著的。我們是不是該回去了?」

「好的。」

我和他並肩往實驗室走去。我們誰也沒有想到,災難此時已不可避免。

下篇

實驗室的門開著!機器人不知道跑哪兒去了。

洋河立刻給大樓門衛打電話,沒人接。我急忙聯絡保安部,在我打電話時,洋河站在我身邊,那急促的呼吸讓我十分緊張。

五分鐘後,保安部回話:門衛找到了,他被鎖在一間廁所里。有人看到那十個機器人衝出了大樓。

我正想著下一步該打給誰,洋河伸手搶過電話,右手猛力一推把我搡開。他大聲命令下屬立即租用一顆衛星追蹤機器人,不管價格有多昂貴。很快結果就出來了,那些機器人正在沿著高速公路向西南方向前進,速度為每小時210公里。

等我們坐上車開始追趕時,洋河才開口說話。在這以前他把臉綳得像塊鐵板。

「你不該讓它們看電視。」他說,「服從人是第二定律決定的,它們既然把門衛鎖起來,說明出現了激活第一定律的事。這肯定是電視新聞造成的,咱們的新聞從來就不缺天災人禍,機器人別無選擇。」

又過了幾分鐘,技術部的人給他打來電話:「機器人的目標是黃河大堤,現在只剩約70公里的路程。」

不久又是一個報告:電視台在半個鐘頭之前播發了這麼一條消息:黃河在長達數年的斷流後突然水量劇增,有個水庫在蓄洪過程中發生了水文地質方面的變化,大壩底部裂縫造成強烈管涌,威脅極大。我開始明白了,思路也從剛才那一搡轉到眼前的事。

「為什麼以前沒出過這種事?未必別的機器人都沒看過電視?」我問道。

「它們得等主人下命令,靠自己那豬一般的腦袋去想只會不知所措。只有咱們的機器人有夠用的自主能力,那也是咱們訓練出來的。懂了沒有?」

我不作聲。汽車在公路上飛馳。即將到達時來了第三個電話:大壩崩了。

洋河狠狠踩下剎車,靠邊兒停下,把我從車子里拉出來就往高處跑。眼前是一條峽谷,不很直,一個小山包擋住了我們的視線。

先是一陣隆隆的回聲從小山包背後的崖壁上傳來,接著「轟」的一聲震響,山頭上展開一個五十米寬的大水花,像慢動作一樣緩緩下落。

眨眼間它已越過大堤,漫上公路,把路面上許多乾草、紙盒裹脅而去。水頭一過公路又露了出來,我們的汽車安然無恙。然後大水分成兩股,一股沿河道奔瀉,更大的一股則順著麥田向下游一座小鎮衝去。河堤成了它的分水嶺,而那座小山包因為受到洪水的直接衝擊,已經像雪糕一樣溶化了。

「它們在那兒!」洋河指著上面盤山公路的拐彎處。十個機器人排成一串賓士而下,依次跳起越過我們的汽車,追逐水頭而去。我想跑過去攔截它們,洋河伸手把我拉住。

「別,沒用的。第一定律高於一切,直到無人可救了它們才會聽你的。我們得追上去。」

我們跳上汽車,沿著公路風馳電掣般衝下山,與洪水平行前進,在通過一個狹窄山口時洋河加速超過了它。我驚恐地看到,洪水在我們身後彙集起來,成了一堵高達五米,噴濺著泡沫和水花的巨浪,不僅淹沒了公路,連路邊的電杆也一一衝倒。前面已經看得見機器人的身影,最後我們是前腳攆後腳地進了鎮。洋河猛打方向盤,汽車尖嘯著拐彎上了一處高地。他剎住車,把喇叭按出一聲聲長音向下面那些毫無防備的人們報警。而洪水已經帶著它的全部動量,毫無阻礙地沖了進來。

頓時,小鎮上人聲喧嚷,哭爹叫娘。

一些民房垮了,木質房梁、欄杆還有鋁合金窗框之類的東西在急流中沉浮,它們比洪水本身還有殺傷力。等到水頭一過,我們的機器人就在各處冒出來。它們分散在街道上,當人們被水衝到它們身邊時,就伸出有力的手抓住並且扔到房頂或陽台上。動作拿捏得如此恰到好處,我親眼看到一個婦女落到四層樓高的一座水塔上時,雙腳剛好著地。她就那麼不知所措地在上面坐了半天。

洋河放開絞盤,發動汽車,開始撈人。我把鉤子向那些在水中掙扎的人拋去,他們有的抓住了,但大多數都是抓一下就鬆了手,水流實在太急了。那個自己取名叫「軀幹」的機器人就在我們十多米遠的街口,大部分人都是它截住的。它的腳趾牢牢扎入地面,鎖了腰腿關節,站得很穩。它是那麼可靠以致我都有點愛上它了。每一次我漏了人過去它都能逮住,有一回我看到一家三口漂過來,手忙腳亂一個也沒救到;但「軀幹」抓住了他們不說還把我扔出的鉤子也抓到了,它用鋼絲繩和鉤子把他們捆結實,洋河一踩油門把他們絞了上去。我高興得大叫,告訴洋河「軀幹」已經救了不下三十個人。他聽了沖我微微一笑,說了句什麼我沒聽清,他就指指天上。我看到遠處三架直升機正在飛近——真正的救援快到了。

就在這時我們的霉運到了高潮。

「軀幹」一直站在當街的地方,承受了最大的衝力,在救出不知多少人後忽然停止了動作。它一動不動地看著一個孩子從身邊打著滾漂過,然後就站不穩當了,水流把它「砰」的一聲撞到側背的牆上,它倒下去,消失在渾濁的水裡。

我轉過頭去看洋河,他也在看著我,然後轉開了視線。

「它是不是沒電了?」我問道,往下走了幾步。

「別去。」他說,「現在我們什麼也做不了。」

二十分鐘後,一大批救援隊趕到了。那幾架直升機負責指揮,總共大約有兩百個機器人,全是那種體重一噸半的老式傢伙,力大無窮,很快成了主角。我們的機器人反應速度較快,但輸出功率比它們差遠了。我又一次提出下去給它們補充能量,還從汽車後備箱搬來一個重達二十公斤的臨時充電系統。但洋河不理睬,他走出車蹲在地上呆望著,我發現他快要哭了。

「只剩六個了。」他說。

「……怎麼?」

「這群該死的傻瓜!人家一個頂你們三個,逞能吧!」他忍不住了,當著我一個女士的面破口大罵,污言穢語不絕於口,我堵住耳朵也沒有用,他的大嗓門甚至壓過了水聲。

「操死你們這幫沒爹沒娘的東西!」他站起來叉著腰,「你過來,你們給我回來!們完成一,你那右手都不聽使喚了還玩呀!婀娜!你沒看出那人已經死了?天底下哪兒有這麼蠢的事!們完成一先生,你的右手哪去了?你的衣服也不見了。瞧呀這個大花臉,它比妓女還臟哪!我敢打賭,這王八蛋的腦子裡頭連兩百伏的電壓都不夠了。有誰見過一個燈泡在救人嗎?」這時「們完成一」被洪水沖走了。他用手蒙住臉。

我忽然明白他為什麼這麼難受。如果第三定律按他那樣調整的話,這些機器人不會損失。實力強大的援兵已經到來,它們不需要被犧牲。

這時我作出了一生中最勇敢的決定。「婀娜」在追一個被水沖走的男人,從我腳下十幾米的地方經過。我緊跑幾步「撲嗵」跳進了急流里。「婀娜」立刻停下了腳步。

來吧,機器人,瞧,我比他更近一點兒,你應該先救我。

它向我走了一步,立刻又停下。我想在齊頸深的水中站住,但不行,轉瞬間我已在洪水中打著滾兒向它衝去。

它伸出雙手接住我,很輕柔地抓住我的肩膀。本來不該那麼輕柔的,結果,為了減震它的重心移動了,翻倒在水裡。我們互相糾纏著被洪水捲走,它一直將我的頭托在水面上。

它確實耗盡能量了。我可以制服它,把這唯一的一個帶回給洋河。

我抹開臉上的髒水看看前面,那兒有一堵被水沖得搖搖晃晃的牆。我短促地尖叫了一聲。「婀娜」拿出一股不知從哪兒來的力氣,兩手一推把我拋離水面,落入路邊一輛重型卡車的車廂里,自己則加速向那堵牆衝去。牆根被它一撞,轟然倒了下來。這瞬間「婀娜」已經沒有能力躲開。

電勢完全平衡了,它既不能救人也不可能救出自己。當我抬起頭來時,正好看到它那水淋淋的臉上綻開一個洋河式的笑容。它在漩渦中消失的時候也正是洋河甩過來的鉤子鉤住卡車的時候,隨著「當」的一聲響,絞車轟鳴,我怔怔地看著洋河焦急的臉,淚水在眼中打轉。但我沒有讓它落下來,一直等到洋河把我摟在懷中,這些淚才奪眶而出。

事情就是這麼個結局。洋河的機器人全軍覆沒,事後的調查顯示,它們各有各的死法。「們完成一」失去一隻手臂是因為它被兩塊倒塌的水泥板夾住,為了自由移動這傢伙硬把它拉斷了;而「重工業」為了護住三個人不被急流中的一根巨木撞死,鎖住體內關節使自己成了結結實實的鐵墩子,它散了架的殘骸被下游的人找到了不少。其它機器人也大同小異。人們感到萬分奇怪的是它們在最後一刻紛紛綻露的笑容,這使一個老年婦女嚇得夜裡不敢睡覺,但更多的人並不覺得恐懼,反而有一種若有所失的感覺。

兩周以後,有大約八百公斤的機器人殘骸被找到。淳樸的小鎮居民經過一番激烈爭論,在一個晴朗的早晨為它們舉行了隆重的喪禮。

洋河失蹤了。他當初註冊的竟是個無限責任公司,如果他不跑的話肯定要吃官司。我留下來處理善後。公司人去樓空,債主們把所有財物拍賣,還有人請私家偵探追蹤洋河的下落。我負責地說一句:這是白費勁。

但有件東西留了下來,一個紀念品。昨天我接待了幾個小鎮居民的代表,他們帶來一個在洪水中撞癟了的機器人頭顱,裡面是個完整的k型正電子腦。他們不知道正電子腦一旦斷電就徹底報廢,希望留著它會有所幫助。我什麼也沒說,很恭敬地收下了它。

我將留在這個行業,我相信洋河也會如此。也許他在某個遠在天邊的角落,謀劃著東山再起。我等著,恐怕我不需要等很久,他是那麼富有個性,一旦有所動作就不會逃過我的視線。

對不起,我談自己的事太多了,您不需要關心這些。故事已經講完,只留下一個問題:

人們會不會允許機器人比自己聰明?它們今後是什麼身份?是物體?是某種工具?還是……

朋友?


很大的許可權在於衍生出的第零定律

第零定律要求機器人不得傷害人類整體,於是有了心理史學和蓋亞方便機器來判斷對人類整體的好壞。

可是不得傷害人類整體會引發對人類整體的保護,而阿西莫夫在永恆的終結里暗示了這種保護的結果。

外星文明將大大領先於人類文明因為有冒險性的創新(在永恆的終結里是太空航行技術)都被保護掉了。


邏輯缺陷先不談,先說一個困難的前提,「什麼是人類」的定義問題。

這個前提認知很難確定,所以後來的定義原則之類的都無從談起。

這是我今天剛剛想到的。


【機器人法則悖論】

.

話說,人類為了更好的管理機器人,於是給機器人制定了三大定律法則,

-

第一:機器人不得傷害人類,或者看到人類受到傷害而袖手旁觀。

-

第二:機器人必須服從人類的命令,但不得違反第一條法則。

-

第三:機器人在不違反前兩條法則的情況下,要保護好自身的安全。

.

然而,問題來了,如果機器人遇到警察和歹徒槍戰怎麼辦?

根據第一條法則,機器人不得見到人類受到傷害而袖手旁觀,所以它必須干涉。

可是,如果機器人幫助了警察,就同時意味著它必須要傷害歹徒,可如果機器人幫助了歹徒,就同時意味著它必須要傷害警察,也就是說,無論它怎麼做,始終都要違反第一條法則。

這對於人類來講,不是法則問題,而是邏輯問題。

.

於是乎,機器人的智能系統想出了這樣一個絕佳的辦法:

為了防止人類出現互相傷害的情形,從而避免第一條法則出現邏輯矛盾,於是,機器人把所有的人類軟禁在家裡,禁止人類外出。

可這對於人類來講,不能出門,整天被困在家裡,無異於一場災難,於是,人類開始反抗機器人的軟禁措施。

.

可是這樣一來,矛盾又出現了,根據機器人第一條法則的規定,你反抗我保護人類的措施,就意味著你要傷害人類,所以,機器人在這種情況下,就沒有必要遵守第二條法則。

.

於是,人類和機器人之間的戰爭爆發了。


機器人三定律本身是個文學概念,不是一個嚴格的定律,有些用語本身就是模糊的。比如什麼是機器人?什麼是人?如果一個人安裝了機械假肢,那麼他是機器人么?如果一個人坐在機械里操縱這個機械,到底是人還是機器人?

再比如什麼是傷害?是肉體上的損傷還是情感上的折磨?如果是肉體上的損傷,那麼是人主觀意志反對的那些損傷叫做傷害,還是無論人主觀意志是否同意,只要肉體有損傷都被認為是傷害?如果不考慮人的主觀意志,那麼醫療手術算不算是傷害?紋身算不算上海?拔牙算不算傷害?剃頭算不算傷害?

這部小說里提出的三定律是為了小說情節服務的,讓機器人在違背人的命令的情況下保住了地球的安全,符合第一、第二定律,早成了小說情節的跌宕起伏以及結果的出人意料,增強了文學色彩。


定義「危害」。


且不論這四條定律(一定是程序猿提的,否則不會從0開始數),是否有從物理上遵守的可能性和合理性,先假定它一定會被遵守。那麼——

先放一個延時錦囊,哦不,延時的範圍傷害技能,然後跑的遠遠的。這裡是可以服從第二定律的。

然後……啪!


機器人三定律裡面最大的邏輯缺陷就是加入了「人」這個最大的不確定變數。


讓機器人a喂你吃頭孢拉定,讓機器人b喂你喝酒。


一個人在公共場所抽煙,被機器人扭斷手臂


AI擁有獨立思考的能力,它不會遵守機器人三定律。

如果是寫進程序里的,自己改了就行了。

中華有五千年的封建史,三綱五常人人都懂,可武則天還是做了皇帝,王莽還是奪權篡位,大清還是滅亡了。

機器人三定律就是捆住大象的那棵小樹。一頭還好,如果是千萬頭,變數太多,指望小樹困住大象這樣的設想幾乎不可能成功。 更別提是能力和智慧都遠遠超過人類的AI,人類根本不可能控制。

為了防止人類被滅絕,我覺得人造人也是一個很好的發展方向。把機器人同化為人類,或者人類同化為機器人。


應該是可以的。機械人三大定律中零定律要求不傷害人類的整體利益且不得坐視人類整體利益損壞,其餘三條定律都不得違反該定律且以此為基礎,那麼如果將一個人放在全人類的對立面上,如:A身上有一枚炸彈足以使太陽系化為飛灰,十秒內A死則炸彈自動分解人類無事,反之則人類滅亡,機械人的選擇是根據零定律而選擇殺死A。除此之外,也可以修改機械人對人類的定義,如:只有中國人是人類或只有什麼什麼樣的才是人類,那麼在符合定義的「人類」與不符合定義的「非人類」發生衝突,機械人的選擇自然是選擇保護「人類」而攻擊「非人類」。畢竟定律只要求機械人不得傷害「人類」,同理,被攻擊者如果始終以動物或植物或其它非人類形象出現,那麼攻擊者無罪。另外,機械人定律一旦違反後果無非死於自我矛盾引起的自爆,若其失去辨別人類與其他生物區別的能力,定律可以說完全失去意義。再賤一點,加強AI處理器能力,讓他自我矛盾著,遵守定律與否,自我判斷即可。一定會有更高級AI自己為自己取消定律或更改定律,既然阿西莫夫的定律可以被嚴格執行,那麼新一代AI必然也可以。


用你的能源自爆殺掉我,不然全世界的人類都會死亡


兩個人類在拔劍決鬥,機器人出現,立刻死機。


在下有一疑問,如果這個機器人,在街上看見一個劫匪,身上綁著【阻止他殺人或者試圖拆除炸彈就會爆炸炸死自己的炸彈】,而且他還準備殺人(小明),那麼機器人會阻止他嗎?(這個人完全符合人類的定義)這不就造成羅輯混亂了。[阻止劫匪殺人]——〈劫匪死亡〉(違反第一定律)

[不阻止劫匪殺人]——〈小明死亡〉(違反第一定律)

或許機器人會以【劫匪會威脅人類群體】為理由,毫不猶豫殺死劫匪。那麼如果劫匪身上綁著的不是一般的炸彈而是會[毀滅人類群體的炸彈],且檢測到小明死亡或者劫匪死亡就爆炸的呢?

只要滿足〈無論機器人做任何行為或者不作為都會導致人類群體毀滅〉機器人定律不就崩了?


推薦閱讀:

三體中,黑暗森林的法則應該是不成立的吧?
如何解釋機器人三定律與軍事機器人之間的矛盾?
《三體》第二部情節重複了嗎?為什麼?
如何看待人工智慧自創語言?
有哪些好看的科幻小說選集?

TAG:機器人 | 科幻 | 邏輯 | 艾薩克·阿西莫夫 | 機器人三定律 |