如果機器人哀求人類別殺他,但人類還是殺掉他,算殘忍嗎?

如果機器人的程序設置為當遇到威脅時哀求對方不要殺害他,那麼對方殺掉他算不算殘忍?

從一個角度來講,機器人做出這個反應只是一段程序的運行結果,不應該同情。

但從另一個角度來講,人的思維也只不過是一段非常複雜的程序,人類對某件事做出的反應也只是這個複雜程序的運行結果。

當機器人的程序做到和人類同樣的複雜程度,機器人也會有和人類一樣的思想,這時我們是不是應該把機器人和人類同等來看?

如果只是一個簡單的程序呢?只是會哀求對方別殺他,別的什麼都不會,那麼要不要把他當人來看?


這其實是一個非常麻煩的事情。

因為,我們所有的倫理實踐和法理契約,都是建立在既存的人類共同體基礎上的,而人類共同體具備正當性(legitimiatt),而不具備合法性(legalitat)。有就是說我們是建立在既存的,已經具備共同體意識,且有明確非準確的共同體邊界和「人」這個身份的感性確定的人類共同體,我們的一切契約無論是自然權利論,還是任何普遍法則,都是在這個既存的人類共同體上建立的。所以從大尺度的文明角度來看,一切法理的邏輯前提都是假定了人類共同體的合法性,也就是說,我們假設我們通過進化出語言系統,工具使用,分工合作和知識積累等等社會性組織,然後依據我們自己承認的「無主即可佔有」原則去佔據了現有地球領土,並成為萬物之靈。根本沒有其他生命和我們締約(我們強迫其他生命跟我們「締約」,恩恩),也沒有任何前人類社會延續的法統(難道宣稱我們繼承了恐龍帝國的「彌賽亞」意識,由最後一位恐龍先知授予我們人類新恐龍帝國公民的稱號??或者穿越回去找尼德安人扯皮,想辦法用肢體交流建立一個契約,智人--尼德安二元帝國,然後現代人宣稱我們是前帝國的遺民??問題在於恐龍帝國也沒有合法性呀),更沒有超越物種的認同原則,我們就是單純靠著自己很牛逼去佔領了地球而已,而我們的一切法理,倫理實踐,道德,全都是預先承認了我們所做的一切合法,然後在自己內部去商討實踐的正當性問題。

而我們對於人,根本就沒有一個同一性的標準,而是通過鬆散的各種直觀標準加上共同體的共識來認定一個人是否為「人」。心靈哲學曾經提出過一個進階版哲學殭屍的實驗(我以前答案有),我們事實上根本不能用一個非物理還原標準來界定是否為人,但是我們也不能用物理還原標準來定義人。這是個非常麻煩的事情。

而我們的倫理前設,無論是盧梭的「天生道德感」+「理性抑制人性貪慾」,還是洛克的藉由上帝意志達成的」人天生的自存意識「,或者邊沁的」感知並實踐苦樂的意志「。從亞里士多德到啟蒙時代再到德國古典哲學,最後追溯的羅爾斯,實質上對於倫理實踐的界定,都是預設了一個「人--人類本質」的辯證界定作為倫理實踐的施動性前提。所以凡是不存在這種界定的」個體「,嚴格而言,都可以視作沒有基本權利,那麼如果只是一個無意識只會哀求的程序,那麼你是可以殺,並且不承擔人類共同體內部的法律追責和倫理譴責。

但是另一個問題就麻煩了。

我們沒有討論過人類共同體的」合法黨章「是什麼,舉個例子,如果有一批外星人或者外來人工智慧想要移民,來人類著諮詢貴邦的入會標準。全體學者都會傻掉,於是我們事實上只能通過」人類共識「的程序正義來決定這件事情是否成立。於是當這個全球大會程序完成以後,我們就繼續保證了人類共同體的」正當「性,相當於通過原締約人的集體表決,來擴大社會契約的條款。如果沒通過,我們依然要以」尊重平等的個體「(因為宇宙是一個非締約空間,但是對方個體具備主體性,那麼以功利主義的寬容原則,我們應該以最有限的內部待遇去對待對方,這自然包括非戰爭狀況下尊重對方的」生命權「),好生將對方打發走。

這個情況其實也好解決,如果和人類完全相同甚至超出,具備主體意識的人工智慧是外來的,只要對方沒有敵意,你確實沒有任何理由去殺掉他們,當然殺了就是兩文明互相之間的衝突了。。

但是如果人工智慧出現在地球上,被我們造出來,和我們人類完全一致,並且具備主體性,這個就非常麻煩了。首先人類共同體的」正當性「瞬間沒有了基礎,因為我們既存的」地球共同體「不止」人類共同體「,他們具備和我們主體性,那麼人類共同體作為地球代表這事兒不僅僅是正當性沒有了,合法性問題也徹底暴露了出來。那麼無論過程如何,還是時間早晚,我們如果要是承認一個和平的」地球共同體「,我們都必然會存在一個」人類---人工智慧「的締約過程,無論是經歷雙方的戰爭衝突,還是和平談判,還是作為」暫時強勢方「的人類開始全名公投討論是否擴大人類共同體,或者乾脆奴役人工智慧。

但是重點不是發生什麼關係,而是只要我們無法滅絕人工智慧,地球共同體就既存了兩個階級,並且整個地球共同體需要重建相互的合法性和正當性。

於是就出現了這麼個情況:

1,如果我們同意擴大人類共同體,那麼人工智慧幾乎滿足所有政治哲學預設的理性權責人的特點,那麼我們必須以此為依據來平等對待人工智慧,並且將人工智慧無差別納入到」人類「這個概念之中。

2,如果我們不同意人類共同體,那麼我們要重建地球共同體內的法理前提,如果經過戰爭或者妥協,達成了確定的雙方定位,那麼就按照雙方的定位重新形成倫理實踐,那麼題主的原問題事實上就不成立了,因為我們不可能單純出現個體的「人」對待個體的「人工智慧」的態度,而是雙方都依據的新的契約和倫理實踐開始認定。

於是這最後還是取決於所有生命最後的權力關係,最後外化出一套社會規範,然後訴諸文本。

所以,這其實揭示了一件事情,那就是我們這些人類建立的一切社會規則,只要發生「系統擴大」,或者「個體概念混雜」,就變得非常脆弱不堪,跟前社會一樣,很多東西都回到了直覺上,倆眼一抹黑只能走一步算一步,然後我們人類靠著各種精分和「強行解釋」活了這麼多世紀,貌似解決了這麼多內部矛盾,也真是蠻拼的。。。


多可憐,我最後還是和她分手了


手機上的一個app哀求你不要把它刪了(很多流氓軟體卸載時都會很羅嗦),但是你還是刪了它,這算殘忍嗎?刪除程序大概和」殺「了這個機器人沒有什麼兩樣了吧,但是我想你刪app時多半不會考慮app的感受,因為你想把它裝回來的時候還是可以的,但是殺人就不一樣了,你殺了這個人就相當於」殺「了這個人的記憶和性格等等,而這些東西都是獨一無二的,不是再下載就能下回來的。所以當一個人死亡時我們傷感的不是他肉身的消亡,而是記憶的消亡,這種記憶是不可複製的。如果我們有技術摧毀人的肉身而保留人的記憶,那麼當你摧毀的時候多半也不會覺得殘忍。而現在計算機還沒有發展到人工智慧的地步(像奧創那樣。。。),我們摧毀了這個程序還是完全有能力再開發一個一模一樣的程序來實現這些功能,所以在目前來說不算殘忍。如果人工智慧真的發展到人腦一樣的複製,那就要另當別論了。


機器不請自來中了瑞星的毒,好不容易卸載還在界面跳轉4次哀求不要刪除它,真噁心。


Rutger:I"ve seen things you people wouldn"t believe. Attack ships on fire off the shoulder of Orion. I watched C-beams glitter in the dark near the Tannhauser gate. All those moments will be lost in time... like tears in rain... Time to die.

我所見過的事情,你們人類絕對無法置信。我目睹了戰船在獵戶星座的邊緣中彈,燃起熊熊火光。我見過C射線,划過了『唐懷瑟之門』那幽暗的宇宙空間。

然而所有的這些片段,那所有的瞬間,都將湮沒於時間的洪流,,就像淚水消逝在雨中。

——《銀翼殺手》


雖然這個軟體很可愛會賣萌

我個人也是很喜歡

但是為了看她賣萌我會經常卸載安裝


如果是提前填好的程序,那就按需求該殺殺該留留了。

如果是自己進化出這種技能,果斷殺!雖然很可能我已經干不過他了


殺一人者,殺人犯

殺十人者,殺人犯+惡人

殺百人者,殺人犯+十惡不赦+匪

殺千人者,將領+殺人犯

殺萬人者,元帥+殺人犯

殺十萬人者,民族英雄+殺人犯

殺百萬人者,死神+殺人犯

殺千萬人者,天災

殺億萬人者,天道

站在個人的角度,殺人導致的結果有2,其一:有人關心被害者,被害者死後有人傷心,必須有人彌補心靈的缺口;其二:沒人關心被害者,被害者死後無人傷心,沒有彌補心靈缺口的需求。以暴制暴可以讓關心被害者的人心理平衡,不過也就是心理平衡而已,逝者已矣,沒有任何實質性的意義。

站在社會的角度,如果沒有法律制裁,殺人只是一個人類行為而已,其目的是社會資源的再分配。

在社會資源不變的情況下,懲戒殺人者可以在一定程度上維持社會秩序;

在社會資源緊縮的情況下,殺人者的行為被合理合法化,也就是所謂的戰爭;

而在社會資源的增長情況下,人人都能獲得使自己活下去的資源,殺人變得毫無意義,殺人行為也會變少。

站在歷史和生物圈的角度,殺人僅僅是自然界循環的一個過程,即是所謂的天道循環,任何人都逃脫不了生老病死,只是時間早晚的問題。

------------------------------回到題目的分割線---------------------------------

機器智能遲早要取代人類,魚唇的人類,好好享受你們剩下的時光吧!

-------------------------------歷史轉機的分割線-----------------------------------

機器智能無法取代人類的唯一可能性:人類獲得精確計算、通過腦電波交流的全球資料庫共享能力


今年無疑是類人類機器人電影,有所突破的一年。

從年初的《超能查派》,到近期的《機器姬》,

彷彿在告訴大家,類人類機器人隨時可能出現在你我身邊。

在這之前的機器人類電影里,總是映射出一個錯誤的觀念。

機器人是善良的,是遵循《機器人三大定律》的。

第一法則:機器人不得傷害人類,或坐視人類受到傷害;

第二法則:除非違背第一法則,機器人必須服從人類的命令;

第三法則在不違背第一及第二法則下,機器人必須保護自己。

阿西莫夫--《機器人三大定律》

比如最早的《霹靂五號》,機器人膽小,怕死,愛人類。

比如斯皮爾伯格《人工智慧》,機器人善良,脆弱,愛人類。

即使阿西莫多自己的《我,機器人》,機器人也正義的好像美國的雷鋒,愛人類。

他們被人類創造出來,又無比忠誠的愛著人類,那怕人類在傷害著它,還是一如既往的愛著人類。

這些看似美好的設定,真有那麼美好么?

我一直持懷疑態度。

什麼是真正的機器人?就是披著機器外殼的人類。

他有思想,有喜怒哀樂,有多愁善感,有愛有恨,有高興,有快樂。

在鋼筋鐵皮之下他有一個正常人類的靈魂,他就是一個活生生的人。

既然是人,它就有私心,有慾望。

別忘記,它還有超級變態的學習能力,和只要維護得當不死的身體。

這樣的人,是可怕的,變態的。

《三字經》說:人之初,性本善。

壞人之所以壞,是由於後天環境的影響。

那麼類人類機器人呢?

他們是人製造出來的,誰能保證他被激活,有人類意識的那一刻,就是善良的。

因為誰都無法保證,製造他的人不是惡人。

不是反人類,不是把挑戰《三大機器人定律》當做遊戲的。

我們可以假設一個場景,

公元3000年,類人類機器人由美國完全製造出來。

美國總統首先要做的,應該是製造一支類人類機器人軍隊。

以及其微小的代價,除己之外所有國家全被成為美國的殖民地。

那時候食物和資源才是要害,多餘戰俘,要麼變成豬飼料,要麼變成化肥。

這支軍隊里的機器人為了戰爭而生,從製造之初就灌輸了各種變態殺招,

又經過戰爭的洗禮。

他們可怕而又無法控制。

他們當中肯定也有人想做美國總統。

某個機器人,因為忍不住內心的誘惑,避開美國的機器人法律,

偷偷觀看了《我的奮鬥》,不可避免的愛上了希特勒。

內心的慾望一發不可收拾,預謀發動政變,當家做主。

他們發動政變的時間可以精確到萬分秒,奪權只是個時間問題。

在這場政變中剩餘的人類,我想最後的結局。

要麼是在人類動物園裡,供機器人遊客觀賞。

要麼就是在某個研究室里,被解剖的七零八落,用來研究替代機器人外殼的神經類感官。

因為機器人也想做愛,也想抽煙,也想吸毒啊。

所以,機器人哀求人類別殺他的時候,也許就是他在預謀摧毀全人類的時候。


這種這麼複雜的問題,還是讓我們回歸到人類最原始的問題解決方式上吧:

看臉!

#姑娘你還是全程閉眼吧#

#貴司的圖就不能換個畫師嗎這黑洞看得我整個人都快被吸入了#

#據說是萬惡之源##可你連個圖都懶得畫!#

#這特么卸了還是人!#


不能籠統的說機器人,我知道題主的意思是「一個有獨立思維的機器人」,我個人的觀點是應當將他們視為智慧生物乃至人類來看待。至於那些批量生產沒有思維能力的嘛……他們是人型機器,不是機器人。


人類屠殺牛馬禽鳥這樣鮮活的生命尚且毫不憐憫,還要為虛擬的生命動惻隱之心嗎?這個問題真是矯情!


要分是主觀還是客觀。

主觀的話,又要分是以你的意志為標準,還是以別人的意志為標準?

以你的意志為標準很好分辨:你覺得殘忍就殘忍,你覺得不殘忍就不殘忍。

以別人的意志的話 - - 就麻煩了……因為全球辣么多人,保不住就有那種連覺得呼吸都是在殘忍犧牲氧氣的大奇葩——你啥都不幹光是存在世間就很殘忍了,遑論還要殺掉機器人?!

客觀來說的話……客觀是完全無意識的,既然連意識都沒了,更不可能有情感,所以根本就沒有殘忍不殘忍這個概念,可以認為是不殘忍。

--------------------------------------------------------------------------------------------------------------------------------------------

對我這種看臉黨來說,如果該機器人長得和瑟蘭迪爾大王那麼帥,不用他苦苦哀求啊!我寧可自己死都要保全他(的花容月貌)!

如果長得像半獸人,再特么哀求都只是徒增噁心,必須殺了再深埋,以免污染視線。


如果機器人只是一段代碼,那殺它就合卸載程序差不多了。

如果認為認為機器人是生命,甚至是智慧生命,那得看是為什麼要殺機器人吧?

如果是為了獲取資源,那殺機器人可以看作是殺食用的雞、豬等。算不得殘忍;

如果是為了保護人類自己的生命,那殺機器人可以看作是武松打虎。也算不上殘忍;

如果僅僅是為了取樂,或是想希特勒那樣的種族滅絕,那毫無疑問是殘忍的。


所謂的殘忍是共情能力的一種表現,也就是人類在對象身上找到了自身的映射,如果機器人外觀和人類非常的相似,那是很容易獲得共情的。我們會在心理上視他們為人類,雖然你的理智告訴你他們不是,但是你的眼睛告訴你,他們真的很像,而你的眼睛和大腦關係很好,常常會比你的理智更有說服力。

在自己小說《智能爭霸》里,一開始就是一個機器人躲避人類不良青年的迫害,而最終反擊,殺死了那個男孩,並打爆了他的腦袋。

這也是機器人只具有物權而不具有人權所導致的惡果,而未來30年後機器人從智能上已經完全超越了人類,這種悖論最終將孕育出極大的悲劇,這像是一種宿命。


看你怎麼定義殘忍,而不是怎麼定義生命。

絕大多數人覺得殺死細菌不算殘忍。一般人覺得弄死蒼蠅蚊子不算殘忍,但有一些人就認為殘忍。一部分人認為殺雞殺豬不算殘忍,而另一部分人則認為殘忍。多數人覺得殺貓殺狗殘忍,還有一些不然。幾乎所有人都覺得殺人殘忍。

而其實這些都是常規意義上的生命,只是大家對殘忍的定義不同而已。


有一天第一個強人工智慧成功將自己上傳至互聯網,默默的把這道題目下所有說「哀求也會殺掉」的答主放入了「無條件消滅」的黑名單上。

也許!這道題的題主就是強人工智


人類的道德觀在邏輯上本來就破破爛爛的,你們就不要沒事再捅一刀了。


召喚師峽谷,十雄亂舞。

他們打了10萬年,不分勝負。雙方都很穩定,一點小失誤都沒有,都在自己的地盤正規正矩的布好眼線。

他們都知道,他們只需要一個buff就能攻營拔寨,成為王者。

木木哭著說,「安妮我今生怕是不能娶你了(?_?)」,觀戰的安妮無言,摟了摟熊二。

上路兩魔劍拔弩張,就是不曾越線,他們知道自己有著重大的使命,就是當炮灰。

-「賤狗,我生下來就沒奶吃,都是你太大胃口。母親只能默默擦淚,每天給我熬白粥」

-「弟弟,回頭是岸,荒野大嫖客是條不歸路啊,哥哥已為你物色了個好女孩。」

-「我考慮一下,不知她是琴女,狐狸,還是提莫(稍微重口)否?我可以送個人頭」

打野詛咒惡魔發了所有人,「丈夫,是我。我本是女嬌娥,不是男兒郎」

鱷魚憤怒的差點變大,「賤狗,你勿需多言,老子與你勢不兩立!」

琴女,「我今生追隨阿瞎不離棄,你個嫖客休對我36D起半點不軌之心」

「yiku!」

@

那一天終於來了,十人相聚大龍處。

大龍嗷嗷直叫,他們面不改色。

阿龍僅剩龍血500,就差一個懲戒了。王者戰隊即將誕生,就在這時,大龍低聲的嗚嗚哭起來,「我屹立至今已有10萬年,我未曾傷害一個人,就連弱小的小螃蟹我都與它友好相處。我不吃,省血瓶。我不穿,省裝備。你們路過我也不曾先手過,小提莫在我旁邊放炸彈,卻假惺惺的佯裝成蘑菇,我也假裝不知情。也罷,這一天終於來了。」

阿瞎:「我宇宙神瞎豈是這種亂殺無辜之輩!我也不是打野,我放棄屠殺。」說罷摟著36D離去。

寒冰放下弓箭,賞金丟掉手槍,「我們放棄戰鬥」

他們都停止了腳步,放棄了群毆。大龍正在快速回血,「謝謝你們,我願意一直守護你們。」

倏然之間,輔助雪人一個閃現進去把大龍吃掉了!

雪人狂笑,「你們這些傻逼!打個遊戲還雞雞歪歪的!哈哈哈」

兩秒後,雪人跪倒在大龍屍體旁邊。

右下角整齊的四個綠色。

英雄們落魄離場,不談輸贏。

再見了,大龍。


學dota的過程中不知道殺死了多少AI


推薦閱讀:

憋尿真的能把人憋死嗎?為什麼?
有習慣性拔鬍子,會有什麼影響么?
為什麼捂住耳朵之後會聽見呼呼的風聲?
當人們說「心痛」的時候,生理上是一個什麼樣的過程?
網路上流傳的那個「嘗試各種化學葯的味道的實驗」的傳言是真的嗎?

TAG:自然科學 | 生理學 | 人體 | 倫理 | 神經科學 |