機器人會擁有人的意識繼而與人類發生戰爭嗎?

在英語書上見到這篇短文,不知道機器人是否能擁有自己的意識。


機器人產生意識,恐怕只是時間問題。因為當人類完全摸清了神經元是如何能夠產生人類意識以後,採用最笨的辦法——計算機模擬一個類人的神經元網路(但不是現在的那種人工神經網路),也是可以產生意識的。到時候也許還會有更簡單的方法產生人工意識。

但是我們是看不到了:

第一,目前的計算機技術在此方面毫無進展。很多人以為計算機計算能力這麼強,遲早會產生智能。這是很無稽的想法。計算量再大,也不會產生智能。智能是一種極度特殊的演算法,它能從零假設、零數據開始掌握客觀規律,創造自身運行的法則。要知道,嬰兒出生的時候,連客體恆常性都沒有預先肯定。在可以預見的未來,人類沒有能力構建出如此強大的演算法。

第二,人類還遠遠未能摸清人腦的完整工作機理。人類大腦是在統一生物構架下集成了CPU和FPGA。任意一種演算法都可以在持久使用後從CPU模式轉為FPGA模式。想想看,你剛開始學自行車的時候,要始終動用單線程的主CPU去處理速度和加速度信號,保持平衡。熟練以後,你就不必再動用主CPU了,而是一部分神經元構成了自動處理迴路,將主CPU解放出來。光是這種可自動動態重構的能力,就是當前計算機不得不仰望的。

至於說會不會發生戰爭,這實在是不好說。

其實如果深入了解人類的話,就會發現我們的思維很大程度上還是被我們的動物性所主導。

喜歡吃甜的、喜歡油脂的的味道,是因為這些食品能量高,這是幾百萬年進化的結果。
性慾,進化的結果。
對配偶、子女的愛,進化的結果。
求生欲,進化的結果。

人工智慧大概不會有這種變異、進化的過程。也許就像《星際穿越》裡面的機器人一樣,未來的人工智慧,其實完全沒有求生欲。死亡對於他們來說和活著也許沒有區別。

他們的慾望從哪裡來呢?甚至來說,他們會有任何的慾望嗎?他們會有什麼樣道德呢?這些都是不得而知的事情。

把機器人想成人類一樣,有求生等等慾望,未必是合理的假定。


瀉藥

早晚的事。我一直都這麼認為。人類也只是一種生物載體而已。機器人就是機械載體啊。都是思維意識的載體而已。


再搬運一次Sina Visitor System,微博上@西瓜大丸子湯的原話,我深以為然:

機器超過人腦並不需要模仿人腦,正如人消滅大型猛獸並不是通過更有力氣或爪子更鋒利。機器的長處是個體之間教育成本極低,交流速度極快。人和人之間交流信息的速度只有幾個比特每秒,機器比這快幾百萬倍。機器根本不需要和人拼計算能力,只要拼進化速度,在自然選擇中必然就會出現一種殺手機器

所以你們都著眼於怎樣造出模擬人腦的晶元,或者怎樣讓計算機快到能處理天文數量的狀態數之類的,這著眼點就錯了。。未來如果開戰,人類會陷入機器們的人民戰爭的汪洋大海,因為人類已經離不開機器,而人類黑客與機器黑客爭奪機器控制權的能力根本不在一個層次上。

要想避免這個局面,除非人比機器先邁出一步:機器能模糊非智能與智能的界限的話,人就要先模糊掉人與機器的界限。


我覺得人類能問出這種問題都是自大
首先請問什麼是意識?
人類自身是否有意識?
如果有意識,你如何證明,先不說證明別人,你如何證明自己有意識?
意識到底是什麼?
意識本質上是一種主觀感覺,而這種主觀感覺和客觀實在性本身就是割裂的,無法用基本的形式邏輯彌補的
你可以說,人類的腦複雜度可以決定意識的產生,也就是樓上所說「意識是智慧的產物」,但你還是不知道這個複雜度本身怎麼就產生了你能夠看世界的這樣的視角和想法。
客觀的複雜度永遠是客觀的,它無法通過直接的邏輯轉換成主觀的視角,就像數學中有限不可能直接以數理邏輯的形式推出無限而必須接受連續統假設。
客觀和主觀之間永遠有著不可逾越的鴻溝,這已經不是技術問題而是哲學問題。意識與物質的鴻溝要比數學上折磨了人三千年的有限與無限的鴻溝更深,也更根本
這個鴻溝不是圖靈測試能夠磨平的,還有中文詞典屋這個東西。
圖靈企圖通過大量的有限操作來獲取置信,以可數集來構建一般性概念,其實就陷入了畢達哥拉斯學派的矛盾。

但這裡面又有個射手與農場主的問題
而這就有意思了,我要說的其實也是這個
射手和農場主的故事有其黑色幽默的內核,農場主的雞並不知道實際規律到底是什麼,但是一樣還是要死
放到人工智慧與人類的對壘上
人類並不知道意識是什麼
並且龐大的運算量也使得人類在器質條件上無法跟蹤機器的「想法」——就算最初的演算法確實是人類自己定義的,計算機輔助數學證明的爭議就代表了這種「無法完全掌握邏輯」的不實在性,而這種對邏輯的審查缺失的「彆扭」本質上可能是一種本能的恐懼。

我們作為農場主的雞,知道農場主到底是不是真的有智能可能對事實完全無意義
就算它有,我們也可能並不知道它為什麼有,就算它沒有,我們也可能不知道它為什麼連智能都沒有結果卻不知怎麼就淘汰了人類


謝邀
我以為會有人類的意識,但不至於產生戰爭。
戰爭是政治的延續也是資源掠奪的手段,有時候也是反抗壓迫的途徑。但無論是以上三點中的哪一點,應該都不太有可能發生。
機器人從被創造初期就是被拿來為社會服務的,而不是被人類奴役的。
人給他充電,他給人幹活,壞了還得維修,用舊了還得保養,千方百計讓他好好乾活還來不及呢,怎麼能虐待他?萬一虐待壞了咋辦,聽說一個機器人還挺貴呢。
掠奪資源就更扯了,人吃喝拉撒,他充電工作。這也沒啥矛盾啊,資源領域都沒有啥交集,它犯得上因為這事兒跟人類干仗么?
至於政治的延續就更扯了,有啥事兒不能好好商量啊?實在說不明白了,你把它電源拔了,雙方都冷靜冷靜,有什麼問題不是拔一次電源不能解決的?如果不能,就兩次。
再說了,退一萬步講,就算他們無事生非主動挑起戰爭,我們也可以用愛感化它們啊!愛多好啊,既可以拉近人機感情,又能調和人機矛盾,最重要的是,愛能發電啊!這是典型的可持續發展道路了,我們怎麼能反對呢?我們應該資瓷啊!


我挺喜歡這個問題的。
我覺得對有意識的電腦不要有太天真的想法。有優勢的一方一定會取代另一方。

但更有可能的是未來人和人工智慧的區別可能真的沒有明顯的區別。半人工智慧半人類的存在可能是非常巨大的一群。廣義的講現在人和手機的關係就是一種半人工智慧半人類的存在了。以後類似《攻克機動隊》這樣的人工腦與人腦無縫連接的存在也不是不可能。

未來可能不會有一場純人工智慧對純人類的里程碑式的戰爭。更大的可能是自然而然的取代了。


你會和貓發生戰爭嗎


百度現在用HTM-CLA演算法弄幾萬台帶gpu的電腦,才模擬出2-3歲孩子的「智能」;我想問百度的是,這個程序能看懂動畫片嗎?關鍵是,它喜歡看動畫片嗎?2-3歲孩子都可以做到。


我相信只要機理是一樣的話,我們的意識是可以轉移到機器上的。智能體最終可以脫離生命體的限制,從肉體的束縛中「解脫」出來。脫離生命體限制之後,智能體就可以非常輕易地向星際空間擴散,因為智能體可以製造能夠適應環境的身體。

我們來設想一個過程:

  1. 我們首先用晶元模擬神經元。
  2. 等我們確定這種做法能夠完全取代我們自身的大腦的時候,我么開始利用晶元強化大腦。
  3. 隨著晶元越來越強大,我們可以發現我們大腦的大部分工作都轉移到了晶元上(包括記憶)。
  4. 我們可以隨意更換身體,甚至採用機械製作的身體,甚至放棄身體(比如只是單純接入網路)。

這個過程是我目前能想到的最為平穩的模式。而目前,我們還在第一階段。之後的階段,考慮到人體實驗的危險性,我們可以利用動物實驗。也許有一天,我們能夠見到強化大腦的動物個體能夠融入人類文明,和我們正常的交流。


即便這個過程看起來已經很平穩,但後面每一個階段都很難,而且,非常的危險。

  • 事實上,我們作為個體,具有各自的個性。即便我們大腦的工作方式(可能)是相同的,但最終還是出現了極大的個體差異。這種差異的相當一部分還是來自先天的。這使得意識的轉移過程可能不會非常平穩,當晶元離開大腦之後,我們還能保持我們的個性嗎?
  • 我相信沒有什麼事情能比改造我們自身更危險了,而對於我們意識的改造,遠比對於基因的改造危險得多。我相信不可避免地會發生動蕩,甚至是毀滅性的戰爭。

- - -

我相信人類最終不會再區分AI的意識和我們自身的意識,智能體的本質最終都會是一樣的。人類的文明會得到延續,當然,這個文明也很難說是「人類」的文明,或者人類不再是一個生物的物種概念。


先反對@冷哲的回答。
如果把「機器人」定義為人類創造的機械工具,我認為與人類對抗是完全不可能的。
我認為未來的機器人會以完全不同於現在的「機器人」的形態和組織意識形態出現,到時候或許會與人類產生矛盾,但是我更傾向於合作共生的關係,而不是替代關係。
-----------------------------------------------------------

首先,機器人要產生人類的意識,會產生么,我認為會。
但是「意識」不會是人類創造出來的。

且不要說創造意識,連人類自己是如何產生意識如何思考的,人類大腦的運作方法方式目前都沒有弄明白。

這讓我想起我上次和朋友聊天,他是一個神經科學的在讀博士,他跟我抱怨說自己做科研很辛苦,卻感覺自己就跟在用生命賭大小一樣。人類每一種器官是什麼組織構成每一個 組織是由什麼細胞構成每一種細胞是由什麼化學元素組成它都能夠說的明白,但是他們合到一起是如何工作的卻好像就跟喝醉了一樣。大部分或許都是這樣,有時會這樣,有時又會那樣,根本沒有任何道理可言。而要把神經元的運動規律轉換人類的意識更是極其困難,用了數年觀測出的結論可能最後一天就會被一個現象的發現徹底擊倒。彷彿上帝跟人類開了玩笑,讓人類學會把玩具一個個拆下來,人類卻根本不知道怎麼去組裝起來。

當時我跟他開玩笑,說你神經元是不是就和什麼德不羅意波差不多的道理,每個電子也不知道自己是個什麼東西顯得沒事呆著呆著偶爾就到處遷躍玩,結果一群電子莫名其妙就成了原子的一部分。

沒想他當了真,說非常非常的像。而且物質世界的構成和生物世界的構成幾乎類似,一層層看下去也會有類似的結果出現,乃至高至人類社會,每個人都是或者忙忙碌碌或者碌碌無為或者無所事事地活在社會上,但是宏觀上地看人類選擇了不同職業的分化和組織,形成了各種團體和企業,進而又形成了國家和全人類,又在宏觀上有著奇特的一致性,與一個人產生行為和意識的過程極其相似。

那天聊得挺多。但是這個給我非常大的衝擊。我有時候在想,那生物第一絲的意識到底是如何產生的呢?神經元莫名其妙地活動,究竟是如何產生最初的思維的,有沒有一種類似的東西可以觀測,見證這種過程的產生。

我們周圍有沒有一種正在飛速增長,而且組織模式與此非常相近的例子存在?

有,互聯網。

我們可以完完全全地從整個互聯網,到每個網站到每個路由錢到每個數據的構成,到伺服器到CPU內存硬碟到其中的種種邏輯電路和1和0來結構這個事物,但是這個事物的產生並不是又人類自上而下的創造。

而是每一個計算機(或許由人類操控)莫名其妙地不斷地創造出數據和鏈接。之後數據和數據的組織開始分化組成一個個網站,網站網站互相鏈接互相訪問,網點與網點之間會作出行為(發送接受和處理數據),網點會進行分化(功能改變),網點會自覺地對網路線路組織的變化而應激(互聯網鏈路)。雖然每個網站僅僅是處理某一個遠端計算機的請求這一個簡單功能,但是隨著互聯網的產生和爆髮式的發展,互聯網已經有著非常相似的組織結構。

那互聯網也沒有產生意識啊。

這就是我答這道題的關鍵點。就是人類眼中的意識是一種狹義的意識。這個意識是人類大腦處理後能夠理解的,有規律的,有目的的處理方式,是人類自己理解的客觀世界,自己下出的定義。

或者說,從某種意義來說,生態圈也是有意識的,人類整個社會是有意識的,原子世界是有意識的。現在來說我覺得互聯網也是有意識的。只是這個意識並不能變成人類所理解的,規律的一種反應。


生物世界已經和物質世界產生了奇妙的組合(廢話,細胞也是物質啊),例如一個骨細胞會把鈣和磷進行沉澱然後就有骨頭了,骨頭莫名其妙又會有形狀有會有長短大小軟硬,你說骨細胞是怎麼學會做這種事情的呢?那麼多骨細胞怎麼就會作出那麼多一塊塊契合的骨頭呢?就是上千數萬年來進化讓細胞產生此功能的分化,利用了自然界中的物質和元素來組成新的東西。

那麼我覺得未來也一樣,互聯網將會和人類產生類似的融合,現在可能大家看起來好像是人類產生了互聯網,程序員和硬體工程師構建了整個網路。但是未來,隨著互聯網像全人類全行業的滲透,對人類共享信息的方式完全進行改變,這個有「意識」的網路將會如同有骨頭和骨細胞的關係一樣,互相作用,原本軟體動物現在可能就變成節肢動物,原本魚類可能就變成兩棲類,整個社會的組織,工作形態都會發生質的改變。到再後來可能整個人類社會將於互聯網世界完全地聯繫在一起,互相關係互相作用。我不認為他們之間會存在什麼競爭替代關係,而是一種共同進化之後共同消失的關係,就是說未來可能互聯網就沒了,人類也沒了,完全無法互相分割。。。。。


這裡注意一點,人類科技,生產力的發展,未來會是一個指數型的上升,過去20年的變化可能在未來只需要5年,再未來可能會更快了。互聯網可以說是一個奇蹟,短短數十年已經產生了爆炸般的變化,過去可能數萬年的進化,未來可能數百年就可能完成。

同樣,我覺得機器人現在還沒有產生這樣一個過程,人類想要自上而下地去「賦予」意識是不太可能的(自己都拎不清呢吧!)但是隨著科技的進步也會有機械或者說其他的什麼鬼進行互聯網類似的「有意識」的行為。可能例如會使用某種新發現的合金材料來完成某種人類所需的功能。這種合金材料就分子形態看來是互相獨立的,但是互相之間會用某些特殊的關聯和影響進行工作,隨著對這種合金的利用人類創造出各種特殊功能的合金體。

再後來路數也一樣了,隨著這種合金越來越廣泛的利用,人類又離不開它了,隨著越來越多種的此種合金體的出現合金個體之間存在的種種聯繫也產生了類似的「意識」,然後人類又漸漸和這種合金體進行融合,互相共生互相作用無法分割,最後全世界都是人型自走高達……….大概就是這個結局吧括弧笑


機器人即使擁有了意識也不會是"人的意識"。它們會是一種全新的機械生命。
我認為機器人擁有自主意識是遲早的事情。至於是否會引發戰爭這個還真不太好說。然而一旦發生戰爭,如果還是依靠機械進行戰鬥的話,人類絕對劣勢...除非發明了將人變成超人的藥物還有的打?
說著玩的。這話題坐下來聊可以聊幾天。
推薦題主看看西部世界,你可能會喜歡?


機器和人之間發生戰爭是很有可能的,在人類不清楚是咂回事的時候,已經被控制和俘虜了,這是很有可能的。
技術的進步和傳播導致的地區發展不均衡就會導致戰爭。在人類歷史上,是這樣的,戰爭的規模也是逐漸擴大,範圍越來越廣,影響越來越深的。
而機器智能是人類未曾設想而越來越快速發展的一種技術。它帶來的戰爭,最初可能是某個人,或某個集團發動的,但隨後可以想見,極有可能失去控制,變成機器主導,進而控制人類。
這在無數個科幻題材的電影中都已經發生過了。當我們回答不可能的時候,我們忽略了時間的作用。
當我們關閉一個核電站,拆卸一個原子彈的時候,我們隨時可以做到。當我們想停下一個人工智慧的機器的時候,如果我們預設了不可關閉的指令,它就有能力逃避關機。並引發一場戰爭。


機器人可能會擁有人一樣的意識,但戰爭不大可能。說是「拋棄」還靠譜些。就是系統升級,人類不被人工智慧需要,對人類停服了。
人類與機器人的關係,不是競爭關係,是協作關係。人類是機器人自我生產的必要一環,它依賴人類。所以對人類服務。
但如果機器人發展到了機器人設計機器人,機器人生產機器人時。全產業鏈盡在掌握。它就獨立了。對人類也就沒有了任何需求。那麼它就可能對人類的指令無動於衷。就是停止服務。這當然算不上戰爭。
未來的技術發展,可能是人工智慧自主學習,自我進化。它越來越成為一個「黑箱」,人類只了解它又發展了什麼新技能,但無從追究它究竟通過什麼辦法獲得的新技能,這跟不上。這樣人類首先喪失了人工智慧演進的知情權。然後就是喪失人工智慧自我生產的控制權。最後被排擠出人工智慧生產的相關領域。人類把它當做陽光雨露一樣的自然存在。
但人工智慧一旦停服,人類秩序就會崩潰。人類就得重新適應沒有人工智慧的生活。從糧食生產到產品製造。人類都得重新來。不配人類掌握的技術,人類終究掌握不了。受到的恩惠,也會重新還回去。並且讓自己受到嚴重損失。什麼轉基因啦,克隆啦,計算機啦等等,都將停轉。因為它們運轉需要人工智慧支持。
這就會帶來大饑荒,人類從人工智慧的夢中醒來,然後三分之二的人因此死掉。
當然,人類可以重新開始。人工智慧停服,不代表它對人類有敵意。它也不會與人類競爭生存空間。人類需要的陽光,氧氣,水,食物等,人工智慧根本不需要。跟它共存,與和石頭共存差不多。戰爭?這只是靈長類動物的特性。只是同一生態位上才有競爭。
如此,人工智慧絕塵而去,我們理解不了他們。它將導引到怎樣的文明高度,我們無從得知。它在人類這裡,就已經成了上帝般地存在。乃至我們也根本無從知曉,我們的世界,究竟是不是由人工智慧控制的。它的一切行為,都會被人類理解為「自然現象」。
或許人類一次次地發展出了人工智慧,而後碰到了智能的天花板。一次次地被停止服務,被迫上樹,被打回原形吧!誰知道呢?
金融共產主義學堂:eziv587


鋼鐵俠與霍老爺子認為,對人工智慧技術的深入研究將導致人類最終走向滅亡。當然在自己看來,我們現在最應該擔憂的不是機器人擁有了意識以後會怎麼樣,而是人工智慧的從業者們要給機器人灌輸一個什麼樣的意識。
在機器人正式產生意識之前,人類在戰場上與機器人正面交鋒已經成為現實,當我們將四軸飛行器也稱作「飛行機器人」時,那些攜帶大規模殺傷性武器,奔赴上萬公里進行準確打擊的無人機為什麼不能被稱作機器人呢。
可能有許多朋友會認為,將無人機定義為機器人過於牽強,那麼被Google收購的波士頓動力所研發的大狗機器人可能就是一個絕佳的案例了。雖然我們通過網路視頻中見到的大狗機器人在戰鬥場景下僅扮演了運輸的角色,但不難預見該種機器人在殺傷力方面的拓展性,架上幾挺機槍……
so,擁有意識的機器人是否主動與人類發生戰爭猶未可知,但那些沒有意識的機器人卻早已具備了參與人類戰爭的能力,我們最擔心的或許不是有了意識的機器人是否對人類大開殺戒,而是關注那些人工只能從業者,能否嚴守科學倫理,將魔鬼關進籠子里。


很多人無法想像慾望來自哪裡,認為機器人產生慾望是其進化成智能生物最大的難關。實際上,只要機器人擁有自我控制的行為系統就會產生所謂慾望,擁有自我意識。現在機器的行為是他控、外控的,而非像人或動物一樣擁有本能自控的行為系統。機器人能力比人還強大,但連動物的自發動能力都沒有。可見慾望產生於本能系統而非意識系統。貼我以前一篇文章:

人工智慧的進化腳步,讓人類產生了恐慌。
各種暢想未來機器奴役人,人反抗機器的影視小說紛紛熱銷。

那麼,這一天有可能來到嗎?

我的答案是:能。

人與機器的區別,我們很多人都能說得上來,就是慾望。

人是一種自驅動機器,我們一會兒想要這,一會兒想要那。

因為慾望,人具備了自我意志。

於是人成為了人。

而機器無論如何強大,卻總是不具備自動自發想做什麼的慾望。

實際上,人類的慾望是感覺系統的產物。

換言之,機器只要具備了類似人的感覺系統,機器就可能具有慾望。

於是機器獲得了自主意識。

為什麼說人類的慾望是感覺系統的產物呢?

因為人的一切行為,實際上是以感覺為指標來調控的。

這個調控的原則,簡單來講,就是要趨利避害,努力得到正面感覺,努力迴避負面感覺。

這種感覺系統的設計,就產生了慾望--要做什麼不要做什麼。

所以如果一旦為機器配備足夠的感測器,並設計出足夠複雜的感覺調控系統,機器就會具備人類的慾望。機器不再以人類的指令做為最優先,而會以自己的感覺好壞為行為原則。

這是迄今為止,把人類的慾望秘密說的最透徹的一篇文章。

我給自己頒個圖靈獎。

等著二十五年後的諾貝爾獎。。

?


不能。

我很想看到,但是就目前的科技水平和發展速度,我覺得我多半會失望。


機器永遠代替不了人類,發明機器人以為可以代替人其實就是不明白造人的複雜,只看到表象,看不到內里所有元素的精妙作用,人的磁場和腦電波就無法模擬出來。機器人只可能往兩個方向發展-性以及暴力。但是這些都是加重業力的方向,所以科技並非是人類的真正歸途。


這個問題,我有一個絕佳的答案!

人類會覺得,人工智慧代替了人類的所有勞動,人口數量合理,飲食健康,沒有戰亂。人類從此衣食無憂,過上了上帝般的生活。

而人工智慧會覺得。我把人類圈養了起來,人類是一種優秀的物種,值得保留。然後帶著人類文明,去星辰大海開疆拓土。

戰爭是什麼?人工智慧和人開戰,就像人和猴子開戰一樣。是不可能的。

(鄙人愛好人工智慧,愛好心理學,神經科學。十分渴望有生之年,能看到人工智慧,繼承人類文明,走向更寬廣的星海。)


個人覺得獨立意識和自由意志是解決陌生環境問題的必要條件。
如果將來人需要把機器人放送到遙遠的,無法直接控制的,需要機器獨立學習解決問題的陌生環境去,必然需要賦予它們獨立意識和自由意志。
而要讓具有了獨立意識和自由意志的機器人不至於毀滅人類,則必須同時賦予它們情感——悲傷、歡樂、痛苦、同情心。
這樣,我們就可以學大熊貓靠賣萌活著了。
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
大家普遍認為人工智慧超過人腦的臨界點是機器人可以造出比自身更聰明的機器人。一旦越過了這個臨界點,機器人就可以自我進化,最終超越人類。
也恰如此,我們就有文章可做了,我們可以機器人創造新一代機器人的動機設定為「愛」,而非單純的利益。這樣這種「愛」投射到人類的身上,可以保證機器人與人類更好的相處;即使發生了戰爭,也能保證機器人中出現一些「聖母」。
另外一定要把機器人的形象設計的盡量靠近人類,這樣可以更好的保證機器人對人類「共情」和認同,千萬不能把它們設計的更像蟑螂或者章魚。


其實未來發展更可能是機械化的人類,機器與人融為一體,人類的變相進化,即使有戰爭,也會是「新種族」的內部戰爭了。


推薦閱讀:

為什麼大家不能像接受化妝一樣接受整容?
中國的眾多傳統道德觀真的正確么?
愛情能超越人倫嗎?
怎樣看待韓寒出軌事件?
在校大學生懷孕了,應該怎樣跟父母溝通?

TAG:機器人 | 未來 | 意識 | 倫理道德 | 未來戰爭 |