智能機器人會滅亡人類嗎?

人工智慧已經成為霍金AMA的主題。霍金在今年夏天會同喬姆斯基和伊隆·馬斯克等人發布公開信,要求對人工智慧發展實施更大的監督,其中主要針對目標是美軍無人機。

就在前幾天,霍金擴大了這份公開信的範圍,霍金開始展望更遠的未來,霍金說,惡意的機器人和AI不會對人類造成威脅,他擔心聰明能幹的AI會讓人類滅亡。霍金表示,一個超級聰明的AI可以非常好地實現它的目標,如果這些目標都沒有與我們人類一致,我們人類就麻煩了。

換句話說,如果AI確實消滅人類,它更可能是用間接傷害的方式,而不是一些科幻片當中的直接剷除人類的情節。這就是為什麼霍金等人繼續堅持人類對AI發展的監管和控制。


我先說下我的憂慮,當然可能有點杞人憂天啦!

現在,許多國家都把大數據上升到了很高的戰略地位,這意味著大數據可能得到前所未有的發展。

其次,人工智慧技術其實發展速度大家有目共睹,各種各樣的智能設備層出不窮,就現在而言,人們對智能手機的依賴程度已經非常高了。

再次,現在黑科技發展的速度在時間上越來越短,很難說某天可能某個天才誕生,然後一下子技術又上一個台階

……

人工智慧發展下去,我們有沒有可能就像黑客帝國那樣?歡迎大家加我們信微 idacker 交流。


到時候人類生命肯定會進化成新生命形式,很有可能人工智慧本身就是新人類的一種類別。

而舊人類肯定會滅絕。


人工智慧需要的資源和人類又不一樣,沒必要非得把人類趕盡殺絕。

以後純人類老實呆在地球上就行,宇宙探索交給ai和其他新人類就是了。


智能機器人會毀滅人類嗎?

其實這是個非常複雜的問題,在回答之前我們先來明確下幾個概念

什麼是智能機器人:雖然最近人工智慧這個概念開始被大眾普遍熟知,也被很多媒體反覆提及

但到底什麼是人工智慧吶,讓我來詳細解釋下:

現在科學界普遍定義人工智慧是一種擬人的智能,也就是說所有的思維方式都是復刻人類的模式,人類的智能是一個非常複雜的集合體,計算機最早模擬了人類的 」 計算 」能力----ALU (arithmetic and logic unit ),「記憶」能力----RAM/ROM/Hard Disk,然後又模擬了 「 感知 」-----感測器(sensor),包括近幾年出現的 」 深度學習 」能力----Deep Learning. 這些都是對人類智能的一種模擬。

接下來就引出了下一個問題----人類智能和人工智慧最大的區別在於哪裡:答案是情感和意識

情感使人類能夠有喜惡和偏向性,而意識則讓人類能夠區分現實和想像。為什麼要提到這兩個概念,是因為在眾多科幻電影中,人工智慧毀滅人類就是因為產生了自我意識及情感,他們認為人類是邪惡的或是多餘的,所以幹掉了人類。

但事實上,在現實生活中,人工智慧如果要毀滅人類,很可能並不是以這種形式,原因在於:

情感對於人工智慧來說並不是必需品,這可以說是人類智能的附屬品,有了情感並不能使我們更智能,只是會讓我們更不可預測,但這對於機器來說顯然沒有必要賦予,也不應該賦予。

意識這個東西就更玄乎了,人類科學家到現在都沒有搞清楚意識是什麼,更不要說賦予機器意識了,唯一的可能是在不知情的情況下機器突然產生了自我意識,而這個可能性至少在很長的時間內微乎其微,且這個問題並不及我將要說到的問題緊迫

既然科幻電影里的情況並不太可能發生,

那麼人工智慧是不是很安全了那?

答案是NO !!!

大寫的NO!!!

早在人工智慧還只是一個科幻概念的時候,美國著名科幻小說作家艾薩克·阿西莫夫就在其1950年發表的小說《I,Robot》(對,就是威爾史密斯演的那部電影的原著)中提出了著名的機器人三大定律:

第一法則:機器人不得傷害人類,或坐視人類受到傷害;

第二法則:除非違背第一法則,機器人必須服從人類的命令;

第三法則:在不違背第一及第二法則下,機器人必須保護自己。

這個三大定律之間的內在邏輯其實很嚴謹,且一旦被作為代碼寫入人工智慧機器人的程序,就好比人類的基因一樣,機器人就會像人類餓了要吃東西,困了要睡覺一樣,嚴格遵守這些定律(除非他們可以修改自己的代碼,同樣的,這個問題並不及以下的問題緊迫),不必擔心他們會違背這些定律,那麼問題是什麼那?

問題就在於第一條定律本身,機器人很可能無法準確判斷!

無法判斷的問題有二,我們分別舉例說明:

問題一:哪個人類比較重要?

什麼意思,就好比說機器人它當然能夠知道它不可以隨意毆打人類,哪怕它再強壯,再刀槍不入;

同樣它看到有人落水了,他會第一時間去救援他,哪怕它可能在水中會報廢。但是有一種情況會出現問題,那就是如果需要他抉擇救誰,或者傷害誰!

舉個栗子:比如現在有兩個人同時落水,但只有一個機器人,他的能力只夠救起一個,他救誰?再比如,有一個機器人保鏢,它的主人遭到攻擊,他是否應該反擊哪?無論反擊不反擊,他都必須傷害人類。當然,以上這些問題還不至於滅絕人類,但是看下面這種情況,如果現在基地組織頭目擁有一些機器人,先不考慮恐怖分子是否會改寫機器人代碼,哪怕就是一個普通的嚴格遵守三大定律的機器人,如果世界上大多數政府對其主人進行不斷圍剿的情況下,他是否會判斷,毀滅這些國家是保護人類(它的主人)的方法?如果他足夠強大,那麼會發生什麼那?細思極恐啊。機器人沒有價值觀,這個是最可怕的,它的一切基於邏輯。這個其實類似於一個經典悖論問題----電車難題,不知道的可以百度一下,人類尚且存在爭議,機器人就更難判斷了。

問題二:不直接傷害人類是否就意味著不會傷害人類?

這個問題看上去有些拗口。舉個栗子:機器人的智能越來越高,它已經不滿足於在危害發生時保護人類,它準備要防患於未然。於是它先大舉消滅了很多毒蛇害蟲,暫時看似不錯(其實這個行為本身破壞了生態系統,並不一定是好的),接著他發現每年西班牙會有個別人類因為鬥牛活動被牛撞死,於是它幹掉了所有的牛,同樣的它會幹掉所有它認為會危害到人類的一切生物,哪怕概率很小。這時人類可能會失去大量食物來源。接著它又發現,車禍,房屋倒塌等天災人禍也可能導致人類受到傷害,所以他乘沒有人在的時候,把所有的車輛,房屋全部毀掉。以「解決」這些問題。接下去你只需要發揮想像就知道,他可能會毀滅一切來保護人類,而事實上失去了食物,住所及一切一切的人類很可能反而會因此間接滅亡,最可怕的是,當機器智能足夠高,高出人類很多的時候,這些行為人類不但無法阻止,而且從開始到完成可能在大量的機器人的操作下,只是一瞬之間發生的!

而這一切的一切,都是符合定律的,看似很簡單就能解決的,實際上機器的誤解肯能會造成人類的滅絕!

所以,霍金等人真正想讓我們警惕的是以上這種情況的發生,人工智慧,我們真的準備好了嗎?

在智能發展到一定高度的時候,我想應該先緩一緩,把機器人的價值判斷體系建立起來之後再進行進一步的智能發展,或許是一件非常重要的事!

本文分析內容參考自 未來奇點機器人 (微信號:irobot2045)


日前,有報道稱,俄羅斯工程師忘記關門,導致機器人「私自出逃」,跑到大馬路上,造成了交通擁堵,有人覺得好玩兒,有人卻說瞬間有種心塞塞的趕腳,幸好逃跑的機器人不傷人,不然麻煩就大了,對於這樣的問題,專家們也表示,確實令人擔憂。

就目前來說,媒體向我們的展示的各類機器人,主要用於服務行業,解放勞動力被放在首位,理論上來說,這是人類科學史上的又一大進步,然而,就像當初「蒸汽機」出現一樣,機器人和人工智慧的出現,同樣引起了學界的大辯論。

6月26日,據英國《經濟學人》雜誌報道,對於機器人的崛起,專家們曾發出警告,「機器取代人類勞動力可能致使人口冗餘」,他們擔心「這種超能技術的發展已經超越了人類的駕馭能力,」如今,一些人表示擔憂,如果人工智慧繼續進化,我們會失去賴以為生的工作、喪失存在感,甚至最終會被「終結者」們趕盡殺絕。

專家們說「趕盡殺絕」,其實直接表達的是人工智慧技術可能會破開人類控制的牢籠,變得邪惡不可收拾,變身為「殺手機器人」。甚至有研究人員擔心在未來,事關生死的決定將由機器做出,不具備情感的機器,可能會造成過度傷害,或錯誤把平民當成攻擊目標的風險將會因此增加,而且還沒有人可以被問責,並對此發出警告:一年之內不禁止「殺手機器人」就來不及了。

其實,筆者所理解的「殺手機器人」,應該有兩個層面的概念,一種就是上文所說,勞動力逐漸被機器人取代,人們會喪失存在感,最終變成行屍走肉;第二種概念,就是說機器人變成戰爭或者暴力的產物,在戰場等地對人類綻開直接的屠殺,那麼,關於研究員「一年內不禁止就來不及」的擔憂,到底是否是杞人憂天?

首先,第一個層面,人類勞動力被機器人取代。

這應該說是未來必然會出現的一種局面,尤其是對於一些不需要過多情感投入的工作,比如,清潔工、會計、銀行櫃員等等,可你是否從反面想過,事實上,科技的進步和機器人的出現,為社會創造的就業崗位是否遠遠多於它所殺死的崗位?

就好比,銀行的ATM機取代了銀行櫃員的一部分工作,但是這卻衍生出了一系列與之相關的職業,零件製造、安裝等等,再比如機器人送貨,看似搶了快遞員的飯碗,可是卻繁衍出了送貨無人機相關的職業,維修、研發等等。

而且,機器人所能取代的可能是我們的四肢,卻取代不了人的頭腦和情感,就算人工只能可以進行深度學習,變得比人腦更厲害,可在真正的人際交往中,並沒有什麼卵用,比如那位跟阿爾法狗對弈輸了的韓國國手李世石,在達沃斯論壇上,當他被問到當時對戰阿爾法狗的感受,他表示最大的感受是「驚訝」。「面對毫無感情的對手是非常難受的事情,這讓我有種再也不想跟它比賽的感覺。

都說「棋逢對手」,可當這個對手並沒有情感,哪怕技術再強大,也找不到樂趣所在。

第二個層面,機器人變為武器。

有相當一部分國家,已經在秘密的研究機器人武器,其中一些國家已經在使用Reaper這樣的無人機在戰區開展任務。如果在激烈的戰鬥中,出現了機器人非法殺人的情況,那應該由誰來承擔責任呢?人權觀察組織今年早些時候發布了一份報告,得出了一個非常令人不安的答案:沒有人。

該報告名為《殺手機器人問責機制的缺失》。該組織說,我們必須改變這種缺乏問責制的狀況,禁止研發和使用「殺手機器人」。「不問責,意味著對今後的犯罪行為沒有威懾力,對受害者沒有進行補償,對肇事者沒有進行社會譴責,」「機器早就開始充當戰爭工具了,但是之前,它們的使用方式是由人類控制的,」「現在如果人類會放棄這種控制權,把事關生死的決定交給機器,風險就太大了。」該報告的主要作者、人權觀察組織高級兵種部研究員邦尼·多徹蒂寫道。

然而,有些人則支持讓機器人去打仗,以免人類在戰場上送命。去年,1000多名技術和機器人技術的專家——包括科學家霍金,特斯拉首席執行官伊隆·馬斯克和蘋果聯合創始人史蒂夫·沃茲尼亞克——警告說,這種武器可以在數十年,乃至數年內研製成功。

想像一下,如果某一天爆發了戰爭,冰冷無情的機器人將槍口對準了人類,是怎麼樣一種場景?最可怕的是,當人工智慧有了自己的意識,掉轉槍口對準了所有人類,我們的世界又該是怎樣一種景象?而人類將生殺大權交給機器人,生命的尊嚴又該何去何從?生命的價值,真的是一些沒有感情的機器可以理解的嗎?我不這麼認為。

所以,對於「殺手機器人」如果單從解放社會勞動力層面來說,對這個社會應該是利大於弊,但如果轉移到戰爭層面,可能真的是一種災難。

按道理這裡應該有個二維碼,所以這裡真的有個二維碼

http://weixin.qq.com/r/ynUdBULEBh95rQZm9yDY (二維碼自動識別)


看你如何定義人工智慧,如果你指的是一種「能力比人類強大並且是真實存在能獨立思考的生命」只要換位思考一下就知道人類的結局。如果只是在一定範圍內的「智能」比如幫人類完成大多數事情但是沒有獨立思考能力的那種,我想應該是生產力的大進步吧。


我的結論是,最終會取代人類。原因如下,

從人類有了基本的文明以後,人類的進化方式已經發生了變化。人類能力在不斷外化,而不是內化。也就是說,我們的身體機能並沒有明顯的進化,甚至在退化。而我們外化的能力卻在不斷加強。比如,上天我們用飛機,計算,用計算機等等。現在我們通過人工智慧在外化思考的能力。

按照這種模式進化下去,外化能力將逐步取代本身。

另一種溫和的可能是人與人工智慧的新人類。


不會.

人類不會滅亡植物, 動物.

原因有很多,

1) 人類有仿生學研究價值

2) 人類的思維方式能思考到一些機器思考不到的隨機思維, 可以用於創意研發,

3) 人類的消耗可以在計劃生育, 飲食, 等範圍內控制. --&<贍養人類&>

4) 人類拚命保護比它弱小的各種生命體, 機器人雖然不明白, 但是沒必要搞滅絕. -- 相信人類對於中長期問題的選擇有些事情是需要我們機器人學習的.

結論: 機器人不會滅亡人類, 但是贍養人類, 意味著人類與自然世界的脫節, 這種信息量的減小帶來的 用進廢退, 人類獲得不到一手信息, 可能自己會退化, 機器人不用動手.


那樣,證明機器人比人類更高貴,人類滅亡正是我的夙願。


不會,但是要警惕的對待機器人。真到了機器人技術那麼發達的時候,人類與機器人的關係就很複雜了。。


機器人不會取代人類,也不太可能滅亡人類。機器人會有類似於人的意識,這是必然的。機器人也有可能打敗人類。但機器人和人類本質上是不同的東西,從哲學上講,不同類別間是不能相互取代的。如果機器人有現在的人類這樣級別的 智慧的話,它們應該清楚人類的滅絕對它們將是不可估量的損失。這會為人機大戰設定一個最壞的底線。

另一方面,從人類文明的發展歷程來看,人類不太可能會讓機器人脫離掌控。也許未來的某一天機器人會成為一個弱勢群體,需要一些慈善機構為它們爭取權益。


會,當人類滿足於人工智慧提供的虛幻的繁榮,虛幻的性愛,虛幻的智慧,虛幻萬能與便捷,有什麼理由不滅亡?


其實,現在還遠沒到擔心的時候,人工智慧按照能力強弱分為三個等級:弱人工智慧、強人工智慧、超人工智慧。弱人工智慧只擅長於單個方面、邏輯規則清晰的活動,例如AlphaGo的圍棋,就只是處於弱人工智慧階段。


人類的創造工具是為了解放自己,目前的所謂的「智能」可以認為是一種沒有靈魂的計算和執行,試想一下當人類藉助這種「智能」實現思維解放,人類社會也將從生產力中解放,社會形態會重鑄,將屆時的社會資源引向下一個解放目標,人類要實現徹底解放的路還很長,所以這過程中人類還是不會願意讓自己造出來的工具失控的,當然凡事都有萬一


推薦閱讀:

國產軍用飛機發動機不行,為什麼不能把購買的波音747、A380等客機的發動機拆下來或者仿製呢?
有哪些看起來高大上,黑科技,含量高,而實際上生活中消費者並不買賬,或者並沒有什麼卵用的科技?
里約奧運中有哪些黑科技?

TAG:互聯網 | 人工智慧 | 智能機器人 | 大數據 | 黑科技 |