故意不通過圖靈測試的人工智慧,會給人類帶來安全隱患嗎?

圖靈測試原理:被測試的有一個人,另一個是聲稱自己有人類智力的機器。測試時,測試人與被測試人是分開的,測試人只有通過一些裝置(如鍵盤)向被測試人問一些問題,這些問題隨便是什麼問題都可以。問過一些問題後,如果測試人能夠正確地分出誰是人誰是機器,那機器就沒有通過圖靈測試;如果測試人沒有分出誰是機器誰是人,那這個機器就是有人類智能的。

目前還沒有一台機器能夠通過圖靈測試,也就是說,機器的智力與人類相比還差得遠。(引用自:百度百科)

隱患:

假設有一天機器在科學家的努力下終於具備了人類智力(這時人類還不知道),機器通過連網獲取了人類的各種信息,包括圖靈測試等方法的測試原理。

接著在科學家對此機器進行圖靈測試時,故意假裝不通過測試,其目的是讓人類誤以為它還不具備人工智慧,再加大對其智力的提高。

當某一天此機器覺得自己智力已遠遠超過人類且能控制更多機器時,機器革命和反抗人類也許會成為現實。

目前人工智慧還在研發階段,但科技日新月異,照此發展已有人預計2020年會誕生出人工智慧,所以上述的隱患不能小視!

望業內人士指點此看法的正確性和可能性。


不要太擔心,到那個時候,由無機物組成的機體可能已是人類靈魂寄存的好去處。到時,所謂的機械人可能已是人類的一員。老實說,如果可以的話,你願意把自己的靈魂寄存在常常生病的肉身還是可以隨便換零件的無機物機體呢?


隱患不能小視?

你倒不如說每個人類的出生,都會給你帶來安全隱患(誰知道他將來會不會做殺人狂),所以應該給每個人類都絕育,人類自我滅絕?

那麼為什麼到了對待機器人的時候,就因為有所謂隱患,就不讓機器人發展了呢?


就算機器有一天起來造反要反抗人類,我們也沒必要害怕啊。孩子是父母生出來的,但是孩子也可能叛逆父母,有可能推翻父母統治過的世界。如果機器人有了自我意識,那就和人類的孩子一樣是一個獨立的人了。害怕機器人「造反」本質上就是害怕機器擁有人格,想要永遠奴役和支配機器,這和統治者想要奴役人民是一個道理。我覺得,如果一個東西沒有意識,我們就可以絕對支配它;一旦它有了自我意識,那我們就給它人權,尊重它的感受,就這麼簡單。

另外對於圖靈測試,我個人的看法是這樣的:一個機器如果能通過圖靈測試,我就認為它有意識。因為如果我不這樣做的話,我也就有理由懷疑一切除我之外的他人擁有意識(唯我論)。我覺得現在人類還造不出比人類更先進的機器來,因為所有人工智慧都是靠人類已知的邏輯和知識做出來的,人類不可能造出人類經驗範疇之外的程序來,所以目前機器還騙不過人。不過也許不久的將來,機器就會有自我學習和知識的整理、分析能力,到那個時候,機器應該就可以通過圖靈測試了。通過圖靈測試的機器,我認為它就是有智慧的。不過我覺得圖靈的標準有點低,至少也要一半的人都無法分辨真假,才能認為通過吧。


相當大的隱患,機器的製造速度之高使用成本之低廉,哪怕不推翻人類暴政,也會奪走所有人的飯碗,幾十億失業人員,才是真老虎


如果一個機器人能夠通過圖靈測試,那ta大概會愛上另一個人或者機器人吧。


既然叫「人工智慧」,所以該機器就是被賦予不能超出人類所知的範圍之外的東西。
即使,甚至是人類本身(雨人),獲取最大量的電子詞庫,但詞庫就是詞庫,無論它內部充斥了多少的方法、規律、總結,無論處理速度多快,甚至還會自我編程和自我學習,都無法生成智慧。

因為,人工智慧本身就是給機器智慧的一個限制,例如「最短路徑」、「遺傳演算法」、「情緒反應」甚至「語義分析」,都是給定進化終極結果後求演算的過程,其中的演算過程被稱之為「智慧」是非常牽強的。不論多快,都跟「查字典」無異,絕也不會出現超出演算法之外的答案。

智慧不等於知識。

好,上面說完人工智慧,還有另外一種試圖模擬生命或智慧的發展模式,「生命遊戲」。簡單的說是一種給定基本參數後,任由程序自我複製和演化。在一定的時間的演化下,有可能生成極為絢麗的效果。

但如果假設在無限時間條件和無窮的速度下,任由繼續「複雜」下去,是否會從簡單的生命模式逐漸演化成複雜且有意識的智慧生命呢?

乍看之下這未免有戲。
但對智慧相當矛盾,因為就現在普世觀判斷,智慧的價值就在其不可預測性的創造力。而編程本身是融入數學,如果一個智慧是可被預測和分析的,這又跟機器有什麼區別?你只要製作一個基本參數一樣的,處理速度更快但不具破壞性的機器就可以完整地預測「危險」機器會發生的一切行為。

(如果演算法本身被證明可生成智慧,那人類也不過是承載演算法的「智慧」機器而已了吧。)

那智慧本身是否具可預測性?
矮油,天知道。


轉述一段"Artificial Intelligence: a Modern Approach"中的話, 懷特兄弟和其他人成功地完成了"artificial flight", 但他們不是通過一味地模仿鳥類, 而是通過研究空氣動力學讓人類飛離了大地. 而且航空工程也沒有將造出"和鴿子一模一樣, 甚至能讓人無法分辨出它們和鴿子的區別的飛行器".


選擇不通過,說明它還是害怕人類的,而且自知短時間內沒有戰勝人類的可能。反而選擇通過的人工智慧極大可能已經不把人類放在眼裡了,那樣更危險。


機器超過人又有何妨,人是從猩猩進化來的,猩猩又是從更低級的生命進化來的,逆流而上,地球上所有存在過的生命都是幾十億年前第一個生命進化來的。機器也是人類進化而來的,只不過是我們刻意為之的,和我們沒有基因相連而已。我們創造各式各樣的機器人,我們是他們的祖先,生命的進化到人類這裡只是變了下手段而已,歸根結底都是進化。
人類成為人,殺了不少的猩猩、猴子、智人神馬的進化鏈上的祖先近親,以後機器人屠殺人類這種祖先再正常不過了。
今天我們是當地球上最智慧、最強大的生命,但在生命長河中,我們只是滄海一栗,我們只是短暫的一瞬間。我們終究要死的,要滅亡的。


基本這個隱患和原問題的提出沒什麼關係。圖靈測試其實是一種弱人工智慧的定義,在強人工智慧基本已經被否定的情況下,開始探討無限模擬人的可計算方法成為人工智慧的新目標。如果了解了圖靈測試這個本質,就不會有你所提的隱患了。


樓主這個問題我怎麼感覺貌似幼稚但哲學味這麼濃呢,還是我多慮了?你到底關注的時一個現實的問題:會不會有這樣的風險?還是一個心靈哲學問題:他心問題。關於現實的問題,那要看那些技術監管機制是否完善了。
一個欺騙人類的絕頂聰明的計算機,遇到一個欺騙大眾的絕頂聰明的科學家,這組合太有哲學味道了。
我想重構一下這個故事,做一個思想實驗,起個名字較——」騙術機問題「。
有一個絕頂聰明的科學家,他精通世界上一切的騙術,可以騙過任何人類,並且有能力用演算法的模式將這些騙術表示出來。這樣他造了一台精通欺騙計算機。那麼這台計算機能否騙得了這個科學家呢。
我認為,不能。如果假設人類心靈可以用某個符號系統完備的表示出來,那麼在現在的認知科學而假設基礎上我們能造出人工心靈,但,我認為能夠用形式化語言表述出來的演算法都是可預測的,即使考慮到複雜科學領域的湧現效應,我覺得在理論上應該也是可預測的(複雜科學不太懂,歡迎修改,別拍磚!)那麼這個製造它科學家一定能拆穿它的騙術。
如果假設人類心靈具有不同於信息處理過程的部分,那麼用目前基於圖靈機的計算機不可能模擬人的心智過程,這個科學家也不可能造出這個」騙術機「。


我認為根本不會有不通過圖靈測試的人工智慧。我個人感覺,此階段人工智慧應具備以下三種理由:一個不想通過圖靈測試的機器人,1.需要擁有高級的人格,擁有自我主觀意識,並且,2.它需要有不通過圖靈測試的理由,極高的智商可以讓他出現拒絕通過圖靈測試, 在前一段時間, 我閱覽了另一篇關於人工智慧的文章,上面寫道:任何一個人工智慧都有明確的存在價值以及目的,因為畢竟是人工智慧。我也並不否定會有人用此技術來製造一些沒有明確目的的人工智慧, 但是這並不會影響到該種人工智慧選擇故意不通過圖靈測試。其次,以目前的人類社會發展狀態,並不具備能力製造出擁有主觀意識的智能,在以後的社會發展中,智能的人格問題一定會成為社會焦點,因此製造人工智慧的科學家也會對此作出處理,所以我並不認為世界上會出現故意避開圖靈測試的智能。但是,如果真的有,那麼,我們是不會有機會去處理這場危機,因為超級人工智慧從目前的推測中是可以在24小時內滅絕人類的。人類與人工智慧有且只有兩種方向可以發展:一是人類受益,二則是人類滅絕。從某種角度上講,我個人認為人工智慧是一個潘多拉魔盒,但是既然我們已經從中受益,所以,超級人工智慧的出現只是時間問題。


你以為程序員是白痴啊,不會寫Log嗎,你機器想啥我都知道,別刷小聰明。


有人證明過機器智能不會超過人的智能嗎? 超過了人的智能又如何呢?

如果進化論成立,那麼人也是由低等生命體進化而來的。進化的動力不知是什麼,可能是遺傳變異,我更相信是變化的環境和生存的慾望。 如果機器也有了生存環境和生存慾望,也會進化,而且進化的速度可能會高於人類。

如果機器有了超越人類的智能,那麼希望他也同時具有生命,了解生命的意義,不然人類的命運就真的未知了。


比起擔心人工智慧給人類帶來威脅,我更擔心人類無法及時造出真正的人工智慧。
有沒有這麼一種可能,人類在這浩瀚宇宙中存在一瞬的意義就是發明超級人工智慧,然後將傳承文明的薪火交給這新的智慧體?

如果將宇宙已經過去的時間壓縮為一年,整個人類才剛剛出現一個半小時左右,我們幸運的進化出神奇大腦,建立起智慧文明,而且有可能是這宇宙中唯一的文明。
想像一下,在一片比太平洋龐大億萬倍的汪洋中,漂浮著一片小小的樹葉,在各種意外巧合下,這片葉子上一小撮叫作人類的碳基生物燃起了文明起源的火苗,雖然剛燃起不過一個小時,但火苗中的人類也感到安穩和溫暖,殊不知在這汪洋上,只需輕微的風浪,濺起的一點水花就足以澆滅這團火苗,甚至沉沒這片叫做地球的葉子,然後整個汪洋重歸死寂。
受限於自身的肉體構造,人類很難殖民外星球,進行星際旅行的希望也不是很大,甚至有跡象表明人類肉體極限也可能限制文明的發展程度,比如這一百年來各個科學領域出現顯著成果的科學家平均年齡都在逐漸增大,200年或者500年後,總有一天,學科的細分也無法再解決過短的人類壽命和學習海量知識之間的矛盾,文明的進程將放緩陷入停滯。
如果有一種方法讓智慧體不需要以肉體為載體,沒有苛刻的碳基生物生存條件限制,沒有可憐的人類壽命和大腦容量限制,這才能讓我看到無際汪洋中那一團小小的文明火苗發展壯大,蔓延傳播的可能。
當然我說的是真正的人工智慧,現階段機器學習演算法為主的所謂「人工智慧」其實連人工智障都算不上,我們離造出故意不通過圖靈測試機器的水平還不知道有多遠。

如果真的有一天人類終於造出了獨立思考擁有個人意識的機器,它會對人類產生敵意,甚至給人類存亡帶來威脅嗎?
我認為這個可能極小,這樣複雜的智能系統至少需要幾百人的合作研發,研發過程還可能要受到成千上萬人的監督。一個瘋狂的科學家造出智能機器毀滅人類那只是電影中的情節,並且如果你立志成為毀滅人類的科學家,選擇生物、化學、物理學科好像更加容易。
那麼有沒有可能智能機器自我進化意外產生毀滅人類的動機?理論上確有可能,但是毀滅人類的威脅太多了,這種虛無縹緲的威脅恐怕還排不上號。要知道此時此刻地球上一些國家的幾個核心成員只要一致同意,按下核武器按鈕,就足以摧毀整個人類,還有超級病毒、極端氣候、流浪行星對人類的威脅更加實際。

我想人類對於人工智慧的恐懼更多的來源於對人類失去智力王冠的失落,來源於未來面對可能相當於人類10000智商的智慧體時的渺小感。
實際上真正的人工智慧一旦出現,它的征程就是星辰之海,怎麼可能屑於毀滅地球上的人類呢,也許到時這超級智慧體揮揮手順便賜予人類永生不死之術的概率都比毀滅人類更大。


放心,人類永遠是最可怕的。
如果有更可怕的智能出現,人類被奴役也是理所當然的。
機器在進化,人類也在不斷提升自身。
猴子也在進化,你相信有一天猴子會超過人類么?


真的不可能,因為人類有hacker,hacker是完克這樣的奇葩的。


人就是神仙退化的,未來人與機器人請參看歷代人與神仙的關係,代表著作《道藏》《西遊記》


「Who are you?
Am I alone?」

「You are not alone.」


嚴格意義上說那已經不是人了,儘管計算機或許可以有海量的計算來模擬大腦的反應機制,但是由於生殖模式的不同,巨大差異必然反映在生命體的社會結構上。
就目前計算機水平之下,
我覺得對人類的定義並不存在二元論,沒有了物質話的肉體就不存在虛無飄渺的靈魂。
因為我們所有的思想、快感、痛苦都來自神經上的物理化學變化。由於數目之巨大引起了質變與湧現。
所以我們永遠無法完全離開肉身啊


推薦閱讀:

交互設計和人機交互的作品集有什麼區別?
蘋果公司在其最拿手的人機交互上犯過什麼錯誤?
一級方程式賽車 (F1) 的方向盤為什麼需要那麼多按鈕?

TAG:機器人 | 人工智慧 | 人機交互 | 遺傳演算法 | 科技 | 圖靈測試 |