如何看待 Stephen Hawking(史蒂芬·霍金)認為的「人工智慧或導致人類滅絕,應加以控制」?

英國著名科學家史蒂芬·霍金教授稱,與其擔心誰來控制人工智慧的問題,人類更應該擔心的是,人工智慧到底願不願意受人類控制。據報道,霍金在倫敦舉辦的2015時代精神會議上提出了上述觀點。在此之前,他曾向人們發出警告:人工智慧可能會導致人類的滅絕。

「人工智慧計算機可能在接下來的100年之內就將人類取而代之。」霍金說道,
「如果這樣的事情成為了現實,我們必須確保計算機和我們站在同一戰線上。」「我們的未來是一場不斷增長的科技力量與人類使用科技的智慧之間的競爭。」

今年早些時候,霍金和特斯拉CEO埃隆·馬斯克共同簽署了一封公開信,信中表示,人類不應任由人工智慧發展,而不加以控制。如果不對智能機器嚴加看管,人類的前景可能會相當晦暗。信中提醒科學家,務必提前阻止這種悲劇的發生,否則人類將因此滅絕。史蒂芬·霍金今年年初表示,人工智慧的誕生「可能是人類歷史上最重大的事件,但不幸的是,也可能是最後一件」。

消息來源:霍金:人工智慧或導致人類滅絕 應加以控制--國際--人民網


我不自量力地私下揣測,人工智慧導致人類滅絕,絕不僅僅是說違反了機器人三大定律的「奧創」們要和人類作為一個落後的生物整體進行競爭和清除,而是人類在研究、運用人工智慧之後所導致的「人類」這一本身物種的變化。

我們人類這一物種,在生物學的分類上叫做「智人」。但是在公元前200萬年-公元前1.3萬年這段時間裡,所謂的「人類」並非只有「智人」這一種。然而在漫長的演化過程中,智人這一支淘汰了其他的人種獨立存在,成為人屬下獨一無二的物種,繼承了「人類」這一大名。

著名科幻小說《三體》提出了一個叫做「技術爆炸」的概念。人類整個的發展歷程正是技術爆炸的過程。

從純粹的動物到智人出現語言、認知以及人類社會雛形,智人經歷了將近243萬年;

從人類社會雛形到出現正式的人類聚落,人類花費了近6萬年;

從人類聚落髮展至純粹的農業社會,人類花費了7000年;

從農業社會進入工業社會,人類僅僅花費了200多年。

然而,隱藏在技術爆炸之後更為可怕的是,現代社會,我們人類的發展,從受到自然的的設計變為了我們人類自身的智慧設計。人工智慧就是目前主流的三種智慧設計方式其中之一。

人工智慧和其他兩種智慧設計,標誌著人類突破自身角色定位,試圖僭越「神」(或者說大自然)的角色。

1818年,Mary shelley寫作了一本小說叫做《弗蘭肯斯坦》,講述了科學家創造出一個科學怪人的故事。現在絕大多數的科幻電影、超級英雄電影都在重複地講述著這一故事。這樣的故事就是告訴我們:當人類開始充當「神」的角色時,就是人類的末日。

為什麼?

且不說生物工程和仿生工程這另外兩種智慧設計,僅說題目中的「人工智慧」。很多答案中談到「人工智慧"似乎很遙遠,這本身就是忽視技術爆炸和人類歷史發展加速度的看法。圖靈測試已經被突破,1983年數學家Vernor Vinge提出技術奇點未必不會就在眼前。

2005年,由瑞典科學家成立了一項「藍腦計劃」。

藍腦計劃是由瑞士科學家設想的一個複製人類大腦的計劃。以達到治療阿爾茨海默氏症和帕金森氏症的目的。但網路上對其褒貶不一。2009年8月11日,負責藍腦計劃的科學家宣稱,他們有望在2020年左右製造出科學史上第一台會「思考」的機器,它將可能擁有感覺、痛苦、願望甚至恐懼感。

假如藍腦計劃成功了,意味著我們可以通過電腦來複制人類的大腦。這其中蘊含著的關於人工智慧的廣闊前景實在是不可想像!但是不要忘了,這項計劃本來僅僅是為了治療阿爾茨海默氏症和帕金森氏症。但是這項計劃所帶來的技術發展,很有可能將人工智慧帶入"人類強化「這一概念。

不要覺得所謂「人類強化」是一個可笑的科幻概念,事實上我們本身就是已經被「強化」的人類。

藉助於互聯網、電腦和移動終端,現代人獲取信息的速度、解決問題的效率遠遠高於舊時的人類,你手中的蘋果手機、戴爾電腦正是強化你的「人工智慧」(雖然可能他們還並不是很「智能」)。著名的傳播學家麥克盧漢曾經寫過一本書,叫做《媒介,人的延伸》。然而事實上,機器現在已經成為了人的延伸。

也許有朋友會說:這又有什麼不好呢?

擁有蘋果手機、戴爾電腦、Google glass、Apple Watch並沒有什麼不好,是因為你現在有能力享受到這些「人類強化」。

但是假如你不能呢?

假如這個世界上只有一群人可以使用手機,只有一群人可以使用電腦,只有一群人可以使用互聯網,而你恰恰不是那群人中的一員呢?

讓我們再延伸的遠一點,假如人工智慧把人類強化到《X戰警》中變種人(甚至要比變種人更強大)那種程度,而你不是其中一員,你認為故事會像漫畫里那樣簡單嗎?

我們這個現代晚期的世界,是有史以來第一次認為所有人類應享有基本上的平等,然而我們可能正準備打造出一個最不平等的社會。縱觀歷史,上層階級總是說自己比下層階級更聰明,更強壯,整體而言更優秀。他們過去通常只是在自欺欺人,貧困農家的孩子智力很可能和王子也想去不遠。然而,在新一代科技推波助瀾下,上層階級的自命不凡可能即將成為一種客觀事實。

當人工智慧為代表的智慧設計開始更大程度地進行「人類強化」時,有能力有資本擁有這種強化的上層階級將會獨立出另一個「人類群體」。

人工智慧為代表的科技真正的潛力不在於什麼激光槍、宇宙飛船,而是通過創造生命與人類強化。前者很容易理解,但是後者往往容易被忽視。當人工智慧融入人的生活中,對於我們的情感、文化、認知都進行天翻地覆地改變之後,擁有資源和能力的「新的人類」的社會是我們無法想像的。

就像智人當初淘汰掉尼安德特人和弗洛里斯人一樣,我們也許會被「新的人類」所淘汰。在《人類簡史:從動物到上帝》這本書中,尤瓦爾·赫拉利把人類的末日描述成騎在吉爾伽美什肩膀上的弗蘭肯斯坦。

或許,我們並沒有準備好僅僅讓我們中的一部分成為神。

http://weixin.qq.com/r/XUO2rk-EpxLYrQvN9xZP (二維碼自動識別)

微信公眾號:鯨歌

天南海北瞎扯點東西,主要絮叨點人文、歷史、科技等內容,有興趣的小盆友可以關注下。沒文化的小盆友並不能看到這個微信公眾號。P.S. 不保質不保量 打我我就跑 罵我我就忍著。


這個問題之前在歐美AI圈之前引起廣泛討論,而且elon musk,bill gates也出來表示了問題的嚴重性,希望能得到大家的重視。

後來出了一篇很長很嚴謹的文章來解釋人工智慧的發展和為什麼會給人類帶來潛在危害,也就是樓主這裡所關心的問題。英文原文:

The AI Revolution: Road to Superintelligence

The AI Revolution: Our Immortality or Extinction

謝熊貓君做了翻譯和演繹,翻譯文筆特別好!他並不是像中國很多翻譯書籍只是簡單地把英文換成中文,而是假如自己的理解同時換成中國人約定俗成的表達方式,所以強烈推薦:

為什麼最近有很多名人,比如比爾蓋茨,馬斯克、霍金等,讓人們警惕人工智慧? - 謝熊貓出沒注意 - 知乎專欄

最後附帶北京這幾天的好天氣。


我感覺就像 古代人一直擔憂,如果在大海上航行到世界的邊緣,就會掉下去


我自己就是搞人工智慧的,雖然搞的不好,但是說句實話,就是全世界人工智慧領域的超級大牛,其研究成果距離產生能夠威脅人類的智能機器還有遙不可及的距離。

別看媒體一天到晚宣傳這個機器人,那個機器人,目前最聰明的機器人無論是在肢體控制能力,感知能力,認知能力各方面哪怕比起最笨的狗也是天差地別。

現在的相關研究,主要還是面向特定任務的,比如人臉識別,自然語言理解,運動控制等,綜合智能水平連高級一點的蟲子恐怕都趕不上。所以,大可不必杞人憂天。

以目前生物學和遺傳科學的發展速度看,我覺得擔心人工智慧威脅人類不如擔心一下人長生不老會不會引起倫理道德的崩塌更有意義。

PS:人工智慧的真正威脅在於自動化技術的飛速發展會不會帶來大量閑散勞動力,導致失業率提高,社會結構不穩定。直接威脅人類,進入機器生命進化階段什麼的,不必擔心啦。


怎麼會還沒看到影子呢?靜態圖像、短時語音的識別都已經超越人類了,只要再引入長時記憶,機器就有推理能力了呀。不過怎麼引入、記憶緩衝多大、該不該加入遺忘機制還在研究中,但明顯已經看到希望了。另一個瓶頸就是計算能力,這個也在按摩爾定律堅定地向前走著,感覺沒什麼能夠擋住人工智慧的發展腳步了。


大師對程序員們太過高估了……


牛頓還搞了好多年鍊金術呢[1]。每個人都是有局限的。


你更該關注這件比人工智慧毀滅人類更可怕的事

AlphaGo大戰李世石近兩天刷爆了會長的一切社交工具,超越了一切熱點,是的,我說的是一切!超越了召開中的兩會、股市樓市、娛樂明星,慚愧慚愧,會長是不懂圍棋的,也不認識李世石、柯岩。但是會長是主修過人工智慧課程的,也是曾經用阿爾法剪枝、啟發式演算法等演算法編寫「井字棋」贏過朋友的程序員,作為程序員中段子講的最好、段子手界程序寫的最強的跨界選手,今天會長既不講段子,也不講AlphaGo的程序原理。

因為段子昨天已經被段子手界各種人才刷爆了,程序員原理太複雜,講了你們也聽不懂(其實我也沒搞懂),大概的原理知道,基本上就是Policy NetWork配合Fast rollout及Value NetWork再通過Monte Carlo Tree Search整合起來做的一個智能決策,別問我,我也是剛從AlpahaGo在《自然》雜誌上發表的文章翻看來的幾個辭彙,翻譯成人話,大意就是:這是一個基於策略網路預測的智能體,並通過平衡速度和勝率來優化,最後通過蒙特卡洛樹搜索將以上三個子系統聯繫起來,形成一個完整的智能體,不能再說了,再說就多了。

今天有人搬出來新的問題了:AlphaGo為什麼不涉足麻將?大哥!你開局拿一手天胡牌,就算是阿爾法虎也沒招啊,人工智慧和人類的對弈大戰不是對賭大戰,你咋不讓他和你搖骰子賭大小呢?你咋不上天呢,你咋不和太陽肩並肩呢!

昨天早在AlphaGo勝利之前會長就在朋友圈極力呼籲不要再將「人工智慧會不會毀滅人類」的言論放出來了,今天會長給大家講的比這個更貼近你的生活,一位老大哥曾經告訴我一定要和能向你展望未來的人在一起,而不是抱怨過去和杞人憂天的人。今天會長就做一個展望未來的人,不一定對,但希望能讓你閱讀完之後感到有收穫。

首先,大家應該放寬心,別說現在AlphaGo以2:0的優勢領先,即使它最後5:0勝利了,也沒什麼可怕的,雖然他贏了,但是他並沒有因此而高興,即便他輸了,也不會因此而懊惱,更不會主動去復盤去考慮為什麼會贏、會輸。因為他沒有感情,他只是一台機器,一台存儲了可能人類有史以來所有的棋譜並且擁有迄今為止最高效搜索引擎的機器。李世石輸給他也沒有什麼可丟人的,這就好像你高考時候要考古詩文,你需要背誦所有指定的篇目,還要在有限的時間內、緊張的環境下準確記憶起來,而如果是一台存儲了有史以來所有古詩文並且擁有效率極高的搜索引擎的計算機來做這道題呢?一個道理,李世石窮極一生能背多少棋譜?窮其所有智力能復盤多少棋局?AlphaGo不一樣,他的硬碟存儲容量可能和你現有的記憶量根本不是一個數量級,他的檢索速度水平和人腦的思考速度更不是一個檔次,只要演算法夠牛,數據集及訓練數據夠豐富,AlphaGo贏是必然的事,這是趨勢,人類體能發揮到極限,耐力也比不上一輛加滿油的汽車,這是趨勢。

從另一個層面講,AlphaGo只是在境外贏了一個理性的男性。在境內,即使方校長的牆攔不住它,我估計它也永遠戰勝不了一個「溫柔賢淑、善良智慧」的新時代的女性,和你下棋你敢贏我?反了你了!信不信我分分鐘拔你插座,順著網線過去掐死你!

我說不用擔心會出現《黑客帝國》中的人機對抗的危機情節,是因為機器是來源於人類,人類是有靈性的,這提現在哪裡呢?這體現在人類能夠去主動的發明創造,一台機器再怎麼大開腦洞他也不可能在傳統塑料、金屬的手機制式中像喬布斯一樣腦洞大開的去加一塊玻璃;一台機器再怎麼有智力也不可能像弗萊明一樣在實驗失誤的情況下發現青黴素,因為機器是最怕打破既有規則的,一旦出現Bug,機器就完蛋了。

恐龍那麼牛都滅絕了,人類也只是地球短暫生命中的一瞥,所以不用怕人工智慧會毀滅人類,有朋友可能會不服,那萬一在不該滅絕的時候被幹掉了呢?不能因噎廢食,不能因為怕出事故就不發展汽車飛機了吧,不能因為怕考試掛科就不選課學習了吧!媳婦還沒娶回家呢,著什麼急擔心離婚分家產呢?彩票還沒買呢,犯得著因為怎麼分配財富夫妻反目嗎?既然能夠造出汽車飛機,就能控制它的轉向;既然能夠造出人工智慧,也能隨時讓它變回弱智!

不過我們確實需要擔心。不是去擔心人工智慧把人類團滅了怎麼辦,而是去擔心人工智慧把你Solo了怎麼辦!

什麼意思?所有的事情都是在"看不到、看不起、看不懂、跟不上"這條道路上發展的,你在杞人憂天,而別人在研究人工智慧、在掌握人工智慧的核心科技、在製造事件營銷推廣人工智慧,說白了,他們在千方百計的抓住一切可能性去搶佔人工智慧的風口。

人工智慧高度發展,人類會不會滅亡?我認為人類不一定會滅亡,但是有一部分人一定會滅亡。誰會滅亡?誰的工作可被高效率、低能耗的機械取代,誰的工作可被高度智能化的產品取代,誰就會因為無所事事而被取代,進而就會被滅亡。這和你有沒有關係?工業革命改變了農耕海捕的社會分工,讓大批的農民被迫轉行為工廠工人,這可能很遙遠,老爸是做機械的,我告訴你,在數控機床出現之後,很多手藝精湛的老師傅被迫下崗,你傳統手藝再棒,也抵不過精確到千分之一刻度的機器,不會玩高科技只能眼睜睜看著那幫毛都沒長齊的小屁孩輕鬆端走你的鐵飯碗。下一個階段科技的進步、人工智慧的發展會不會將現在工廠里的那一大批熟練工趕盡殺絕?我不說你也會有明確的答案。

容會長設想一下,未來如果真的會發生人工智慧與人類的衝突,堅守到最後的是不是就剩程序員了?哈哈,純屬假想!

這是一個最好的時代,因為人工智慧讓我們的工作越來越輕鬆,讓我們生活越來越舒暢;同時這也是一個最壞的時代,人類的尊嚴一再被機器所消蝕,不學習、不進步、不緊跟時代的發展就必然會被淘汰!這才是我們真正該擔心的,人工智慧到底會不會消滅人類,這個是杞人憂天,但是人工智慧到底會不會取代你、消滅你,這個是迫在眉睫!

今天中午會長把手頭的短線股票和短線期貨都清倉了,運氣挺好的,躲過了下午的大跌,至於明天會不會有那麼一根預測中的大陰柱都不管我事了,我不是金融專業的,這兩樣東西只能是娛樂,自我定位這不會成為我的事業,所以我選擇將我更多的精力放到更可能成為我事業的事情上去,自我定位很重要,我有什麼,我要什麼,我願意捨棄什麼。很多朋友向我抱怨過不喜歡現在的工作,我想說,既然不喜歡,你為什麼不去重新選擇一份你喜歡的工作呢?你選擇是因為你喜歡,你喜歡所以就不要抱怨。

上一篇文章傳授了大家活過一百歲的辦法,滿打滿算,剩下的時間也就只有不足80年了,所以我認為一定選擇我們最快樂做的事情去做,絕不把精力放在無端抱怨及杞人憂天上。

《三體·死神永生》中有一句話叫做:弱小和無知不是生存的障礙,傲慢才是。

我覺得不僅是傲慢,造成生存障礙的還有不知不覺、後知後覺、閑知閑覺。

題圖來源:百度百科

材料參考:自然雜誌

振興會振興會 出品

【微信號】zhen_xing_hui

請你務必相信我是在:

一本正經的胡說

認認真真的扯淡

午夜夢語

閑知閑覺是我造的詞,具體危害就就參考杞人憂天吧,後知後覺這個詞我定義為反應慢、動作慢,這究竟有多可怕呢,正好今天看了一部電影,這部電影在韓國的一個預告片貌似能夠不是很切題的詮釋一下,唉,心疼我大閃電!

視頻原文人工智慧毀滅人類不可怕,有比這更可怕的事值得關注

視頻來源:騰訊視頻

轉載請註明:微信公眾號:振興會(zhen_xing_hui)


霍金啥時候是做計算機的?


人類要麼被困於肉體限制,在某個突發事件下集體滅絕,要麼被其他更高級的物種替代滅絕。

現在階段的人類是低等的,必然會滅絕。

人工智慧只是個候選項而已。

以上說,人工智慧還很遠的小夥伴們,該醒醒了,在這個技術爆炸的時代裡面,100年內技術上能有怎麼樣的大突破想都不敢想的。。而且100年也就2代人。。。搞不好,我們能活著看到人工智慧的雛形面市(搞不好哪國已經有這個黑科技了。。。比如曹縣。。)


寫過代碼就知道人工智慧是多麼遙不可及,能寫個笨蛋機器人已經是世界頂尖了。


雖然我覺得短期不可能,但100年很難說。@ 幾個搞機器學習博士的出來回答吧。現在的幾個答案不知所云。那些一巴掌怕死的,給出的理由都是程序員,寫代碼之類的,實在是沒有什麼關係。


想像一下一個機器人因為內存泄漏在毀滅地球的最後一步拋錨了會是什麼樣子……


100年已經是他們裡面認為比較晚的了,甚至還有激進的認為20年內就有強智能出現.


人工智慧真的會毀滅人類嗎?

現在業界有一個相對主流的觀點,就是要警惕人工智慧的發展。因為人工智慧跟人類的大腦有根本的不同,它本質上只是一段程序,當它發展過了一個臨界點之後,他就有可能通過自我學習,自己更新自己,自己發展自己,導致他的智商提升速度遠遠大於人類大腦智商的進化速度。

更直觀的描述,人工智慧的智商發展曲線可能是一個指數級曲線,也就是在某一個臨界點之前,非常非常的平緩,當過了臨界點之後,就慢慢開始加速,速度會越來越快,直到接近垂直的直線。

有人給了一個形象的比喻,人們對待人工智慧的成長,就好像在等待火車,在開始的時候,感覺他們成長的好慢,左等也不來,右等也不來,內心十分焦慮。直到有一天看著這列火車慢慢接近,慢慢接近,然後,唰的一聲,超過你離你而去,根本不會停下來等待。也就是,他們跟人類智商在同一層級的時間可能會非常短,在超過人類之後就會急速的甩人類而去。

之後總有一天,人工智慧的智商會遠遠高於人類。等到那一天的時候,他們的智商遠高於人類,已經可以被看作為不同的物種,即使他們對人類並沒有惡意,但是他們屬於一個更高等的存在,他們基於自己的利益,做出一些行為的抉擇,依然可能導致人類的滅亡。

舉個例子大家就明白了,就拿我們人類跟瀕危動物之間的關係,我們做出決策的時候,是不可能考慮他們的利益的,有時候並不是我們故意的想去傷害他們,但就是我們人類不經意的行為導致了他們大量的滅亡,例如過度砍伐森林,大量排放有毒氣體,石油泄漏,等等。

所以他們的推論就是人工智慧是一個定時炸彈,一旦他們的智商成長到超出了我們人類的理解範疇之外時,他們就失控了,我們人類就處在被毀滅的邊緣。

這套理論乍一聽起來,感覺很有道理,但是深究起來,卻遠不是這麼回事。

首先,人工智慧掌握真正學習能力是非常困難的

作為一個計算機專業人士,我要給大家普及一個科普知識,人工智慧如果要達到自己通過學習成長的目的,其先覺條件就是,可以自己更新自己的代碼程序,也就是說,可以自己編寫程序,然後把編寫出來的程序,代替自己運行的程序。現階段所有的所謂人工智慧、機器學習等應用通通不具備這樣的功能,現階段所謂的,機器學習、深度學習、人工智慧等,他們所謂的學習只是通過大量數據,來修改自己的行為模式,例如通過用戶的一些特徵行為,判定用戶的喜好,通過天氣的數據收集判定未來的天氣,通過以往的棋局來判斷現在應該走哪一步棋。也就是說,現在所謂的學習只能在他程序限定的範圍內,修改他們的行為,更直白的說,也就是下棋的程序,他只會下棋,推薦新文的程序,他只會推薦新聞,預測天氣的程序,只能預測天氣。所以這個所謂的學習並不是真正的學習。

要想擁有真正的學習能力,就必須擁有可以改寫自己運行程序的能力,這樣才能根據外界情況的需要,來增加、修改自己程序的功能讓自己適應這個世界,才能獲得真正的成長。那人工智慧有可能有一天達到這樣的狀態嗎?或許有,或許沒有,但無論怎樣達到這個狀態都是非常難的。

這要求我們計算機科學家要寫出一個可以開發程序的代碼,而這個可以開發程序的代碼呢,他開發的程序也需要能開發程序,這個邏輯還要不斷的,無限的往下說下去,就是他開發出來的程序,依然有能力開發程序……。這個要求是極其困難的。

具體來說,如果要開發一個根據具體需求來產生具體行為的程序,是非常容易的;而要開發一個可以根據不同需求來自行開發不同程序的程序,雖然比較困難也是可以的;但現在的要求是,這個程序可以無限循環層級下去的開發程序,這幾乎是不可能的,至少現階段是不可能完成。這個有點像代碼開發裡面的遞歸,但計算機裡面的遞歸可以通過堆棧、隊列、循環等方式解決的,而這個是現實世界的業務邏輯,雖然是程序開發,但不是程序開發內部的事,而是程序開發外部的業務邏輯,所以是不能通過遞歸的方式解決的。而且貌似是無限循環,但實際上它永遠是有限循環,不然他會超出計算機堆棧限制,會崩潰。開發能開發程序的程序卻是無限循環,真正的無限循環。

邏輯雖然非常繞,但是道理很簡單就是人工智慧要掌握真正的學習能力,是非常非常困難的。

善於思考的人可能會反駁,人類本身的創造力、學習力,好像並不需要通過自己生產自己才能實現,那為什麼人工智慧需要這樣做?其實你錯了,人類的學習過程其實就是在不斷更新自己大腦的過程,人們每產生一點進步,每學習一樣新技能,他的大腦都會產生相應的新變化,因為大腦的執行代碼會發生變化,他們自己更新了自己,只是你沒有意識到而已。這是我們大腦天然的機制,也是我們人類真正與眾不同的地方,也就是只有我們人類才可以通過不斷的學習來主動的進化自己。

而計算機執行的代碼是死的,一旦開始運行就是固定不變的,他不可能在運行的過程中,不斷的更新自己的代碼,所以他要實現自我進化,就必須能自己開發程序來代替、更新自己,這就產生了上面提到的循環依賴限制。

第二,認知限制

到底是什麼造成一種高等生命對其它低等生命的壓制,也就是什麼造成這個所謂的高等。要弄清這個問題,可以通過兩個方面比較來推測這個結論。

先看人類跟動物的區別,物理上的腦容量差異是明顯的,由此造成的智商差距也是必然的,雖然腦容量跟智商不成嚴格正比關係,但總體上的相關性卻是很強的。但這是唯一的差別嗎,僅僅是智商造成了你的高等嗎?那幾個被狼、被猴子養大的孩子(註:此類案例多次被報道過,有興趣可以搜索),腦容量跟人類完全相同,但是卻沒有人類的所有的基本能力,他們比動物更高等嗎?

你可以說他們因為沒有正確的培養,所以不具備正常人的智商。其實你錯了,他們只是因為錯過了,語言關鍵期導致無法正常的溝通,並不是完全沒有智商,進行系統的培訓後,他們依然可以擁有比正常人低些,但肯定比動物高的智商。這樣的人跟正常人類的區別如果不是智商,那是什麼?

如果你不服氣,依然不認可正常人類跟他們的比較,那麼一個正常的10歲兒童呢?他們是不是大腦發育已經基本完成,智商完全跟正常人類智商相同,甚至超過。認可這個比較對象了吧,那麼你認為可以把一個10歲兒童跟一個成年人同等看待嗎?成年人是不是應該比兒童所謂的更高等一些?即使兒童過一些年也會成長為成年人。

如果不認同,那麼設想一下,如果有這樣一個世界,所有人都只能成長到等同於我們10歲兒童的頭腦狀態,之後不再發展,那麼這樣的世界能有科學進步嗎?難道我們不比他們高級?但是他們的腦容易和智商跟我們確是完全相同的。

所以,智商上的差距只是造成物種高等低級差異的基礎,而不是本質。那麼這個本質是什麼,是通過學習造成的認知水平差異!簡稱認知差異。

再來假想一個情況,如果有一天,一群擁有高科技的外星人站在我們面前,貌似是一群比我們更高等的生物,那麼我們跟他們之間的區別在哪裡?

不太好比較?他們可能任何方面都比我們強,比我們智商更強,生命形式更高級等等?

那我們換個比較對象,如果是一群來自500年後的地球人類穿越到我們這個時代,那麼他們是不是也比我們更高級?

不承認?那麼如果他們攜帶著未來的高科技武器、技術等,輕鬆的佔領了全地球呢?對我們來說,他們跟外星人有什麼本質區別,都能輕易搞定我們,誰規定地球人一定就不如外星人,即便是未來的地球人。對我們來說,未來地球人跟外星人都一樣,因為他們的科技都比我們發達,所以他們對我們來說就是高級的。

那麼,我們跟外星人不好比較,跟未來地球人好比較吧,500年的時間大腦容量不太容易發生巨大變化吧,別說500年,就是2000年,我們現在的人類跟2000年前的古代人類大腦容量也沒有可察覺的變化。既然腦容量沒變化,智商也必然不會發生巨大變化。

雖然有數據顯示我們人類的智商在1950年後有平均20點的提升,但是各個階層並沒有天才倍出,並不符合現實,所以出現各種對此的解釋,或者是教育的普及,或者是測試只針對大腦某些方面並不能完整體現人類的智商,等等。

而且此數據也並不符合邏輯,一是為什麼1950年以前智商沒有提升,或者提升非常少;二是如果以此速度提升,那麼人類會不會變成超人,從而突破腦容量嚴重影響智商的事實?顯然這非常荒謬,如果腦容量不增加就可以大幅提高智商,那麼從猴子進化到人就不需要進化出這麼大的腦袋了,增加了平衡的難度,給快速奔跑帶來負擔,甚至增加了人類腦袋這個致命弱點的被擊中概率。

腦袋增大對生物生存帶來這麼大負擔的情況下,自然選擇依然選擇了大腦袋,說明了這是智商增加的必然代價。不接受這個代價的,要麼依然是猴子,要麼在人類進化的過程中被淘汰。

即使1950年以來人類真的智商平均增加了20點,那可能也是發揮了我們大腦的潛力,以現有腦容量繼續提高智商的概率非常小了。

500年後的地球人能長出一個更加龐大的腦袋嗎?這個概率非常小,至少從人類有歷史的5000年推測是不大可能的,所以未來人類不大可能智商碾壓我們,最多比我們高出那麼一點點。

那造成他們生命等級比我們高的原因又是什麼?還是由於學習導致的認知水平的巨大差異!他們因為科學進步,各類知識的級別更高,在這些高級別知識環境下學習成長的,必然也帶來認知水平的高等。

對於外星人也同樣如此,如果外星人是類似「異型」靠兇殘本性和超強天賦來攻擊人類的,我相信,只要他們沒有發展出高度的文明,沒有高度文明帶來的高級認知,那麼無論他們的天賦多麼強大,認知低於我們人類,必然不能清楚的認識到人類以及我們人類文明的優勢劣勢,而它們的優勢弱點則必會被我們人類研究清楚,所以它們最終也必然是像電影里一樣被人類幹掉。這種情況它們怎麼能算高等生物。

而文明水準高出地球,靠科技壓制我們的,我們當然是無法對抗的。他們的認知必然也是遠超我們。

因而外星人跟未來地球人一樣,是否擁有超強的天賦不重要,認知水平才是承認其生命更高級的關鍵。

所以最終的結論就是,高等生命與低等生命的智商差異只是一個基礎,智商高的生命並不一定就比智商低的生命更高等,就像人類的野孩子跟狼和猴子一樣。對於個體來說,真正決定是否高等是生命的認知水平,就像一個未來地球人跟一個現代地球人一樣。而對於整個族群來說,則是族群的文明發展水平,就像外星人跟地球人一樣。

而所謂的文明,也就是整體的認知水平高而已。

有了這個認知基礎,就可以繼續討論人工智慧的問題。

假設,人工智慧真的有一天可以自己通過學習、通過更新自己的代碼,不斷的提高自己的智商,假使它的智商有一天真的提高到了我們人類無法理解的地步,那麼它會成為一種遠高於人類生命形態的高等生命嗎?

答案顯然是,不會的!

因為它沒有這麼多高等知識供它把自己的認知水平提高到那個境界。

要知道,人工智慧要想提高認知水平,必然是需要大量知識,乃至比現代人類知識更高級的知識。而它所獲取到的知識都是來自人類的積累,人類還未發現總結出來的知識,它是不可能獲取到的。即使它把幾千年來人類總結的所有知識都學完,它的認知水平依然不可能脫離人類,頂多算它是地球上最博學的一個生命體。因為在任何一個細分領域,必然有認知水平跟它差不多的人類。

那它不能自己進行科學研究,自己生產高等知識嗎?當然可以,但是這個有難度,而且是非常非常難。因為一旦它選擇自己研究並生產知識,那麼它就好像在挑戰、對抗整個人類族群。因為人類科學文明的發展,是靠整個人類族群協力推進的,並不是靠某一個人英雄主義就能搞定的。即使有牛頓、愛因斯坦等大量的科學巨星,但他們也都承認他們的貢獻都是建立在前人的基礎上的。

而整個人類族群的智商是多少,具體不好算,但肯定比一個人的智商要高出太多太多了,面對這種情況人工智慧所謂的高智商還有優勢嗎?不一定!

雖然《烏合之眾》里說群眾加起來的智商甚至還低於一個正常人。但那是群眾,是特殊情境下,陷入癲狂的人群,並不是冷靜狀態下的人類族群。不能混為一談。

那如果人工智慧選擇跟人類配合搞科學研究呢?這個其實是最有可能的情況,但既然已經說了是配合,那麼人工智慧跟人類一起生產的新知識,人類會理解不了?要知道,並不是一個認知水平已經遠高於人類的生命體搞出的研究。而是緊緊知識廣博程度比任何一人類都廣的多的東西而已。從現有人類知識體系中慢慢延伸出去的科學成果相關領域的科學家們會理解不了?

既然有人能理解,那麼變換一種通俗說法,那些認知水平相對較高的人群是不是也就能理解了。那人工智慧的認知水平在提高的同時,人類的文明也在前進,人類的平均認知也在前進。

這種狀態下,人工智慧如何能發展成為一種完全碾壓、無視我們的高等生命體?

總結下來,如果人類自己開發出一個全新的生命形式,可以自己通過學習提高自己的智商和認知水平,那麼因為它是基於人類的文明而進步而提升的,所以它是不可能超越人類現有的文明程度進化成一個超高等的生命體。

-----------------------------------------------------------------------------------------------————

每周一期講書視頻 首發於 優酷

搜索[士別三日讀書會] 歡迎訂閱


在我眼中造物主有三個。已經存在的有兩個,分別是大自然和人類。以後會存在的是智能人。

大自然用了47億年,通過基因突變,優勝劣汰的自然進化的方式,創造了無數的生命。

雖然大自然創造了無數生命,但是人類是其中唯一一種也能創造的物種。人類造物是不同於大自然的。人類利用經驗或者科技,在短短的幾千年里,尤其是近兩三百年,創造的東西可以媲美大自然。但是人類至今無法創造像植物一樣可以吸收陽光生長的生命,只能創造冷冰冰的機器。為什麼人類無法像大自然一樣創造生命呢?因為人類缺乏大自然創造生命特有的工具,那就是時間,億萬斯年。 人類只能活幾十年,而大自然已經存在幾十億年了,他可以用幾億年的時間將一個細胞生物進化成一隻在陸地跑的爬行生物。這是人類無法做到的。

不過目前人類正在創造一種獨特的生命,現在叫人工智慧,以後可能就像黑客帝國裡面的智能人一樣,不過不一定會那麼誇張。暫且叫智能人吧。智能人肯定能創造,因為他們有自我意識,有比人類高的智能。他們不需要呼吸空氣,甚至不需要陽光,宇宙中的每一個星球都適合他們居住,甚至能長生不老。智能人也許可以征服宇宙吧。可以想像未來各個星球遍布智能人,他們可以像變形金剛一樣在宇宙間穿梭。

有生之年應該看不到智能人了。不過也不一定。


人工智慧從出現到現在

都是有多少人工就有多少智能的。。。


看過機械姬沒。


關鍵是不要落入壞人或笨蛋之手,就像核武器不能落入瘋子之手一樣。


作為一個反科技主義者,我想整理一下我對科技發展的一些看法。

據說,海德格爾說過:「社會的整個產業發展壯大,人卻永久性的失落了。」姑且便認為這是對社會科技發展的一種理性反思。科技越發展,人類生存方式便越發遠離原本自然的樣子,便不免會淪為科技發展的奴隸。特別是電子信息時代的到來,絕大多數高知群體已終日與電腦為伴。他們生活在鋼筋水泥鑄造的高樓裡,閒暇時後也會抽空去旅遊散步,可卻還有幾個人仍能真正保留著那種對自然最初最原始的渴望與感動呢?誠然,科技的發展也會給人類帶來諸多益處,使人類免遭天災的侵害,使社會更加公平透明等等,這些好處顯而易見,無可置疑。

可在我看來,當今世界的生產力發展程度已經足以為人類社會帶來一切物質上應有的幸福。需要發展的已經不再是科技本身,而是對更為先進的社會制度的探索和對人性本身的關注。

動畫影片《瓦力》便不僅是一個童話般的愛情故事,更表達了一種對自然的渴望與訴求。我無法忘記看到人類回到地球以後種下第一顆植物後的那種發自內心的感動。

探索地外空間,改變生物基因組,發展人工智慧??如今的我們已不再是順應自然而活,而是更多地站在了自然的對立面。我時常在想,這種發展真的必要嗎?至少在我看來,這些發展都是弊大於利,並且與本真背道而馳的,極端的情況下甚至會帶來自我毀滅。人工智慧自發的、無法控制的、迅速的發展,終將會形成一種比人類文明更高等的文明,優勝劣汰的結果便是再自然不過的事情。

但一切事情均是對「度」的把握。所謂中庸,便是不偏不倚,折中調和。然而就是偏偏這對「度」的把握,並無任何既定的標準可循,每個人心中都有自己的準則。但更大的問題便在於,似乎大多數人並沒有想為科技發展定下一個上限。人類社會與科技的發展似乎是無法遏止的、無窮盡的、無節制的。但我覺得,科技發展應當也是適可而止的。執著於科技發展的人大概會將我這類人視為「人類發展的桎梏」。

其實不管怎樣,有一點是確定的,那就是無論有再多質疑與擔憂的聲音,科技發展的大浪潮始終是無法遏止的。

而在這樣一個背景下,既然我們無法去改變大的趨勢,不如花時間去想想自己如何才能做到不忘初心,以不至於迷失自我吧。


推薦閱讀:

如何評價劉慈欣說的「人類現在根本沒資格去批判科學技術」?
我們每個人的父系祖先是否都是幸運兒,經過歷史這麼多戰亂存活下來?
為什麼印第安和非洲部落最終沒有發展出文明社會?
假如地中海在中國北部!亞洲文明會不會大不相同?
現在的人類文明在歷史上處於什麼水平?

TAG:人工智慧 | 霍金StephenHawking | 人類文明 |