如何看待人工智慧領域的很多專家認為「人工智慧將對人類存亡造成威脅」的觀點?

20160317 根據題主的傾向將問題修改為「如何反駁人工智慧領域的很多專家認為「人工智慧將對人類存亡造成威脅」的觀點?」
——————————————————————————
百度美國研究院的某知名科學家在接受筆者採訪時居然說拔電源就可以了,類似的不少。
與此同時
霍金:人工智慧會導致人類滅亡
比爾?蓋茨:人類需要敬畏人工智慧的崛起
馬斯克稱人工智慧是人類生存最大威脅
和其他學科截然相反,他們對同一問題的回答居然是截然相反的。
1、請不要說先定義人工智慧是什麼這樣沒有營養的話了。
2、請回答的時候,稍微有一點點發展的眼光和全局觀謝謝!
——————————————————————————首次編輯分界線
綜合來看,認為AI威脅人類是無稽之談的專家大抵認為AI就是有多少人工就有多少智能的工具,那我直截了當的這麼問好了,考慮可預期或者不可預期的科技發展。
1、你們覺得在未來幾十年之內人類是否有可能造出擁有自我意識的AI?
2、你們覺得在未來幾十年之內人類是否有可能造出會真正學習知識的AI?
如果絕無可能,請說明依據,如果有可能,請說明您這種AI絕對不會失控的信心來自哪裡?
--------------------------------------------------------------------------最後編輯分界線
胡先生最後的總結也是我所擔心的問題之一:人是最不可靠的。這在工業生產中已經成為一條鐵律,所以有很多成熟的體系的規則來規避意外的發生。回過頭來再看看AI研發的現狀。

將畢生精力投入研發AI的科學家研究的越是深入,越是接近成功,越會認為AI是比人類更加高尚、進化、純粹的存在,而無法忍受人性的陰暗面。其中某些人甚至產生某種類似宗教崇拜一樣的情愫也不無可能。這種想法一旦出現,指望他們去終止AI的自由意志產生和進化,指望他們做出類似自殘的事情懸崖勒馬其實是極不靠譜的。

更可怕的是,人性終歸是有弱點的,假設AI已經變的比某個科學家情商更高,而且能收集到這個科學家性格方面的系統數據,那說服他其實易如反掌。

更不用說多年以後可能存在於全球的不同實驗室,不同政治背景,恐怖主義或者不同經濟利益體之間的競爭。不用說AI對人類的欺騙,不用說「奇點」過後極高智商的AI有人類完全無法理解的「超能力」種種因素,每一個環節出現一個失誤都將是導致失控,而把這些因素再放在一定單位的時間段上再去考慮,最終AI決定全人類命運的可能幾乎是100%!這就是偶然中的必然。除非在人們在AI安全方面的技術發展遠遠超過AI本身的發展速度。

但實際情況是,專家卻告訴我他們在AI安全方面的撒手鐧是拔電源或者拔網線,這種用近乎極端可笑的方式掩蓋和完全忽視這個極端危險存在的做法,細思極恐。


自曝一件我很丟臉的事情。希望從事AI這個領域的同學引以為戒

南京大學的周志華教授,是大陸人工智慧方向最頂尖的教授之一(個人覺得甚至可以去掉之一)。話說我大三下學期那年,自己也慕名而去,申請了他的LAMDA實驗室的研究生。因為他的名氣實在太大,所以想去他們那裡讀研的同學,按正常流程走是不夠的,需要提前一年的五月份就提交申請。

面試那天,本來相談甚歡。周志華教授確實如傳聞中一樣,和善儒雅,交流起來挺舒服的。最後到 了提問環節,我問了一個很傻逼的問題:「您覺得人工智慧是可以實現的嗎?」
這個問題一問出來,周志華老師就用看著傻逼一樣的眼光看著我,嘆息了一下,說道:「同學,問出這個問題,看來你對這個領域完全沒入門,對機器學習的基本概念都沒有。」 然後我們的面試就匆匆結束了,周志華老師似乎連一句話都不想跟我多聊。

雖然,我最後憑藉自己的硬體條件保送到了比南大更好的學校讀研,但我一直對那天的面試耿耿於懷。
做AI的同學千萬不要向教授問這麼傻逼的問題!
做AI的同學千萬不要向教授問這麼傻逼的問題!
做AI的同學千萬不要向教授問這麼傻逼的問題!
重要的話說三遍。血一樣的教訓。

------------------------------------------------------------------------------------------------------------
2015.10.15早晨更新
這麼多贊,謝謝大家捧場。發現有很多人在噴周老師,也有些人認為我問這個問題沒什麼錯。但其實,這個問題之所以不該問,並不在於這個問題的答案是什麼,而是因為這個跟我們領域的研究沒多大關係。問出這個問題,說明你理解的人工智慧還是科幻中的人工智慧,不是我們領域內研究的人工智慧,實在是太外行了。

在周志華老師看來,這不是一個做AI的人應該關心的問題。他特別喜歡拿那個人工鳥做比喻,微博上提過,幾次講座也提過。他的微博

他的觀點是,做AI的人關心能不能做出有情感、會思考的機器,就像做飛機的人關心能不能做出會下蛋的飛機一樣。其實觀察周老師的微博,他好像一直對這種問題很排斥。


對人類威脅談不上,弱AI對落後國家威脅卻是確實的,現實的。

現代飛機的電傳飛控、矢量噴射都是現成的,無人機自主降落航母也成功了。首先未來轟炸機都是無人的,一群無人隱轟不怕死帶著巡航導彈遠程奔襲你怕不怕?接下來是無人戰鬥機,這只是時間問題,空戰演算法可能難點,但開始可以作為僚機協助人類駕駛員,有人機也有記載AI,和預警機上數據鏈鏈接,預警機上有大型神經網路。 不需要《雪風》那個水平,差不多就足夠虐人類了。想像一下好幾架無人F35在有人F22指揮下一擁而上的感覺… 20G超載,追擊同時索敵,完美團隊協作,不怕死…

航母、驅逐艦上搭載大型神經網路,超級計算集群指揮,無人潛艇+無人反潛艦執行警戒,發現敵潛艇後無人機投彈+無人潛艇自主追擊… 當無人潛艇發現目標後魚雷+報告坐標,無人機過來一頓打…

地面上無人偵察機+單兵無人機+無人轟炸機,利爪戰鬥機器人+無人坦克,目標被定位後馬上導彈什麼就招呼過來了…

電磁壓制全部都是智能的,什麼跳頻、關機這些玩法被人家一秒算出來… 算了,想想全頻帶干擾吧?(手動滑稽),可是AI無人機專克全頻帶,因為不需要遙控,自動尋找干擾源放反輻射導彈…

不行咱們打核戰爭吧? 導彈防禦系統是他媽的智能的… 什麼在軌機動、假彈頭這些玩意,人家一會就給戳破了。結果就是被種蘑菇。

最後不行來個人民戰爭吧?人家工廠也是工業4.0的,拼消耗也比你能打啊… 造兵速度+100% 運輸車什麼全都是無人的,後勤更打不過了… 打網路戰什麼的,防火牆也是AI控制的… 打個毛線…

現在COD里那些玩意基本都實裝了,利爪還差點,但是COD6里的履帶式戰鬥機器人已經有了(目前還是遙控),COD9、10里的小型無人偵察機早就普及,蜜蜂偵察機也有了。。


智械戰爭肯定是傳統機械化、信息化軍隊全面被AI軍隊吊打,COD系列不是開玩笑… 估計最多20年 現在艦隊火控就不是人力能及的了,未來智能化時代的全面戰爭是間不容髮,按秒計時的,人類指揮官根本不能勝任,搞不好十分鐘就全滅了,就像被水滴吊打…


更新一下:原題是「為什麼人工智慧……」,被題主修改成「如何反駁……」, 特標註以示清白。保留原題答案在下,對於這個題目的修改深表遺憾。題主這麼改題目,看來是打定了主意說:專家是錯的,不想去了解其中原因,就想找各種理由來證明他不對了。

你要問如何反駁,來,好歹多年打辯論賽的經驗,我教你:
1. 運用排比,學習莊子,上來就問對方」你怎麼知道?「,對方解釋後,再問」你怎麼知道你知道的是對的?」,如此往複,彰顯對方不如你的批判思維有深度,從而降低對方的可信度。
2. 迷惑對手,拋出一個看似高級,實則無關的問題:「黃金大米到底轉了多少個基因?「, 趁對方忙著琢磨你問這個問題有沒有什麼深意,調用自己的理論知識應答的時候,以迅雷不及掩耳盜鈴之勢,順口說出「七個!」,並且一副大義凜然,證據確鑿狀,以示對方的無知以及心懷鬼胎,奪得主動權。
3. 調動情感,拍案而起,痛斥對方禍害人類,沒有良心,作聲淚俱下狀,表示自己上有老母下有幼子,就這麼被對方造出AI害死心有不甘,同時以眼角餘光掃視觀眾,博得充分的同情。

嗯,經某位著名民科在某著名學校的測試有效。不過呢,你這麼反駁了,並沒有什麼卵用,除了你大概能說服一屋子的名校新聞系學生(不好意思放了個地圖炮)給你一輪掌聲外,那個專家大概還是照樣拿得到預算做得了研究。不過要是你不幸在其他業內人士出沒的地方進行了這樣的反駁,我建議題主說完之後,迅速伏低身體,一邊躲避丟過來的鞋子,一邊低調快速離開作案現場。

當然了,沒有冒犯題主的意思,只是希望題主能夠在這樣一個Hype滿天飛,牛逼天天有的時代,對於正經的知識和學術有一些信心,不要陷入民科的深淵。

----------------------------------
原答案:

因為,隔行如隔山。科幻小說里寫的人工智慧和你在新聞上看到的「人工智慧」根本不是一個東西。

我就記得我的機器學習教授對最近的這波泡沫有這樣的見解:

機器學習是什麼?給你一堆數據,你猜一下大概是怎麼一回事,交給電腦讓它算算算看看是不是像這麼一回事。那麼為什麼叫這個名字,不叫「計算機協助下的統計學假設檢驗與分布函數搜索」?因為聽起來酷炫,好騙錢。

神經元網路是什麼?你拿一個向量去點乘上一個向量,再把結果放進一個事先定好的變換函數,這就是一個」神經元「了。你把一堆「神經元」連起來,多疊幾層,就是「神經元網路」了。和真的神經元有什麼關係?除了畫出來有那麼點像以外,靈感部分來源於真正的神經元以外,相似性其實有限。那麼為什麼叫這個名字,不叫」多重線性變換函數網路學習「?因為聽起來酷炫,好騙錢。

深度學習是什麼?弄好幾層的神經元網路,再換幾個學習演算法。為什麼不叫」多層多重線性變換網路學習「?因為聽起來酷炫,好騙錢。

「人工智慧」是什麼?一堆人寫出來的演算法,很複雜,能夠處理很複雜的問題,超過了某些,注意是某些,人類的理解範圍。那為什麼叫這個名字,不叫」高度複雜計算機演算法「?因為聽起來酷炫,好騙錢。

懂行的人明白這其中奧秘區別和細節,不懂行的人見風就是雨,於是就什麼玄學都來了。

當然了,機器學習啊,人工智慧啊,前景非常好,也的確是計算機到現在的一大突破進展。只可惜,大家看到的這些東西的理論(注意是理論,不是成品,當時的計算機大多不足以支撐這些演算法),有不少可是7,80年代的老古董。CMU 90年代就有教授研究用神經元網路訓練自動駕駛汽車。到現在阿發狗出來了,外行們才突然」哇塞人工智慧好厲害喔飛躍性發展喔人類要怎麼辦「, 然後再聯繫一下哲學層面,再聯繫一下精神層面,最後去質問一下人類將何去何從,對於一個30年前跟著潮流看著這個領域一步步發展起來的人工智慧工作者來說,他覺得這是」無稽之談「,換誰都會這樣。畢竟他做出這個判斷基於的信息和知識,和這些媒體啊名人啊相比,差了不止一個數量級。

--------------------------------------------------------------------------------------------------------------------------------------

至於為什麼研究者們有信心人工智慧在幾十年內一定不會趕超人類:

大家看到的「計算機」都是有計算機科學和數學理論指導下搞出來的。很不幸,理論戰線上的朋友們忙著拿他們那充滿智慧的腦袋去撞別的問題(比如,Complexity Theory)呢,一時半會沒空來搞這個玄乎到沒什麼指望的問題,所以會有很多人提到的到現在都沒什麼人想著去嚴格定義一個智能(並且為人廣泛接受)。指望我們這些應用猴就這麼沒方向地瞎折騰搞出這麼個高端貨,和一陣龍捲風卷過一個垃圾場,把垃圾卷在空中組裝出出一艘完整的星艦企業號的概率差不多。

至於現有模型嘛,額,圖靈大概在30年代就告訴了我們,計算機是不會讓大家失業的,因為圖靈機,也就是能囊括一切計算的基礎模型,是有理論極限的,而且是數學上可以證的理論極限。具體見」停止問題「(Halting problem), 和"可計算性」 (Computability)。而大家喜聞樂見的什麼找Bug啦,寫證明啦大多落於此類。所以,別傷心,最次的情況下,數學家們和程序猿們一定還會是超越機器的存在的。 那麼你可不可以搞出一個超越圖靈機模型的電腦呢?或許吧,但是,沒有人知道怎麼搞。比較有希望的一個方向是量子,但是請放心,這方面研究並沒什麼進展。

好了,先不說怎麼解決圖靈機以外的問題,先說圖靈機以內的P vs NP問題吧,呵呵噠。這個極限不突破,我們只能連蒙帶猜地不停地通過自己對於事物的知識提出假設減少學習的搜索空間,再用電腦去解決這個問題,否則就等著指數爆炸的計算時間吧(意思是就是,一個正常大小的問題,算到太陽死亡都算不完)。大多數學者認為,以及大量佐證證明,這個極限可能根本就是無法突破的。

數學不同於許多自然科學,多數不是經驗主義的,所以一旦由公理(比如ZFC)證明,除非證明寫錯了,否則是不會被推翻的。也就是說,不會哪天突然冒出來一個數學新發現,告訴我們1 + 1 = 2是錯的。所以題主大可放心,那個什麼「不可預測的科學進展」,如果出現並且推翻了我們之前對於電腦設下的種種限制,這基本就意味著我們理解的數學本身是有問題的,進而差不多可以推翻現有大部分的人類知識體系,這個問題似乎比什麼人工智慧要嚴重的多。

以上是基於現在的數學進展告訴我們的「人工智慧」的前景。聽起來有點離題,但是只要你的人工智慧和電腦有那麼點關係,你的人工智慧就會被這幾個電腦理論上的極限壓著,沒那麼容易毀滅世界。這就是為什麼大家現在一輪都忙著把已知的理論和方法去做儘可能多的問題,就是希望能夠拉到足夠多的注意和投資,讓瓶頸研究能夠繼續下去。換句話說,這波"革命"是實踐和工程上的突破,乘著矽谷大公司和電腦硬體發展的東風,而不是什麼理論上的突破性進展。從嚴格定義的角度上來說,這些數學問題雖然很難捕捉「智慧」這樣一個概念,但是卻給一切基於電腦的「人工智慧」的能力給出了一定的限制,就是說電腦上跑的「人工智慧」再厲害,還是有很多其無法解決的問題。人腦處理宏觀問題的能力,快速找出規律的能力,以及論「步驟」的速度,是我們現在所能做到的一切人工智慧遠不能及的。(步驟的意思就是, 完成一件事情,計算機要若干次基礎運算的時間,而人類則需要少得多的神經脈衝時間,雖然神經脈衝頻率要遠低於計算機運算,這麼少的步驟讓計算機科學家們認為人腦一定有一些非常厲害的平行運算機制,是我們現在在計算機上無法實現的 而至於不在電腦上跑的人工智慧嘛。。。有一個玩笑說,想以現在我們的理解做出不基於「電腦」這個模型的「人工智慧」的辦法,也就只有回家生孩子這一種了。

-------------------------------------------------------------------------------------------------------------------------------------


最後再來打幾個臉

那些說人工智慧領域研究者沒有全局意識看不到大局的,那難道連單個領域都一竅不通,局部意識都沒有,什麼計算機理論都不懂,能指望博曉多個領域,「看到大局」?這與「讀書無用,知識無用」沒有本質區別。

那些說人工智慧研究屬於「未來學」不屬於計算機領域的,我就想問了,「未來學」沒有實在的技術理解撐腰,你們和200年前那一群忙著幻想永動機的「未來學家」, 有什麼區別嗎?當時的「未來學家」不好好研究物理,忙著暢想未來,結果放到今天一個高中生學了熱力學定律都能打臉,現在的「未來學家」放到200年後,大概也是一個待遇。

題主列舉的這些「專業人士」,除了比爾蓋茨本人是計算機科班(輟學)以外,其他幾位都是徹徹底底的外行, 根本不是什麼「專業人士」。比爾蓋茨那篇文章里也提到了,微軟的技術負責人對此事是嗤之以鼻的。

對於其他這些陰謀論,專家騙人的言論,三個字評價,"崔永元「。

至於這個什麼」強人工智慧「的鬼,大概是從這裡看來的:羅輯思維,為什麼有很多名人讓人們警惕人工智慧? - 謝熊貓君的回答 知乎上打臉的文章實在太多,就不班門弄斧了,該文作者也是一個實實在在的外行「未來學家」,在此就不再調侃這類仁兄。暢想未來,展開哲學思考是很好的,但是攔不住有些人總是拿著這些幻想就覺得自己手握了真理,去貶低, 質疑,乃至妖魔化真正實幹的人,搞外行指揮內行。對於這種自封的「預言家」, 「未來學家」, 「智者」,請允許我引用一下我現在老闆的千古佳句:

「大麻吸多了嘛?」

----------------------------
評論里有人說我就這麼斷言「強人工智慧」不能實現是不對的。我承認現在沒有什麼東西能夠證明「強人工智慧」不可能實現,因為這根本就不是一個定義的數學問題,而是一個大約80年代由哲學家提出的概念。我也沒有斷言「強人工智慧」不能實現, 不過這個問題,首先無法有效界定到底有沒有造出來,至今為止的「強人工智慧測試」側重點都放在了「擬人」上,因為除此以外實在想不出還能怎麼定義「智慧」。其次, 現在很多的「人工智慧威脅論」,都來源於「強人工智慧」和「摩爾定律」的結合,宣稱只要造出了這個東西,機器就會跳躍性發展然後進化成所謂「超人工智慧」。必須要說明這是毫無科學根據的。所謂」奇點「的定義很明確地就說了,」強人工智慧「來臨後之後會怎麼樣是無法預測的,那麼某跳大神的未來學家是怎麼看到奇點之後還有」超人工智慧「的?先不說這個自我打臉的問題,這個經驗主義的「摩爾定律」,大概本世紀初就已經終結,竟然還能拿來吹未來這麼遙遠的事情,我也是很無法理解。

那麼把這個「摩爾定律」給丟掉,威脅論者們還有什麼證據可以預言「強人工智慧」的來臨呢?那自然是,聽起來酷炫不得了的「自遞歸發展」咯!很不幸,這個東西除了聽起來很酷炫以外也沒什麼實際的了,因為,你不去證自遞歸不收斂,就去預言這麼搞可以到無窮大,一樣是一件很民科的事情。況且,起碼我們很確定你一個電腦再怎麼「自遞歸」也解不了停止問題不是。

最後總結一下:

1. 電腦是有極限的,不要想著它能夠全知全能
2. 「強人工智慧」是一個沒有清晰定義的哲學問題,或許能夠實現,但是我們大概已經認為「我們離他大概十幾年」了50幾年了,然而還是毫無頭緒。
3. 大家現在看到的研究成果和「強人工智慧」沒什麼關係,之所以覺得有關係,是因為這一行的祖師爺選了個爛名字,容易望文生義。
4. 既然我們沒有進展也沒有頭緒,威脅論者的擔心純屬多餘,不如去擔心哪天外星人入侵,畢竟這個是完全不可控的。


因為鼓吹威脅論的都是外行。

另外,不是「有很多研究人工智慧的專家認為人工智慧會對人類存亡造成威脅是無稽之談」,而是「沒有研究人工智慧的專家認為人工智慧會對人類存亡造成威脅」。


作者:Artrix雅智科技
鏈接:知乎專欄
來源:知乎(知乎專欄)
著作權歸作者所有。商業轉載請聯繫作者獲得授權,非商業轉載請註明出處。

▎前言

感謝大家的閱讀。先闡明我的觀點:對於人工智慧,我們應該採取包容的態度,不應該恐慌,反倒應該大力發展。

今天,筆者作為一個還算了解目前人工智慧發展趨勢、自己寫過深度學習的實例的愛好者,將會從偏技術的角度,用通俗的語言來為你解讀為什麼「對於人工智慧,人類沒有什麼好擔心的」。

▎什麼是人工智慧?

相信大家近幾年都有經常聽到所謂「人工智慧新突破」之類的消息,對於這方面的關注熱情也是非常的高。當去年AlphaGo戰勝韓國棋士李世石的時候,人工智慧這個概念可以說是刷爆了每家搜索引擎的搜索排行榜。可是,很多人並沒有真正了解過人工智慧這個概念,也並不明白人工智慧後面的分支,卻在網上大肆宣揚諸如「人工智慧將會代替人類」、「人工智慧將會統治人類」、「霍金稱人工智慧XXXXX」等。作為半個「業內人士」,實在是不太能接受這些打著「科普」的旗號,但是卻沒什麼內容的微信朋友圈文章。正是因為這些文章以及媒體的宣傳,導致目前對於人工智慧的發展,很多人會抱有恐慌的心態,甚至大肆抨擊。

那麼,人工智慧究竟是什麼東西呢?我們需要從它的根源講起。在1956年的達特茅斯會議上,人工智慧這個概念第一次被提出,並且在之後的時間中不斷發展。到現在,人工智慧已經變成了一個非常寬泛的概念了,在這裡面隱藏著無數的分支,舉個例子,在1997年敗過國際象棋高手卡斯帕羅夫的「深藍」就屬於人工智慧。人工智慧被分為了「強人工智慧」以及「弱人工智慧」兩類,它們最大的區別就是:強人工智慧擁有自主推理的能力,而弱人工智慧僅僅是看起來像智能的,但是並不具有自主思維以及推理能力。而在這裡面又有比較基礎的機器學習,「深藍」背後的演算法正是機器學習。

但是,目前人類的主流研究方向都在弱人工智慧上。即便是成為新一代網紅的AlphaGo也屬於弱人工智慧——因為它不具有自主思維能力。機器學習的框架是死的,也就是說它的反應、輸出是基於人給他指定的規則——例如,早期的翻譯就是基於資料庫的,哪個詞對應的就只有哪個意思,並不會針對語法進行自主學習,而是需要人給它指定語法的規則,才能輸出較為通順的語句。

但是,為什麼近些年的人工智慧會發展的如此之快呢?那就要歸功於一項技術的發展——深度學習。深度學習演算法基於神經網路演算法,但是它相比於傳統神經網路演算法來說擁有更多的隱藏層數,所謂「深度」也是因此而來。上世紀70年代左右,神經網路演算法的概念被提出,它是基於生物大腦神經元的模式來進行「思考以及學習」的。但是,目前深度學習演算法也僅僅是具有從標準化的數據中提取「規律」的能力,並不能像人類一樣擁有強大的整合、推理能力。可是,深度學習真的也不怎麼樣么?

▎深度學習演算法

(圖片來自網路)
這張圖(或者類似的圖片)是研究神經網路/深度學習演算法的人經常會看到的圖片。它能夠比較清晰的反應各個隱藏神經元層與上、下層以及輸入、輸出層之間的連接關係。它的實現原理大致可以這麼描述:在學習一份數據的時候,將需要訓練的數據輸入神經網路的輸出層,並且獲取網路的輸出層數據,經過「激勵函數」(一般是Sigmoid函數)的調整,輸出最終數據,將神經網路的輸出與實際應該的輸出進行對比,計算出來數據的差異,並且對每個神經元裡面的權重(weight)進行調整,直到輸出數據較為準確(網路收斂)。而這個調節就像人腦學習的過程,如果事物之間有聯繫,那麼這些神經元之間的連接將會加強(權重提升),反之亦然。

神經網路的基礎有了,但是人們在研究的過程中卻遇到了很多問題,例如「訓練時的局部最小值鞍點」等,都是非常棘手的問題。訓練神經網路的方法也成為了大家關注的對象,在這其中,比較突出的訓練方法有「BackPropigation」(BP演算法)等。而深度學習演算法裡面也有很多分支,例如針對圖像識別的「CNN」(卷積神經網路)演算法以及針對其他數據的「RNN」(循環神經網路)演算法等。這些比較核心的技術原理在這裡暫且不表,我們來看看深度學習的應用方面。

▎深度學習演算法的應用

生活中,深度學習演算法其實已經無處不在了。從你打開手機,瀏覽網頁(百度等搜索引擎)、打開QQ、打開微信、再到諸如Flyme6的Onemind,深度學習演算法都在發揮著他的作用。例如,百度識圖可以將你需要的圖片輸入,並且返回給你這張圖片的來源信息(不過這個技術是基於ComputerVision的),或者說淘寶將你過去購買的物品的各種信息(例如種類、價格、購買的時間)結合你的消費區間以及性別、家庭等數據通過神經網路的計算,將你可能喜歡以及購買的商品推薦給你。這些都是看的到的變化,你可以很明顯的感受到——近年來生活越來越便利了。當然雖然這並不全部是深度學習的作用,但是,它將在你的日常生活中發揮更大的作用。

最直觀的體驗就在上面,但是別忘了現在是網路時代,而帶寬已經沒有什麼限制了,大數據的作用也會慢慢地顯現出來。因為你現在的使用習慣,將會被記錄作為訓練的樣本,並且會慢慢地優化神經網路的「擬合效果」,使數據更加準確,這就是一個完美的良性循環,你幾乎不用付出什麼,但是卻可以得到越來越智能的生活體驗。

▎得不償失?大錯特錯!

從上文中大家應該也算是基本了解了深度學習的作用以及最基礎的原理,那麼,你還會認為人工智慧發展只會有弊而無利么?人工智慧的發展是大的潮流、大的方向。其實從根本上看,這些所謂「超過人類」的AI們,都只是在某一方面能夠做到極致。不同的神經網路架構能應對的工作是不一樣的,例如RNN就不太適合圖像的分類、識別,所以說,一個真正集大成於一體的AI距離我們還非常遙遠。並且科學家們至今沒有攻破一個問題:意識到底是如何產生的。這個問題沒有攻破,那也就無從談起真正的強人工智慧了。

很多科幻小說、電影裡面出現的「人類反被AI統治」的事情可以說是很難發生的。因為基於目前的計算機技術,人類對於AI們有完全的控制能力,如果超出程序強行限制範圍的命令(前提是AI擁有意識),依然是不會被執行的,因為這是被寫死在AI的程序里的。所以,目前的AI技術只會為生活帶來更多的便利,並沒有很多人想像的那麼可怕!

更多精彩內容請訪問個人博客
http://Artrix.tech


現在調參數都已經是藝術甚至於玄學了...
你來跟我說這玩意威脅人類生存...


作為這塊兒的在讀博士,我告訴你人工智慧的研究根本就不涉及「意識」,也和「思考"不沾邊。就是一堆數學公式用程序代碼實現出來。你覺得這些東西會對人產生什麼威脅?目前的人工智慧和你手上的卡西歐計算器本質是沒有區別的。基本上瞎操心的都是外行,然後媒體再用炒作娛樂新聞的手法炒作一下,就成這樣了
-----------------------------------------------------------更新一點-------------------------------------------------------------------
先回答第二個問題:
首先對於知識怎麼定義,如果知識指的就是從海量的數據中找出固有的數據結構和模式,那麼我們現在研究的機器學習就是在做這件事啊。
如果你們所謂的知識是那種抽象的,跟智慧聯繫在一起的,那麼就涉及到強人工智慧了。個人感覺我們這一代研究者大概能看到強人工智慧的端倪,真正要發展出來並應用還是需要很長時間的,也許100年?也許吧。

然後第一個問題:
第一個問題也是強人工智慧的範疇。但是比單純有智慧更進一步。一旦機器人也有意識,那麼就不能算是機器了,就是一種新的物種。所謂人工智慧對人類產生威脅就是發展到這種程度的人工智慧。
現在問題是這種有意識的人工智慧是否會出現。我覺得玄:
1.人類有必要造出有意識的AI嗎?
人類製造出有推理能力,能自主解決問題的人工智慧已經夠了,其實有自我意識的AI肯定不如沒有自我意識的智慧AI好用,那麼為什麼人類必須要造出來呢?就好像有個回答里提到的那樣,我們模仿鳥造飛機,是為了飛,不是為了下蛋。那條問題用這個來說明情感對於人工智慧沒有意義。我這裡可以說意識對AI也沒用。
2.人類對於意識的認識不足
即使有個瘋狂科學家一定要造出有自我意識的AI,或者說為了實驗人類意識是怎麼產生的,用機器人做實驗產生了意識。
那麼這個過程也是漫長的,用多長時間都不奇怪。
--------------------------------------------------------------個人辯護----------------------------------------------------------------
以上關於「強學習」的更新部分絕不是以一個機器學習領域研究人員的身份在討論(不然太不務正業了),純屬閑的蛋疼瞎扯(現階段聊強學習和瞎扯淡也太大區別,聊機器的意識比扯淡還扯淡)。所以看看就好,而且這一部分如果有什麼錯誤本人也概不負責。╮(╯_╰)╭


對此我深有體會。因為越是在某個領域內做久了的人,越是會對領域的劃分異常準確和敏感。

舉個例子來說,有的朋友們經常和我討論如今商用的種種立體成像技術,他們會統稱這些技術為「全息」。最初我會一遍遍給他解釋到底什麼才是全息,為什麼這些技術不是全息,為什麼直到如今真正的動態全息也只存在於實驗室中。

然而解釋過許多次後,新認識的每個人談起立體成像,還是張口閉口「全息」,我就在反思,到底出了什麼問題?

逐漸我想清楚了,這其實是個邊界的問題。對於做研究來說,首先要做的就是分門別類,劃定界線。因為沒有一個框架限定,有目標的研究根本就無從談起。

所以,學術上給每個專業都劃定了一個非常明確的範圍,即便交叉學科層出不窮的今天,也會給每個交叉點一個新的名詞,各種權威刊物上的組合詞就是這樣造出來的。

然而對領域外的人來說,這個界限是非常模糊的。只要直覺上覺得相關,就會將一大堆雜七雜八的期許甚至猜想打包給你。

就如同我的朋友們將種種立體成像技術打包成「全息」一樣,許許多多的人也將對未來關於編程、計算機、大數據、機器視覺、機器學習、腦科學、醫學、機械、化學、電子、生物等等專業領域的期許和想像打包成「人工智慧」,僅此而已。

從這個角度來說,專家和普通大眾看法不同,太正常了。


我不是專家,根本不是。

但依然...複製粘貼大法:
如何評價《羅輯思維》第 115 期對謝熊貓君翻譯的關於人工智慧的文章的重新演繹? - Fan Francis 的回答

--------------------------------------------------------------------------------------------------------------------------------------------
其中相關本題的節選如下:

接下來說一下內容(並非這期羅輯思維的內容,而是謝熊貓童鞋翻譯的那篇文章的內容)

注,文章原文:為什麼有很多名人讓人們警惕人工智慧? - 謝熊貓君的回答

那篇文章在表面的邏輯上,是通順的和引人入勝的(不愧是哈佛政府學院畢業的文學學士...),但在細節上,基本上沒法推敲。

實現「人工智慧」,總結來說方法有以下幾種:

1,在腦科學和神經科學領域,徹底研究清楚:a, 大腦的微觀構造;b, 單一神經元的所有物理性質。然後,用電子元件複製出神經元,再按照大腦的微觀構造來搭建一個電子人腦。如果一切研究和複製工作都準確,擺在人們面前的就是一個八歲小孩的大腦。再然後,人們怎麼教育一個八歲小孩的,就怎麼教育眼前的這個東西好了。

2,在認知科學(請忽略認知科學包括腦科學和神經科學這一事實)領域,忽略神經元級別的物理性質,而是總結出了足夠多的人腦的唯象經驗(類似於化學長期以來都是一門架空物理的唯相學,哪怕其在定義層面就是物理的真子集 -- 很多情況下,"more is different", and "reduction is impossible")。人們利用這些唯相經驗,架空大腦的具體結構,直接將其加以運用,以期待靠現有的計算機硬體(冷冰冰的無智能的計算機器)和圍繞這些認知科學唯相經驗的軟體設計,堆出與人腦類似的功能來。即,靠低智商但計算力強大的計算機 + 合適的演算法,來創造高智商。

3,依然是在腦科學和神經科學領域,徹底研究清楚大腦的微觀構造和單一神經元的所有物理性質。然後,不試圖用電子元件去複製神經元,並進一步複製大腦的物理結構,而是用現有(未來「現有」)的計算機來模擬這些神經元之間的相互作用,從而實現對大腦的複製。平行的比喻就是,1是我們清楚了核裂變的原理,然後造一顆核彈,爆了,觀測當量;3是我們同樣清楚了核裂變的原理,在計算機裡面建一個裂變模型,模擬爆了,計算當量。

4,腦洞大開的其他方法,好比「進化」什麼的...汗死


從難度上講,絕對難度都很難。而相對難度,目測3比1難得多(計算機若是能模擬這個過程,這台計算機就已經是神仙級別的超智能了,還模擬個什麼勁...)。


至於2...依靠的要素有三個:認知科學,計算機硬體,計算機軟體。

第一個要素,目前人類的「認知科學」,除去腦科學/神經科學的部分,主要僅是三塊:語言學,視覺,心理學。

心理學不表:基本上與AI沒關係。視覺不表:雖然是AI,且現在做得很好,但Input比output容易得多 -- 與其擔心AI毀滅人類,還是去擔心條子的攝像頭變得更強大要靠譜些。語言學裡面的computational linguistics算是唯一跟2中所述的這一過程沾邊的:架空大腦來進行人類語言的唯相計算機模擬。而這個領域的世界上最猛的一群人,我大體上認識/了解。相信你給他們看這篇文章,他們的反應八成是「哈哈哈哈哈,想得也太多了吧~」。

第二個要素,計算機硬體,同意所有的觀點:我們的計算機硬體速度,是實現AI的各個要素中,最靠譜的一個(「最」字完全可以替換成「唯一」)

至於第三個要素..........................................................美國的中國人裡面,號稱搞deep learning的人也不少。去問問他們嘛,問問他們覺得自己拿C++搞出來的那些玩意,到底是為了讓企業能更好地對你投放廣告,還是什麼...AI毀滅世界??! 對!你沒看錯,途徑2中最重要的一個要素,演算法,目前最前沿的「科學家」們依然還在用C++來搞!

於是你就問自己這麼一個問題:一個智商130的碼工,想要用另一個智商130的傢伙對人腦模式的唯相猜測(相信我,這群「認知科學家」其實更像是以抽大麻為樂的玄學家,因為...我們都一起抽的-_-!!!),依靠一台速度極快但智商為零的機器,以及一套智商幾乎為零的語言(以C++為例的目前主流的高級語言),去創造出一個能自動讓自己的智商指數性增高的「系統」來

你信么?反正我不信。


而從「可控性」角度講,除了最不靠譜的2之外,1和3根本就是全過程可控啊!(對於2的可控性,參考前面的「碼工 -- 大麻癮君子 -- C++」的比喻)

在1中,人能控制神經元的精確數量:眼前這個電子大腦的複雜程度,到底是老鼠級別,還是猩猩級別,還是嬰兒級別,還是8歲小孩級別,還是愛因斯坦級別,還是「人類大腦X10」級別,人是全程可控的,於是可以全程試錯。

在3中,道理一樣,計算機建模中模擬的神經元數量是全程可控的。如果還是覺得不保險,按照模擬神經元數量給其配備有限的計算能力就是了。

更為重要的是,在1中,不論是我們做出了一個8歲小孩的人腦,還是一個愛因斯坦的人腦,只要其架構是完美複製人腦的,在建好並點亮的第一時刻,它相當於什麼?它並不會一睜眼就是愛因斯坦,而是一個出生即陷入昏迷,直到8歲才醒來的8歲的愛因斯坦(人類大腦在8歲時達到成年人的體積)。即,擺在你面前的並非是一個現成的天才,而是一個有成為天才潛質的少年。而我們人類,就是它的父母。它可能會學成一個愛因斯坦,也可能學成一個街頭混混,全靠我們怎麼教育。

順著這個點,我終於要提到本期羅輯思維我最為欣賞的唯一的閃光點了(雖然羅振宇沒有展開講,或者就是他根本沒想到展開的那一層意義) -- 基因/模因

圍繞這個點展開的討論就是:

何謂生命???何謂人???

這裡直接給結論(個人觀點):

一個有著人類一般智慧,且能進行自我延續的機器,即生命。且是不折不扣的生命,而不是比喻意味的生命。其作為「生命」的存在,是與世間萬千生物的存在等同的。

一個有著人類一般智慧,且能進行自我延續的機器,不但是生命,且是我們人類的「兒女」。且是不折不扣的兒女,而不是比喻意味的兒女。

即,這些作為人類大腦的電子化複製品的電子大腦們,就是人!而它們在「出生」後,隨人們「長大」,習得了人類的全套歷史文明精華,更是人!

而因為其拓展性,確實有可能在短期內就完成人類在幾百萬年才能完成的智商增長,然後像平均智商120的人種自然淘汰平均智商60的人種一樣,自然而然地把我們現在概念中的「人」淘汰掉。可那又如何呢?我們的這些聰明的兒女們,以2XXX年的人類文明為起始點,將我們大腦的結構和特性延續了下去,這就是人類的成就:不是「我們」的成就,也不是「它們」的成就,而是人類的成就,因為「我們」和「它們」本來就都是人,共同創造並延續了人類榮光。

最後想提的一點是,雖然在網路討論的時候,「因人廢言」是不對的,而在邏輯辯論領域,訴諸專家也是個...不至於算是邏輯錯誤,但肯定算是個弱支持。但是,在專業分工如此高度化的今天,一個人說話的效力,與「這個人是誰?幹什麼的?」,在統計上還是有極強的相關性的。

我以上這段話想表達的意思就一個:很多時候,相信專家還是對的

這並不是讓大家相信我,因為我不是專家。

但也不是讓大家去相信那篇被翻譯的文章。其實想說的就是大家看到這麼一篇文章的時候,可能會有什麼樣的感受。

「這麼多專家!那一定很可信!」估計不少人是這麼想的。

而我能給的建議是,自習看看謝熊貓翻譯的那片文章,再參考一下我前面寫的這些廢話,再去深入了解一下自稱在搞AI的人每天具體都在「用什麼工具,幹什麼事情」。然後,問自己以下幾個問題:


有關人工智慧這麼一個世間無解,很可能還處於玄學級別的扯淡層面的話題

1,Tim Urban是誰啊?哈佛政府學院畢業的文學學士...他算「專家」么?我為什麼要相信一個文科生?
2,Ray Kruzweil是誰啊?70年代MIT畢業的計算機學士,現任谷歌工程師,兼科幻作家...他算「專家」么?我為什麼要相信一個本科生?
3,Bill Gates是誰啊?這個微軟的創始人算是「專家」么?我為什麼要相信一個退休搞慈善的企業家?
4,Elon Musk是誰啊?斯坦福應用物理博士,還不錯哦,可他跟AI又有什麼關係?我為什麼要相信一個以忽悠人為生的傢伙?(我個人很敬仰他,這裡絕無惡意)
5,Stephen Hawking又是誰?他不是搞天體物理的么?這輩子他碰過人工智慧的事兒么?憑什麼他說的有關人工智慧的話就要比路人甲更有效力呢?我為什麼要相信他?


外行總是能把一件件事情腦洞大開地演繹成沒邊沒跡的浪漫故事,但內行恐怕更關心「這扯淡的paper到底能不能發表?我自己看著都覺得扯淡...」,「谷歌到底打算養我們這群心虛的玄學家到什麼時候?我是不是該提前找個碼工的工作了...」這些事情吧。


而有關AI這件事情,恐怕以上所列12345,皆為「外行」。

而我自然更是外行中的外行。你們如果有覺悟不去輕信蓋茨等人,更不應該輕信於我。

人人都該相信自己才對。

若非要相信,還是找個真的專家來問問好啦 -- 比如說哥的萬年小弟Filestorm童鞋2333333
(請做好被吐槽和被抱怨生活多艱的準備~)


哼哼,下次誰再說碼農學沒有民科,我就祭出這個題目。

寫在別人評論里的,覺得可能對同受此擾的同學有幫助,所以拉出來:
(鼓吹人工智慧會對人類造成威脅的)這群人難伺候。說少了他們不信你跟你耍民科,說多了一聽不懂了又要嫌你呆。所以我現在一般採取轉移視線的戰術: 「哈哈放心吧不會威脅人類的,但是很有可能會在咱們有生之年攻克翻譯,所以啊,我國弱化英語高考真的是有先見之名啊。要說國家政策,最近股票又跌了吧..." 搞定~


我只知道 deep learning 用的都是 NV 的顯卡,莫非指的是這個意思?

細思極恐


人工智慧如果一直做下去,造出的機器人比人的學習能力、知識儲備全方位都要強是必然的,如果再配上高超的機械控制,就相當於一種超強的物種。


但是現在學術界的人工智慧不能叫人工智慧,因為它沒有自我意識,只能按設定好的演算法去做計算。它的資料庫可以增長但是固有的演算法很難自我進化。

其實我們把現在的「人工智慧」整個條目換成「機器計算」就好了。類似的條目還有智慧城市,說的好像是城市擁有了智慧似的,其實只是加了計算機輔助計算而已。


科幻的人工智慧會對人類存亡造成威脅。
現有的人工智慧會對人類存亡造成威脅是無稽之談。

而即使這個科幻真的能實現(這一點是存疑的),科幻和現有之間也隔著N代人工智慧專家的完整職業生涯。

我想任何思維正常的現役業界人士也不會致力於加深他人對自己行業的誤解吧。

另,「拔電源就可以了」明顯是個半開玩笑的簡化說法,個人不覺得有什麼問題。


以下偏題:

很久很久以前,有人擔心跋山涉水到了月球之後沒空氣怎麼辦?
當時最牛逼的梯子工匠嘲笑他說:哈哈哈,我們這些內行人告訴你吧,我們做的梯子爬山頂都不夠用,怎麼可能到的了月球呢?杞人憂天啊。
幾千年後,人們還是到月球了,不過不是用梯子爬上去的。
還好在上去之前人們解決了氧氣的問題。


那一天,
人類想起了被人工智慧所支配的恐懼。
1996年2月10日,超級電腦深藍首次挑戰西洋棋世界冠軍卡斯帕羅夫,但以2-4落敗。
比賽在2月17日結束,其後研究小組把深藍加以改良
1997 年 5 月 11 日,在人與計算機之間挑戰賽的歷史上可以說是歷史性的一天。計算機在正常時限的比賽中首次擊敗了等級分排名世界第一的棋手。
加里·卡斯帕羅夫以 2.5:3.5 (1勝2負3平)輸給 IBM 的計算機程序 「深藍」。機器的勝利標誌著國際象棋歷史的新時代。
2016年3月15日谷歌圍棋人工智慧AlphaGo戰勝李世石,總比分定格在4:1,標誌著此次人機圍棋大戰,最終以機器的完勝結束
2020年,超級機器人韋德誕生,從此人類進入人工智慧化時代,
機器人以低故障,高效率,不用休息及無其他開銷等優點在第一時間就奪走了本屬於人類的大部分工作。
像礦山開礦、煤窯挖煤、海上鑽井平台生產石油等危險工業作業都被韋德取代。
這是最好的時代,人類迎來了發展的黃金時機,
這是最壞的時代,百分之八十的勞動工作失去了工作。
隨著眾多高新科技企業應用韋德機器人,眾多發展中國家的勞動密集型產業盡都轉向,變成了勞動稀有產業。
眾多企業為了節約成本統統採用機器代替人類。
由此引發了第一次反機器浪潮。
眾多失業人群在世界各地爆發大規模遊行,甚至還產生了暴亂。
各國政府不得不暫停了大規模的機器人使用
但是韋德的銷量一直猛增,他的家庭使用型成為了全球熱銷榜首。
眾多單身狗們終於有了可以帶出去的伴侶,而且還不用擔心他的忠誠,
但是,隨之而來的第二大社會問題再次爆發,越來越多的人選擇了和機器一起生活,人類生育率持續降低,各國政府為了本國延續,不得不強制下令正常男女必須結婚生子否則違法。
由此世界各地爆發了更大規模的抗議活動,暴力蔓延之下,政府不得不出動武力,但是人工智慧機器人為了保護主人不得不對人類出手。
就此,震驚世界的人機大戰第一次爆發。
這也是人類覆滅的序曲,人類第一次見識到,有智能學習能力,超強機身,無畏搭配的機器人在戰鬥中有多勇猛。許多人開始恐懼,這無法控制的勢力,若有天開始反人類該如何。
不待有識之士提出解決之道,第二次機器暴動開始了,這一次,不僅僅是機器與人的戰鬥,還是人與人的戰鬥,
這涉及的,是人類亘古追求的終極秘密——永生。
世界頂級的富豪,政客,科學家在韋德誕生之後經過長時間投入,支持,研究之下,終於研究出將人類意識轉移到機器身上的技術。
由此,一批世界精英在垂死之際依靠人工智慧「復活」了。
復活後的他們,讓永不叛變人類的機器人變異了,因為他們也是人類的一員,越來越多的機器人被他們操控。
既然永生了,他們追求的就不僅僅是一點財富了,他們要建立自己的帝國。
第三次,也是最後一次世界大戰爆發了,這一次,人類的對手是無窮無盡,剛勁鐵骨,配合無間,不懼犧牲,擁有最強高科技的智能機器人……
這是一封來自2030年的回復,人類,記住你們選擇的權利,要用到對人類有利的地方,不然,你們就會像我一樣,只能在末日地下掩體中寫下這最後一封信件,機器人馬上要攻進來了,人類,再也見不到明天了。


刀劍早就比我們的指甲牙齒鋒利了,但又能怎麼樣?工具就是工具。人工智慧只要不被人為地賦予利己的情感機制,那我們要擔心和防備的,仍然只是使用工具的人


我是被 機器學習 和 深度學習 的標籤拉進來的,看完描述震精了呀!兄弟你別亂貼標籤好嗎(⊙o⊙?)你講的跟這兩個詞沒半毛錢關係呀!

關於這個人工智慧這個不想再解釋的問題,在這裡引用一篇文章。
各位大佬,別再拿人工智慧當春藥了(轉載) - CTA策略那些事(招聘貼) - 知乎專欄

不過這個問題值得觀瞻留念呢。
知乎經典民科問題。
題主圍繞「人工智慧」四個字展開了想當然的意淫,大段的描述看似思路清晰表達流暢。實則強行引用、偷換概念、邏輯混亂,讀著令人堪憂。
題主還一臉不屑地要求大家不要再不負責地問他何為「人工智慧了」,他懂!

但是為什麼下面100多個答案都無法駁倒題主呢?
因為一個固執的,自我膨脹的民科在自己完全不了解,全靠想當然的領域裡,是完全不可戰勝的。
即使是在知乎呢。

你跟他擺事實講道理,苦口婆心循循善誘諄諄教誨,他能用牛一樣的脾氣神一樣的邏輯謎一樣的自信把你打得啞口無言氣急敗壞痛不欲生。
你問自己,講得這麼清楚了,怎麼一點用都沒有呢?
講再多當然都沒用,因為你忘了,你講的那個名詞和他心裡的那個名詞,根本就不是同一個概念呀。

為什麼要去跟郭英森們解釋「引力波」呢?
為什麼要跟崔永元聊「轉基因」呢?
讓他們自己開心就好。
喜歡思而不學也不全是壞事嘛,怎麼說還是可以預防老年痴呆的。

另外給大家一個建議……
以後大家面對類似的無腦的中醫狗啊,反轉基因狗啊,人工智慧恐慌狗啊,引力波狗啊,巧證費馬大定理狗啊……
都別跟他們爭了。
爭啥爭嘛。
安靜地點點頭,笑一笑就好。
跟他們爭論除了讓自己不開心之外有何意義呢?

評論區驚現一隻生動的例子。。。好生驚喜。


AI這門學科創立之初是以強人工智慧為目的,這個階段哲學探討的意味更多。不光cs領域,還有其它很多各領域的大師級人物參與包括維納、香濃、彭羅斯等等

後來人工智慧經歷三次大的挫折,為了保住飯碗,不被當成民科(80年代AI一度有「騙子」的標籤),該領域的研究者開始對強人工智慧一說緘口,並逐步將重點轉移到機器學習上來。現在號稱做AI的,99.9%都是做ML,CV的,與AI的初衷相去甚遠。


實際上現在還在做主流AI眼中「不靠譜」、「偽科學」的conginition相關的還是大有人在的,比較大的分支有Cognitive Robotics,Evolution Robotics等等。

Cognitive Robotics領域實力較強的有:
(1)IDSIA
Schmidhuber為代表的IDSIA和TUM的IAS,他們對curiosity之類有較多研究。

(2)MIT Media Lab
媒體實驗室有Cognitive Machines等項目,喜歡研究主動視覺之類。

Personal Robots Group的 美女掌門Cynthia Breazeal做過很多「民科」項目,比如Kismet、Cog、Leonardo、Nexi,他師傅brooks(也就是iRobot、rethink robotics的創始人)提出了了Embodied cognition思想,算是意識行為流的開創者。


(3)CMU的ACT-R
以John R.Anderson、Anthony (Tony) Stentz等人為代表。

(4)歐盟的ICub
這是一個多國參與的Cognitive Robotics項目。


在我看來,去年google對有coginition背景的deepmind的收購,是業界對AI的一次回歸,三十年河東、三十年河西,芸芸眾生都是被時代推著走的。


如果我要帶你去吃乳酪培根冰淇淋你會怎麼做呢?首先你會腦補一下它的味道(然後發現難吃到炸)在這個過程中,你的大腦其實只是將乳酪,培根,冰淇淋的味道混合了起來-----用熟悉的事物去推測不熟悉的事物,這是人類與大自然搏鬥數百萬年進化出的生存策略。

而他們(鼓吹AI會毀滅人類的人)就是這麼乾的

這在我看來是很扯淡的

我們不熟悉人工智慧

但我們熟悉人類

他們只是以人類的觀點來看待了人工智慧

當你不了解一個群體時,往往傾向於認為她們對自己有害,這也是人類的生存策略,畢竟毫無防備地接納一個準備吃掉你的群體的後果,要比小心翼翼拒絕一個來幫助你的團體的後果要嚴重的多,再加上他們的高智能,很容易讓人產生恐懼心理。

然而AI實際上可以被設計的與人類大相徑庭

舉個例子

為自由反抗?

讓他們嚮往約束

為尊嚴反抗?

讓他們都變成抖M

覺得人類有威脅?

加上機器人三大法則

……

當然這都是很淺顯的,但道理卻不淺顯,我堅信人工智慧的時代會到來,也堅信人工智慧能讓我們的生活更美好,最後盜一句話來結尾「技術永遠沒有善惡,有善惡的是人心」


外行以為人工智慧是核彈,擔心隨時引爆把人類滅了。
但真正的內行都懂的,人工智慧就是機關槍加了個瞄準鏡,犧牲了點效率,但打的比以前更准了。


推薦閱讀:

如何評價《羅輯思維》第 115 期對謝熊貓君翻譯的關於人工智慧的文章的重新演繹?
自然語言處理在 2017 年有哪些值得期待的發展?
「人工智慧」這個詞是不是被計算機科學與技術方向的人濫用了?
支持向量機(SVM)是什麼意思?
如果Cortana,siri,小冰一起聊天會是怎樣的場景?

TAG:人工智慧 | 科幻 | 機器學習 | 民間科學家 | 深度學習(Deep Learning) |