人工智慧或許是人類的最後一項發明

20世紀60年代,雖然距離世界上第一台通用計算機「埃尼阿克」出現的時間並不長,但當時科學家們信心滿滿地認為很快就可以通過硬體和軟體模擬人腦,人工智慧不久就會與人類不相上下:

十年之內,數字計算機將成為國際象棋世界冠軍。

十年之內,數字計算機將發現並證明一個重要的數學定理。

二十年內,機器將能完成人能做到的一切工作。

一代之內......創造「人工智慧」的問題將獲得實質上的解決。

在三到八年的時間裡我們將得到一台具有人類平均智能的機器。

然而,誰能料到人工智慧程序第一次擊敗世界圍棋冠軍,竟是五十多年後的事情了。

人工智慧起伏六十載

1950年,被譽為「人工智慧之父」的英國天才數學家阿蘭·圖靈提出了一個問題:機器能思考嗎?自此揭開了人工智慧的序幕。

如果一台機器能夠在與人類的對話中不被發現真實(機器)身份,就被視為具有智能。這就是「圖靈測試」。

追溯人工智慧的歷史,從來都繞不開那個著名的命名:1956年幾位計算機科學家相聚在達特茅斯會議,提出了「人工智慧」(Artificial Intelligence,簡稱AI)的概念。AI從此進入了人們的視野。

可惜在後來的發展中,人工智慧領域因為計算機性能、技術瓶頸、缺少資金支持等問題,人工智慧在上世紀70年代和80年代經歷了兩次低潮。

1973年,英國有位數學家甚至發表報告稱:人工智慧最多只能在棋類遊戲上達到比較有經驗的業餘選手水平,永遠無法勝任常識推理和人臉識別這樣的工作。

1982年「神經網路」才逐漸復興,但是人工智慧硬體發展屢受挫敗,受歡迎程度遠不如個人計算機。

直到1994年,西洋跳棋程序Chinook擊敗了世界排名第二的人類選手汀斯利。1997年IBM開發的國際象棋程序「深藍」擊敗了當時的國際象棋世界冠軍加里·卡斯帕羅夫。人們這時才開始懷疑:人工智慧是不是會取代人類了?

即便人工智慧領域已經取得了一些成就,《紐約時報》還是保持了一貫的尖銳。2005年《紐時》發文稱:「計算機科學家和軟體工程師們避免使用人工智慧一詞,因為怕被認為是在說夢話。」

2011年IBM人工智慧Watson在益智搶答電視節目《危險》(Jeopardy!)擊敗兩位人類選手。2016年谷歌旗下DeepMind研發的人工智慧圍棋程序AlphaGo以4:1戰勝世界冠軍李世石,震驚世界。

2016年被視為人工智慧爆發的元年,全球科技巨頭加快了向人工智慧領域進軍的步伐。研究機構Gartner預計2018年,全世界將有60億台設備用上AI技術,屆時人們將在互聯網家電、汽車等產品上與人工智慧零距離接觸。

科幻與現實分區:強、弱人工智慧

在我們對人工智慧感到驚訝或恐懼之前,我們首先需要區分兩個重要概念:強AI和弱AI。

目前關於人工智慧的大部分研究集中在弱AI上,即讓機器專註於具體的任務,例如人臉識別、語音識別、自然語言處理等方面。現在已經運用在了聊天機器人、無人駕駛、人機對弈等領域。

實際上贏了人類的AlphaGo其實也屬於弱人工智慧,其背後暗藏的是充滿人類智慧的演算法和對弈。但是值得一提的是AlphaGo採用了蒙特卡洛樹搜索的方法,讓機器能夠自我對決,從而提升整個系統的棋藝水平,這是從有監督的深度學習進化到了無監督式的學習階段。因此,AlphaGo的取勝被認為是依靠「直覺」。

而強AI是指通用型的,正如那些我們在科幻電影中看到的,這些機器人具有自我意識,完全自主,具備人類的思考、推理、知覺等各種能力。

但強AI即使能夠實現,仍離我們很遠。不久前在深圳舉辦的全球人工智慧與機器人峰會(CCF-GAIR)上,牛津大學DeepMind實驗室負責人Michael Wooldridge就表示,強AI是一個遙遠的夢想,走到這一步需要很長的時間(其實Michael後來一不小心說成了「不太可能實現」,或許只是個口誤吧)。

人工智慧是神話還是詛咒?

總有人產生這樣的疑問:既然AI的發展還如此基礎,那麼史蒂芬·霍金、埃隆·馬斯克等科技大咖們為什麼要反對呢?

特斯拉CEO馬斯克曾說:「(超人工智慧)可能比核武器更危險。」

而超人工智慧是什麼?

想像一下智商1880億的電腦能夠做什麼?同時這台電腦還會不斷呈指數型增長無限擴大。這彷彿就是蚯蚓與人類的差距。人類智慧潛在受到腦袋、細胞等物理限制,但是超人工智慧通過內部的「計算」就可能解決所有問題。

得到「鋼鐵俠」馬斯克1100萬捐贈、致力於「限制智能化」研究的志願者組織「未來生命研究所」(Future of Life Institute)曾發文稱:

「人類一般不討厭螞蟻,但是我們比它們聰明太多,所以我們想建成一座水電站大壩時有一座蟻山在那裡,這對螞蟻來說就太糟了。有益的人工智慧運動的目標是避免將人類置於螞蟻的地位。」

超人工智慧或許是人類的最後一項發明。

我們需要知道如何半秒鐘關掉AI

目前,鮮有人認為我們需要一個「AI防火牆」。但是不容否認,AI安全性的研究正逐漸進入更多人的視野。

惡意人工智慧已經成為一個話題。人工智慧專家在打敗惡意機器之前,必須先了解它們。然而,這一部分發展目前並沒有什麼新突破。

谷歌大腦、Open AI等研究人員合著的論文中探討了未來智能軟體的安全問題。文中以掃地機器人為例,「如果機器人通過清理髒亂獲得獎勵,它就可能鼓勵創造髒亂來進行清理以便獲得更多的獎勵」。

研究者指出這種「獎勵黑客行為」很可能遭到系統的濫用,後果更加難以預料。

微軟CEO納德拉則效仿科幻小說家阿西莫夫的「機器人三定律」,提出AI安全六大準則:

  • AI必須以輔助人類為設計準則;

  • 透明性準則;

  • AI必須在追求效率最大化的同時,不損害人類的尊嚴,他應當尊重人類文化的多樣性;

  • 隱私性原則;

  • 演算法可靠準則;

  • 防偏見準則。

  • DeepMind公司此前聲稱其擁有一個人工智慧倫理委員會,但卻沒有披露誰在管理這個機構。有媒體報道他們正在研究一個能夠讓人工智慧軟體停止運作的「紅色大按鈕」。

    反正機器人電影的劇情咱們有生之年是看不到的。

    /


    推薦閱讀:

    CVPR 2018 | Spotlight 論文:非參數化方法實現的極端無監督特徵學習
    人工智慧和圖像處理方面的各種會議的評級
    痴人、信徒、先驅:深度學習三巨頭等口述神經網路復興史
    人工智慧的未來
    解釋權條款剝奪深度學習合法性:「最嚴數據隱私條例」GDPR今日生效

    TAG:人工智慧 | 人類 | 智慧 | 發明 | 人工 |