美媒:人類擔心AI統治世界?10年內沒啥可怕的

打開網易新聞 查看更多精彩圖片 >

網易科技訊10月26日消息,據科學美國人雜誌報道,伊隆·馬斯克(Elon Musk)最新宣布,旗下特斯拉電動汽車公司製造的所有汽車都將支持全自動駕駛功能。但這需要讓人相信,特斯拉的AI(人工智慧)技術能夠確保所有汽車都能實時讀取數據,並對不同的情況做出反應。

現在,AI的確可以執行許多令人感到驚奇的事情,比如上周AlphaGo電腦程序的開發者報告稱,他們的軟體已經學會了在倫敦複雜的地鐵系統中導航,就像個「本地通」。甚至就連白宮也緊跟潮流,於數日前發布報告,宣稱將幫助美國應對未來,屆時機器可能會像人類那樣思考。

可是,已經研究AI數十年,並嘗試解決AI基本問題的計算機科學家奧倫·埃齊奧尼(Oren Etzioni)認為,在人類擔心機器將接管世界之前,機器的進化之路依然十分漫長。埃齊奧尼如今是艾倫人工智慧研究所(AI2)的首席執行官,這個組織是微軟聯合創始人保羅·艾倫(Paul Allen)2014年創建的,重點是研究AI的潛在益處。艾倫認為,好萊塢甚至其他研究人員都將AI描述得過於邪惡,甚至可能威脅人類生存。

AI2啟動的AI項目並不十分華麗,比如基於AI、支持學術研究的搜索引擎Semantic Scholars。但他們卻專註於解決AI領域的難題,比如推理等。《科學美國人》最近在紐約AI大會上採訪了埃齊奧尼,他擔心當前公司過多吹噓AI的現有能力,特別是機器學習技術(又稱深度學習)。這種技術可運行大量數據集,通過網路模擬人類大腦的神經網路,以便教授計算機自己解決具體問題,比如識別模式或識別照片中的特定目標等。

埃齊奧尼還反思為何10歲孩子都比谷歌旗下AI公司DeepMind的AlphaGo更加聰明,以及最終為何需要開發出AI「監護人」程序以便確保其他AI程序不會變得更危險。以下就是採訪摘要:

問:在尋找研發AI技術的最好方式時,AI研究人員之間是否存在分歧?

埃齊奧尼:有些人已經看到了一點兒未來。我們在許多AI領域都取得了巨大進展,比如語音識別、無人駕駛汽車以及AlphaGo等。所有這些都是值得稱道的技術成就。但是如何解釋它們呢?深度學習顯然是非常有價值的技術,但我們在研發AI過程中還有許多問題有待解決,比如推理(即機器人可理解而僅僅限於計算2+2=4)、獲得背景知識(機器能用於創造情境)等。自然語言理解是另一個問題。即使我們開發出AlphaGo,但我們依然沒有程序能夠解讀和充分理解一個段落甚至簡單的句子。

問:有人認為,深度學習是AI領域最好的技術。深度學習到底有什麼作用?

埃齊奧尼:當你有大量數據需要處理時,而計算機又知道它們代表的意義,那麼你將具備強大的計算能力,你可以嘗試找出數據中隱藏的模式,深度學習在這個領域堪稱無敵。此外,AlphaGo可以處理3000萬個與位置有關的數據,這些位置可教授AI程序在不同的情況下採取正確行動。還有其他例證,比如放射圖像,它可以顯示是否存在腫瘤,而深度學習程序可以調整顏色,確定這份圖像是否是之前看過的。深度學習還能夠執行很任務,這是真正的前沿技術。

問:那麼深度學習面臨哪些挑戰?

埃齊奧尼:問題是系統有了智慧還不行,還必須有更多數據可被用於訓練它。以學生的標準化考試為例,比如SAT或紐約高考數據。以前,為了獲得高分,智能程序可通過3000萬份被打上成功或不成功標記的考卷進行學習,而新的AI程序需要更複雜、更多互動的學習過程。AI還可通過設備、對話或讀書學習。儘管深度學習有如此明顯的優勢,但10歲孩子也能做到這些,比如選擇一本書、讀一個章節、回答與其相關的問題等。

問:為何AI能夠通過標準考試意味著其取得巨大進展?

埃齊奧尼:實際上,我們已經在AI2啟動了這樣的研究項目。去年,我們宣布懸賞5萬美元,鼓勵人們開發可通過8年級標準科學測試的AI軟體。來自全世界的780多個團隊耗費數月時間,但最終沒有人的分數超過60分。這為我們提供了AI現狀的現實、定量評估。

問:如何才能讓頂級AI系統正確回答問題?

埃齊奧尼:通常情況下,語言中都隱藏著各種線索。最成功的系統可以從科學文本和其他公共資源中收集信息,然後利用調節信息檢索技術為每個多選問題確定最佳答案。舉例來說,什麼是最好的電導體:塑料勺、木叉還是鐵蝙蝠?AI系統非常善於運用公式,可以在大量常見的文件中檢測電、鐵或導電之間的關係,可以很輕鬆地給出答案。為此,有時候AI系統可以採取快捷方式,非常迅速地給出答案。之所以沒有系統獲得及格分數,我只能說這些系統都使用統計學進行猜測,而非仔細推理。

問:AlphaGo背後的DeepMind團隊現在已經開發出新的AI程序,通過使用外部存儲系統超越深度學習。他們的工作對創造更像人的AI有何影響?

埃齊奧尼:在移動深度神經網路領域,DeepMind依然是領跑者。這種特別貢獻非常重要,但在推理方面卻不算太大突破。現有的系統可以很輕鬆地完成類似任務,但這裡涉及到神經網路如何通過例證學習執行任務的問題。總體來說,DeepMind邁出了一大步,但對於人類來說依然是一小步。

問:有人將深度學習、機器視覺和記憶等技術結合起來,以開發更完整的AI嗎?

埃齊奧尼:這是個非常有吸引力的創意,實際上已經有許多類似研究。我在華盛頓大學擔任教授時,就曾基於這個想法,利用互聯網充當AI系統的資料庫。我們建立了名為信息公開提取的技術,它可以為50億個網頁做索引,並從中提取語句,試圖將它們變成機器可操作的知識。這台機器擁有超自然的能力,可以快速吸收這些網頁和所有句子,問題是那些文本或圖片上的句子很難吸收。人類大腦擁有不可思議的能力,計算機科學家們至今還未破解。這種能力可以映射出推理等反應。但是迄今為止,我們還么有找到機器能像人腦那樣工作的機制。

問:你曾提及,要想達到人類水平,AI的研發至少還需要25年時間。你所謂的人類水平AI指什麼,為何給出這樣的時間框架?

埃齊奧尼:人類水平AI能夠真正地理解自然語言、擁有人類智慧的廣度、能夠玩PokemonGo、走過街道等,這種多樣性是人類智慧的標誌,而我們今天能做的就是研發「狹隘的學者」,以便其能在某些方面表現更突出。至於25年的時間框架,我曾詢問人工智慧發展協會的朋友:計算機系統何時能在廣義上變得像人類那樣聰明?沒人認為10年內能夠實現這種假設,67%的人認為至少要到25年之後。25%的人認為永遠無法實現。他們錯了嗎?你會選擇相信誰,把握AI脈搏的人還是好萊塢?

問:為何如此多令人尊重的科學家和工程師警告稱,AI可能滅亡人類?

埃齊奧尼:對於我來說,很難推測史蒂夫·霍金(Stephen Hawking) 或馬斯克警告AI威脅的動機。我猜,談論黑洞可能是非常無聊的,因為這是個緩慢進化的主題。但有一件事我要說,當他們談論AI變得邪惡或引發潛在災難性後果時,他們總會插入限定詞,比如「最終」或「可能」。我同意這樣的觀點,如果我們談論1000年後或無限未來,AI很可能導致人類滅絕。但我認為,這種長期討論不該分散我們的注意力,我們應該更關注現實問題,比如AI與就業、AI與武器系統等。

問:鑒於AI存在的缺點,我們應該擔心汽車製造商對無人駕駛汽車與日俱增的興趣嗎?

埃齊奧尼:我不是那些沒有方向盤或剎車板的無人駕駛汽車的忠誠粉絲。鑒於我對計算機視覺和AI的了解,我對無人駕駛汽車感覺十分不舒服。但我是綜合系統的支持者,比如當你在車上打盹時,AI能幫你剎車。人類司機和自動系統相結合可能比單純的人類司機或AI駕車更安全。這很複雜,將新技術融入到人類日常工作與生活中同樣不容易。但我不確信這種解決方案是否能有效。

問:谷歌、Facebook以及其他大科技公司近來聯合推出了「人工智慧造福人類和社會合作組織」,為AI研究設定道德和社會規範。對此你有何看法?

埃齊奧尼:世界上領先的科技公司聯合起來思考這些事情是好事,我認為他們這樣做是回應人們的擔憂,即AI是否會接管世界。許多恐懼完全被誇大了。即使我們有了無人駕駛汽車,也不會立即造成破壞性影響。馬斯科等人談及的AI對人類生存威脅至少是數十年乃至數百年之後的事情。可是,目前有許多非常現實的挑戰:自動化、數字化技術以及AI都在影響就業,無論是機器人還是其他技術,這非常令人擔憂。無人駕駛汽車和卡車會大幅改善安全,但他們也會對依賴駕駛謀生的大量工人造成影響。這個新組織談論的其他事情也存在偏見。如果AI技術被用於處理貸款或信用卡申請,它們能否法律或道德規範嗎?

問:你認為如何能確保AI遵守法律和道德規範?

埃齊奧尼:如果你是銀行,利用軟體程序處理貸款,你將無法藏身其後。一口咬定計算機做錯了事不是借口,計算機程序可能參與了歧視行為,那是因為計算機系統需要使用許多變數和統計,以便尋找與其他變數有關的聯繫。如果它使用了影響決定的替代變數,那真會成為問題,對於人類來說也很難發現和追蹤。為此,我們提議研發AI「監護人」,以監測和分析基於AI開發的貸款處理程序的行為,確保其遵守法律和道德規範。

問:AI「監護人」已經存在嗎?

埃齊奧尼:我們已經發出呼籲,並開始研發這些程序。我認為,很快就會出現類似程序,其願景非常被看好。我們希望AI「監護人」的創意能夠應對《終結者》等好萊塢電影中對AI的誤解,即技術變得邪惡,並成為龐大的壟斷力量。(小小)


推薦閱讀:

范曾:中國詩歌——人類文化史上無可替代的瑰寶!
如果「猴」是人類的祖先,那為什麼猩猩沒進化成人?
人類不是 天生肉食者
人類婚姻史上的秘密
《霍金預言2600年》中人類什麼時候在地球上滅絕?

TAG:人類 | 世界 | 10年 | 統治 | 統治世界 |