機器的崛起:我們應該為此感到憂慮嗎?

應「原理」邀請,來自劍橋大學計算機系的博士Partha Maji, 前ARM晶元工程師及deeplearning.ai的講師,和我們分享了他在研究人工智慧時的一些體會,並根據他的研究經歷回答了我們共同關心的一個問題——我們應該為人工智慧的發展而感到擔憂嗎?接下來是演講正文。

大家好,接下來讓我們來看看當下社會最前端的發展趨勢,人工智慧。

(進入主題前,Partha Maji首先用一段視頻介紹了漢森機器開發研製的索菲亞人形機器人)

索菲亞是由漢森機器(Hanson Robotics Ltd)開發研製的人形機器人, 也是世界上第一個獲得一個國家公民身份(沙烏地阿拉伯)的機器人。我們生活在一個有趣的時代,從聲控設備到醫療設施,從網路購物到自動駕駛(正在研發中),背後都有人工智慧的身影。與此同時,最近的一個研究報告[1] 聲稱人工智慧可以再2035年的時候為英國政府增加6億3千萬英鎊的財政收入,使其國民生產總值的增幅從2.5%增加到3.9%。在此,我們不禁會問,這樣的科技會對人類造成威脅嗎?

我們從現在的報紙和網路上經常能看到這樣的消息,例如哈佛一位哲學家聲稱人工智慧的發展就像是一個孩子在玩炸彈。著名的神經科學家及哲學家Sam Harris也曾聲稱製造人工智慧就是在製造上帝。臉書(Facebook)也在他們製作的人工智慧機器開發出了自己特有的一套語言系統之後決定將其關閉。那麼問題來了,在這些媒體的渲染之下,我們真的需要擔心人工智慧的發展嗎?

○大眾媒體對人工智慧興起的恐慌。

要回答這個問題,我們需要先回過頭來看看人工智慧的發展史。人工智慧的開發從上世紀40年代末期就開始了。但到上世紀60年代以前,幾乎所有的研究都失敗了,而這段時間也被科學家們稱作人工智慧領域的冬天。直到上世紀80年代科學家們探索出了新的演算法並將其歸類為機器學習,人工智慧的發展才開始慢慢起步。到90年代初期,神經網路模擬被用在了機器學習上,並因此衍生出一個新的領域——深度學習。但可惜的是這些研究終無建樹,而人工智慧領域又走進了一段黑暗的時間。直到谷歌的AlphaGo的出現,深度學習作為人工智慧的一個分支,開始引領整個領域的發展,並受到了學術界和工業界無數大神的追捧。

我們先從生物學的角度來探索什麼是深度學習。大腦是怎麼運作的呢?模擬大腦是一個很有趣的課題,但問題是我們自己對大腦本身都不完全理解。我們不能完全明白夢境、睡眠、甚至語言到底是怎麼一回事。我們可能只對記憶有部分的了解。當我們將一個圖片展示在人們面前,大腦的某一部分的功能就會被啟動。但我們仍然在努力的探索大腦作為一個擁有約860億個神經元的整體是如何運作的。所以,如果我們能模擬單個神經元,或許意味著我們可以在一定程度上模擬大腦。

○神經元。

我們先來看看單個的神經元。單個的神經元由中間的神經元胞體和周圍的樹突等結構組成。當一個神經元胞體產生出超過一定閾值的信號時,信號就會通過髓鞘傳至軸突末梢並傳向下一個神經元。基於這種特性,我們能模擬神經元的特性。神經元胞體其實是一個累加器,將每個輸入加權之後進行累加。累加之後的輸出信號會通過一個激活函數(activation function) 。這個函數實際上是一個閾值探測器,如果輸出信號大過設定的閾值,那麼信號將會被傳輸到下一個模擬神經元。

○神經元模擬。

在深度神經網路系統中,我們會有成千上萬這樣的模擬。一個深度神經網路由輸入層和輸出層組成。輸出層用於接受輸入,例如圖像,影像或者視頻等。輸出層負責在接收到輸入之後得出一個加權值。例如我們在輸入層輸入一些貓和狗的圖片,那麼輸出層將會輸出其中每張圖片是狗或是貓的概率。

在深度神經網路中,輸入和輸出層之間可以有上百個中間層作為連接。我們需要用大量的數據來訓練這個深度神經網路系統。比如我們會用大量的貓和狗的圖片作為輸入傳輸給這個深度神經網路系統。這個系統在每接收到一張圖片輸入之後做出圖片是狗或是貓的預判。錯誤的預判將會和正確的答案作比較,並用一套數學的演算法得出成本函數之後被重新分配到這個神經網路中。這個方法我們稱之為反向傳播法。系統上的每一個節點都是一個加權的判定。在大量的數據輸入和反向傳播之後,成本函數得到不斷的修正,使得最後輸入能夠通過最優化的成本函數到達輸出層。這個神經網路系統最終學會準確做出預判。總的說來整個神經網路的訓練過程就是不斷地運用概率學並對錯誤預判的概率值不斷地進行修正。

○深度神經網路模擬。

在2010年之前,深度學習只是人工智慧的一個分支。其他的分支還包括了自然語言處理,圖像處理,機器人設計等等。然而之後深度學習的興起使其和人工智慧的研究並駕齊驅。甚至很多學者都錯誤得覺得之前所有屬於人工智慧的分支都能在深度學習的幫助下完成,並開始大量投入深度學習的研究。這個現象其實是令人擔憂的。因為人工智慧分為強人工智慧和弱人工智慧,而深度學習僅僅是弱人工智慧的一個分支。

現在大多數的人工智慧科技,包括自動駕駛和之前視頻中提到的索菲亞都屬於弱人工智慧。因為這些都屬於監督學習。意思就是說這些系統都需要使用者提供正確答案,在和正確答案做出比對之後無數次的通過反向傳播最終提高神經網路的正確性。強人工智慧指的是非監督學習。比如我們輸入大量貓和狗的照片,系統能夠自己歸納出兩種類別的特性,在使用者不告訴正確答案的前提下也能將兩種動物正確分類。強人工智慧需要滿足四個條件,對周圍的意識(包括主觀的想法等),對自我的意識(有你我之分),對周圍的感知(比如對環境變化的感知),以及最終擁有智慧。這是研究人工智慧最終極的目標,然而現在的大多數研究卻僅僅停留在弱人工智慧。一些對強人工智慧開發的試驗也只是在起步階段。那麼我們什麼時候能看到強人工智慧的應用呢?或許會有極少數持非常樂觀態度的研究者會說在今後的100年左右,但絕大多數的研究者都不敢確定。

○或許人工智慧與其它學科的本質並無區別。

在大體了解了人工智慧之後,我們先來回答這樣一個問題,人工智慧的研究應該受到法律的規範或限制嗎?在我個人看來,人工智慧的發展仍在一個相對初級的階段,任何的法律規範或限制都可能會讓整個研究裹足不前。我們更應該把這項技術看成一種工具,其本質和物理化學或者科技並沒有什麼區別。學界和業界的大佬們也都站出來反駁人工智慧威脅論,希望大眾不要把人工智慧看做是威脅。

○從弱人工智慧到強人工智慧的發展。

當然這並不代表我們可以任由人工智慧不受限制的發展,有很多道德層面上的問題還是值得深究的。比如非常著名的電車理論。就現如今的技術看來,無論十幾年或者幾十年,無人駕駛汽車最終會成為一種趨勢。雖然現在的無人駕駛的研究僅僅著重於輔助駕駛員駕駛,但研究者們也從未放棄過對真正意義上的無人駕駛(無需駕駛員干預)的研究。那麼這之中就有一個非常嚴重的問題。我們假設這樣一個場景,一個高速行駛的無人駕駛的汽車突然發現公路上有人,緊急剎車的話會導致車內人死亡,而不剎車會導致路上的行人死亡,這時候人工智慧應該做怎樣的選擇呢?如果這種情況導致人死亡,我們又應該起訴誰呢?車裡的人?還是汽車的製造商?對於法律應該如何在這種情景下界定責任,我們爭論了很多年,而至今也沒有結果。

無人機在軍事上的應用也是一個大的問題。比如在無人機分析到恐怖分子活動空間之後,在消滅敵人的同時誤傷了平民,這又應該誰來負責任呢?再比如現下最流行的電子助理,谷歌和亞馬遜都爭相推出了各種款式。然而這些產品也無時無刻不在侵犯你的隱私,你說的每句話都會被他們記錄下來,傳到伺服器用於訓練更好的下一代的產品。然而你說的很多話也許並不希望有人會聽到甚至拿去做分析。舉一個更平常的例子,人們平常刷微博發微信,手機上安裝新的APP,我們的個人信息都因此變得透明可跟蹤。而這些信息都可能被廠商所利用,畢竟在這個時代,擁有數據就擁有了無上的權利。更糟糕的是我們的很多工作也可能被人工智慧所代替,如何平衡地分配人和人工智慧間的協作,也是擺在我們面前的一個大問題。然而這僅僅是一個開始。

(最後,Partha Maji用另一段索菲亞人形機器人的視頻結束了此次演講)

問答環節

Q:回到之前提到的就業問題,我認為這是現下大家對人工智慧最恐慌的地方。你認為政府是否應該出面限制一些可能對社會造成巨大影響的人工智慧開發?

A:我個人認為現在技術的發展歸功於各個公司間的競爭,如果政府出面限制,那麼整個行業的發展將會停滯不前。這將會是一個很大的問題。我覺得與其限制,我們更應該引導這些技術的發展,使他們為我們所用。

Q:在你研究的過程中,你覺得人工智慧最大的危險是什麼?是他們本身會造成的危險,還是他們落入壞人手裡造成的危險?

A:站在研究者的角度,這些技術是會作為工具方便人類的。所以說到危險我覺得更多的是他們落到壞人手裡之後造成的危險。比如無人機落到了恐怖分子的手裡。因為如今即便是不懂人工智慧的人也能從網上下載開源的軟體運行人工智慧。這方面我們確實需要一些條例來規範這些。

Q:我對之前臉書製造的兩個機器非常感興趣。媒體說他們通過相互對話製造出了自己的,人類無法識別的語言,科學家因此關閉了這兩台機器,停止了研究。關於這個你怎麼看?

A:首先需要澄清的是兩個機器並沒有製造出自己的語言。只是通過數學的方式找到了更加簡便的信息處理方式。比如其中一個機器無數次的說同樣的東西,比如一個披薩,一瓶可樂和一顆糖。次數多了之後他們會通過數學的方式將這三個東西用更簡單的方式來表示,比如說「吃」。這在人們聽起來是毫無邏輯的東西,但在機器來看僅僅是對一串不斷重複的相同文字串的一個更加節省功耗的表達方式而已。所以工程師們關閉了這兩個機器並不是因為恐懼他們產生了新的人類無法理解的交流方式,而僅僅是因為這個結果和他們生產這塊產品的目的背道而馳了,畢竟他們最初的目的是開發一個能和人類對話的產品。

Q:在我看來比起弱人工智慧,強人工智慧更可能帶來危害,畢竟他們更像人類卻有著人類無法匹敵的運算能力。我的問題是計算機科學家們是否考慮過將研究限制在弱人工智慧,這樣的話我們更能有效地限制強人工智慧可能帶來的危害?

A:這也是一種選擇。但在我看來強人工智慧也會有它的市場。雖然可能中我們一生也無法看到強人工智慧的運用,但畢竟還是有人希望強人工智慧能夠幫助他們做一些事情。所以現在也已經有一些公司在強人工智慧上花了很大的功夫。研究者更希望運用引導而非限制來解決技術可能帶來的問題。

Q:你認為人工智慧的研究的瓶頸在哪裡?是數據,演算法,機器還是其他?

A:首先第一個瓶頸我認為是產品轉化的容易度。現下人工智慧的開發大多都集中在有監督學習,即弱人工智慧。因為這些技術很容易轉化為各種產品,使得更多資本也投向了比較容易出成果的弱人工智慧領域。這導致了強人工智慧的開發不僅在人才還是資金上都受到了限制。其次,我認為瓶頸發生在運行人工智慧的機器上。即便是弱人工智慧也需要很大的運行能力。所以這些技術單個的計算機或者手機上是不會有很大的用處,因為運行能力受到了很大的限制。現在唯一的解決辦法就是通過網路將所有信息收集到伺服器上並通過伺服器處理之後返還移動端。也就是說現在我們所用到的人工智慧大多數都是通過雲處理。而這最大的問題就是受限於周圍的環境。舉個例子如果網斷了我們就什麼也沒有了。所以機器的運算能力也是現在非常大的瓶頸所在。

主講人:Partha Maj

翻譯整理:孫鵬

參考資料:

[1]. Growing the artificial intelligence industry in the UK, a report from GOV.UK, Oct 2017.

演講視頻鏈接:https://www.youtube.com/watch?v=U_jAIwf7osM&feature=youtu.be

本文經授權轉載自「原理」(微信公眾號:principia1687),禁止二次轉載。


推薦閱讀:

笑笑解憂愁:大姐,你這件衣服老厲害了,毀了我們多少單身狗的夢想啊
【以禱告事奉神】為何說神的心意乃是要我們來侍奉他?(13分鐘語音)
致20歲不安的我們
兩句看似平常的話,卻給我們的人生帶來不少啟迪
只要信願真切,阿彌陀佛會創造種種方便讓我們往生(大安法師講述)

TAG:崛起 | 機器 | 我們 |