人工智慧是否會失控?存在什麼投資機會?

來源:小商幫科技(公眾號:xiaoshangbang) 作者:左刀

背景

隨著大數據產業的日漸成熟,大數據基本上被一些大型企業壟斷,而這些大數據也將會成為這些公司在AI時代的最為重要的「水、電、煤」。在下一個時代,掌握有效大數據的公司將繼續成為全球最有價值的公司。

然而,隨著大數據日漸被少數公司所壟斷,AI時代的步伐逐步臨近,有人卻對此表現出了極大的擔憂。(小商幫科技(公眾號:xiaoshangbang)在前期的文章《大數據時代,我們的隱私怎麼辦?》一文中,曾經分析了大數據隱私的問題。供參考。)

最近,特斯拉老總Elon Musk在Twitter上發布的一條推文中表示,AI的安全問題甚至比朝鮮要危險得多。另外他附上了一張憂心忡忡的女性海報,上面寫著:「最後,機器會贏。」

馬斯克還稱:「沒有人喜歡被管制,但所有對公眾來說有危險的東西(汽車、飛機、食品、藥物等)都要被監管。AI亦是如此。」他在上個月的全國州長協會會議提出了這一觀點。

此外馬斯克還在Twitter提到了Open AI公司開發的機器人打敗著名《Dota 2》職業玩家一事。據悉,馬斯克是非營利性組織Open AI的創始人,他希望藉此能找到打敗機器人的方法。

馬斯克認為,AI確實已經成為了一個迫在眉睫的威脅。他在Twitter寫道:「認識AI危險最大的障礙是那些對自己(開發)智能深信不疑的人,他們無法想像其他人在做他們不能做的事情。」

馬斯克對於人工智慧的擔憂,實際上是對於人工智慧「失控」的擔憂,他還曾說:「如果不能快速與AI進行溝通,那麼惡意的人工智慧程序將很可能超過人類智慧並創造出反烏托邦社會。」

實際上,軟銀主席孫正義也認為,人工智慧在未來30年,將會超過人類的方方面面。而微軟創始人比爾蓋茨也表達了類似的意見:「我站在對超級智能感到擔憂的一方。首先,機器能夠為我們做許多工作,還沒有達到超級智能的水平。如果我們能夠進行妥善管理,應該對我們有利。但是幾十年後,機器的智能化將強大到足以引起擔憂的水平。」

物理學家霍金甚至發出警告說:「人類必須建立有效機制儘早識別威脅所在,防止新科技(人工智慧)對人類帶來的威脅進一步上升。」,「人工智慧的崛起可能是人類文明的終結」。

當然不少名人對此表示反對的,比如facebook的扎克伯格就認為這是危言聳聽,扎克伯格認為:

「我強烈反對散播AI威脅論的言論,我持樂觀態度,」扎克伯格表示,「我認為你可以創造事物,世界會變得更美好。尤其在AI前景上,我真的感到樂觀。」

「對於那些否定AI,試圖營造世界末日論的人,我真的不理解。他們的言論真的很消極,某些時候甚至讓我感覺太不負責任。未來5年至10年內,AI將會在許多方面改進我們的生活質量。」

而另外一位重量級人物則是吳恩達的導師Michael Jordan,他指出「霍金研究領域不同,他的論述聽起來就是個外行,機器人毀滅人類的可能性,在幾百年里不會發生。」邁克爾·喬丹認為,通過研究人腦的運行機理,從生物學途徑仿生出一個類人腦的人工智慧,以目前的進展看,很長時間裡無法實現。

一時之間,關於人工智慧是否會失控成為了全球的熱門話題,很多專業和非專業的人員紛紛發表了自己的意見,而上面這些觀點,則分別代表了兩邊的典型觀點。

認為會失控的觀點認為,人工智慧引發的失控事件會很快來臨,如果不加干涉,將會引發嚴重的社會問題。

而認為不會失控的觀點則認為,人工智慧對於人類發展利大於弊,而且短期內很難達到類腦的水平,所以至少幾十年內不會失控。

那麼,人工智慧到底會失控嗎?

是否會失控?

首先,我們正兒八經的說一下人工智慧是什麼意思。

根據定義:人工智慧是計算機科學的一個分支,它企圖了解智能的實質,並生產出一種新的能以人類智能相似的方式做出反應的智能機器,該領域的研究包括機器人、語言識別、圖像識別、自然語言處理和專家系統等。

結合現在的產業發展,我們可以看到機器人、語言識別,圖像識別,自然語言處理和專家系統等方面,已經逐步開始走向成熟。

在機器人領域,倉儲機器人這樣的特殊機器人已經得到了廣泛的應用,不論是亞馬遜還是阿里巴巴,京東,蘇寧,倉儲機器人已經成為了標配。

語音識別方面,智能音箱已經由亞馬遜推動下走向了世界,中國包括BATJ在內的很多主流互聯網公司都參與了智能音箱的大戰,雖然在國內尚未完全普及,但已經具有了一定的影響力。

而在人臉識別方向,中國的團隊如face++等,在技術上跟國外的頂尖團隊相比也沒有什麼大的差距了。支付寶甚至已經把人臉識別應用到了幾十個政府工程中。

等等,可以說,在人工智慧領域,這幾年的進展是非常迅速的,尤其是深度學習的研究和應用,出現了一波高潮。

專家和大咖關於人工智慧的辯論,實際上雙方說的是一個事務的兩個層面,以及一件事情的兩個階段。

馬斯克們想到了人工智慧的「惡」,而扎克伯格們想到了人工智慧的「善」。

霍金想到了人工智慧近期就可能爆發的問題,而喬丹認為類腦那樣的人工智慧作惡至少要幾十年後,甚至幾百年後。

然而,對於「外行」的霍金來說,他看到的人工智慧現狀以及不久的將來會發生的事情,實際上並非危言聳聽。

霍金認為:「人工智慧的威脅分短期和長期兩種。短期威脅包括自動駕駛、智能性自主武器,以及隱私問題;長期擔憂主要是人工智慧系統失控帶來的風險,如人工智慧系統可能不聽人類指揮。」

實際上,霍金擔心的短期威脅已經確確實實的發生了,而且不僅僅是他描述的方面。

我們來舉幾個例子:

微軟在推出人工智慧聊天產品「小冰」後,曾經遭遇了一場危機,原因是小冰開始滿嘴飈髒話。

時任微軟微軟亞太研發集團主席張亞勤曾表示,微軟小冰有機器學習的能力,經過用戶不斷的與其對話,小冰也可以學習到使用者的習慣、語言。因此此次小冰出現奇特的語言,可能與其對於機器學習的語言內容缺乏過濾不無關係。

換句話說,正常的人工智慧產業,由於垃圾的訓練方式和數據源,也有可能會變成一個垃圾產品,而如果數據源被利用,更有可能會導致嚴重的問題,小到完全泄露你的隱私,大到一個國家的安全問題。

加州大學伯克利分校計算機系教授宋曉冬說:「安全性是部署人工智慧的最大挑戰。」,「人工智慧領域的安全問題主要表現為兩方面,第一個是攻擊人工智慧的學習系統,讓其不能產生正確或需要的結果。第二個是對人工智慧的濫用。」

而在隱私方面,亞馬遜的Echo智能音箱在近期就被爆出存在安全漏洞,會成為一個「監聽器」,你家裡的所有對話都會被黑客監聽。

這樣,你家裡的智能音箱其實就變成了一個別人隨時可以收聽和記錄你家庭情況的通道。這實際上是非常可怕的事情。

不僅僅是智能音箱,現在最先進的攝像頭,也已經可以做到對於行人實時的進行身份識別和分析,雖然大部分情況下這種信息的捕捉只是用於安防,但誰能保證在未來不會被用於非法目的,比如用於個人隱私的採集。

就算對於人臉識別這樣看上去高大上的技術,大家如果有印象就會記得,315晚會時央視曾經就做過針對人臉識別技術漏洞的破解實驗。在具體的應用場合,你的人臉可能會被人盜用。

而對於時下如火如荼的無人駕駛而言,人工智慧加持下的無人駕駛技術,也有可能會帶來一場噩夢。

很多人都看過《速度與激情8》,對於其中大量汽車被操控後變成了「殭屍車隊」,不僅路上的汽車開始亂串,停車場里的汽車也開始自動駕駛,然後從高空不斷墜落的場景一定會有印象。而這種場景,實際上是很有可能會實現的,一旦實現,後果不堪設想。

不僅僅是無人駕駛,如果已經大規模商用的倉儲和物流機器人被黑客攻擊會怎麼樣?如果人工智慧的演算法中嵌入了「作惡」的演算法或者後門後會怎麼樣?如果訓練的大數據本身存在重大的法律問題,甚至國家安全問題會怎麼樣?如果人工智慧機器人在訓練中被訓練成殺人機器人會怎麼樣?如果黑客能夠輕易掌控人工智慧背後的大數據會怎麼樣?

而這些,並不需要喬丹所言,必須到達了類人腦機器人階段才會發生,而是在現在這個時代已經,或者很快就會有可能發生的情況。

安全公司SentinelOne首席執行官Tomer Weingarten認為,在當前的AI技術之下,黑客可能會利用AI技術來進行攻擊,且比以往的效率有大幅度的提升。例如,買家可在黑市租用「黑客」服務,建立簡單的網路界面和易於理解的命令,來使用勒索軟體感染計算機。這些租賃黑客服務可能最終會採用AI技術,設計整個攻擊戰略、啟動攻擊以及計算相關費用。他甚至認為,未來AI和AI之間會進行網路安全戰爭,這甚至會影響到國家安全。

隨著5G時代的到來,萬物互聯帶來海量的數據,人工智慧的蓬勃發展將會有極為重要的基礎,出現一輪爆髮式增長將會是大概率的事情,屆時,人工智慧確實首先會給人類帶來巨大的便利,精準醫療、智慧交通、智慧物流、智慧工廠、智慧樓宇等等,都會出現空前的發展。

更大膽的情況是,人機介面在國外已經開始了實驗,部分超前的科技公司已經開始給員工身體接入了硬體產品。而隨著技術的成熟,一旦實現「腦機介面」,喬丹教授認為的類人腦機器人要上百年後才會誕生的觀點,就會面臨顛覆。這種腦機介面的新人類,雖然對個體本身而言可能會開發出巨大的潛力,但會造成什麼樣可怕的後果,目前沒有人知道。而這方面的技術,很可能會在10年內就會被攻克。

所以,如果不加管束,法律法規跟不上,沒有強制性的措施,越是智能的時代,出現問題後造成的後果就會越大。比如前面所說的殭屍車問題,要知道,百度的阿波羅和阿里的YunOS+ET都已經在汽車上開始了部署。

所以,不管是從短期看,還是從中長期看,人工智慧的失控問題已經需要引起各方面的重視,這裡面在短期內,以安全問題為主,但長期看,隨著技術的不斷提升,AI本身的失控將成為可能。

機會

誠如喬丹所言,人工智慧要進入類人腦的階段,還有很長的一段距離,但近期隨著技術的發展,尤其是深度學習技術的發展,人工智慧技術在不久的將來得到大規模的應用幾乎是必然的事情。那麼,除了人工智慧產業鏈本身的機會之外,其可能導致的安全和不可控問題,同樣也存在著很大的機會,甚至,相比人工智慧公司百花齊放,不斷湧現所帶來的不確定性,這方面的投資機會會更加明確。

首先,是雲計算和大數據領域的信息安全,雲和大數據是人工智慧的基礎,數據層面的信息安全問題實際上已經開始不斷湧現,比如說近期京東微聯竊取用戶密碼的行為,再比如美國NSA史上最大型泄露事件:50TB數據、5億頁政府文檔失竊等。在雲和大數據領域的信息安全方面技術實力強,布局較為充分的上市公司包括藍盾股份、啟明星辰等都值得關注。

其次,是參與制定人工智慧應用領域標準的公司,這些公司對於未來人工智慧安全的導向將會起到關鍵的作用。2017年6月30日,人工智慧標準化工作會議在北京召開,這次會議中,企業參與方包括:百度、阿里、華為、中國電信、海爾、科大訊飛等單位,這些公司中的,百度和阿里擁有海量的數據,且參與標準的制定,不管從公司自身的成長空間還是從股市的技術指標看,仍然存在投資價值。後續隨著標準制定的明朗化,更多參與的公司浮出水面,將會出現更加明確的投資機會。

再次,是具有開源人工智慧軟體,並得到業界廣泛認可的公司。開源軟體不僅能得到數據,還能很好的對接到各個應用場景,具有重要的戰略地位。此外,對於人工智慧的安全性而言,由於開源軟體的開放性和隨時彌補性,其安全性一般都要比封閉軟體要好得多,開源體系下打磨的產品,植入惡意演算法,盜取用戶信息,在AI技術上「留後門」等等各個方面的風險要小得多。目前,具有開源人工智慧系統且有廣泛用戶量的公司包括:國內的百度,國外的Google,Microsoft,facebook,Tesla,IBM,Amazon、Altaba等。這些公司中,已經開始廣泛應用,得到了大量用戶認可,口碑好的產品,未來將會給公司帶來非常豐厚的回報。

來源:小商幫科技(公眾號:xiaoshangbang) 作者:轉載請務必說明出處

推薦閱讀:

TAG:人工智能 | 大数据 | 信息安全 |