AI熱潮之下,這些「謊言」,讓人痛心

AI熱潮之下,這些「謊言」,讓人痛心

來自專欄混沌大學

裁員!最近,人工智慧健康領域的老大哥 IBM沃森健康(Watson Health)傳來了裁員達70%的消息,備受業內關注,甚至有金融分析師稱這個部門是燒錢的無底洞。

那麼,在AI熱潮之下,你該如何構建一個更理性更純粹的思考框架?這一次,邢波教授可謂將AI的邊界問題講透了。

? 我們去人為的製造一個謊言,最後這個謊言被戳穿以後,反而是那些誠實工作的人,去承擔懲罰。這對研發人員很不公正。

——邢波

邢波,師從機器學習泰斗級學術大咖 Michael Jordan ,卡耐基梅隆大學機器學習和醫療中心主任,2017年機器學習學術水平排名世界第一。

同時,他還是生物化學與計算機科學的雙料博士,創立了通用機器學習平台Petuum,並獲得了軟銀投資。

授課老師|邢波卡耐基梅隆大學計算機科學學院教授

通用機器學習平台 Petuum 創始人

挑戰Facebook的1億用戶

一次不「體面」的經歷

現在的人工智慧,正在面臨一個非常非常實際的工程問題——規模瓶頸

你的演算法可以在實驗室的單機上實現,可到了現實環境中,就可能不行。

我講下在Facebook的經歷。

大概2011年左右,我們做了一個比較成功的社交建模——

依靠擁有100萬人的好萊塢影星資料庫,可以實現對人進行分類和精準推薦。

但當我把這個模型部署在Facebook里1億規模的用戶上時,結果相當讓人失望:

原則上,6分鐘能算完100萬個,如果有1000台機器,那麼,0.6分鐘就可以算完,但結果呢?

不要說0.6分鐘了,1星期都沒有算完,中間就卡了。

>>>>

演算法也沒有錯,建模也沒有錯,機器也有,但為什麼還是卡了?

指揮1000人的部隊和指揮一個人是不一樣的,當你把演算法放在1000台機器上時,涉及到一個機器之間通訊的問題。

比如,機器學習需要不斷遞歸迭代,每次迭代需要握一次手,告訴我,迭代完了,或者還沒迭代完,你得等一下,等一次就是一個門檻。當你有好幾台機器迭代的時候,他們的速度是不一樣的,每一次,你都要等到最後一個機器完成以後,才能往前走。

所以,這就涉及一個非常關鍵的問題:

機器學習作為演算法理論工具,作為模型,跟它的計算設備,有著重要關聯,新的AI程序需要新的AI引擎,就像新的飛機設計必須有新的引擎來助推。

作為一個成熟的人工智慧學者,不僅僅是要成為一個演算法專家或者建模專家,你不能把活扔給程序員,讓他們實現,而是要對任務和工作環境,有更深刻的理解。

舉個例子,人工智慧在工程實現上,目的性非常強,而操作方式,實際上是次要要素。

比如,你要飛行表演,隊形完整即可,不必飛的太快,即可以損失效率;但如果飛機是去救火,飛行姿態其實不必特別精準同步,以換回效率。

掘金AI

AI架構者必須要思考9個關鍵問題

>>>>

如何把握AI的未來機遇?

先說個故事,美國早期,很多人去加州淘金,但實際上靠淘金致富的真不多,最後真正的巨富,我記住的是這樣兩個人:

造牛仔褲的李維·斯特勞斯,當時,他給一些工人製作裝備和衣服;

造工具鐵鍬的薩姆·布瑞南,因為每個挖金人的都需要鐵鍬。

同理,AI 也有很多落地場景:你可以從數據里生成產品或是生成服務,也可以為AI的研發者或者使用者,提供他們所需要的工具。

所以,你可以好好思考一下,你的機會是在AI價值鏈的哪一端呢?

現今,科技公司的人工智慧解決方案面臨的最大瓶頸是:無法像商品一樣,以可控的成本,進行大量的創造和複製。

所以,要實現靠譜的,有用的,可用的AI,必須要跨越手工坊製作,採用標準化的工業量產模式。就好比造車,先把零件弄好,然後產生一個供應鏈,最後做一個組裝。

我們希望通過這樣的嘗試,把人工智慧從獨門秘笈、黑科技,往工程的方向做一個推動:

使它對於語言的依賴、設備的依賴和對於界面依賴弱化,讓不同的人,像我們使用電或者使用微軟的文字工具一樣,各取所需,而不是說非要雇一個Chief AI Officer,或者雇一大堆博士,做手工作坊式的研發。

>>>>

總之,一個成熟的AI架構者要學會思考以下9個關鍵問題:

①建立一個完整的,工程上可信的解決方案,而不是一個玩具或是Demo;

而且,這個體系可插入可拔出,是一個插件式的平台,就像你做一個汽車生產線一樣,產品升級,更換零件或者更換局部就可以,不必拆掉整個產品線重來。

②可複製性;

別人也可以用,而且也可以做出來。

③經濟可行性;

④適用於各種用戶的特殊狀況;

舉個例子,比如波音公司生產飛機,要為每一個用戶造一家不同的飛機嗎?不用,提供基本的飛機引擎、機身、操作軟體等就可以。

換句話說,用戶的個性需求和生產商提供的解決方案,兩邊應該在中間相遇,而不是在某一端相遇,這是現在人工智慧還比較缺少的設計思路。

⑤結果可重現;

⑥理解解決方案是如何建構起來的;

⑦可解釋性,尤其是出現意外結果時知道哪兒出了問題;

⑧能交流結果,讓大家也能重現你宣稱的結果;

⑨清楚什麼能夠做到,什麼不行。

舉個例子,我可以告訴你,我在5年之內不準備坐自動駕駛車,或者我強烈要求自動駕駛車有方向盤,我自己得握著,為什麼呢?

因為作為一個研發者,我很清楚,現在很多演算法包括深度學習演算法里的因果性,還沒有搞清楚。

人工智慧會超越人類嗎?

要警惕對學科的傷害

很多人認為,人工智慧的發展,會像摩爾定律一樣,實現指數型爆炸,但現實是,摩爾定律有堅實的數據基礎,人工智慧沒有。

人工智慧的發展是有邊界的,並且最終會收斂,而且,它收斂的地方並不是在人類智能,甚至還可能會出現倒退。

比如最近,一向熱衷激進部署機器人工廠的埃隆·馬斯克,在Facebook上承認,工廠自動化了以後,效率沒有提高,反而下降了。

>>>>

那麼,人工智慧不能做什麼呢?有以下3個方面:

①機器無法提出問題;

人是很善於挑戰未知,去提出問題的,但對於機器來說,提出一個未知問題(不是根據書本的內容知識,來提測驗問題),發現一個新的物理定理和數學定理,這一點非常非常難,我不相信在可預見的將來,有任何的演算法或者模型能夠做到這一點。

②機器也無法知道未知的問題;

有一種說法,對人的修養和學識的衡量標準之一是,你是否知道未知,這一點,機器也不知道。

因為機器對邊界沒有感覺,它並不知道在它的知識範圍之外,還有什麼東西它不知道,這是不能被設置的功能。

③機器難以從小數據學習,依然需要人工架構和調教。

人的學習都是通過小數據來開始學,依靠環境、先驗知識和邏輯思維的綜合方法,從不同的數據裡面來獲得知識,然後他們還能綜合、成長。

這也是人工智慧相當弱的地方,而且即便可以實現,到了工程層面,其性能也是相當不穩定。

它需要有非常非常激進的調參,非常非常神秘的獨門暗器,各種各樣的秘訣敲門,這都妨礙了人工智慧的商業化、規模化。

>>>>

另外一個問題,人工智慧會超越人類嗎?

實際上,人工智慧和人類智能是兩條不一樣的路。

成功的人工智慧體現的是機械或者工程美學,而人類智能是自然的美學,或者是一種生物、哲學上的美。

所以,我的觀點是:

①在有限規則的特定任務下,機器超越人類的水平只是時間問題。

比如算數學題、下圍棋、打撲克,規則一清楚了以後,結果就確定了,不必吃驚。

②在非結構化的場景下,即使簡單的情感識別問題,機器仍然沒有突破人類。

比如,這位女生到底是高興了還是難過了?這樣的程序其實是寫不出來的。

總之,在可預期的將來,人機協作才是真正的方向,人類不應該害怕人工智慧或者機器學習,而真正應該擔憂的是什麼呢?

人別到時候跟機器一樣,變得冷酷或者完全沒有人性,這是值得關注的。

小結

最後,我想為人工智慧的從業者,那些沉默的大多數,不太在網上出聲,也不太會獲得相應運作利益的那些人,說幾句話:

由於資本的驅動、人性的弱點,或者由於其他的一些因素,我們看到了人工智慧被追捧,但由於並沒有跟現實來匹配,結果就產生了一個預期和現實的落差,最後的受害者是誰呢?

對學科的傷害。我是相當痛心的。

因為在前兩個人工智慧的低谷期,其實有大量的天才和非常非常誠實、踏實的研究者,由於這樣的誤解,得不到經費、支持、和理解,他們最後不得不離開這個行業。

這樣的現象正在發生。

我們去人為的製造一個謊言,最後這個謊言被戳穿以後,反而是那些誠實工作的人,去承擔懲罰。這對研發人員很不公正。

所以,希望大家對待人工智慧,能夠更理性更純粹一些。

本文根據邢波在混沌大學研習社的課程整理而成,內容有刪減。關注知乎機構號「混沌大學」,私信關鍵詞「邢波」,即可聽取完整課程。

推薦閱讀:

英偉達新研究:「狗生貓,貓生萬物」的多模態無監督圖像轉換
python,人工智慧課程了解一下。。。
我需要一個怎樣的智能音箱放歌
如何利用神經網路進行反欺詐!
CVPR 2018 | Spotlight 論文:北京大學計算機研究所提出深度跨媒體知識遷移方法

TAG:AI技術 | 人工智慧 | AI初創 |