Yann LeCun、吳恩達等的2019年AI趨勢預測

選自VentureBeat,作者:KHARI JOHNSON,機器之心編譯。

本文介紹了 Yann LeCun、吳恩達、Hilary Mason 和 Rumman Chowdhury 對 2018 AI 領域的總結以及對 2019 年發展趨勢的預測。

從左到右依次是:埃森哲 Responsible AI 全球計劃負責人 Rumman Chowdhury、Cloudera 機器學習負責人 Hilary Mason、Facebook AI 研究院創始人 Yann LeCun、谷歌大腦聯合創始人吳恩達。

人工智慧是孤注一擲的選擇,它要麼拯救世界,要麼摧毀世界。

近日,VentureBeat 與一些專家進行了對話,包括谷歌大腦聯合創始人吳恩達、Cloudera 機器學習負責人 & Fast Forward 實驗室創始人 Hilary Mason、Facebook AI 研究院負責人 Yann LeCun 和埃森哲 Responsible AI 全球計劃負責人 Rumman Chowdhury。他們講述了自己心中的 2018 年重要里程碑,以及對 2019 年的展望。

其中一些專家說道,他們很欣慰關於 AI 終結者說法越來越少,更多的人開始理解 AI 能做與不能做的事。但是專家們還強調,該領域的計算機和數據科學家仍然需要在推動人工智慧發展的過程中,繼續採取負責任的倫理觀。

Rumman Chowdhury 博士

Chowdhury 博士是埃森哲應用智能服務部門的董事總經理,也是 Responsible AI 的全球領導者。2017 年,她被 BBC 列入「全球最有影響力的 100 位女性」名單。

Chowdhury 表示,她很高興看到 2018 年公眾對人工智慧的能力和局限性的理解有所提高,並發現人們對人工智慧威脅的討論也更加均衡——不再局限於電影《終結者》中機器將統治人類世界的恐懼。「隨之而來的是,越來越多的人開始關注隱私和安全問題,以及人工智慧在塑造我們以及後代方面所扮演的角色。」

然而,Chowdhury 認為,公眾對於 AI 的這些認知還不是最重要的。更重要的是,在 2019 年,她希望看到更多的人利用教育資源來理解 AI 系統,並能夠利用自己的智慧質疑 AI 所做的決定。

AI 生態系統中的科技公司和人們開始考慮其工作的倫理影響,這讓她感到驚喜。但她希望 AI 社區更進一步,能夠「從道德提醒到實際行動。」

「至於倫理和 AI 領域——除了電車難題,我希望大家能夠深入研究 AI 將帶來的難題——那些還沒有明確答案的問題。如何在人工智慧與物聯網監控之間取得『正確』的平衡?這種監控必須安全,但不應該強化現有種族歧視的懲罰性監控狀態。我們應該如何調整先進技術的收益再分配,從而不會進一步加大貧富差距?應該將孩子暴露在什麼程度的 AI 環境中才會讓他們成為『AI 土著』而不被操控或同質化?我們如何用 AI 擴展教育並將其自動化,但仍讓孩子的創造力和獨立思考能力得到充分發展?」她問道。

2019 年,Chowdhury 預計全球將有更多的政府對技術進行審查和監管。

「全球科技巨頭所擁有的 AI 及其力量引發了很多關於如何監管產業和技術的問題。2019 年,我們要開始想辦法解決這些問題——當一種技術是多用途工具且結果受特定環境影響時,你如何監管?如何建立監管條例並確保它不會抑制創新或偏袒大公司(可以承擔合規成本)而非小公司?我們要監管到什麼地步?國際,國家還是地區?」

她還希望看到人工智慧在地緣政治事務中繼續發揮其作用。

「AI 不只是科技,它還是經濟、社會的塑造者。我們在這項技術中反思、擴展和實施我們的價值。我們需要加深對技術及其影響的理解。」要做到這一點,我們對 AI 行業的理解不能再局限於常見觀念。

「我希望監管者、技術專家和研究人員意識到,AI 競賽不僅僅是算力和技術敏銳度,就像冷戰不僅僅是核力量一樣。我們應該以更公平、公正、平等的方式去重建這個世界,儘管這樣的機會很稀有。逝者如斯夫,不舍晝夜。不要浪費時間。」

從消費者的角度來看,她認為 2019 年將會有更多的家庭使用人工智慧。很多人會更加習慣使用如 Google Home 和 Amazon Echo 這樣的智能語音助手以及其它智能設備。因此,她也很期待本月將於拉斯維加斯舉辦的國際消費者電子展(Consumer Electronics Show,CES)上是否會有什麼有趣的東西出現。通過這個展會,人工智慧可能會進一步融入人們的日常生活。

「我想我們可能都在等一位機器人管家的出現。」她說。

吳恩達

吳恩達是斯坦福大學計算機科學系教授、谷歌大腦聯合創始人、Landing AI 創始人(該公司旨在幫助企業在業務流程中融入 AI)。此外,他還是很多流行的在線機器學習課程的講師,他還創辦了 deeplearning.ai,並寫了一本書《Deep Learning Yearning》。2017 年,他從百度離職,後創辦了人工智慧創業投資機構 AI Fund,他也是自動駕駛汽車公司 Drive.ai 的董事會成員。

吳恩達認為 2019 年有望出現進展或改變的地方是:AI 將應用於技術或軟體公司以外。他認為,AI 最大的待開發潛力在軟體行業之外,並引用了麥肯錫報告:到 2030 年,它將會創造大約 13 萬億美元的 GDP 增長。

「我認為 2019 年在軟體業之外的 AI 應用方面會發生很多故事。在行業中,我們已經幫助谷歌、百度、Facebook、微軟等企業做了很多工作,而 Square、Airbnb、Pinterest 這樣的公司也開始利用 AI。我認為下一波創造價值的浪潮將出現在製造業公司、農業設備公司或醫療企業,這些企業可能會利用 AI 來開發多項解決方案幫助其發展業務。

和 Chowdhury 一樣,吳恩達也對 2018 年人們對 AI 能力的理解感到驚訝。

「我嘗試審慎地列舉一些我認為對實際應用非常重要的領域。我認為 AI 的實際應用存在很多障礙,而在這些問題的有些方面有很大進展。」

對於 2019 年,吳恩達希望看到 AI/ML 研究中兩個特定領域的進展。一個是 AI 能在數據量少的情況下獲得較高的準確率,即「few shot learning」。

「我認為深度學習發展的第一波浪潮是擁有海量數據的大公司訓練非常大的神經網路。如果你想要構建語音識別系統,在 10 萬小時的數據上進行訓練。想要訓練機器翻譯系統的話,就在大量平行語料庫的句對上進行訓練,從而創造出大量突破性的結果。現在,我看到在小數據集上出現越來越多的成果,即使你只有 1000 張圖像,你也可以嘗試做出點什麼。」

另一個是計算機視覺領域的進展,即「generalized visibility」。一個計算機視覺系統可能在使用斯坦福大學的高端 X 光機拍攝圖像時效果很好。很多該領域的先進企業和研究人員已經創造出超過人類放射科醫生的系統,但它們並不是很靈活。

「但是如果你將訓練好的模型應用到低端 X 光機或不同醫院拍攝的 X 光片上(圖像比較模糊,或者角度有偏差),那麼人類放射科醫生的表現會比現在的學習演算法泛化性能好得多。因此我認為有趣的研究是嘗試改善學習演算法在新場景中的泛化性。」

Yann LeCun

Yann LeCun 是紐約大學教授、Facebook 首席 AI 科學家、Facebook AI 研究院(FAIR)創始人。

LeCun 認為 FAIR 執行的開源策略幫助推動其他大型技術公司的開源之路,他認為開源可以促進 AI 領域的發展。

「開源促進整個領域更快地發展,因為更多的人可以就研究進行溝通交流,這會產生非常大的影響。今天大家所看到的 AI 領域發展速度主要是因為更多人更加迅捷、高效地互相交流,同時做了更多的開放性研究。」

關於倫理,LeCun 很高興地看到大家能夠考慮研究的倫理影響以及帶有偏見的決策的風險性。

「人們應該注意倫理問題,這在現在已經成為共識。而兩三年前情況完全不同。」

LeCun 稱,他認為 AI 領域的倫理和偏見不是需要立即採取行動的大問題,但是人們應該為此做好準備。

「我認為……有一些亟待解決的關乎生死的大問題,但是倫理和偏見問題終有一天會到來,我們需要……理解這些問題,並在它們發生之前防患於未然。」

和吳恩達一樣,LeCun 想看到更多靈活、魯棒的 AI 系統,它們不需要特定質量的輸入數據或固定條件也能獲得準確的輸出。

LeCun 表示,研究者已經可以很好地利用深度學習管理感知,但缺乏對完整 AI 系統整體架構的理解。

他認為,教會機器通過觀察世界來學習需要自監督學習或基於模型的強化學習。

「不同的人對此的稱呼不同,但本質上人類嬰兒和動物通過觀察和分辨大量關於世界的背景信息來學習世界的運作原理,我們不知道如何讓機器學會這麼做,而這是一項重要挑戰。AI 和機器真正取得進步的一個重要標誌是具備常識,以及虛擬助手可以更流暢自然地談論更多話題、參與更多討論。」

對於幫助 Facebook 內部運營的應用,LeCun 稱自監督學習的巨大進步以及僅靠少量數據也能返回準確結果的 AI 系統將非常重要。

「在解決整個問題的過程中,我們希望能夠找到一些方式來減少任意任務所必需的數據量(如機器翻譯或圖像識別任務等),我們在這個方向已經有所進展。我們已經通過弱監督或自監督學習對 Facebook 所用的機器翻譯和圖像識別系統帶來了好的影響。所以這些並不是長期的,它們在短期內就可以帶來效果。」

LeCun 希望未來能夠看到 AI 在建立因果關係方面有所進步。這一能力不只是通過觀察習得,而需要對事物有實際的理解。例如,如果有人打傘,那就有可能下雨了。

「這非常重要,因為如果你想讓機器通過觀察學得世界模型,那麼它必須能夠了解它對改變世界狀態的影響以及有些事情不能做。如果你在一個房間里,面前有一張桌子,桌上有一瓶水,那麼你知道你推一下水瓶,它就會移動,你不會想去移動桌子,因為桌子又大又重,這樣的事情都與因果關係有關。」

Hilary Mason

2017 年 Cloudera 收購 Fast Forward 實驗室之後,Hilary Mason 成為 Cloudera 的機器學習負責人。雖然已經被併入 Cloudera,但 Fast Forward Labs 還在繼續運營,為用戶提供應用機器學習報告和建議,幫助他們看到未來半年到兩年的發展方向。

2018 年令 Mason 感到驚喜的人工智慧進展與多任務學習有關,利用這種技術可以訓練單個神經網路在推理時應用多個標籤,如在一幅圖像中看到的多個對象。

Fast Forward 實驗室為用戶提供的建議也包含 AI 系統的倫理影響。Mason 越發意識到創建 AI 倫理框架的必要性。

「自從五年前 Fast Forward 創立以來,我們的每一份報告都包含倫理內容,但直到 2018 年,人們才真正開始重視這個問題。我認為,2019 年我們將開始看到結果,以及針對對此熟視無睹的公司或個人的問責機制。」Mason 說道。「有一點我沒說清楚,就是我希望數據科學和 AI 的實踐應該按某種方式演進,即科研人員和商界領袖都能在利用 AI 創造產品時將倫理、偏見以及這些產品的發展考慮在內,這在今天還不是慣例。」

2019 年,更多 AI 系統將成為商業運營的一部分,Mason 希望產品經理及主管可以為 AI 的前沿發展做出更多貢獻,因為他們的職位提供了最大的便利。

「顯然,對整個產品了如指掌而且懂商業的人知道什麼樣的產品有價值,他們處在可以決定投資方向的最佳職位。如果讓我預測,我認為那些使用電子表格一類的東西進行簡單建模的人會變得非常低能,他們很快也會在發現自己產品中的 AI 機會方面變得非常低能。」

AI 民主化,或者說將 AI 擴展到企業數據科學團隊以外的部門,是一些企業所強調的,包括 Kubeflow Pipelines 和 AI Hub 等谷歌雲 AI 產品,以及 CI&T 公司為確保人工智慧系統在公司內部得到實際利用所提出的建議。

Mason 還表示,越來越多的公司將需要構建管理多個 AI 系統的結構。

與之前描述運維人員所面臨的挑戰類似,Mason 說道,可以使用手動部署的自定義腳本來管理單個系統,cron 作業可以管理幾十個系統。但當你在一個具有安全、管理和風險要求的企業中管理數十或數百個系統時,你需要專業而強大的工具。

企業正從招攬有能力或才華的人才轉向系統地追求機器學習和 AI 機會。

由於 Cloudera 最近推出了基於容器的機器學習平台,所以對 Mason 來說,強調部署 AI 所需的容器是有意義的。她認為,這一趨勢將在未來幾年持續下去,因此企業可以在本地 AI 和雲端 AI 部署之間做出選擇。

最後,Mason 認為 AI 的商業化將會持續下去,而且將涉及整個行業的慣例,而不是單個公司。

「我想我們將會看到 AI 專業實踐的繼續發展。現在,如果你在一家公司做數據科學家或機器學習工程師,然後你跳槽去另一家公司,你的工作將會完全不同:不同的工具、不同的預期、不同的報告結構。但我想我們還是會看到一致性。」她說。

參考鏈接:venturebeat.com/2019/01

推薦閱讀:

TAG:人工智慧 | 深度學習(DeepLearning) | 科技 |