【研報】「人工智慧 」時代呼嘯而來(上)

分析師新財富路演

來源:招商計算機 劉澤晶--獨角獸智庫會員,新財富請支持劉澤晶團隊第一

【摘要】

我們看好人工智慧開源平台百舸爭流爭奪AI生態圈會極大加速產業發展。我們看好人工智慧晶元不斷進化下的AI演算法效率大幅提升。「人工智慧 」時代呼嘯而來,我們先期看好專用人工智慧的普及,中長期看好通用人工智慧的普及。

第三次浪潮:人工智慧奇點臨近。人工智慧在兩次高潮和低谷之後迎來第三次浪潮,各國紛紛把人工智慧上升到國家戰略層面,美國白宮組織四場研討會討論人工智慧,日本提出「超智能社會」,中國發布《「互聯網 」人工智慧三年行動實施方案》。彷彿一夜間,各國對人工智慧熱情大增,我們看到人工智慧領域巨頭們的卡位戰爭已經上升到開源平台、晶元以及應用。相關一級創投金額5年增長了12倍,我們預計二級市場的機會隨時來臨。

開源平台:超越Android,AI生態圈之爭極大加速產業發展。我們看到各大科技巨頭和科研機構紛紛爭奪開源人工智慧技術,如Google的TensorFlow、微軟的DMTK、Facebook的Torchnet、OpenAI、Baidu的Paddle等,百舸爭流千帆競,以此來獲得大量的用戶需求和開發人員,建立開放共享、互利共贏的人工智慧生態圈,我們認為人工智慧開源平台有望成為引爆產業的導火線,從而比Android更深遠地影響世界。

人工智慧晶元:從通用到專用,類腦計算不斷進化,效率大幅提升。我們認為人工智慧晶元效率的提升和突破將帶領產業實現跳躍式發展。GPU王者Nvidia,與其合作的組織2年增長30多倍。FPGA兼顧性能與靈活性,與GPU強強對決。我們預計人工智慧專用晶元在競爭中有望實現超越摩爾定律的發展速度,硬體的春天即將來臨。

應用:「人工智慧 」時代呼嘯而來,改變IT的命運。我們先期看好專用人工智慧的普及,中長期看好通用人工智慧的普及。人工智慧在未來幾乎會給各行各業帶來升級重構,包括安防、製造業、金融、交通、教育、法律、醫療等行業,AI的觸角伸向每個行業和每個人,從而改變IT未來的走向。

投資建議:建議從兩個角度選擇A股相關標的:1、數據能力;2、應用能力。重點推薦:「人工智慧 安防」:東方網力;「人工智慧 金融」:同花順;「人工智慧 醫療」:思創醫惠;「人工智慧 底層操作系統」:中科創達;「人工智慧 大數據」:神州泰岳。關註:科大訊飛、佳都科技、漢王科技。

風險提示:政策支持力度低於預期;核心技術發展遭遇瓶頸。

【正文】

一、人工智慧第三次浪潮:從開源平台、晶元到應用的競爭白熱化,創投金額5 年間增長了12 倍

人工智慧(Artificial Intelligence,AI)是對人的意識、思維的信息過程的模擬,它是一門研究、開發用於模擬、延伸和擴展人的智能的理論及應用系統的技術科學,該領域的研究包括機器人、語言識別、圖像識別、自然語言處理和專家系統等,除了計算機科學以外,人工智慧還涉及資訊理論、控制論、自動化、仿生學、生物學、心理學、數理邏輯、語言學、醫學和哲學等多門學科。

人工智慧本質上是為了研製出具有類人智能的機器,能夠模擬、延伸和擴展人類智能的理論、方法、技術以及應用形式。

如果把人工智慧與人對比,要實現以下功能:聽說讀寫、行動思考學習等。

語音語義:語音識別、說話人識別、機器翻譯;語音合成、人機對話等。

計算機視覺:圖像識別、人臉識別、虹膜識別、文字識別、車牌識別等。

行動:智能機器人、無人駕駛汽車、無人機等。

思考:人機對弈、定理證明、自動推理和搜索方法、醫療診斷等。

學習:機器學習、知識獲取、知識處理、知識表示等。

1、人工智慧發展歷程:在兩次高潮和低谷之後迎來第三次浪潮

人工智慧作為一門學科誕生至今已有60年的歷史,期間經歷了2次高潮和低谷。而從2010年到現在又迎來人工智慧發展的第三次浪潮。

人工智慧60年的發展,道路雖然起伏曲折,但進展也可謂碩果累累。無論是基礎理論創新,關鍵技術突破,還是規模產業應用,都是精彩紛呈,使我們每一天無不享受著這門學科帶來的便利。人工智慧因其十分廣闊的應用前景和對一個國家的重大戰略意義,近年來日益得到政府部門、學術界的高度關注。

(1)1956年達特茅斯會議:人工智慧學誕生

1956年夏,達特茅斯學院助教約翰·麥卡錫(JohnMcCarthy)、哈佛大學馬文·閔斯基(Marvin Minsky)、貝爾電話實驗室克勞德·香農(Claude Shannon)、IBM公司信息研究中心納撒尼爾·羅切斯特(Nathaniel Rochester)、卡內基梅隆大學艾倫·紐厄爾(Allen Newell)和赫伯特·西蒙(Herbert Simon)等先驅在美國達特茅斯學院行了以此為其兩個月的學術討論會,從不同學科的角度探討用機器模擬人類智能等問題,並首次提出了人工智慧的概念,達特茅斯會議上AI的名稱和任務得以確定,同時出現了最初的成就和最早的一批研究者,因此標誌著人工智慧學科的誕生。

(2)1956年至1974年:人工智慧的第一次大發展

1956 年達特茅斯會議之後的十幾年是人工智慧的黃金年代。從50年代後期到60年代湧現了大批成功的AI程序和新的研究方向,其中最有影響力的包括搜索式推理、自然語言、微世界等。在這段時間內,計算機被用來解決代數應用題、證明幾何定理、學習和使用英語。初期研究取得了顯著的成果,這些成果在得到廣泛讚賞的同時也讓研究者們對開發出完全智能的機器信心倍增。

1963年6月,MIT從新建立的ARPA(即後來的DARPA,國防高等研究計劃局)獲得了220萬美元經費,用於資助MAC工程,其中包括Minsky和McCarthy五年前建立的AI研究組。此後ARPA每年提供三百萬美元,直到七十年代為止,在麻省理工、卡內基梅隆大學、斯坦福大學、愛丁堡大學建立的人工智慧項目都獲得了來自 ARPA等政府機構的大筆資金,在接下來的許多年間,這四個研究機構一直是AI學術界的研究(和經費)中心。不過,這些投入卻並沒有讓當時的樂觀預言得以實現。

(3)1974年至1980年:人工智慧的第一次低谷

70年代初,人工智慧遭遇了瓶頸。由於計算機性能的瓶頸、計算複雜性的指數級增長、數據量缺失等問題,AI研究者們遭遇了無法克服的基礎性障礙。例如,在今天已經比較常見的機器視覺功能在當時找不到足夠大的資料庫來支撐程序學習,機器無法吸收足夠的數據量,因此很難實現視覺方面的智能化。

由於缺乏進展,對人工智慧提供資助的機構(如英國政府,DARPA和NRC)對無方向的AI研究逐漸停止了資助。到了1974年已經很難再找到對人工智慧項目的資助,研究經費被轉移到那些目標明確的特定項目上。人工智慧遭遇了 6 年左右的低谷。

1969年Minsky和Papert出版了著作《感知器》,書中暗示感知器具有嚴重局限,而感知器是神經網路的一種形式,它最終將能夠學習,做出決策和翻譯語言。這本書的影響是破壞性的,聯結主義的研究因此停滯了十年。

到1970年代後期,儘管遭遇了公眾的誤解,人工智慧在邏輯編程、常識推理等一些領域還是有所進展。

(4)1980年至1987年:人工智慧的第二次大發展

在80年代,一類名為「專家系統」的AI程序開始為全世界的公司所採納,知識庫系統和知識工程成為了80年代AI研究的主要方向。專家系統是一種程序,能夠依據一組從專門知識中推演出的邏輯規則在某一特定領域回答或解決問題。專家系統僅限於一個很小的知識領域,從而避免了常識問題;其簡單的設計又使它能夠較為容易地編程實現或修改,實踐證明了這類程序的實用性。

1980年卡內基·梅隆大學為DEC(DigitalEquipment Corporation,數字設備公司)設計了一個名為XCON的專家系統,這套系統在 1986 年之前能為公司每年節省四千萬美元。全世界的公司都開始研發和應用專家系統,到1985年它們已在AI上投入十億美元以上,大部分用於公司內設的AI部門。為之提供支持的產業應運而生,其中包括Symbolics,Lisp Machines等硬體公司和IntelliCorp,Aion等軟體公司。

1981年,日本經濟產業省撥款8.5億美元支持第五代計算機項目,目標是製造出能夠與人對話、翻譯語言、解釋圖像,並且能像人一樣推理的機器。隨後,英國、美國也紛紛響應,開始向 AI 和信息技術領域的研究提供大量資金。

1986年,人工智慧領域著名的BPAlgorithm(Error Back Propagation Algorithm,誤差反向傳播演算法)被Rumelhart、McCelland等大師提出,這使1970年以來一直遭人遺棄的聯結主義重獲新生。

(5)1987年至1993年:人工智慧的第二次低谷

1987年AI硬體市場需求突然下跌。Apple和IBM生產的台式機性能不斷提升,到1987年時其性能已經超過了Symbolics和其他廠家生產的昂貴的Lisp機。老產品失去了存在的理由:一夜之間這個價值五億美元的產業土崩瓦解。XCON等最初大獲成功的專家系統維護費用居高不下,暴露出各種問題,專家系統的實用性僅僅局限於某些特定情景。

到 80 年代晚期,戰略計算促進會大幅削減對AI的資助。1991 年,人們發現十年前日本人宏偉的「第五代工程」並沒有實現。這些事實情況讓人們從對「專家系統」的狂熱追捧中逐步走向失望。人工智慧研究再次遭遇寒冬。

儘管遇到各種批評,這一領域仍在不斷前進。來自機器人學這一相關研究領域的Rodney Brooks和Hans Moravec提出了一種全新的人工智慧方案,號召「自底向上」地創造智能,他們認為感知運動技能對於常識推理等高層次技能是至關重要的。

(6)1993年至2010年:人工智慧復甦期

1993年到2010年這一階段,人工智慧處於穩步發展時期,互聯網推動人工智慧不斷創新和實用。

人工智慧已被成功地用在技術產業中,取得了一些里程碑式的成果:1997年5月,IBM研發的計算機「深藍」(Deep Blue)戰勝了國際象棋冠軍卡斯帕羅夫;2005年,Stanford開發的一台機器人在一條沙漠小徑上成功地自動行駛了131英里,贏得了DARPA挑戰大賽頭獎;2009 年,洛桑聯邦理工學院發起的藍腦計劃聲稱已經成功地模擬了部分鼠腦。

2008年11月IBM提出「智慧地球」概念,數字化、網路化和智能化,被公認為是未來社會發展的大趨勢,而與「智慧地球」密切相關的物聯網、雲計算等,更成為科技發達國家制定本國發展戰略的重點。自2009年以來,美國、歐盟、日本和韓國等紛紛推出本國的物聯網、雲計算相關發展戰略。

(7)2010年到現在:人工智慧進入爆髮式增長期

大數據、雲計算支撐人工智慧產業爆發,人工智慧將成為下一輪技術變革的核心。

人工智慧新一輪的爆發包括大數據、雲計算和演算法三個核心要素。

第一,數據的急劇增長。得益於互聯網、社交媒體、移動設備和廉價的感測器,這個世界產生的數據量指數型增長。大數據是人工智慧發展的助推劑,這是因為有些人工智慧技術使用統計模型來進行數據的概率推算,比如圖像、文本或者語音,有了大量的數據才能為模型的訓練提供原材料。

第二,計算能力的進步。雲計算和大規模GPU並行計算的發展為深度學習的應用提供了計算基礎。當人們把原本用於遊戲中處理高質量畫面的GPU拿來運行深度學習演算法後,計算機可以幾百倍地加快模型的訓練速度。目前,AlphaGo的計算能力是IBM深藍的近3萬倍。未來隨著速度更快的晶元乃至量子計算的發展,運算速度會進一步提高,成本也會大幅降低。

第三,演算法的發展,特別是深度學習的應用。演算法是解決一個設計程序或完成任務的路徑方法。與大部分傳統演算法相比,深度學習的效果隨著數據量的增大有顯著的提升,因而更大量的數據可以提高演算法的表現。深度學習增加了神經網路的層數,因此網路才有了更強大的特徵挖掘能力。機器學習演算法目前被開源使用,這種情形將促成更大進步,因為在開源環境下開發人員可以補足和增強彼此的工作。

2、人工智慧全球熱潮上升到國家戰略層面

人工智慧已經成為國家服務業、工業和軍事的核心競爭力,因此世界各國制定了國家級發展戰略:

2016年5月美國白宮計劃組織四場研討會討論人工智慧。白宮還成立了人工智慧委員會,用於協調全美各界在人工智慧領域的行動。美國交通部宣布歷時10年投資40億美元的提案,旨在實現無人駕駛汽車上路。

日本從2016年開始執行的「第五期科學技術基本計劃」中,日本政府列入總額約26萬億日元的研發經費,重點研發物聯網及人工智慧系統,提出要實現領先於世界的「超智能社會」(即Society5.0)。

2016年5月25日我國四部委發布《「互聯網 」人工智慧三年行動實施方案》,到2018年形成千億級的人工智慧市場應用規模。2016年8月8日發布的《「十三五」國家科技創新規劃》多次講到人工智慧。

3、人工智慧巨頭競爭白熱化:從開源平台、晶元到應用

(1)開源人工智慧基礎平台

同時各大科技巨頭紛紛開源人工智慧技術,以此來獲得大量的用戶需求和開發人員,建立開放共享、互利共贏的人工智慧生態圈,典型的例子有:

谷歌開源了人工智慧基礎平台TensorFlow;

Facebook開源了人工智慧基礎平台Torchnet;

微軟開源了人工智慧基礎平台DMTK;

IBM開源了人工智慧基礎平台SystemML;

雅虎開源CaffeOnSpark;

百度開源AI人工智慧Warp-CTC源代碼;

特斯拉創始人Elon Musk 等共同創立非營利開源人工智慧公司 OpenAI等。

(2)布局人工智慧晶元

人工智慧晶元定義了AI產業鏈和生態圈的基礎計算架構,核心晶元是人工智慧時代的戰略制高點。Google、IBM、英偉達、Intel、中科院都在積極布局人工智慧晶元。

2016年8月17日,英特爾表示將開發人工智慧技術的專用晶元;

IBM正在設計基於大腦結構的晶元TrueNorth;

今年5月,谷歌自主研發新型晶元支持人工智慧;

英偉達推出人工智慧超級晶元特斯拉P100 GPU;

中科院研發出全球首個能夠「深度學習」的「神經網路」處理器晶元「寒武紀」;

Facebook、微軟以及Twitter都在通過設計新的晶元加強人工智慧研發。

(3)研發人工智慧核心技術

Google、IBM、Microsoft、Facebook、Amazon、百度等企業巨頭充分認識到人工智慧技術引領新一代信息產業發展的戰略意義,紛紛投入重金收購企業、招募人才和研發核心技術,力圖掌握人工智慧時代的主動權:

Google正在研發自動駕駛汽車、Deepmind人機博弈;

IBM投資10億美元組建Watson人工智慧部門,在醫療金融等領域推廣應用;

微軟推出聊天機器人小冰和人工智慧助理小娜;

Facebook專註於人工智慧助理、圖像視頻識別等技術;

百度開發無人駕駛、語音識別、百度度秘等人工智慧多領域的應用產品。

4、人工智慧領域的投資併購如火如荼,創投金額5年間增長了12倍

(1)Google成併購人工智慧創業公司最活躍的收購巨頭

當前,全球範圍內人工智慧產業化應用蓬勃發展。谷歌、IBM、Intel、蘋果、Yahoo等國際巨頭紛紛搶灘布局人工智慧產業鏈,力圖掌握人工智慧時代的主動權。從2013年起,巨頭對人工智慧公司的併購呈現密集化趨勢。

Google成為人工智慧公司收購熱潮中的領軍者,自2011年起,Google先後收購了近10家AI領域的創業公司,Twitter緊追其後,將MagicPony、 Madbits、Whetlab等公司收入囊中,而蘋果公司和Salesforce自去年開始以收購方式布局人工智慧後各併購3家AI創業公司。此外,Intel、IBM、Yahoo等也都在積極收購AI創業公司。

(2)Intel成為人工智慧風投領域最活躍的機構投資者

從2011年至今,在風投領域,Intel是最活躍的機構投資者。在Intel Capital的投資組合中有醫療健康領域的Lumiata,機器學習平台DataRobot以及圖片視頻公司Perfant等等。谷歌也在AI領域投資了10家公司,包括Building Robotics、 Clarifai、Kensho等等。谷歌在人工智慧領域無疑是領先者,通過進一步分析我們可以發現在併購市場上谷歌主要收購的對象是人工智慧的底層技術,而在風投市場主要投資的是人工智慧在特定場景下的應用。同時,在谷歌內部,深度學習也被廣泛應用。谷歌的許多產品如Android、Gmail、地圖、翻譯、YouTube等都有深度學習在背後支撐。

近日,Intel宣布收購計算機視覺處理器公司Movidius,加速進軍無人機、機器人以及VR領域。Movidius 的殺手級產品就是花費 9 年時間完全從零開始自主研製的全新架構低功耗視覺處理器。

(3)人工智慧領域的創投金額5年間增長了12倍

從已經披露的人工智慧領域投資來看,2011年到2016年的五年間,無論是總體融資額還是交易次數都在逐年上升。隨著人工智慧在各個專業領域的技術突破,投資者對於人工智慧產業的興趣和信心逐漸增加,都在試圖抓住這一熱潮,掌握更多的主動權。

對使用人工智慧演算法的創業公司的交易與投資在 2016 年創了記錄。這一趨勢正在變革包括醫療、商業智能、廣告在內的數個產業。特別是創業公司使用機器學習和自然語言處理解決金融方面的問題在過去幾年吸引了投資者的興趣。

二、人工智慧開源平台:百舸爭流千帆競,爭奪生態圈話語權,比Android更深遠地影響世界

同時各大科技巨頭和科研機構紛紛開源人工智慧技術,以此來獲得大量的用戶需求和開發人員,建立開放共享、互利共贏的人工智慧生態圈,可以說人工智慧開源平台,會比Android更深遠地影響世界。

1、Google TensorFlow:最受歡迎的人工智慧開源平台

作為Google第二代深度學習系統,TensorFlow被寄予厚望。TensorFlow是Google在2015年11月宣布開源的第二代深度學習系統,主要用於編譯執行機器學習演算法的代碼,是2011年所推出的第一代人工智慧系統DistBelief的升級版本。DistBelief是一款非常成功的深度學習系統,Google在此系統上建立起了龐大的神經網路模型並取得不少令人矚目的技術成就,比如DistBelief曾從Youtube上沒有被標記的海量視頻中識別出包含貓的視頻,將Google應用中的語音識別水平提高25%等,但DistBelief僅以神經網路為目的,在實際配置及應用中存在明顯局限性。

TensorFlow的設計架構克服了DistBelief通用性差、不夠靈活等缺點,在運行速度、可擴縮性和與產品可銜接性方面均有大幅改善,而且整個系統完全開源。作為Google所推出的第二代開源深度學習系統,TensorFlow所具備的優異性能有望進一步降低深度學習的使用門檻,成為深度學習領域標杆式開發平台,加速推進人工智慧行業新產品的研發進度。

TensorFlow專註解決深度學習問題。TensorFlow的命名生動體現了其運算模式的架構理念:Tensor一詞本意為張量,代表一個N維數組,比如該數組為1維數組時就表示向量,2維時表示矩陣,更高維的數據流比如圖像則可以用三維張量(行、列、色彩)來代表;Flow(流動)則意味著基於數據流圖的運算流程。TensorFlow則意味著張量在數據流圖上流動過程,也即運算處理過程。TensorFlow的基本架構從多個角度考慮到了對深度學習的適應性,具體而言包括以下四個方面:1)用一個或多個張量(Tensor)神經網路中的每一層(Layer);2)建立專用於深度學習的運算庫,包括:2D、3D卷積、Pooling、Softma等高階運算;標準損失函數,如Corss Entropy、L1、L2等;多種優化方法,如Gradient Descent、AdaGrad、L-BFGS等;3)自動計算相關微分導數;4)易於混合使用多種不同模型進行訓練,包括LSTMs、卷積模型、注意力模型,增強學習、類圖靈機模型等。

背靠Google強大技術支撐,TensorFlow整體性能顯著提升。TensorFlow可以被架設在各類常見計算平台上,無論是智能手機、計算機、大型伺服器,還是由GPU組成的分散式系統,都能實現通用;在編程語言方面,TensorFlow支持包括Python、Cuda、C 等在內多種程序語言,系統自帶的深度學習模型庫功能豐富且方便易用。在TensorFlow在建立和訓練神經網路速度等主要指標方面,TensorFlow要比DistBelief快5倍左右。此外,TensorFlow配備的晶元是Google自主研發的人工智慧專用處理晶元TPU,同時能夠調用Google龐大的計算資源和海量用戶基數,在處理大規模分散式訓練方面具有無可比擬的明顯優勢。

2016年5月,經過長達半年的測試與評估過程,DeepMind宣布放棄此前一直使用的開源機器學習平台Torch7,轉而使用TensorFlow系統,這也意味著AlphaGo未來的測試訓練將在TensorFlow上展開。

由於具有優異的性能以及Google方面龐大的維護團隊,Tensorflow一經面世就廣受歡迎,HackerNews曾開展一個深度學習工具受歡迎程度的投票,時間範圍為7月15日到8月15日,結果顯示TensorFlow受歡迎程度高居第一,且得分遙遙領先於第二名。

TensorFlow更新及時,開源程度不斷加深。TensorFlow自從2015年11月發布0.1創始版本以來,短短9個月內已經完成了9次更新,TensorFlow系統正在加速完善成熟。最具有里程碑意義的一次更新時今年4月推出的TensorFlow0.8版,實現了分散式聯機功能。雖然Google內部所用TensorFlow可在數以千計的伺服器上同時運行,但對外發布的低於0.8版本的系統卻只能在單台機器上運行,這使得TensorFlow在大規模並行應用方面受到了極大限制,這也是此前TensorFlow受業界詬病的主要原因之一。而隨著0.8版本TensorFlow的發布,這一缺陷已彌補,標準著TensorFlow開源透明程度的巨大提高。

2、微軟DMTK:機器學習演算法 大數據的強大交疊

DMTK,微軟機器學習開源工具的扛鼎力作。在Google宣布開源TensorFlow系統的同一天(2015.11.9),微軟也宣布將分散式機器學習工具包DMTK開源。DMTK由一個服務於分散式機器學習的框架和一組分散式機器學習演算法構成,是一個將機器學習演算法應用在大數據上的強大工具包,適用於在超大規模數據上靈活穩定地訓練大規模機器學習模型。此外,DMTK擁有豐富易用的API介面,能有效降低分散式機器學習的門檻,研發人員只需要專註於數據、模型和模型訓練等機器學習的核心邏輯部分。DMTK目前的工具包主要包含以下3個部分:

1)分散式機器學習框架(Multiverso):由參數伺服器(ParameterServer)和客戶端軟體開發包(Client SDK)兩部分構成。參數伺服器支持存儲混合數據結構模型,接受並聚合工作節點伺服器的數據模型更新、控制模型同步邏輯,在原有基礎上從性能和功能上都得到了進一步提升。客戶端軟體開發包(Client SDK)則支持維護節點模型緩存(與全局模型伺服器同步)、節點模型訓練和模型通訊的流水線控制、以及片狀調度大模型訓練等;

2)LightLDA主題模型:LightLDA主題模型是一種全新的計算複雜度與主題數目無關的高效演算法,能夠在一個普通計算機集群上處理超大規模的數據和模型,主要應用於互聯網社交平台上的海量文本信息挖掘,得出相關的主題(Topic),為後續的機器學習和文本理解提供基礎素材。據微軟團隊介紹,DMTK的LightLDA演算法是目前世界上唯一一款能在2千億訓練樣本(Token)上訓練100萬個主題的機器學習演算法,其相關參數已達到萬億級別,卻僅使用了一共搭載300餘個CPU內核的20台伺服器就完成了運算過程,而其他同類演算法若要實現上述運算過程一般需部署數千台計算機集群;

3)分散式詞向量訓練模型(DistributeWord Embedding,DWE):詞向量模型通過挖掘文本數據,賦予一個詞若干個指標維度(語義相關匹配),即將普通文本處理為詞向量。近來被普遍地應用於計算辭彙的語義表示,它可以用作很多自然語言處理任務的詞特徵。目前DMTK為兩種計算詞向量的演算法提供了高效的分步式實現:一種是標準的word2vec演算法,另一種是可以對多義詞計算多個詞向量的新演算法。

DMTK有望助力微軟在線產品實現性能躍升。DMTK中包含的LightLDA DWE組合所擁有的高效複雜處理能力,以及分散式開源架構,將DWE模型推升了一個前所未有的全新高度,有望給整個搜索、語義處理等相關產業帶來顛覆性變革。目前在微軟內部,DMTK已經被應用到Bing搜索引擎、聊天機器人、廣告服務等多款在線產品當中,藉助DMTK的強大且高效的算力,有望給上述產品帶來實質性的優化改善。以微軟聊天機器人小冰為例,在短短1年時間內,第三代小冰與數千萬人類用戶平均每次對話輪數已經達到了18輪,而此前最領先同類聊天機器人平均對話輪數僅有1.5至2輪,目前小冰3還具備了自我進化功能,表明藉助DMTK微軟在語義分析和理解方面已經取得顯著突破。

3、Facebook Torchnet:輕量化機器學習開源工具集

「小而美」的Torchnet。2016年6月,Facebook人工智慧研究實驗室(FAIR)發表一篇論文,首次介紹該團隊開發了一款基於Torch7的輕量級機器學習開源工具Torchnet,目前該平台的源代碼已經在Github開源。Facebook沒有像Google、Microsoft、Tesla等公司難那樣從頭開始構建機器學習平台,而是直接在機器學習框架Torch 7的基礎上實現。Torch 7作為主流封裝腳本語言的輕量級學習框架,針對常見代數運算效率很高,但是它不能執行抽象和公式化(Boilerplate)的代碼實現。針對這一缺陷,Torchnet採用了可抽象和公式化邏輯的開源框架,提供種類豐富的樣本代碼(Boilerplate Code)、關鍵抽象概念(Key Abstractions)和參考執行代碼(Reference Implementations)等基本概念和代碼集,且允許模塊化編程和代碼重複使用,從而減少Bug幾率;此外,由於Torchnet採用的是Torch上通用的Lua編程語言,能直接對接非同步數據輸入和多GPU/標準x86晶元運算,能有效提高運算效率。Facebook目前還沒有公布Torchnet的具體應用,但預計是涉及圖像識別、自然語言處理、機器聊天等與Facebook現有核心業務相關的任務。

4、OpenAI:非盈利性開源人工智慧組織

OpenAI的誕生初衷:既為戰更為止戰。OpenAI成立於2015年12月,投資者包括特斯拉CEOElon Musk、創業孵化器Y Combinator總裁Sam Altman、PayPal的聯合創始人Peter Thiel以及Amazon Web Service等知名人士或公司,累計投資金額達10億美元。作為行業內少見的非營利性組織,OpenAI成立的初衷即是為了解決Elon Musk所擔心的「人工智慧威脅論(the Threat of Bad AI)」,其長期目標和最終使命是以最大限度造福全人類的方式發展利用人工智慧。根據Musk的「人工智慧威脅論」,人類對人工智慧的認知程度仍停留在初級階段,對其發展方向的掌控能力也極為有限,一旦人工智慧自我進化出邪惡意識將形成巨大威脅,因此極有必要全面深入理解乃至掌控人工智慧發展;另一方面,目前主流研究團體如Google、Facebook、Microsoft等都是盈利性公司,難免會出於商業競爭目的而濫用、亂用、誤用人工智慧技術,加劇人工智慧威脅的潛在風險。因此,設立一家非盈利性開源人工智慧組織,分享全世界範圍內的最新研究成果,消除企業界不完全公開研究細節的弊端,是發展人工智慧的最佳實踐方式之一。由於沒有商業競爭和盈利的需求,OpenAI或將會對自己的技術優勢完全開源透明而不會有所保留。

專註非監督式學習和增強學習,完備的環境集成是最大亮點。據OpenAI研發團隊介紹,其研究內容主要為三個方向:1)模擬演算法生成(Training Generative Models),主要任務是快速感知與學習不同類型數據並生成新的信息,既包含監督學習,也有無監督學習;2)從數據中推斷演算法的演算法(Algorithms for Inferring Algorithms from Data),即神經網路圖靈機,主要目的是讓機器能夠學習演算法和程序等更為複雜信息,從而具備更強大推理能力;3)增強學習演算法研發(New Approaches to Reinforcement Learning),重點在於實現機器的自我學習能力,這也是AlphaGO所採用的技術手段。目前OpenAI已發布其第一款增強學習演算法測試開源工具包OpenAI Gym,其中最大的亮點在於包括了種類豐富研發測試環境集成,包括模擬RL-Glue、RL-Py、Arcade Learning Environment等,主要適用於研發和比較增強學習演算法,OpenAIGym也整合了加州大學伯克利分校關於深度強化學習演算法基準測試方面的最新研究成果。未來OpenAI還將繼續發布非監督式學習和增強學習方面開源工具。

5、Baidu Paddle:厚積薄發的深度學習開源平台

厚積薄發,廣獲肯定。早在2013年,百度深度學習實驗室((Institute of Deep Learning,IDL))發現深度神經網路在訓練數據方面相比傳統單GPU訓練平台有絕對優勢,為此實驗室搭建了分散式深度學習平台Paddle(Parallel Asynchronous Distributed Deep Learning)。但創世版PADDLE是一個獨立的深度學習平台,不能很好地支持其他平台數據的接入需求,限制了其性能發揮。為解決這一性能瓶頸,IDL團隊開發了Spark on PADDLE平台,讓PADDLE變成百度Spark生態系統的一個功能模塊,提高其在跨平台應用上的通用性,目前Paddle已經發展成為Baidu成熟的分散式深度學習平台,廣泛應用於圖像處理、語音識別、自然語言理解、無人駕駛等領域。自2016年8月31日,最新版本Paddle宣布開源以來,迅速受到眾多業內研究人員和相關機構的測試,在性能和各項指標上,Paddle獲得了測試人員的廣泛肯定。

簡潔、穩定、高效,Paddle擁有出色架構。Paddle是一個雲端託管的分散式深度學習平台,對於序列輸入、稀疏輸入和大規模數據的模型訓練有著良好的支持,支持GPU運算,支持數據並行和模型並行。根據Baidu研發團隊的介紹,Paddle的架構是Spark異構系統計算平台,其運行流程主要分以下3步:1)App Master啟動用戶應用程序(Scala Driver),向Apache Yarn請求其所需的資源,其中GPU、FPGA對應不同的資源類別;2)用戶應用程序取得所有資源,由App Master在相應的App Slave上啟動Container運行用戶程序的一個Scala Worker;3)按照程序Scala Worker的需求,調用相應的C 的OpenCL程序,把所分配的數據傳輸到GPU或FPGA上,同時啟動特定的OpenCL Kernel對輸入數據進行處理並完成計算。Paddle所擁有的出色架構,以及Baidu在多年的內部使用中對其不斷優化,已經使之成為一款較為成熟的深度學習開發平台,尤其是具備代碼簡潔、設計乾淨、運行高效、支持拓展性強等亮點。

與Baidu現有產品深度融合,未來應用場景廣闊。作為Baidu在深度學習領域裡程碑式的研究成果,Paddle目前被用於Baidu旗下的各類的產品和服務中,已經擁有大量用戶群體,具體應用場景包括廣告點擊率(CTR)預測、大規模圖像分類、光學字元識別(OCR)、搜索排名、計算機病毒檢測、用戶精準推薦等。Paddle在百度現有業務布局中幾乎無處不在,且並大幅度地提升了這些產品的準確度,取得了良好效果。藉助Paddle平台,Baidu在未來有望開發出更靈活高效的大規模深度學習系統,並通過和各產品團隊合作將其應用不同的產品中,打造出更為智能優質的產品和服務。

6、其他開源工具:Caffe、Theano、MXNet、CNTK、DL4J

(1)Caffe

Caffe誕生於加州伯克利分校,由賈揚清在該校從事博士後工作期間開發,於2013年12月宣布開源,目前該校視覺與學習中心(Berkeley Vision and Learning Center,BVLC)負責系統的維護工作。Caffe全稱是ConvolutionalArchitecture for Fast Feature Embedding,開發語言為C ,主要針對卷積架構的網路提供解決方案,而對於循環神經網路、遞歸神經網路沒有提供支持。Caffe的特點是高性能、配置簡單、適用平台多元等。Caffe適用於圖像分類、目標識別、圖像分割等圖像處理領域,同樣也可用於處理非圖像數據的分類、回歸問題。

(2)Theano

2008年,Theano誕生於蒙特利爾理工學院,派生了大量深度學習Python軟體包,最著名的包括Blocks和Keras。Theano基於Python和C 開發,支持全平台、CPU/GPU切換運行,特點是使用靈活、功能強大,可以自己設計神經單元和神經連接,支持MLP、CNN、RNN-LSTM等多種深度神經網路。Theano的缺點在於C 代碼的編譯過程較為緩慢,Python中Theano包的導入也偏慢。由於Theano的程序已經被打包,所以很難對Theano本身做出改進。

(3)MXNet

MXNet由DMLC(Distributed(Deep) Machine Learning Community)組織開發,是一款快速高質量的開源深度學習工具。DMLC該組織為一群來自多家高校和IT公司(包括卡耐基梅隆大學、MIT、華盛頓大學、微軟、英特爾等)的極客發起成立,其成員曾是CXXNet、Minerva、Purine等項目主要開發者。MXNet主要採用C 編寫,但同時也具備R、python、julia等語言的介面,該工具強調高內存使用效率,甚至能在智能手機上運行諸如圖像識別等任務。

(4)CNTK

Computational Network Toolkit (CNTK)是微軟研究院(MicrosoftResearch)出品的開源深度學習工具包,2016年1月宣布開源,目前已經發展成一個通用、獨立的深度學習系統。CNTK是基於C 並且跨平台的深度學習工具,目前還沒有Python或者其他高級語言的介面,支持CPU和GPU模式,部署簡單、性能強大。在CNTK中,神經網路會被指定為向量運算的符號圖結構,葉節點代表輸入或者網路參數,其他節點計代表算步驟,運算的組合則會形成神經網路的層。CNTK不支持ARM架構,限制了其在移動設備上的部署能力。

(5)DL4J

DL4J/Deeplearning4j(DeepLearning for Java)是一款基於Java的深度學習開源工具,由創業公司Skymind於2014年6月發布,屬於首個商用級別(非研究工具目的)深度學習開源工具。DL4J與Java、Scala和Clojure均兼容,其深度學習框架包括分散式、多線程框架,以及普通的單線程深度學習框架,通過集群進行定型過程來實現快速處理大量數據的功能。DL4J以即插即用為目標,可與Hadoop和Spark深度集成,並通過多項預設的使用方便開發者在快速集成深度學習功能,其用戶包括埃森哲、雪佛龍、IBM等知名公司。

7、人工智慧開源平台爭奪生態圈話語權,爭奪下一個時代的「Android」

我們將人工智慧開源平台對比整理如下。同時各大科技巨頭和科研機構紛紛開源人工智慧技術,以此來獲得大量的用戶需求和開發人員,建立開放共享、互利共贏的人工智慧生態圈,可以說人工智慧開源平台,會比Android更深遠地影響世界。


推薦閱讀:

【師·愛·智慧】融入幼兒園常規的安全教育
《人生的智慧》作者:叔本華
百家講壇——姚淦銘講老子的智慧
【智慧醫院】佛山首家導診機器人「依依」落戶佛山市第一人民醫院!解答賣萌樣樣行,第一天上崗就圈粉無數

TAG:人工智慧 | 智慧 | 時代 | 人工 |