人工智慧達到了什麼程度?

2017.10.5 跟進進度

實時跟進進度 這是未來的革命

強人工智慧 弱人工智慧

機器學習 自然語言等

本題已加入圓桌 ? 人機對弈終章,更多「AlphaGo(阿爾法圍棋)」相關的話題歡迎關注討論


來說一個去年3月份發的paper 。

這片名為 https://arxiv.org/pdf/1603.08511.pdf 的論文。 用黑白圖像做輸入,用彩色圖像做輸出,訓練一個神經網路。

這個神經網路可以對黑白圖像上色,也就是說, 我們可以把古老的黑白攝影機的圖像輸入進去, 這個網路能自動還原成彩色的圖像!驚不驚喜,意不意外?結果好到讓人吃驚 !

左邊黑白,右邊是這個神經網路輸出的彩色圖像!

這裡有個網站可以隨意試試。

Colorize Black and White Photos


Elon Musk 最近發推特推薦了一本書,講人工智慧的,名字叫《Life 3.0: Being Human in the Age of Artificial Intelligence》, 作者是 MIT 教授 Max Tegmark,Professor Stephen Hawking 也給這本書寫了推薦語。

Tegmark 和他的朋友,Skype 的聯合創始人 Jaan Tallinn,加上 Elon Musk 給的錢,創立了 Future of Life Institute,專門研究人工智慧。

回到正題。想要知道人工智慧達到了什麼程度,就得搞清楚什麼叫做智能(Intelligence)。書中給出的定義是「完成複雜目標的能力(Ability to accomplish complex goals)」

所以說,要探求人工智慧達到目前達到了一個什麼樣的程度,其實就在看目前人工智慧能夠完成什麼複雜度的工作,下圖就是用來度量人工智慧發展程度的一張圖。

總體而言,「目標(Goal)」被分為三類:

  • Physical
  • Social
  • Technical

根據上圖,比如看 Physical goals 里,裝配類(Assembly)的這種工作,比如重物搬運(Heavy lifting)或者焊接工藝(Precision welding) 都是超過甚至遠遠人類的,Technical goals 里比如計算、記憶,也都是遠超人類。

但是在 Social goals 這一類目里,人類在有些目標里還是有優勢的,比如說演講轉文本(Speech-to-text),就還比 AI 要強,不過也有很多被 AI 超過的,比如最典型的,圍棋遊戲里現在已經沒有能夠下過 Alpha Go 的了。

當然這個圖不完整,就是選了一些典型的目標來把人工智慧和人類比較,一窺人工智慧的智能水平。而CMU 的 Hans Moravec 做出來一張圖,叫「人類能力景觀圖(Landscape of Human Competence)」。

這張圖很有趣,把人工智慧的發展水平看作是海平面,把人類的技能/任務目標按照難易程度,看作是不同的海拔高度,比如說科研(Science)就是人類能力中的高峰,駕駛(Driving)是小山坡,棋類運動(Chess Go etc)則都沒入海洋了,投資(Investment)、翻譯(Translation)、圖像處理(Vision)則像太平洋上的島國圖魯瓦一樣岌岌可危了。

大概這張圖裡的海平面就是當前人工智慧的發展階段了。

以上。


本次回答將引用騰訊 AI Lab 主任張潼博士最近在騰訊內部做的一次分享,可閱讀原文。讀完本文後,不僅僅了解到人工智慧達到了什麼程度?還將了解什麼是AI?有哪些研究方向和應用場景?為什麼現在又爆發AI熱潮?AI的未來又是怎樣的?

騰訊 AI Lab 主任張潼

在回答人工智慧達到了什麼程度這個問題之前,需先了解人工智慧的概念是什麼?

人工智慧(Artificial Intelligence,AI)是指計算機像人一樣擁有智能能力,是一個融合計算機科學、統計學、腦神經學和社會科學的前沿綜合學科,可以代替人類實現識別、認知,分析和決策等多種功能。如當你說一句話時,機器能夠識別成文字,並理解你話的意思,進行分析和對話等。

另外,了解一下AI的發展歷史,有哪些關鍵里程碑?

AI 在五六十年代時正式提出,90 年代,國際象棋冠軍卡斯帕羅夫與"深藍" 計算機決戰,"深藍"獲勝,這是人工智慧發展的一個重要里程碑。而 2016 年,Google 的 AlphaGo 贏了韓國棋手李世石,再度引發 AI 熱潮。今年,騰訊推出圍棋軟體"絕藝"大放異彩,這些都代表了特定時期 AI 發展的技術水平。

AI 不斷爆發熱潮,是與基礎設施的進步和科技的更新分不開的,從 70 年代 personal 計算機的興起到 2010 年 GPU、異構計算等硬體設施的發展,都為人工智慧復興奠定了基礎

同時,互聯網及移動互聯網的發展也帶來了一系列數據能力,使人工智慧能力得以提高。而且,運算能力也從傳統的以 CPU 為主導到以 GPU 為主導,這對 AI 有很大變革。演算法技術的更新助力於人工智慧的興起,最早期的演算法一般是傳統的統計演算法,如 80 年代的神經網路,90 年代的淺層,2000 年左右的 SBM、Boosting、convex 的 methods 等等。隨著數據量增大,計算能力變強,深度學習的影響也越來越大。2011 年之後,深度學習的興起,帶動了現今人工智慧發展的高潮。

其次,AI 有哪些研究領域和分支?

人工智慧研究的領域主要有五層,最底層是基礎設施建設,包含數據和計算能力兩部分,數據越大,人工智慧的能力越強。往上一層為演算法,如卷積神經網路、LSTM 序列學習、Q-Learning、深度學習等演算法,都是機器學習的演算法。第三層為重要的技術方向和問題,如計算機視覺,語音工程,自然語言處理等。還有另外的一些類似決策系統,像 reinforcement learning(編輯註:增強學習),或像一些大數據分析的統計系統,這些都能在機器學習演算法上產生。第四層為具體的技術,如圖像識別、語音識別、機器翻譯等等。最頂端為行業的解決方案,如人工智慧在金融、醫療、互聯網、交通和遊戲等上的應用,這是我們所關心它能帶來的價值。

值得一提的是機器學習同深度學習之間還是有所區別的,機器學習是指計算機的演算法能夠像人一樣,從數據中找到信息,從而學習一些規律。雖然深度學習是機器學習的一種,但深度學習是利用深度的神經網路,將模型處理得更為複雜,從而使模型對數據的理解更加深入。

機器學習有三類,第一類是無監督學習,指的是從信息出發自動尋找規律,並將其分成各種類別,有時也稱"聚類問題"。第二類是監督學習,監督學習指的是給歷史一個標籤,運用模型預測結果。如有一個水果,我們根據水果的形狀和顏色去判斷到底是香蕉還是蘋果,這就是一個監督學習的例子。最後一類為強化學習,是指可以用來支持人們去做決策和規劃的一個學習方式,它是對人的一些動作、行為產生獎勵的回饋機制,通過這個回饋機制促進學習,這與人類的學習相似,所以強化學習是目前研究的重要方向之一。

再則,AI 有哪些應用場景?

人工智慧的應用場景主要有以下幾個方面:

在計算機視覺上,2000 年左右,人們開始用機器學習,用人工特徵來做比較好的計算機視覺系統。如車牌識別、安防、人臉等技術。而深度學習則逐漸運用機器代替人工來學習特徵,擴大了其應用場景,如無人車、電商等領域。

在語音技術上,2010 年後,深度學習的廣泛應用使語音識別的準確率大幅提升,像 Siri、Voice Search 和 Echo 等,可以實現不同語言間的交流,從語音中說一段話,隨之將其翻譯為另一種文字;再如智能助手,你可以對手機說一段話,它能幫助你完成一些任務。與圖像相比,自然語言更難、更複雜,不僅需要認知,還需要理解。

在自然語言處理上,目前一個比較重大的突破是機器翻譯,這大大提高了原來的機器翻譯水平,舉個例子,Google 的 Translation 系統,是人工智慧的一個標杆性的事件。2010 年左右, IBM 的"Watson"系統在一檔綜藝節目上,和人類冠軍進行自然語言的問答並獲勝,代表了計算機能力的顯著提高。

在決策系統上,決策系統的發展是隨著棋類問題的解決而不斷提升,從 80 年代西洋跳棋開始,到 90 年代的國際象棋對弈,機器的勝利都標誌了科技的進步,決策系統可以在自動化、量化投資等系統上廣泛應用。

在大數據應用上,可以通過你之前看到的文章,理解你所喜歡的內容而進行更精準的推薦;分析各個股票的行情,進行量化交易;分析所有的像客戶的一些喜好而進行精準的營銷等。機器通過一系列的數據進行判別,找出最適合的一些策略而反饋給我們。

最後,說一下AI 的未來是怎麼樣?也就是人工智慧達到什麼程度?

在計算機視覺上,未來的人工智慧應更加注重效果的優化,加強計算機視覺在不同場景、問題上的應用。

在語音場景下,當前的語音識別雖然在特定的場景(安靜的環境)下,已經能夠得到和人類相似的水平。但在噪音情景下仍有挑戰,如原場識別、口語、方言等長尾內容。未來需增強計算能力、提高數據量和提升演算法等來解決這個問題。

在自然語言處理中,機器的優勢在於擁有更多的記憶能力,但卻欠缺語意理解能力,包括對口語不規範的用語識別和認知等。人說話時,是與物理事件學相聯繫的,比如一個人說電腦,人知道這個電腦意味著什麼,或者它是能夠幹些什麼,而在自然語言里,它僅僅將"電腦"作為一個孤立的詞,不會去產生類似的聯想,自然語言的聯想只是通過在文本上和其他所共現的一些詞的聯想, 並不是物理事件里的聯想。所以如果要真的解決自然語言的問題,將來需要去建立從文本到物理事件的一個映射,但目前仍沒有很好的解決方法。因此,這是未來著重考慮的一個研究方向。

當下的決策規劃系統存在兩個問題第一是不通用,即學習知識的不可遷移性,如用一個方法學了下圍棋,不能直接將該方法轉移到下象棋中,第二是大量模擬數據。所以它有兩個目標,一個是演算法的提升,如何解決數據稀少或怎麼自動能夠產生模擬數據的問題,另一個是自適應能力,當數據產生變化的時候,它能夠去適應變化,而不是能力有所下降。所有一系列這些問題,都是下一個五或十年我們希望很快解決的。

未來,我們需要去探討:

(1)創造力,對於創造力目前有一定的方法慢慢研究,從而使機器開始具有人的一些創造力。但它的通用性受限,特別是對物理事件的理解,只有把這些問題解決了,才有可能造出像人一樣的機器人,成為人的意義上的智能。

(2)學科交叉融合,未來需要探索更多的演算法和交叉科學上等等的一些融合。所以人工智慧在下一個階段既有非常廣闊的應用前景,也有很多挑戰。

最後在此分享下2017騰訊「雲+未來」峰會,由騰訊發起的「雲+未來」峰會將於2017年6月21日在深圳盛大舉行。本次峰會由馬化騰先生領銜,雲集國際知名科學家、產業家、創新家,探索人工智慧與產業結合的新趨勢。


謝邀。

針對這個問題,我們邀請了微軟亞洲研究院機器學習組的首席研究員劉鐵岩博士,為大家帶來他眼中人工智慧現狀,包括面臨的挑戰與機遇。

微軟亞洲研究院機器學習組包含機器學習的各個主要方向,在理論、演算法、應用等不同層面推動機器學習領域的學術前沿。該組目前的研究重點為深度學習、增強學習、分散式機器學習和圖學習。其研究課題還包括排序學習、計算廣告和雲定價。在過去的十幾年間,該組在頂級國際會議和期刊上發表了大量高質量論文,幫助微軟的產品部門解決了很多複雜問題,並向開源社區貢獻了微軟分散式機器學習工具包(DMTK)和微軟圖引擎(Graph Engine),LightLDA、LightGBM等,並受到廣泛關注。該組正在招賢納士,誠邀各路英雄好漢加盟,共同逐鹿AI天下。聯繫我們。

——這裡是正式回答的分割線——

要說人工智慧發展到了什麼程度,我們先來看看人工智慧的歷史進程

人工智慧從1956年的達特茅斯會議開始,到現在61年的歷史,發展過程中風風雨雨,可以看到幾起幾落,至少我們經歷過兩個所謂人工智慧的冬天。

每一次人工智慧的崛起都是因為某種先進的技術發明,而每一次人工智慧遇到了它的瓶頸,也都是因為人們對於人工智慧技術的期望太高,超出了它技術能達到的水準。所以政府、基金會等撤資,導致了研究人員沒有足夠的資金去從事研究。

那麼今天我們處在一個什麼階段呢?有人說現在是人工智慧的春天,有人說是夏天,還有人悲觀一點,說是秋天,秋天的意思就是冬天馬上就來了。作為人工智慧的學者,我們該怎麼看待這件事情,我們能做些什麼?不管大家怎麼預測,至少今天還是一個人工智慧的黃金時代。

為什麼這麼講呢?接下來先給大家展示一些最近人工智慧取得的成果,確實是之前十幾年我們完全想不到的。

首先,我們講人工智慧在語音方面的突破,人工智慧在語音識別,語音合成上面最近都取得了非常矚目的結果。2016年10月份由微軟美國研究院發布的一個語音識別的最新結果實現了錯誤率為5.9%的新突破,這是第一次用人工智慧技術取得了跟人類似的語音識別的錯誤率。

其次,在圖像方面,人工智慧也有很多長足的進步,比如圖像識別的ImageNet比賽,用計算機去識別數據集中1000個類別的圖像。在2015年,來自微軟亞洲研究院的技術——ResNet,獲得了2015年ImageNet的冠軍,錯誤率是3.5%,而人的錯誤率大概是5.1%。所以可看出在特定領域、特定類別下,其實計算機在圖像識別上的能力已經超過了人的水平。2016年我們微軟亞洲研究院再接再勵,在比圖像識別更難的一個任務——物體分割上面取得了冠軍。

除了語音和圖像以外,其實人工智慧在自然語言上面也取得了很大的進展。左邊這張圖描述了各大公司都在不斷地提高各自語音機器翻譯的水準和技術,右邊這張圖展示的是去年12月微軟發布了Microsoft Translator的一個新功能,它支持50多種語言,可以實現多個人多種語言的實時翻譯,比如大家每個人可能來自不同的國家,只要拿著手機用這個APP我們就可以互相交流。你說一句話或者輸入文字,對方聽到/看到的就是他的母語。

前面說的這些語音、圖像、語言,聽起來還都是一些感知方面的東西。大家也知道,最近這段時間,人工智慧在一些傳統我們認為可能很難由機器來取得成功的領域也獲得了突破。比如左邊這張圖描述的是用人工智慧技術來打遊戲,大家可以看到這個敲磚塊的遊戲,在120分鐘訓練的時候,人工智慧就找到了很有效的得分的途徑。當我們繼續去訓練這個人工智慧的機器人,到了240分鐘以後,它又達到了那種所謂骨灰級玩家的水準,它發現了一些平時我們自己都玩不出來的竅門。

右邊展示的是圍棋比賽,大家都知道AlphaGo非常火,使用了深度增強學習的技術,經過了非常長的訓練時間,引用了大量數據做self-play,最終是以壓倒性的優勢,4:1戰勝了當時的世界冠軍李世石。在去年的IJCAI上面,AlphaGo主要的開發人員做了一個keynote,說自戰勝了李世石之後,AlphaGo並沒有停下腳步,因為它是一個self-play的process,可以繼續訓練,只要給他足夠的運算時間和樣例,它就可以不斷地去訓練。所以也能理解為什麼今年年初Master重新回到大家視野里,可以對圍棋高手60連勝,因為這個差距太大了。

這些事情都是以前人們覺得人工智慧不可以去企及的領域。但正是因為這些計算機科學家、人工智慧科學家不斷地去模仿人的決策過程,比如他們訓練了value network,訓練了policy network,就是怎麼樣根據現在的棋局去評估勝率,去決定下一步該走什麼子,而不是走簡單的窮舉,用這些value network來對搜索樹進行有效的剪枝,從而在有限的時間內完成一個非常有意義的探索,所有這些都是人工智慧技術取得的本質的進展,讓我們看到了一些不一樣的結果。

說了人工智慧的這些輝煌之後,其實有很多問題是需要我們去冷靜思考和回答的。

我們的主題是開啟智能計算的研究之門,我想從一個研究者的角度跟大家討論一下我們還能做些什麼,甚至是更有意義的是去做些什麼。人工智慧表面看起來很火,其實如果把這張魔術的檯布展開,你就會發現它千瘡百孔,各種各樣非常基礎的問題其實並沒有解決,甚至有很多哲學的方法論的東西從我們的角度來看可能也不準確。

面對這樣的情況,更有意義的事情可能是冷靜下來,去從事一些能夠改變人工智慧現狀以及未來的很本質的基礎研究工作,甚至是去反思人工智慧發展的路線圖,看看我們是不是應該重啟一條道路。這些事情才能使得我們不僅僅是隨波逐流,不僅僅是變點現,騙點錢,而是在人工智慧發展的真正道路上留下我們自己的足跡,過了幾十年當大家回憶的時候,另外一個人站在台上講述人工智慧一百年的時候,他會在那個圖上標著一個星星,那裡面講的是你的故事。

前面這些人工智慧現象的背後是什麼?說到技術層面,現在最火的兩個詞,一個叫Deep Learning(深度學習),一個叫Reinforcement Learning(增強學習)。深度學習是什麼?通俗地講,它就是一個端到端的學習,我們不需要一些feature engineering,而是用一個非常複雜的、容量很大的模型去直接擬合輸入輸出,讓模型自己探索有意義的中間表達。

什麼是增強學習?通俗地講,就是學習機器不斷地跟環境做自主的互動,在互動的過程中用長遠的收益來指導當下該做什麼決策,通過不斷的跟環境互動去調整決策的最優性。

之所以現在深度學習和增強學習能夠取得很大的成功,背後有一個很大的原因,就是基於巨大的數據和巨大的運算量訓練出的擁有巨大容量的模型,所以它們的成功離不開硬體系統,這也是為什麼現在GPU這麼火,包括雲計算、多機協作已經成了我們必不可少的環節。

這是現在人工智慧的現狀。面對這樣的現狀,我們是按照大家指定的這條道路去走,多搞幾個GPU去訓練一些模型跟別人PK,還是反思一下這條路對不對,有沒有什麼問題,接下來我想跟大家討論的就是人工智慧的諸多問題。我只列了一些其中的代表,但其實問題遠遠不止這些。

第一件事,現今的人工智慧技術,尤其是以深度學習為代表的,需要大量的標註數據,來讓我們能夠訓練一個有效的模型,它不太依賴於人的先驗知識,要learning from scratch。如果想從零開始學習就需要有大量的樣本提供規律。比如,圖像分類,現在通常會用上千萬張圖像來訓練;語音識別,成千上萬小時的有標註的語音數據;機器翻譯一般都是在千萬量級的雙語語對上去做訓練,這樣的數據之前是不可想像的,但是我們這個時代是大數據時代,所以有了這些數據,就使得深度學習訓練成為了可能。但這是不是一劑萬能的靈藥呢?其實在很多領域裡是不可能或者是很難獲得類似的數據的。比如醫療上面,很多疑難雜症,全世界也沒有幾例,那怎麼能夠對這個類別搜集大數據。所以從這個意義上講,如果我們能夠找到一種方法克服對大的標註數據的需求,我們才能夠使得現在的人工智慧技術突破目前數據給它劃定的邊界,才能夠深入到更多的領域裡面去。

第二個挑戰是關於模型大小以及模型訓練難度的問題,前面提到了深度神經網路有很多層,而且一般參數都很大,幾十億的參數是家常便飯。面對這樣的網路,至少有兩個困難,一個是我們經常提到的梯度消減和梯度爆炸的問題,當深層網路有非常多層次的時候,輸出層和標籤之間運算出來的殘差或者是損失函數,是很難有效地傳遞到底層去的。所以在用這種反向傳播訓練的時候,底層的網路參數通常不太容易被很有效的訓練,表現不好。人們發明了各種各樣的手段來解決它,比如加一些skip-level connection,像我們微軟亞洲研究院發明的ResNet技術就是做這件事情的,還有很多各種各樣的技巧。但這些其實都只是去解決問題的技巧,回過頭來,原來的這個問題本身是不是必要的,是需要我們反思的。

再有就是模型爆炸。前面說了幾十億的參數是家常便飯,幾十億甚至上百億個參數意味著什麼,意味著模型本身的存儲量是非常大的。舉一個簡單的例子,如果我們用神經網路來做語言模型,給出的訓練數據集是Clueweb整個網路上的網頁,大概有十億個網頁的量級。 這樣的一個數據,如果要去用循環神經網路去訓練一個語言模型,簡單計算一下就會知道,它需要用到的模型的大小大概是80G到100G的大小,聽起來好像不太大,但是現在主流的GPU板上的存儲24G已經算是高配,換句話說,80G到100G的大小已經遠遠超過一個GPU卡的容量,那麼就一定要做分散式的運算,還要做模型並行,有很多技術難度在裡面。即便有一個GPU卡,能夠放下這80G或100G的模型,如此大的訓練數據過一遍也可能要用上百年的時間,這聽起來也相當不靠譜。到底需不需要這麼大的模型,有沒有必要我們非要把自己放在一個內存也不夠用,計算時間也非常長,也不能忍受的境地呢,這個是值得思考的問題。

說到大模型,標註數據很大,那必然要提到分散式運算,分散式運算聽起來是一個相對成熟的領域,因為系統領域已經對分散式計算研究了很多年。但是回到我們分散式機器學習這件事情上是有所不同的:這裡我們做分散式運算的目的是為了讓我們能夠用更多的資源來容納更大的模型,使得運算的時間縮短到能接受的程度,但是我們不想丟掉運算的精度。

舉個例子,原來用上百年的時間可以得到一個非常精準的語言模型,現在有100台機器,雖然算的很快,但出來的語言模型不能用了,這件得不償失。

說到分散式運算有兩個主流的方式,一個是同步的並行方式,一個是非同步的並行方式。同步的並行方式是什麼,就是很多機器都分了一個子任務,大家每計算一步之後要互相等待,交換一下計算的結果,然後再往前走。這個過程能夠保證對整個分散式運算的流程是可控的,可以知道發生了什麼,在數學上可以做建模,能夠在理論上有所保證。但它的問題就是所謂的木桶原理,這個集群裡面只要有一台機器很慢,分散式運算就會被這台機器拖垮,就不會得到好的加速比。

所以人們開始做非同步的並行方式,非同步的意思就是每台機器各自做自己的事情,互相不等待,把當前按照各自的數據訓練出來的模型更新推到某一個伺服器上,再更新整體模型。但這時候又出現了一個新的問題,就是亂序更新的問題,這個過程是不能被我們原來的數學模型所描述的,違背了優化技術的一些基本假設。比如當我們使用隨機梯度下降法的時候,可以證明當時用一個不斷減小的學習率時,優化過程是有收斂性的。這是因為我們每一次增加的那個梯度是在上一次計算的模型基礎上算出來的梯度。一旦加上去的梯度可能是舊的,不是依據前一個模型算出來的,到底優化過還能不能收斂,就不那麼清楚了,所以雖然速度快,精度卻可能沒有保證。

第四個,我把它叫做調參黑科技,難言之隱。這件事情特別有趣,我前一段時間參加過一個論壇,一位嘉賓的一句話給我印象特別深,他說大家知道為什麼現在很多公司都有深度學習實驗室嗎,以前沒聽說過有一個叫支持向量機實驗室的,為什麼?這是因為像SVM這樣的技術訓練過程非常簡單,需要調節的超參數很少,基本上只要按部就班去做,得到的結果都差不多。

但深度學習這件事情,如果不來點調參黑科技,就得不到想要的結果。所謂深度學習實驗室,就是一批會調參的人,沒有他們深度學習就沒那麼好用。雖然是句玩笑,但是深度學習力要調的東西確實太多了,比如說訓練數據怎麼來,怎麼選,如果是分散式運算怎麼劃分,神經網路結構怎麼設計,10層、100層還是1000層,各層之間如何連接,模型更新的規則是什麼,學習率怎麼設,如果是分散式運算各個機器運算出來的結果怎麼聚合,怎麼得到統一的模型,等等,太多需要調的東西,一個地方調不好,結果可能就大相徑庭。這就是為什麼很多論文里的結果是不能重現的,不是說論文一定不對,但至少人家沒有把怎麼調參告訴你,他只告訴了你模型長什麼樣而已。

下一個挑戰,叫做黑箱演算法,不明就裡。這不僅僅是神經網路的問題,更是統計機器學習多年來一直的頑疾,就是用一個表達能力很強的黑盒子來擬合想要研究的問題,裡面參數很多。這樣一個複雜的黑盒子去做擬合的時候,結果好,皆大歡喜。如果結果不好,出現了反例,該怎麼解決呢,這裡面幾億、幾十億個參數,是誰出了問題呢,其實是非常難排錯的事情。相反,以前有很多基於邏輯推理的方法,雖然效果沒有神經網路好,但是我們知道每一步是為什麼做了決策,容易分析、排錯。所以最近幾年有一個趨勢,就是把基於統計學習的方法和基於符號計算的方法進行結合,造出一個灰盒子,它既具備很強的學習能力,又能在很大程度上是可理解、可支配、可調整的。

到現在為止,這幾件事都是現在人工智慧技術層面的問題。接下來,談的是更像方法論和哲學的問題,僅為個人的觀點,跟大家一起分享。

其中一條,我叫做蠻力解法,捨本逐末。這句話什麼意思?剛才我提到過深度學習之所以這麼成功,是因為它有一個特彆強的表達能力,在歷史上人們證明過深層神經網路有universal approximation theorem,只要隱結點的數目足夠多,任意給一個連續函數,它都可以無限逼近這個函數,換言之,有了很強的表達能力,什麼問題都可以學的很好。聽起來好像是挺美好的事,但實際上它背後存在一個問題:它擬合的是數據的表象,數據表象可以非常複雜,但是數據背後驅動的規律是不是真的那麼複雜呢,如果我們只看到表象不去研究數據產生的本質,很可能你花了很大的力氣去擬合,但是浪費了很多時間,得到的結果也不魯棒。

舉個例子,我們發現大自然也好,人類社會也好,其實沒有想像的那麼複雜,雖然你看到的很多數據很複雜,它們背後的規律可能非常簡單。像量子力學有薛定諤方程、量子化學、流體力學、生物遺傳學、經濟學、社會學也都有類似的簡單方程,科學家發現那麼紛繁複雜的現象都可以被一個動態系統所刻劃,而動態系統背後的規律可能就是一個最高二階的偏微分方程。大家可以想像,如果不知道這些機理,不對動態系統做建模,只對動態系統的產出數據做建模,就會覺得這個問題非常複雜,要有一個容量非常大的神經網路去逼近這個數據。但反過來,如果目光焦點在這個動態系統身上,可能就兩三個參數的一個二階微分方程就搞定了。

下面也是一個值得思考的問題——動物智能,南轅北轍,雖然前面提到人工智慧產生了很多的進步,但其實目前所做的還主要是認知的事情,做一個Pattern Recognition,聽聽聲音,看看圖像,這是動物也能做的事。今天的人工智慧沒有回答一個關鍵的問題,就是動物和人的區別。可能有人會講,據說猴子的大腦比人的大腦小很多,有可能是體量的不同。但人的祖先跟大猩猩在包容量上應該沒有本質的區別,那到底為什麼經過漫長的進化,人能成為萬物之靈主宰地球了呢?

我自己的觀點是因為人類發明了很多動物界沒有的機制和規律。比如我們有文字,我們可以把我們對世界的認知,總結出來的規律寫下來,把它變成書,變成資料傳給我們的下一代。當老一輩的人去世之後,孩子們讀讀書,就掌握了之前幾百年幾千年人們對世界的認識。但是老一代大猩猩死掉之後,它的孩子就要從頭學起。另外,我們人類有強大的教育體系,人從幼兒園開始,小學,中學,一直進入大學,用了十幾年的時間,就把幾百年、幾千年的知識都掌握在身上了,可以站在巨人的肩膀上繼續往前走,這非常了不起。好的老師,會教出好的學生,教學相長,薪火相傳。

這些人類的精髓在今天的人工智慧技術裡面是並沒有充分體現,而沒有它們我們怎麼能指望深度神經網路達到人的智商呢?

前面列了很多方面,是我們對人工智慧領域的一些看法,不管是從技術層面,還是方法論層面,都有很多值得進一步挖掘的點,只有這些問題真正解決了,人工智慧才可能穩穩妥妥的往前走,而不只是曇花一現。

基於這些考慮,我所在的微軟亞洲研究院機器學習組,對研究方向做了一個相應的布局,比如對偶學習,它解決的就是沒有大規模標註數據的時候,該怎麼訓練一個神經網路、怎麼訓練一個增強學習模型。該論文發表在去年的NIPS大會上,獲得了很大的反響。

還有,我們叫精深學習(Light Learning),為什麼叫Light?前面提到很多模型太大,放不到GPU里,訓練時間很長,我們這個研究就是去回答是否真的需要那麼大的模型。我們展示了一個很有趣的深度學習演算法,叫Light RNN,用該技術,只需要用一個非常小的模型在幾天之內就可以把整個Clueweb數據學完,而且它得到的結果要比用大模型訓練很長時間得到的結果還要好。

並行學習,之前提到並行學習有很多同步非同步之間的權衡,我們發明了一個技術,它有非同步並行的效率,但是能達到同步並行的精度,中間的技術解決方案其實很簡單,在網上也有論文。我們用了泰勒展開,一個非常簡單的數學工具,把這兩者給結合在一起。

符號學習,就是想去解決黑白之間的那個灰盒子問題。

自主學習,是想去解決深度學習調參的黑科技,既然調參這麼複雜,能不能用另外一個人工智慧演算法來調呢,能不能用增強學習的方法來調呢,所以我們做了一系列的工作來解決怎麼去調各種各樣的參數,怎麼用另外一個機器學習來做這個機器學習。

最後一個方向,我們叫做超人類學習,我們想受大自然的啟發,受人類社會發展的啟發,去使得我們的人工智慧技術接近人類,甚至超過人類,這背後是整個人工智慧方法論的變化。

如果大家感興趣,可以關注我們微軟亞洲研究院機器學習組,跟我們共同從事機器學習的基礎研究。

——這裡是回答結束的分割線——

感謝大家的閱讀。

本賬號為微軟亞洲研究院的官方知乎賬號。本賬號立足於計算機領域,特別是人工智慧相關的前沿研究,旨在為人工智慧的相關研究提供範例,從專業的角度促進公眾對人工智慧的理解,並為研究人員提供討論和參與的開放平台,從而共建計算機領域的未來。

微軟亞洲研究院的每一位專家都是我們的智囊團,你在這個賬號可以閱讀到來自計算機科學領域各個不同方向的專家們的見解。請大家不要吝惜手裡的「邀請」,讓我們在分享中共同進步。

也歡迎大家關注我們的微博和微信賬號(搜索:微軟亞洲研究院AI頭條),了解更多我們研究。

http://weixin.qq.com/r/PUliejrEzWeyrX4Z9xwv (二維碼自動識別)


說一下人工觸覺系統吧,之前有提過。

斯坦福大學的鮑哲南教授是2016年的MIT科技評論雜誌評出來的35個35歲以下的科技精英之一。

她有一項技術——有感覺的人造皮膚,也就是人工觸覺系統,特別牛。

這個系統的應用前景還是挺廣的,比如工業機器人,以前工業機器人的機器手是硬的,要拿一個雞蛋,很容易就夾碎。現在工業機器人還屬於嬰兒時期,不知道輕重,如果你有一個帶觸覺反饋的人造皮膚,那它就知道輕重了。如果能夠測試人體表面的電和壓力,就可以當可穿戴設備,看它舒適度如何,可以做實時測量。

另外,物聯網很大的一個特點是M2M機器和機器互動。機器和機器互動,互相有觸覺才能保證這互動是良性的,不然鐵碰鐵,設備容易損壞。所以未來如果各種各樣的設備上都有觸覺,人和各種各樣設備互動的時候都有觸覺作為媒介,那這個世界會變得豐富多彩很多。


雙十一剛剛過去,大家的手和錢包還好嗎?快遞都收到了嗎?找到好吃的土了嗎?

說到人工智慧,離我們最近的大概就是今年天貓的雙11了吧~有大量的人工智慧人參與到了這場剁手盛會中。

對人工智慧非常感興趣(以及對人類非常擔憂的我)最近正好也因為工作原因關注了下這些,不得不說,發展得真是。。有夠快速的。

雙11期間,我們會發現,同一時間手機淘寶里的出現海報banner都是不一樣的,是不是很想感嘆淘寶設計師這麼辛苦的嗎,不睡覺的做圖?

當然並不是這樣的啦(雖然淘寶的設計師還是很辛苦QAQ),事實是,今年雙11期間,淘寶banner全部出自一位特別的AI設計師 ——魯班。

在今年5月份發布超神「人工智慧設計師」魯班時,就已經公布了去年雙十一魯班搞定1.7億張Banner的數據,而今年,這個數字更超乎想像——有4億張Banner由魯班設計。

4億張什麼概念?每秒8000張。。。這速度讓加班作圖要禿的我們感覺到了深深的危機感,是不是有一天,我們會被更高效,維護成本更低,頭髮更茂密(???)的人工智慧取代呢?

人工智慧已經不再是科幻電影里的情節,它真實的出現在了我們身邊,也非常自然地得以應用----我們有理由相信「機器人每秒擼8000張海報」只是人工智慧進入日常生活的開始。

其實魯班的「養成」就和人腦的思考過程一樣,藉助了圖像深度學習,增強學習,蒙特卡洛樹搜索,圖像搜索等技術,AI設計實驗室團隊為魯班建立起一套由「圖像生成」到「成果評估」組成的系統化工程,其實就如同普通設計師(我本人,哭)一樣,魯班的工作從拿到需求開始,接著到草圖、框架、細節元素、系統評選最優方案,最終輸出消費者所能看到的成果--雙11上數億張最優商品展示,但和我們不同的是,它的效率遠遠高於我們。

魯班由學習網路,行動器,評估網路三部分組成,原理是經由人工智慧演算法和大量數據訓練,機器學習設計,輸出設計能力。

學習網路的基礎來源於設計師的創意設計模板和基本元素素材,設計師將大量設計素材進行結構化數據標註,最後經由魯班輸出空間+視覺的設計框架。行動器根據魯班收到的設計需求,從學習網路中抽取設計原型,並從元素中心中選取元素,規劃輸出多個最優生成路徑,完成圖片設計。最優的評判,則交由評估網路完成。

讓人類覺得意外的是,原本我們認為機械重複、缺乏創造力的職業最容易被人工智慧代替,而現在,人工智慧也能做創意類的工作了,而且做的非常優秀,也許,創意本身也來源於極大體量的信息收集和篩選。

當設計師還在抱怨:「設計真不是人乾的」時候,魯班告訴老闆:「以後設計真不用人幹了。」

當然,創意有好有壞,那些精妙地讓人嘆為觀止的創意,依舊只能來源於人類腦子宛如上帝提示般的靈光乍現。

再加一磅,魯班只是眾多雙11 AI物種中的一個,雙11背後還有許多像它一樣任勞任怨的AI員工: 比如「智能客服-店小蜜」、「數據中心AI調度官-達靈」…

最後的重磅是類似魯班這樣的AI技術,阿里不僅僅滿足於自用,很快,它們就會在市面上流通,那麼大量級的一個個人工智慧放在阿里雲上直接就賣…往後老闆真的可以招機器人了(島島再次哭著說,不過我這麼可愛,說不定我自己也是個AI呢)。


人工智慧13個細分領域及代表公司:

13個領域的公司數量:

13個領域的風險投資排名:

總結來說,各個方向都在發展階段,並且發展程度有高有低。以AlphaGo為代表的深度學習,現可以在圍棋方面超越一流棋手,但在麻將、鬥地主等領域並無太大進展。

視覺識別方面,人臉識別是研究熱點,並有部分應用。谷歌Artificial Neural Networks在識別普通圖像時,還不盡如人意。

機器人方面,日本很多家用機器人已經實用。谷歌Atlas已經能走會跳。技術進化還需要時間,產品普及還需要時間。

個人助手有幾家:蘋果Siri,微軟Cortana,谷歌在研發Majel;國內的科大訊飛靈犀語音助手,百度語音助手,搜狗語音助手等等。發展到什麼程度,你可以實際體驗。

各個領域還處於前期投資階段,行業爆發需要時間。AlphaGo酷炫是酷炫,但並不太實用。行業爆發需要一個iPhone 4這樣既酷炫又實用的跨時代產品出現。

對未來感到迷茫和無所適從?微信搜索未來知識圖譜(ID:futureknowledge),回復「投資未來」獲取《未來五年,這7個行業將爆發性增長》


所謂人工智慧(artificial intelligence,簡稱AI),最主要是兩個方向:

利用計算機強大的運算性能對大量數據進行分析,從近乎無數中方案中幫助人們選出最優;

利用計算機網路模擬人類的神經網路和認知(物質轉化為意識的嘗試),讓計算機模仿人類那樣思考,而其計算能力又遠高於人類。

兩次人機大戰,前者是「深藍」的思路,後者是「阿爾法狗」的思路。

一、強人工智慧與弱人工智慧

所謂圖靈測試是指,如果一台機器可以誘導一個人相信它也是一個人,那麼這台機器就具有智能(intelligence)。以圖靈測試為量度,以「圖靈機」為元載體,圖靈指出,大腦就是另一種形式的計算機,無論如何設計其人工智慧系統,這台計算機都可以做出類似人類的行為。因為,人類智力最光輝之處即在於對符號的處理,而計算機也能做到,稱為強人工智慧觀點。

1943年,麥克卡洛克和匹茨提出,大腦神經元的工作原理和門電路相似,神經元像集成電路一樣有著精確設計的迴路,從宏觀上看,這一結構使得神經元可以收集輸入的信息,決定輸出的信息,換言之,神經元——至少從理論上——可以實現數字電路的功能。海布進一步指出,腦皮層中任意給定點的活動量,都是所有其他點向其放電的趨勢之和,正比於該點被激活的次數,正比於激發的強度,正比於競爭點的缺少。

1956年,司馬賀與紐威爾提出「物理符號系統」假設,從信息加工的觀點研究人類思維,後來人們將此論文視為認知科學和人工智慧的濫觴。AI在其發展的初期,首先是得到了行為主義心理學的支持,該學派認為,儘管大腦內部的運轉過程是一個黑箱——不能直接打開,但可以通過測量其輸入和輸出——在此處是指外部環境和人在對應情形下的行為——研究其性質。

1980年,約翰·賽爾提出「中文屋」思想實驗:假設一個不懂中文的美國人身處一個與外界隔絕的房間,房間中放置了很多漢字,他一個都不認識,另外有一本漢字使用指導書。門外的中國人與他交流時,賽爾只需要根據使用指南選擇正確的漢字,並將漢字從門縫下面遞給外面的中國人。由於中間隔了一道門,中國人以為自己在和懂中文的人交流。

賽爾認為,儘管屋子裡的人甚至可以做到以假亂真,讓屋子外的人以為他是懂得中文的用戶,然而,他壓根就不懂中文。而在上面的過程中,屋子外的人所扮演的角色相當於程序員,屋子中的人相當於計算機,而手冊則相當於計算機程序。正如屋子中的人不可能通過手冊理解中文一樣,計算機也不可能通過程序來獲得對自然語言的理解能力,稱為弱人工智慧觀點。

賽爾的反對者們則認為,人是擁有智能的,其智能決策來自於腦細胞的電信號轉換,每一個腦細胞並不理解單詞的意義,只是簡單的緩衝、傳遞或抑制一個電信號,但是腦細胞創造了語法規則與決策策略,儘管它們並不懂每個單詞的意義。而人類卻能顯示出與人溝通的能力。如果按照賽爾的觀點,人類不存在認知能力,這與事實是不符的。所以依然可以認為若某段計算機程序,能夠完成圖靈測試,則說明該段計算機程序具有認知能力。

圖靈是從機械裝置出髮指出,如果可以模擬數理邏輯程序進行操作或運算,那麼,就可以應用該裝置模擬理解自然語言;賽爾則是從假想實驗的純邏輯思維的角度來分析圖靈測試(也可視為是圖靈的假想實驗)並認為,即使通過圖靈測試,也並不能夠證明圖靈機即計算機可以像自然人一樣理解中文(至少一個只懂英文而不懂中文的人都不能做到)。如果我們回望中文屋實驗的全過程,我們會發現,其中並不存在「認知」過程的發生。這意味著,我們必須首先理清「認知」的眉目,這樣才能斷言一個系統是否是智能的,單從表面的行為是找不到答案的。例如,在你讀這篇文章之時,別人是無法判斷你是否理解了這篇文章的。別人可以在事後提問,但你的文章的理解就發生在你閱讀的同時。這意味著,理解是無法用外部行為來量度的,它是對大腦如何記憶和利用這些記憶的內部量度。

因此,對於大腦的解讀是必須的,並且解讀應該基於三個基點。首先,大腦所處理的輸入輸出的信息流都不是靜止的,因此大腦本身也不可能是靜止結構,而只能是開放的、時變的動態結構。其次,大腦是浸潤在反射——從更普適的角度來說就是反饋——之中的,在大腦中存在著多樣的基於反饋的控制系統。此外,對於大腦的解讀必須和大腦的物理結構與生化性質自洽。

在1985年前後的一段時間,神經網路風靡矽谷,其研究人員——又被稱為連接主義者——希望通過對神經元的研究讓AI不可捉摸的特性變得清晰,並且通過複製海量神經元間的連接,讓一些那時還束手無策的問題得以解決。與處處需要編程的AI不同,神經網路是可以基於事例學習的。

自匹配記憶(self-associative memories)也在此間被提出,它也是由相互連接的神經元構成,在達到某個臨界點時可以自動激活,並可以將輸出傳回輸入,這一模式與大腦有以下共同點:那就是要檢索某個模式,不必擁有其全部,而只需擁有某一部分,也能達到正確的結果,就像你去銀行用一張破損的100元換一張完整的100元一樣。因此,自匹配記憶可以存儲多序列模式,輸入序列的一個部分,它也能將其他部分回憶起來,就像你只要看到「床前明月光」就能聯想到這首詩的後面三句一樣。

圖形處理器(GPU)是為了滿足快速處理圖片的需求而添加的並行式晶元,到了2009年,吳恩達率先提出GPU可以並行運行神經網路,而如今,這已經被當做常規技術進行使用。當神經網路中的某一「末梢」被發現能夠觸發下一層網路的反應,就像手指碰到了開水,那麼這一結果將被傳遞到下一層級進行解析,就像「被燙著」的信號被傳給大腦,指令人將手指縮回。2006年深度學習演算法的發明,大大加快了傳遞信號的速度。在上述兩大技術投入實際之後,人工智慧得到了迅猛的發展。

我們說,如果把人工智慧比作一台汽車,那麼學習型演算法和大數據就分別是它的引擎和燃料。我們可以教授人工智慧玩遊戲的方法,那就是讓它學習和模仿我們是如何玩遊戲的,這將更有助於發揮計算機驚人的運算能力的優勢。人工智慧將把人類從重複乏味的繁重勞動中解放出來,而使得人可以將更多精力花在那些獨特而富有創造性的勞動上,首先是提高人類的生活品質,這是人工智慧無法替代人類之處。其次,人工智慧更有可能開拓那些以人類的能力不可能完成的勞動和那些人類希望達成卻不知其步驟的勞動。

二、智能設備

機器人是智能設備的典型,早在1950年,美國著名科幻小說家阿西莫夫在他的小說《我是機器人》中,提出了著名的「機器人三守則」:

機器人必須不危害人類,也不允許它眼看人將受傷害而袖手旁觀;

機器人必須絕對服從於人類,除非這種服從有害於人類;

機器人必須保護自身不受傷害,除非為了保護人類或者是人類命令它做出犧牲。

美國斯坦福大學的Roth認為:「所謂機器人是一種與人,其他動物或機器聯合做事的機器,它有自動和半自動的兩形式。機器人和其他自動化機器不太容易區別清楚,但它改變快,商品傾向較強,其含義也隨時間的推移而改變」。

美國K.J.Waldron提出如下定義:「所謂機器人是一種具有較多自由度,靠與機構有介面的主動系統進行決策和控制運動的機械。這裡所提的主動系統是指工業機器人中計算機控制的伺服驅動器,或是指遙控操作機中,作為系統一部分的控制操縱桿的操作者。」

另一位科學家Wolovich給出的定義是:「機器人是可再編程的多功能操作機,用各種編程的動作完成多種作業,用於搬運材料、工件、工具和專用裝置。」

我們統整上述觀點,給出如下定義:機器人是一種在計算機控制下的可編程的自動機。根據所處的環境和作業的需要,機器人具有至少一項或多項擬人功能,如抓取功能或移動功能,或兩者兼而有之,另外還可能程度不等的具有某些環境感知功能(如視覺聽覺觸覺接近覺等)以及語言功能乃至邏輯思維,判斷決策功能等,從而使它能在要求的環境中代替人進行作業。

機器人是一種典型的集成技術。它的覆蓋面非常之廣,什麼合用就用什麼。現在新材料、生化技術、新能源、下一代互聯網和MEMS技術等已經成為機器人技術的新寵。以機器人技術為代表的集成技術,其發展與進步一定會得益於一系列的核心技術的逐步成熟。就集成技術本身而言,最關鍵的就是系統設計和尋找應用的突破點。

第一代機器人主要是指只能以「示教——再現「方式工作的順序控制機器人,以1962年AMP公司和Unimation公司的「Versatran」與「Unimat」為起始產品。目前國際上商品化、實用化的機器人大都屬於第一代機器人,但是它們的技術進步也是很顯著的。它依靠人們給與程序,進行多種重複操作。由於其不具有感測器的反饋信息,因此不能在作業過程中從外界不斷獲取信息來改善自身的行為品質,故其應用範圍和精度受到限制。

第二代機器人具有一定的感覺裝置,能獲取作業環境、操作對象的簡單信息,通過計算機處理、分析,能作出一定的推理,對動作進行反饋控制,表現出低級的智能。由於其信息處理系統的龐大與昂貴,第二代機器人目前只有少數可以普及應用。

第三代機器人是指具有高度適應性的自製機器。它具有多種感知功能,可進行複雜的邏輯思維,判斷決策,在作業環境中獨立行動。

人身體的每一個細胞的壽命相比人的壽命而言都是短暫的,現在你身上的細胞也許和三年前全部不同,那麼能因此說現在的你和三年前的你不是同一個人嗎?由此我們可以推論,只要一個原子在你身體形成中發揮了作用,它就和其他任何原子同等重要。並且我們也可以說,如果一個人造系統採用了與大腦相同的智能結構,它就可以和大腦一樣具有智能。

如果我們要讓一個機器人接住拋來的球,那麼需要做這幾步。第一,計算球的飛行軌跡,從而確認它到達機械臂的位置。第二,調整機械臂的各個關節,使之達到合適的位置。第三,循環進行以上兩步,因為不可能等到球飛到預定位置時再進行調整,那太遲了,只有在還不十分清楚球的預定位置時就行動,並隨著球的接近而不斷調整。這一過程當然地涉及到複雜的數學運算和編程工作。

而人是怎麼做的呢?人腦儲存著抓住球所需的命令記憶和其他許多習得行為,當人看到球,合適的記憶被自動喚起,這個記憶引發一連串肌肉命令,被取出的記憶也根據實際情形進行調整。接球的記憶不是經過數學計算得來的,也不是被編程編入大腦的,而是通過不斷學習和訓練習得的。

嵌入式的微型傳聲器、攝像機、感測器給計算機提供的形象化特徵為的是讓設備能夠聽到我們、看到我們、感受到我們,語音識別是目前進展最快的一部分。智能設備的晶元與雲端相連,將用戶在現實世界中的行為投射到虛擬世界中,將可以從在用戶看來庸常的海量數據中感受到用戶的溫度。互動頻率的增加會使用戶更加欣賞設備的互動式特徵,例如,智能襯衫可以測量出用戶的姿勢並以量化方式記錄下來,使得布料按照用戶喜歡的方式伸展。更加大膽的想法是,將晶元直接植入人腦,以增益人的感知機能,或曰讓人類跳進感知技術自身,其全過程是反覆的沉浸-跳出式體驗。

智能手機的巨大成功推動屏幕質量的提升,使得虛擬現實倏忽間成為現實,其清晰度和友好性大大增強。現場感和互動效果是虛擬現實技術的兩個亮點。

這意味著,在屏幕中,圖象浮動於文字之上,複製和粘貼、點擊超鏈接和觀看附帶的視頻成為簇新的形式。材料的革新、虛擬現實和增強現實技術的發展將使得屏幕以更加多樣的方式在我們的生活中扮演不可或缺的角色。

這還意味著,在未來,光場投射技術可能取代屏幕呈現,用戶將無需佩戴眼罩等設備,投射的場景可以與你身處的場景疊加,即增強現實。投射的場景不會因為觀察者與之距離的改變而模糊或變形,並呈現出栩栩如生的立體感。成熟的可視化技術的竅門在於可檢索性,電子技術和演算法程序的革新推動信息被不斷壓縮。

三、人腦與電腦

神經元將輸入信息整合大約需要5毫秒,而一台計算機可以在一秒內完成10億次計算,也就是說,計算機的計算速度是神經元的500萬倍。但是為什麼人腦比電腦的功能強大得多呢?有人說,這是因為大腦是一個並行計算設備,也就是說,幾十億個細胞同時進行計算。但是我們想一想看,人在一秒之內便可以完成的任務——例如識別一張照片上的動物是不是貓——對於計算機而言卻難於上青天。這意味著,大腦在兩百步之內「計算」出了問題的答案並且輸出,而計算機進行兩百步計算甚至還不能在顯示器上移動一個字元。

假設你要把十塊大石頭從北京搬到天津,要走兩百萬步,你一次只能搬一塊。現在你雇了九個人和你一起搬,效率相當於原來的十倍,但你還是要耗費不少於走兩百萬步所需的時間,你不可能因為雇了幾個人就可以走兩百步從北京走到天津。那麼,人腦是怎樣在兩百步之內完成了計算機兩百萬步甚至兩百億步才能完成的工作呢?唯一的解釋是,人腦根本就不需要計算,它只是從記憶的匣子中「取出」答案,就像中藥師從葯櫃里抓藥一樣。

多數時候,電腦或手機是不會察覺我們正在使用它們而做出響應的,一種發展的方向是,電腦和手機通過追蹤人眼的動作來判定人們想要用它們做什麼,或者通過採集人的指令聲音而明白自己該怎樣做。進而,網頁的擁有者可以知道讀者的目光在網頁的哪一部分停留目光的時間更長。交警也可以利用這一技術,偵測駕駛員是否走神。設備被用來識別人臉,並深入到眼睛的虹膜層面,作為新的身份驗證方式。

進一步,設備可以被用來偵測人的表情——以掃描特定點的肌肉變化的方式——然後作出響應,例如,在你用電腦閱讀一本英文書時,當你的目光掃過某個生詞,你會表現出困惑的神情,此時電腦將能顯示這個詞的釋義。又例如,如果你在看一部電影的某個橋段時顯示出無聊的神情,電腦將能夠自動跳過這一橋段。

人腦按照時間順序存儲記憶。例如對於一首歌曲,你可以從前奏開始,也可以從副歌開始,一個音符一個音符地把它哼唱出來,但是你只能從前往後唱,不可能從後往前唱,因為你聽到這首歌時,它的順序就是這樣的。

假如你看到一塊白色的石頭,摸一摸它,又會知道它是堅硬的。中國戰國時期有個叫公孫龍的人,他說你如果閉上眼睛去摸石頭,那你知道石頭是堅硬的,卻不知道它是白的,如果你只看不摸,那你知道石頭是白的,卻不知道它是堅硬的。公孫龍據此斷言,一塊石頭不能既是堅硬的又是白的,這當然是站不住腳的,因為石頭的「白」或「堅」的性質不因為你看不到或者摸不著就不存在,而你單純摸到的或單純看到的又只是存在於石頭中的一個方面,而石頭本身是存在的,因而「堅」和「白」是兼具的,不可分離的。基於同樣的原因我們說,人對記憶的不同部分的存儲也是不可分的。

當你閱讀這篇文章時,改變照明的燈光、屏幕的亮度、或者你的坐姿,投射在你視網膜上的光的模式就會變得截然不同,因此進入你大腦的模式也不相同,那麼你會認為你在這一時刻和下一時刻讀的是兩篇不同的文章嗎?這就是說,這篇文章在你大腦里的「表徵」是恆定的,不隨外部環境變化而變化。

卡爾·薩根曾說,對於事物的理解並不會折損其神秘性,反而隨著理解的加深,我們將越發能夠適應我們在宇宙中的角色。同樣,理解了我們的大腦如何變得智能,也不會折損萬物與我們自身的神奇,而只會因其運用於AI等領域,推動這些領域更上一層樓時,使得我們驚嘆不已。參見

思維的巴別塔:語言、認知與心理學 http://zhuanlan.zhihu.com/p/23842280

克勞德·香農與資訊理論的前世今生http://zhuanlan.zhihu.com/p/20841617

記憶的本質是什麼? - Calvin Shi 的回答 - 知乎

四、人機交互

在未來,化學家將能藉助人工智慧在數以百萬計的化學物質中進行選擇,決定將哪些物質用來反應,以產生需要的產物,或者篩選出效率更高的催化劑。律師將能藉助人工智慧在堆積如山的文件中尋找有價值的證據;金融家將能藉助人工智慧分析股票的漲落以及如何分配本金使獲利最大;人們將能藉助智能演算法合成出個性化的音樂,VOCALOID將更加栩栩如生;洗衣機自動識別衣物,確定最優的洗滌方案;自動駕駛汽車在考慮行車速度前優先考慮司機和行人的安全。

斯坦福大學的渥維克(Wolovick)認為,人工智慧不是對計算機進行研究,而是對思維和行為所體現的智能進行研究。計算機通常是智能的工具,因為智能理論一般通過計算機程序表達出來,使計算機能夠做那些人類需要使用智能去做的事情。

在人與計算機的交互過程中,計算機是否能夠體會人的喜怒哀樂,並見機行事呢?情感計算研究試圖對此作出解答;情感計算研究的發展在很大程度上依賴於心理科學和認知科學對人的智能和情感研究取得的新進展。通過計算科學與心理科學、認知科學的結合,研究人與人交互、人與計算機交互過程中的情感特點,設計具有情感反饋的人與計算機的交互環境,將有可能實現人與計算機的情感交互。美國電影《她》就描述了一個「人機戀」的故事。

在網路世界中,複製品又會產生新的複製品,如同惠更斯模型中不斷擴大的波陣面,而其速度更快,門檻更低,更重要地,複製品可以被不斷強化,因為它是開放的。混雜的信息在此過程中匯聚成信息流,相互的流動形成雲端。如果某樣事物是免費的,那麼它就會無所不在,它的地位就會倏忽反轉。免費的人工智慧技術和網路上的免費公共內容一樣,更能滿足商業和科學的需求,並且很快就能自給自足。

所以我們說,真正的人工智慧不太可能誕生於獨立的電腦上,而將誕生於互聯網中,猶如人不能自絕於社會。人工智慧就像所有雲端化的事物一樣,同時為世界各地的用戶提供服務,隨著人們的使用而自我改進,將在這一項目的經驗用於另一項目,匯聚成一條智能的河流。正如麥克盧漢提出,新媒介最初的形態,是模仿它所取代的媒介。數字化媒介如同可隨著容器形狀而變形的流體,提供了更多的可能,釋放出更大的創造力。

而所謂物聯網,其設計是用來追蹤數據,這個世界上持續增長最快的就是信息量,其中大部分沒有被追蹤。我們會生產出生產信息的信息——元信息,這導致了信息量的飛升。巨大的量的積累會產生質變,如同大量微觀粒子運動的不確定性在宏觀上表現為我們可以認為恆常的物理定律,用概率論來闡釋的微觀粒子的運動在宏觀上可以以因果長鏈來描繪。

事實上,攜帶型設備能夠追蹤用戶,以量化信息的形式存儲進雲端,這種流動信息被稱為生活流(lifestream)。生活流是按時間順序排列的文檔流,是一種新型的計算機組織方式,那就是以基於時間順序的流替代桌面。不同用戶的生活流當然會有交叉,從而使得流從宏觀上顯現出意想不到的性質。社交網路中的時間線設置是生活流思想的體現。

但更重要的是,生活流是主動的、有意識的追蹤,這條溪流的流速快慢是由用戶來決定的。被動的、無意識的追蹤,這種信息流動被稱為生活記錄(lifelogging),由於大部分內容永遠都用不上,生活記錄是一個包含巨大浪費的低效過程。由於計算、存儲和感測設備十分廉價,這種浪費的代價很低,但是,對於計算和存儲的創造性浪費可以發掘出新的價值。

當然,當信息的河流變得廣闊而湍急以至於泥沙俱下時,有效的過濾當然是必要的,搜索引擎就是強力的過濾器。信息的豐富和善變導致了注意力的缺乏,靜得下心、沉得住氣、耐得住寂寞,在現代社會更顯重要。過濾也會被應用到個性化的定製(customization)過程中,所有被當做商品的事物都可以被過濾掉。在網路上,廣告的擺放位置與其含有的關鍵詞的價值、廣告商願意支付的費用和讀者點擊廣告的表現水平——與當時當地密切相關——相匹配。

五、科技與未來

我們知道,科技是人類社會發展的催化劑。科學方法——或曰科技本身的流程——比科技的進展更加重要。當下,我們正在由一個「名詞世界」進入到「動名詞世界」,始終正在進行一個動態的流變(deformed flowing)的發展過程,產品變成生產者端的流程和消費者端的服務。由「名詞世界」向「動詞世界」的變化,意味著我們創造的系統——猶如從非生物變成生物——不僅要面對外部的干擾,其自身運行的過程中也將產生逐步積累的熵增。

例如,工業流程對高溫高壓的偏愛使得工廠離居民區越來越遠,從而推動工廠的大規模化和中心化;同樣,數字科技也會因信息傳播門檻的降低而偏好廉價複製。在科技變遷的過程中,我們不要只看到孕育的艱辛和分娩的陣痛,而忽略了寶貴得多的新生、成長、希望、傳承和未來。

我們知道,知識的增加伴隨的是未知領域的增加,如同圓的半徑越大,周長也越大。信息量的增加帶來的是人們對於無法獲取足夠有效的信息的擔憂日益增加,科技具有的顛覆性越強,它生成的問題也就越具有顛覆性,人工智慧、量子計算、基因操控將接二連三地釋放具有爆炸性的問題。密歇根大學的一項研究顯示,當要求學生只能用圖書館中的資料查找幾個問題的答案時,解決一個問題需要22分鐘,而上網搜索只需要7分鐘,因此,時間的節省本身就意味著生產力。

共享十分重要,它使得參與者的集體影響力超過個體之和,如同比起周密的計劃,改進的市場方案會取得更顯著的效果。共享、協作、開放、免費所發揮的力量比我們預想的還要大。我們可以通過挖掘那些看似「無價值」的事物——例如朋友圈,通過共享而激發它的潛能。長期以來,人們不認為140字能表達什麼,而社交網路——例如微博——顛覆了這一點,使得我們真切體會到「星星之火可以燎原」在當前語境下的含義。共享使得那些看似粗糙的事物變得精細和高效,儘管它不能解決所有的問題,但卻是解決問題的首要方案。

事實上,我們看到互聯網的發展史,雄辯地證明了這一點。在1994年網景瀏覽器發布之前,互聯網對於用戶來說只是文字,那一年,《時代》周刊如此解釋互聯網不能成為主流:「它並非為商業設計,也不能優雅的容忍新用戶。」轉過年來的1995年的《新聞周刊》標題《互聯網?呸!》則更為直截了當。面對尼古拉斯·尼葛洛龐帝在那一年提出的人們將在互聯網上購買書籍和報紙的預言,勞倫斯實驗室的著名物理學家克里夫德·斯托爾則評論:「bullshit」。那時,建造了互聯網世界硬殼的程序員——他們多為Unix的擁躉——將互聯網視作非商業的、開放的公共場所。

如今,網路規模擴大的速度遠不及其價值增加的速度。我們說,今日互聯網的財源滾滾,實際上是二十年來由每個用戶個體推動的自下而上的改革——而不是自下而上的革命或自上而下的改革——的結果,其基礎是互聯網面向每一個用戶的特性。

就連創新也是可以外包和「眾包」的,進一步說,自我價值的實現越來越有賴於集體的配合。在文明社會中,匿名如同重金屬離子,是維持細胞生命的必須成分,但過量的重金屬離子卻是致命的。在網路上匿名意味著不必對自己所說的話負責,這同樣是一把雙刃劍。

囿於自己的小圈子可能導致信息的同質化,即你和你身邊的人,其信息來源都是相似的,因而對於不同的聲音缺乏了解。坐井觀天也是在為自己設限,約束自己潛能的激發與增長。只有不同的可能性排列組合、人際的互動與交流、思想的碰撞與分享,才會迸發更加優秀的方案。

共享也意味著點對點化,意味著產品的細分和個性化和實現模式的多樣化。大規模合作和海量的實時社會互動發展了個體用戶不可能達到的行為,如同組織可以完成細胞不能完成的事。科技可以通過發明新的組織框架來達成看似不可能的事,超鏈接、WiFi和全球衛星定位服務都是通過技術形成的連接關係。

基於如上的事實和構想,我們說,我們的工具越複雜,意味著它的熵增越劇烈而迅速,就越需要更多的人照料,因為,如果迅速積累的熵增不能得到有效的管理,那麼終有一日,它將破壞掉生成熵的工具本身的框架;這個時間變得越來越短,意味著我們越來越需要對於變化做出迅速的、積極的和有成效的應對,從總體的結果而言,就是搶在熵增破壞掉這一框架之前做出對框架的革新。例如,軟體升級和更新的速度越來越快,而拖延升級的破壞性也越來越大。未來的科技將是無盡的升級,迭代的速率越來越快,淘汰的流程正在加速。

互聯網的飛躍有時讓我們聯想到相變,即大量分子狀態的連續變化導致宏觀物態在某一點發生突變。在最初,這個全面互聯的平台還像是我們現實世界的延伸,但事實上,如同溫度和壓力慢慢升高,我們會到達一個臨界點,「越過山丘」,我們會進入一個全新的狀態。當「山丘」的另一側是不可知的,我們稱這一臨界點為奇點。我們的未來或許將由超級智能的勝利奠定,當我們創造出的人工智慧能夠創造出比它自身更加智能的人工智慧時,它能夠一代一代、以級聯的方式生產越來越智能的人工智慧。人工智慧將與人們共生,形成複雜的依存關係,我們的創造終將使得我們自己變得更好。如果我們現在的生活是固態的,那麼,我們不妨說,我們將來的生活是液態的。

我們或許苦惱於現有的領域已被耕耘,從而頓挫創造的勇氣和熱情,但是,真正的開拓者會在他腳下這片土地不斷奮鬥,這樣的努力將使我們的子孫後代在未來——例如三十年後——站上比我們更高的平台,而當他們在那時回望歷史,或許他們也將發出「三十年前滿地是黃金」的感嘆——就像我們回望歷史一樣;反之這也說明,我們對於歷史上的人和事往往不必苛求,是因他們無法站在他們身後的更高平台上俯瞰自己的作為,如同沒有人能抓著自己的頭髮把自己提起。

因此,我們所處的時代就是最好的時代,我們腳下的土地就是一片沃野。科技的發展,社會的開放,交流的便捷,積極的環境,是我們這個國家在五千年的漫長歷史中從未有過的。對於未來的中國,主要的責任者就是我們,就是我們活著的各位。我們每個人對自己的未來、我們所有人對中國的未來負有不可推卸的責任,未來的中國就取決於我們此時此刻的選擇。


前段時間谷歌的人工智慧阿爾法狗戰勝世界頂尖棋手柯潔,讓人工智慧這個話題再次進入公眾視野。很多人擔心未來人工智慧會像科幻電影裡面一樣統治人類,也有人對它嗤之以鼻,認為AI只是計算速度快,其實根本沒有什麼智能。我認為,這兩種看法都過於極端,人工智慧雖然不會像電影裡面一樣帶來末世浩劫,但是它的能力已經遠遠超過普通人的想像,可能會取代很多人的工作,給整個社會帶來巨大的變革。下面,我就帶你看看AI現在能做那些事?會不會威脅到你的飯碗?

  1. 自動駕駛

谷歌的無人駕駛汽車已經在美國的公路系統上跑了50萬公里,只出過一次事故,就這一次事故還是對方車輛(人類駕駛汽車)的責任。國內的公司,如百度也在這一領域做出了布局。自動駕駛的技術已經非常成熟,產品上市也是指日可待。每年全世界在車禍中喪生的人數超過一百萬,大部分原因是人為失誤。無人駕駛汽車由程序操控,能夠大大減少人為失誤帶來的車禍,至少能把車禍傷亡率降到十分之一,甚至百分之一。而且自動駕駛也解放了駕駛員的雙手,讓我們可以有更多時間做有意義的事情,比如刷知乎。

在我們家用的轎車被無人駕駛汽車代替之前,有一種汽車會更先一步淘汰人類駕駛員,就是卡車。對長途運輸貨物的卡車來說,環境路況較為單一,因此對人工智慧來說是一個較容易解決的問題。美國的OTTO公司已經研發了卡車自動駕駛系統,已經在試運營中。

美國有150萬卡車司機,而自動駕駛的卡車很快將會讓他們失去賴以為生的工作。以當今中國對於科技的吸收速度,這一天也不會太遠,如果您是一名卡車司機,就要做好改行的準備了。

2. 家居生活

相信用蘋果手機的朋友應該熟悉Siri這個語音智能助手,或者你和微軟的語音助手「小冰」聊過天。雖然現在這些聊天AI還不能達到人類之間交流的水平。但是,他們已經能用語音識別技術,根據一些指令去完成一些日常的動作,已經能在生活中給我們很多幫助了。近兩年不斷面世的智能音箱,就是人工智慧落地的重要產品。美國亞馬遜公司的Echo、蘋果剛剛發布的HomePod都是這類產品,國內也有很多,比如京東發售的200元智能音箱、小魚在家智能攝像頭、若琪語音助手等等,據我所知,國內的互聯網音樂平台,也都會陸續發售自己的智能音箱。你只要對音箱說:「給我放周杰倫的歌」,「明天天氣怎麼樣?」,「幫我叫一輛滴滴去公司」,它都能輕鬆滿足你的要求。

視頻封面rokid 若琪 pebbleyouku.com視頻

3. 金融

炒股票的朋友都應該知道「基金經理」這個職位,他們幫您打理股票投資,在合適的時機買入賣出。這聽起來需要很多行業經驗,是一個「聰明人」的工作。但是你猜怎麼著?人工智慧已經能夠幫你炒股了。現在有很多量化交易的公司,他們的基金背後並沒有一個「基金經理」在操作,而完全是程序,是人工智慧的軟體在幫你買賣股票。AI程序不但能分析股票的走勢,而且能夠讀懂相關公司的財報、新聞報道和網路評論,所以,在某個公司出現負面新聞、公關危機的時候,AI能比人更快地捕捉到股票下跌的趨勢,快速拋售。不僅是股票投資,在保險、信貸各個領域,人工智慧都能以超出人類的水平和效率,代替人類的工作。阿里旗下的螞蟻金服中,各個產品都有人工智慧的技術在發揮主要作用。

五年之間,股票交易大廳已經沒有幾個交易員了

如果說股票是可以預測的,那麼彩票這種完全不可預測的數字組合,人工智慧還能發揮作用嗎?蘋果應用商店的一款「彩民智能助手」告訴你,可以!這個iPhone App用深度學習的技術分析過去多年的中獎彩票號碼,從中挖掘到我們普通人完全沒辦法捕捉的規律(不是所謂「走勢分析」那麼簡單),然後預測出比平均中獎率更高的一組中獎號碼。有些人可能對「預測彩票」這件事持懷疑態度,看看人工智慧專家怎麼說吧:「在理想狀態下,就是說彩票機中的每個球大小、重量、密度完全相同,而且彩票機本身也是一個內部真空的規則球體的情況下,可能各個中獎號碼出現的幾率是均等的。但是,實際情況並不是這樣,各個球的形狀大小都有微小差別,而且機器內部本身也有一些不規則的形狀,碰撞反彈的速度方向都會受影響。這時候,一定會呈現一定的概率分布,特別是彩票中心基本不換機器(一號機、二號機),一定會呈現某種數字規律。這些規律非常微小而且複雜,我們人的頭腦完全總結不出來,但是人工智慧的神經網路能根據幾十年的中獎號碼做訓練,發現其中一些特徵,雖然也不可能準確預測到中獎號碼,但只要能把中獎概率提高几個百分點,那跟一般靠「猜」的彩民比,也有非常大的優勢。」怎麼樣?連我們人類認為是玄學的彩票預測,都能被人工智慧所攻克!

彩票智能助手預測高中獎概率號碼

4. 語言翻譯、藝術創作

現在人工智慧已經能以非常好的效果完成語言之間的翻譯了。如果你的電腦安裝的是Chrome瀏覽器,這個功能已經集成在瀏覽器裡面了。下次你看到一個英文網頁,用滑鼠點擊右鍵,選擇「翻成中文」,看看翻譯出來的文章的質量,你會被AI的翻譯能力震撼到。

甚至在藝術創作領域,人工智慧也要來搶人類的工作了。AI可以作曲、作畫、寫詩,他們的作品在普通人看來和大師的作品都完全沒法分辨。不信你聽聽Daddy『s Car這首歌,我不告訴你,你能猜出來它是人工智慧寫出來的嗎?

視頻封面索尼音樂人工智慧作曲的流行歌曲 daddy"s caryouku.com視頻

再發一個人工智慧和人合作彈鋼琴的視頻:

視頻封面Google 人工智慧作曲 人機互動演示-NIPS2016bilibili.com視頻

就像另一個答案說的:人工智慧就像一列火車,你苦苦期盼,終於來了,然後它呼嘯而過,把你拋在身後。而我們,無可奈何!


AI強到發現另一個太陽系。

【AI和NASA同步找到了銀河中的另一個太陽系】

 北京時間今天凌晨2:00,美國宇航局發布了一個震撼人心的消息,在一個恆星周圍發現有8顆行星組成的行星系統。

  在此之前,我們生活的太陽系一直以來都是圍繞單個恆星周圍已知行星數量最多的案例,有多達8顆行星圍繞太陽運行。但隨著今天發布會上宣布的消息,我們了解到在2545光年之外,在一個名為「開普勒90」(Kepler-90)的恆星周圍有著同樣數量的行星。

利用美國宇航局開普勒望遠鏡獲得的數據,天文學家在近期發現了這個系統中隱藏的第八個行星,從而讓這一系統中行星體的數量達到了與太陽系相同的水平。

這顆新發現的行星名為開普勒-90i。它的信號比通常傳統手段就能識別出的行星弱。谷歌的AI技術還發現了開普勒-80系統中的最小行星——開普勒-80g。

谷歌在電話會議中解釋,在研究開普勒望遠鏡四年來的採集數據時,谷歌使用的工具實際上與識別照片中貓和狗的工具類似。

開普勒-90系統比太陽系稍大、更熾熱、質量也更大,但其他許多方面均類似太陽系。開普勒-90i是該系統中最小的行星,很可能不適合生存。NASA表示,它的地表布滿岩石,表面溫度約426.7攝氏度。但它也提供了一個關鍵佐證,證明了以下理論:相較遠離恆星的行星,靠近恆星的行星一般更小,而且地表岩石更多。它的公轉周期僅14天,而地球的公轉周期是365天。

開普勒-90系統可能存在更多行星,只不過還不為人知。開普勒望遠鏡只是在非常靠近恆星的區域搜尋周圍的行星。NASA表示,未搜尋的區域很可能存在更多的行星。

為了實現這些發現,在大約20萬顆星球的數據中,Google的AI技術僅篩查了670顆星就發現了兩顆全新的系外行星。這意味著,如果研究更多數據,實現更多發現的可能性極高。

【AI的核心是機器學習】

本次新發現的系外行星名為Kepler-90i,這是一顆小質量的岩石行星,由於距離恆星很近,公轉周期僅有大約14.4天,因此可以想像其地表溫度極高。本次發現的另一個亮點在於,這一成果是藉助谷歌公司的機器學習技術實現的。機器學習技術的本質在於計算機通過人工智慧技術實現「自我學習」。在這一案例中,計算機學會了如何對開普勒望遠鏡獲得的海量數據中搜尋疑似的系外行星信號。

 美國宇航局的開普勒望遠鏡會記錄系外行星從恆星前方經過導致的恆星亮度輕微下降現象,這種亮度下降信號可以讓科學家們間接推算出行星的存在以及這顆行星的很多物理性質。在這次發現中,研究人員克里斯托佛·沙律(Christopher Shallue)和安德魯·范德伯格(Andrew

Vanderburg)訓練一台計算機學習如何去對開普勒望遠鏡獲得的海量恆星亮度數據進行分析,並從中檢測那些可能暗示有系外行星存在的異常信號。受到人腦中神經元之間連接方式的啟發,科學家利用人工「神經網路」技術,利用計算機系統的強大計算能力對開普勒望遠鏡獲取的海量數據進行自動化篩選,並最終在已經被歸檔的數據中發現了一個此前在進行人工分析時被忽略的微弱異常信號,最終證明這是天龍座方向上,恆星開普勒-90周圍存在的第八顆行星。

  事實上,在此之前機器學習的技術就已經被運用於對開普勒望遠鏡資料庫的分析當中,相關研究已經顯示出其在查詢海量數據中隱藏的細微信號方面所具備的優勢。

  儘管行星數量相同,但是從這張軌道示意圖上可以清楚看到,開普勒90系統的範圍要小得多,幾乎就像迷你版的太陽系。其最外側的那顆行星的軌道才幾乎達到地球軌道的半徑距離

  相比開普勒90系統,其他行星系統或許在孕育生命方面會更加有優勢。此次發現的新的系外行星Kepler-90i比地球大約大出30%,它距離恆星很近,其地表溫度據估算可以達到800K以上(約合526攝氏度)以上。而最外側的行星Kepler-90h圍繞恆星公轉的軌道距離則與地球接近。

機器學習是專門研究計算機怎樣模擬或實現人類的學習行為,以獲取新的知識或技能,重新組織已有的知識結構使之不斷改善自身的性能。

機器學習最基本的做法,是使用演算法來解析數據、從中學習,然後對真實世界中的事件做出決策和預測。與傳統的為解決特定任務、硬編碼的軟體程序不同,機器學習是用大量的數據來「訓練」,通過各種演算法從數據中學習如何完成任務。

機器學習直接來源於早期的人工智慧領域。傳統演算法包括決策樹學習、推導邏輯規劃、聚類、強化學習和貝葉斯網路等等。眾所周知,我們還沒有實現強人工智慧。早期機器學習方法甚至都無法實現弱人工智慧。

機器學習最成功的應用領域是計算機視覺,雖然也還是需要大量的手工編碼來完成工作。人們需要手工編寫分類器、邊緣檢測濾波器,以便讓程序能識別物體從哪裡開始,到哪裡結束;寫形狀檢測程序來判斷檢測對象是不是有八條邊;寫分類器來識別字母「ST-O-P」。使用以上這些手工編寫的分類器,人們總算可以開發演算法來感知圖像,判斷圖像是不是一個停止標誌牌。

【神經網路演算法】

後來隨著科技的發展,人們漸漸發現簡單的機器學習並不能應付複雜的種種生活。於是,發明了神經網路系統。神經網路的原理是受我們大腦的生理結構——互相交叉相連的神經元啟發。但與大腦中一個神經元可以連接一定距離內的任意神經元不同,人工神經網路具有離散的層、連接和數據傳播的方向。

例如,我們可以把一幅圖像切分成圖像塊,輸入到神經網路的第一層。在第一層的每一個神經元都把數據傳遞到第二層。第二層的神經元也是完成類似的工作,把數據傳遞到第三層,以此類推,直到最後一層,然後生成結果。每一個神經元都為它的輸入分配權重,這個權重的正確與否與其執行的任務直接相關。最終的輸出由這些權重加總來決定。

神經網路是調製、訓練出來的,時不時還是很容易出錯的。它最需要的,就是訓練。需要成百上千甚至幾百萬張圖像來訓練,直到神經元的輸入的權值都被調製得十分精確,無論是否有霧,晴天還是雨天,每次都能得到正確的結果。

Google的AlphaGo先是學會了如何下圍棋,然後與它自己下棋訓練。它訓練自己神經網路的方法,就是不斷地與自己下棋,反覆地下,永不停歇。

【深度學習,對話人工智慧】

深度學習使得機器學習能夠實現眾多的應用,並拓展了人工智慧的領域範圍。深度學習摧枯拉朽般地實現了各種任務,使得似乎所有的機器輔助功能都變為可能。無人駕駛汽車,預防性醫療保健,甚至是更好的電影推薦,都近在眼前,或者即將實現。

由於小編水平有限,有關深度學習方面就講到了這裡。如果大家想更加系統更加專業的了解人工智慧,不妨看一看我們聯合科大訊飛,景略集智,泛化智能,甲子光年,晶泰科技,IPN,神策數據與路人甲聯合舉辦的知乎視頻live對話人工智慧。

造數,最靠譜的數據採集公司。


這次雙十一給我帶了的震撼還有賣東西,比如京東賣的s7edge,在雙十一期間,我們四個人搜這個手機的結果不一樣,我有一直關注這個手機,從十月初開始的3200,一直推送給我,後來搶卷減300,沒買,2999元秒殺2690,沒買,保證雙十一當天同價,沒買,領卷減200沒買,在9號推送來減300的卷,誘人嗎,誘人嗎。朋友在3號秒殺保價2690的時候入手了,您猜,他買完後一直到雙十一當天京東2490的時候,他的頁面還是2690。其餘細節不表,我很驚嘆人工智慧到這個程度,他會計算你買不買,會一點點給你優惠讓你買,所謂的分享給好友分紅包,其實在後台計算你和誰認識,給出你的低價不能讓買了的人知道。朋友搜索的價格是2999,下午來我家搜就變成2690再給卷,這代表他會統計你的IP行為,根據你的社交圈推算出你的社會地位,芝麻信用里的各種資料評估你的一切,真正恐怖的是什麼,是你已經赤裸裸的在馬雲等人面前,而你還覺得是自己佔了便宜。


這個問題,回答起來很容易像是個資源匯總貼,建議大家收藏之餘別忘了給個贊。

想了解人工智慧(Artificial Intelligence)到達哪個程度,我們需要先給它下一個定義。

AI,也叫機器智能,是指由人製造出來的機器所表現出來的智能。人工智慧可以對人的意識、思維的信息過程進行模擬。人工智慧不是人的智能,但能像人那樣思考、也可能超過人的智能。從很早前人類就試圖發明能夠學習人類和像人類一樣行事的智能物體,眾多的科幻故事和電影中更是展現了人類對人工智慧和它們應用潛力的無限遐想。

機器能夠模仿人類及人類的認知過程如分析、歸類和總結規律等背後的理念正是邱奇-圖靈論題,它認為機器能夠模仿人類的任何形式推理。

自1956年麥卡賽、明斯基、羅切斯特等知名科學家首次提出「人工智慧」這一術語以來,50多年來,人工智慧取得長足的發展,成為一門廣泛的交叉和前沿科學,在機器人、經濟政治決策、控制系統、模擬系統等多個領域得到廣泛的應用。

如果我們仔細探索AI當前的應用狀況會發現,它早已進入我們生活中的方方面面。

下面我們先列舉應用在視覺、工業物聯網、工作、數據分析、商業智能等領域50個代表性的AI工具,大致能反應出目前人工智慧的發展和應用程度,然後談談現在的人工智慧到底有多聰明。

視覺領域中的AI工具:

Clarifai——為開發者提供API類型的工具,幫助用戶實現可視化搜索,管理媒體資料庫。

https://www.clarifai.com/

Cortica——為醫療和交通行業提供可視化分析。

http://www.cortica.com/

Deeopomatic——用個性化CV模型,能為眾多行業和用途提供圖像識別服務。

https://www.deepomatic.com/

Deepvision——用視覺識別技術可以識別商品品牌和人的臉部。

http://deepvisionai.com/

Descartes Labs?——讓衛星圖像獲得實際用途,幫助人類更好地探索地球。

https://www.descarteslabs.com/

Flixsense——世界首個雲視頻平台,可以實現即時視頻分析。

http://flixsense.com/

FotoNotion——將CV技術用於車輛及人體探測。

Automotive

GrokStyle——利用深度學習技術,通過視覺搜索匹配相似的產品,並幫助人們將它們合併。

http://landing.grokstyle.com/

Haystack——面部識別。

https://www.haystack.ai/

HireVue——採用面部識別技術幫你選擇應聘者。

https://www.hirevue.com/

工業物聯網領域中的AI工具:

Black——能學習和分析你商店裡的顧客消費行為。

http://black.ai/

C3IoT——用AI讓應用開發和數據開發實現一體化。

Home

KONUX——將智能感測器、數據融合和基於AI的分析技術相結合,提供工業物聯網解決方案。

Home

Imubit——利用機器學習讓企業生產流程最優化。

http://www.imubit.com/

Maana——用人工智慧為能源行業提供工作流最優化解決方案。

Maana

Predix——用機器學習幫助企業迅速開發、部署和操作工業用APP。

https://www.predix.io/

Planet OS——用大數據和AI幫助可再生能源公司更好地利用數據。

https://planetos.com/

Sight Machine——用AI技術分析和可視化企業的生產數據。

https://sightmachine.com/

Sentenceai——用AI技術將數據科學的數據工程實現自動化。

http://sentenai.com/

Snips——用AI為聯網產品增設語音助手,讓機器之間實現「交流」。

https://snips.ai/

工作領域中的AI工具:

Bonsai——開發適應性、可信度和可編程性更高的AI模型。

https://bons.ai/

Deckard.ai——用AI幫你預測項目時間進度。

http://deckard.ai/

Fuzzy.ai——為網頁和APP添加智能決策功能。

https://fuzzy.ai/

Gigster——用AI幫項目找到合適的開發者和設計師。

https://gigster.com/

Kite——程序員的智能幫手,將互聯網上的編程知識、代碼示例、文檔等匯聚在編輯器中,幫你更快地寫出更好的代碼。

https://kite.com/

Layer 6 AI——面向企業的深度學習平台,可根據數據實時做出預測。

https://layer6.ai/

Morph——能讓企業很容易地開發出聊天機器人用於業務發展。

https://morph.ai/

Ozz——通過讓聊天機器人實現自我學習,幫企業讓自己的聊天機器人更智能。

https://ozz.ai/

RainforestQA?——用AI技術快速測試web應用和移動應用。

https://www.rainforestqa.com/

SignifAI——用AI增加伺服器負荷,預測宕機。

Home

數據分析領域中的AI工具

CrowdFlower——用AI技術將訓練數據、機器學習及「人在環」(human-in-the-loop)系統集成在一個平台,幫數據分析人員進行情感分析、相關度檢索和商業數據分類等工作。

Home

Dataiku——可大批量設計原型、部署和運行模型的數據科學平台。

https://www.dataiku.com/

DataScience?——用於研發和生產的企業數據科學平台。

https://www.datascience.com/

Domino Data Lab?——用於人員寫作、搭建和部署數據模型的AI驅動的平台。

Home

Exploratory?——使用開源AI演算法讓分析人員獲得最新的數據科學技術和信息。

https://exploratory.io/

Kaggle——幫助人們如何利用機器學習模型學習、工作和做研究。

https://www.kaggle.com/

RapidMiner?——用AI將數據收集、機器學習和預測模型部署相結合,幫助數據科學研究團隊更高效的工作。

Home

Seldon——幫助數據科學研究人員將機器學習模型交付生產。

Homepage

SherlockML?——搭建、測試和部署AI演算法的平台。

https://sherlockml.com/

Spark——AI驅動的數據搜索引擎,能夠發現數據中存在的複雜模型。

Home

用於商業領域的AI工具:

Arimo——行為型AI系統,能從以往的商業行為中學習,預測未來的商業行動。

https://arimo.com/#arimo-bai

Ayasdi——幫企業部署整套人工智慧應用。

Welcome

DataRobot?——利用機器學習幫助企業實現向AI時代轉型。

DataRobot

Dataminr?——用AI技術實時發現突發事件和信息。

https://www.dataminr.com/

Electra by Lore?——AI智能助手,幫企業向客戶解答業務問題。

https://www.lore.ai/electra/

Einstein?——用AI幫助企業管理客戶。

https://www.salesforce.com/au/products/einstein/overview/

Fuzzy AI?——用AI幫助企業為產品做出最優定價、尋找最合適的顧客和檢測欺詐行為。

https://fuzzy.ai/

http://Logz.io?——幫助企業索引、搜索、可視化和分析業務數據。

https://logz.io/

NXT AI?——用於時序模型的識別和檢測的AI驅動框架。

https://nxt.ai/

Paxata?——用AI將企業的原始數據自動轉化為有益信息。

Home


當然,此外還有很多採用 AI 技術的應用,這裡不在一一列舉。

那麼當前的人工智慧和人類比起來,到底有多聰明呢?已經有研究者給出了答案。

今年 10 月份,美國康奈爾大學上傳了一篇名為《人工智慧的智商評測與智能等級研究》的論文引起了人們的注意,這篇論文由來自中國科學院的劉鋒、石勇和劉穎合著。他們在論文中分析了 Google 、微軟必應、百度和蘋果 Siri 等系統,並且為人工智慧系統劃分了 7 個智能等級。

通過研究,他們提出為人工智慧系統建立一個標準的智能模型,從「圖像、文字、聲音的識別和輸出,常識、計算、翻譯、排列,創作、挑選、猜測、發現」等15個維度對人工智慧的智商進行測評。簡單來說,就是給人類和機器的智能水平建立了一個統一的標尺。

在模型建立完成後,研究團隊在 2014 年和 2016 年兩次對世界範圍內的大公司人工智慧系統進行了智商測試。

在 2014 年的測試中,他們對世界 50 個 AI 系統和 3 個不同年齡段人類進行了測試,結果如下:

從測試結果可以看出,即便是表現最好的谷歌人工智慧和人類相比也相去甚遠

隨後 2016 年,研究團隊對世界50個AI系統和3個不同年齡段人類進了測試,結果如下:

從測試結果看,谷歌人工智慧智商得分最高,幾乎是蘋果Siri的兩倍,但相較人類 6 歲的兒童還有一定差距。

不過值得注意的是,短短兩年內,人工智慧的智商水平進步巨大,以得分最高的谷歌為例,2014年其智商測試得分還是26.5,但到了2016年,就已經達到了47.28。而現在人類對人工智慧研發的投入越來越大,所以我們可以預見在很短的將來,人工智慧的智商能夠接近一個成年人類的智商水平(97分)。

2017年,基於之前的研究成果,劉鋒、石勇、劉穎團隊成立了未來智能實驗室(FutureAiLab),這是世界上第一個專門研究AI智商評測和未來發展趨勢的研究機構。

研究團隊將在 2018 年進行第三次世界範圍內的 AI 系統智商測試,通過測試檢驗人工智慧的發展水平,並繪製出對比人類智力發展的曲線。屆時,人工智慧的智商會達到什麼水平?我反正是不敢瞎猜。

拓展閱讀:

有哪些「本來以為已經是巔峰,沒想到才是開始」的例子?

從乾貨到練習題,你想要的人工智慧知識資源,都在這裡(十一月)

人工智慧可以作曲嗎?

官方微博:@景略集智

微信公眾號:jizhi-im

商務合作: @軍師

投稿轉載:kexiyang@jizhi.im

集智QQ群:557373801


這是我司「深思考機器人」的交互體驗錄屏視頻,感受一下。

在第六屆全國社會媒體處理大會 - 首屆中文人機對話技術評測(SMP 2017 - ECDT)- 特定域任務型人機多輪對話任務中,深思考人工智慧使用基於深度學習演算法的意圖分類、詞向量相似度、上下文指代消解、特定場景下糾錯、信息抽取、Sequence2Sequence等技術,結合特定垂直領域的業務特點,創新的完成了人機多輪上下文交互,以遠高於其他隊伍的任務完成率獲得第一名,詳細評測結果如下:

深思考人工智慧可以通過語音、語調、姿態、情緒、動作、接觸、上下文語義等,基於多模態感知使用深度神經元網路演算法建立情感計算模型,涵蓋 7 種視覺表情分類和 25 種文本情緒傾向,配合語用計算,從而可以識別、感知、理解人類的情感。

在計算機視覺方面,深思考人工智慧將人工智慧與醫療相結合,基於宮頸細胞學領域知識,通過深度學習、機器學習、醫學圖像處理等技術提取宮頸細胞的關鍵特徵、自動分割團簇重疊細胞、快速識別塗片上病變細胞的分級類別。

深思考人工智慧輔助閱片系統

深思考人工智慧輔助閱片系統可在 100 秒內完成閱片,免人工自動出具初篩報告,適配國內多種製片方法,宮頸細胞細胞分類精度 99.3%,比美國國立衛生研究院 NIH 分類精度高 1%、特異性高 1%、敏感性高 1.5% (2017 . 06),該系統可以有效的輔助醫生篩查,顯著提高閱片效率、提高病變細胞的敏感性與特異性,實現宮頸細胞塗片的輔助閱片。

以上是我司(深思考人工智慧)在人工智慧領域的一部分探索,目前已經在汽車出行和醫療健康領域實現應用,願能幫到您。

ヾ(????)?"

深思考人工智慧


關於這個問題,整理了一些各領域AI發展的前沿信息,和大家一起探討探討。

繪畫領域

谷歌(Google)研究出了能訓練機器畫畫的秘密武器。他們做了一款名叫Quick,Draw!的遊戲,該遊戲通過顯示某個單詞、並讓人類畫出實物的方法,收集到人類速寫的諸多樣本(如貓頭鷹、花園等),研究人員再利用這些樣本,打造出另一個模仿人類繪畫方式的神經網路,它能自己把一些想法畫出來。這個神經網路名叫Sketch-RNN。

Sketch-RNN如同一個小孩,不管看到其他人做什麼,自己也想跟著學。例如,經過大約7萬幅貓的素描圖訓練後,它能理解人類畫的是一隻貓,並試圖照著畫,畫得還比較像。

此外,它不只是臨摹它見過的東西,每次還會融入自己的想法,甚至改變一點細節——比如,自己給畫的貓增加一根鬍鬚或者一條小尾巴。被要求自己作畫時,Sketch-RNN能畫出「青蛙」、「貓」和「螃蟹」的多個不同變體,準確性與很多繪畫功底差的人相當。

這種技術可以幫助藝術家或建築師補完成他們的草稿,或者幫助新手學習繪畫。

參考資料:

1.GitHub - hardmaru/sketch-rnn

2.A.I. Experiments: Quick, Draw! - YouTube

法律領域

Baker Hostetler是一家擁有百年歷史的律師事務所,最近一位名為Ross的AI律師在該事務所正式上崗,負責協助Baker Hostetler的破產事務團隊工作。這個團隊有50位人類律師,Ross是他們的助手。

Ross是由IBM的超級計算機Watson提供技術支持的語音識別APP,也是在Watson的基礎上建立的「世界上第一位AI律師」。它不僅能讀懂文字,還能搜索整部法律和法律史、形成假設、引用先例來支持他的結論

像所有的AI一樣,Ross通過累積經驗來獲得知識和提升速度。他能從幾千個搜索結果中選出相關性最強的案例,並以人們更容易理解的語言呈現

目前,Ross主要負責協助律所的破產事務,還不能上庭辯護。

參考資料:

1.BakerHostetler

2.ROSS Intelligence

音樂領域

金斯頓大學和倫敦瑪麗女王大學的研究人員使用了2.3萬首用ABC記譜法記錄的民歌,對他們開發的機器學習演算法Folk-Rnn進行訓練,目的是讓該演算法創作出新的愛爾蘭民歌

經測試, 創作的首批3000首歌曲不少都帶有愛爾蘭音樂風格,「大多數歌曲都需要人類進行一些補充和改編才會悅耳,但有些歌曲可拿來即用,或者只需要修改幾個樂句或音符。」儘管在沒有人類介入的情況下,電腦演奏的歌曲聽起來有點粗糙,缺乏生命力,但這依然標誌著音樂史的一個新篇章:人類和機器共同進行藝術創作。

「我們的研究不是想取代或打敗人類,而是想開發出增強人類音樂創造力的人工系統。我們的目標是打造有用的人工協作者,讓它提出聰明的建議,為音樂創作開闢新的道路。」

參考資料:

1.GitHub - IraKorshunova/folk-rnn: folk music modelling with LSTM

2.「Lislamp;amp;amp;amp;amp;amp;amp;amp;amp;#x27;s Stis」: Recurrent Neural Networks for Folk Music Generation

新聞領域

2016年11月,共和黨人史蒂夫·金(Steve King)與民主黨挑戰者金姆·韋弗(Kim Weaver)競選美國眾議員時,《華盛頓郵報》首次採用了一款叫Heliograf的軟體機器人寫稿。它代表著迄今為止新聞業對人工智慧最尖端的應用,不僅能自動生成體育迷和股票分析師所熟悉的以數據為主的簡單新聞稿,還能生成闡釋性和分析性文章。(值得一提的是,中國今日頭條的頭條實驗室「張小明」與Heliograf是目前唯一兩家做奧運報道的機器人)

編輯們通過事先創建敘事模板,再把Heliograf接入某種結構化數據,實現Heliograf自動識別相關數據,並將之與模板中的對應詞句進行匹配、整合,然後在不同平台發布不同版本的報道。

此外,如果識別出數據中的異常現象——比如,數據的誤差幅度超過了預期——該系統還可以通過通訊工具Slack向記者發出提醒。《華盛頓郵報》從由四名員工花25個小時編寫發布小部分選舉結果報道,到由Heliograf自動生成500多篇大選報道、文章點擊量超過50萬次,只用了4年時間。

參考資料:

1.Automated News Writing Software : heliograf - Trend Hunter

2.What News-Writing Bots Mean for the Future of Journalism | WIRED

金融領域

2017年1月下旬,本·格策爾(Ben Goertzel)和他的公司Aidyia啟動了一只AI對沖基金使用人工智慧來進行所有的股票交易,無需任何人工干預。這套系統藉助了多種形式的人工智慧技術——其中一種受到遺傳進化的啟發,而另一種則基於概率邏輯。每天這些人工智慧引擎會對各種數據(從市場價格和成交量到宏觀經濟數據和企業會計憑證)進行分析,然後自主做出市場預測,以「投票」的方式選出最佳行動步驟。

它的軟體引擎設計則是基於進化計算演算法——也就是Aidyia系統所應用的那種受遺傳學啟發的技術。 用最簡單的話說就是,它會隨機創建出一大批數字化股票交易員,然後利用歷史股票數據對它們的表現進行測試。在挑選出表現最好的交易員之後,它會利用它們的「基因」來生成一組更優秀的新交易員。這個過程會反覆進行,最後系統就進化成一個可以成功自主運行的數字化交易員

它在上線的第一天就獲得了2%的回報。

參考資料:

1.The Rise of the Artificially Intelligent Hedge Fund | WIRED

保險領域

日本富國生命保險(Fukoku Mutual Life Insurance)目前正打算用「IBM Watson Explorer」人工智慧系統取代34名人類保險理賠員的崗位。這些人工智慧將負責掃描醫院記錄和其他文件,並綜合考慮受傷定性、患者病史和治療形式等因素,從而協助確定賠付金額。該公司稱,讓這些研究和數據收集工作實現自動化,將有助於人類員工更快地計算出最終的金額。

Watson AI預計能夠將工作效率提升30%。先前該公司已經在用類似的IBM技術分析客戶的語音投訴,收效甚好。另有三家日本保險公司正在測試或部署人工智慧系統,讓一些工作(比如為客戶找到理想的投保方案)實現自動化。此外,一家以色列保險初創公司已經完成了6,000萬美元的融資,其賴以成功的法寶,就是「用聊天機器人和機器學習技術取代經紀人和文書工作」

參考資料:

1.Fukoku Mutual Life Insurance Company

2.Japanese company replaces office workers with artificial intelligence

除了這些,AI在教育、天氣系統、信息科技等領域的發展勢頭也相當強勁:

AI 採用「特權信息」語言幫助教育系統擺脫填鴨式學習(APP已死,人機交互將進入bot時代)

AI 通過構建神經網路實現精準天氣預報(彩雲天氣:人工智慧,告訴你幾點幾分會下雨!)

機器人聊天時代由你可以決定人機交互規則(在這個聊天機器人時代,你可以決定人機交互的規則了!)

AI 正在不斷實現更加強大的物體和面部識別技術(宅男福音來了!AI新技術將還你一個「無碼」的世界)

將實現人機對話、上網、運行程序、播放音樂的虛擬助手濃縮進一件燕尾服(AneedA:把人工智慧穿在身上)

......

看的出來,無論我們想與不想,人工智慧正以極快的速度滲透到我們的生活中

教育、法律、金融,甚至生活方式,人工智慧無孔不入。

指紋支付方便了,今日頭條又給我推薦遊戲資訊了,QQ里有機器人小冰可以調戲了...

然而同時,似乎也有一種恐懼在我們心中醞釀發酵。

AI發展那麼迅猛,到底會不會取代人類?

我們會不會像《未來簡史》作者尤瓦爾所說的那樣,99%的人都淪為無用階級?

這個問題其實很難回答。但我個人的觀點是,這個說法過於偏激了。

《哈佛商業評論》刊文稱,人工智慧系統即將淘汰掉包括保險和金融服務在內的一大批知識型工作崗位,這些崗位「所做的工作可以通過智能軟體,來形成標準的流程和基於格式化數據做出的決策」

不過,人工智慧會成為人類員工提升效率的工具,還是完全取而代之,目前還無法得出結論。因為幾乎所有工作崗位都存在計算機——在可預見未來——不可能解決的重大問題。

如果非要預測未來,很難去做一個精準的描述。

但是,我們不妨借鑒比爾蓋茨描述未來技術規劃的一段話,他說「We always overestimate the change that will occur in the next two years,and underestimate the change that will occur in the next ten.Don』t let yourself be lulled into inaction.」(我們總是高估未來兩年的變化,而卻會低估未來十年的技術改變,但是我們不能因此而無所作為。

蓋茨先生的這句話說的很好。也許我們對未來的預測不一定準確,但是我們要有所行動,因為預測未來最好的方式,就是去創造它。

比如——

永不滿足現有的安逸,永遠主動進步,永遠保持旺盛的學習熱情。

這就是我們面對人工智慧應有的態度。

以上引用文章均來自於造就專題「AI終將取代人類?」,部分圖片源自網路。

更多關於人工智慧的內容,可關注微信公眾號:xingshu100


發展人工智慧,警惕人工智障

移動互聯網發展到今天,體量已經十分的龐大,這也導致了移動互聯網發展速度趨緩,所以很多人開始思考下一個驅動點是什麼,毫無異議的,推舉出了人工智慧。

人工智慧出現已經幾十年了,這兩年才有了比較大的突破,以至於非官方的認為2016年就是人工智慧的元年。後續人工智慧將會如何發展?發展速度會不會非常迅猛?會帶來哪些危害?

到底什麼是人工智慧呢?

相信很多朋友對人工智慧還是雲里霧裡,可能只是聽過,但具體到人工智慧是什麼,可能就很少有人能夠講清楚了。

我覺得大概來說人工智慧有以下幾個部分:感知、決策、反饋。

感知包括視覺、語音、文字等各種外部輸入,例如現在用的車輛號牌超速自動抓拍及識別系統,就是圖像感知;而決策就是依據外部輸入做出一些相對應的預測和判斷,打敗了卡斯帕羅夫的DeepBlue、打敗了李世石的AlphaGo都是決策的應用;而一個完整的人工智慧系統一定還會有反饋的環節,就像現在的機器人或是自動駕駛汽車,它會需要一個反饋。

人工智慧雖然叫做人工智慧,但是和人類的智能聯繫確實不大,它並不是完全的複製人的思維,而是模擬,它是建立在海量數據的基礎上,依靠強大的計算能力和紛繁的演算法所建立起來的一套機器思維模式。

人工智慧的實現方式是什麼?

說到人工智慧我們不得不提到的就是人工智慧的實現方式,咱們以深度學習為例,深度學習是一種神經網路,但與之前的神經網路相比,它的特點是使用了多層網路,能夠學習抽象概念,同時融入自我學習,而且收斂相對快速。

相信大家都使用過百度識圖功能了,就是所謂的以圖搜圖。例如現在我們想讓電腦能夠認識狗,並且上傳一張圖片就能讓電腦識別這是不是一隻狗,是一隻什麼品種的狗,這如何實現呢?

我們想一下我們小時候是如何實現這個學習過程的,是父母不斷的給我們重複,遇到一隻狗,父母就會告訴我們,寶貝快看,這是一隻狗狗,咱們下次看到一條四條腿有尾巴的毛絨絨的貓可能會套口而出:狗狗!這時候父母就會糾正我們:不對,寶貝,這是一隻貓貓。我們那時候肯定特別困惑,什麼是狗狗什麼是貓貓呢?不過時間長了,看的多了,我們自然就能區分開狗和貓了,這是一個學習的過程,那現在我問你,你是如何建立起區分貓和狗的模型的呢?

不清楚對不對?只是通過自己的一些說不出來的識別方法進行標識和判斷的對不對?機器學習也是這樣一個過程,想讓電腦識別一隻狗狗,那麼簡單,那就搞出無數的圖片讓電腦進行演算法學習,慢慢的識別圖片中的狗狗,因為深度學習的網路很深,要一次性學會這麼多也會比較困難,所以就需要用到一個比較快速收斂的技巧——自我學習。通過自我學習,機器會逐步從大量的樣本中逐層抽象出相關的概念,然後做出理解,最終做出判斷和決策,明白了,這張圖裡有隻狗狗,至於機器是如何學習的,目前我們還不得而知。

經過這個學習之後,我們再去做監督訓練,看機器是否能夠識別狗狗,如果不能,就在訓練之後做微調。例如,如果我輸入了一張狗狗,識別出來的確實貓,那訓練系統就會告訴你的網路說這個是錯誤的:這不是貓,這是狗。那接下來就是要進行微調,以便於下一次機器看到這個圖的時候,能識別出是狗的概率高一些,出來判斷結果是貓的概率低一些。

人工智慧的關鍵要素是什麼?

人工智慧的基礎是數據。剛才我們舉例說明人工智慧中深度學習的方式識別狗狗的例子中提到讓機器學會識別狗這一物種的前提是有大量的狗狗的圖片提供給機器進行識別和判斷學習,其實不論是要讓機器學習何種事物,前提都是海量的數據輸入,讓機器去學習。就像電能一樣,大數據將來會是人工智慧的能源。

這也是為什麼谷歌定位自己是人工智慧的公司,但是卻沒有直接去做人工智慧,第一步是建立一個搜索引擎,這就是為了搜集數據,海量的數據,用以餵養它的人工智慧演算法。谷歌的創始人之一拉里·佩奇曾說過:Google不是一家搜索公司,而是一家人工智慧公司。這背後的邏輯就是用戶每一次搜索,搜索到每一條數據結果的過程,其實都是在用提交的關鍵詞來完善Google的核心演算法。

現在很多公司有誤區,就是大數據就是非常非常多的數據,其實不是這樣的,即使你的數據非常多,裝滿了你公司所有的磁碟陣列,如果這些數據不是可打標的,或者不是可處理的,那只是一堆比特垃圾,和大數據沒有任何關係。

如果擁有壟斷性的大數據,你就會有很大的優勢。關於數據需要注意的幾點是,首先壟斷性大數據不是公開的數據,不是剽竊來的數據,也不是買來的數據,因為這樣的事情你能做競爭對手也能做。其次,無標籤的數據也沒有任何優勢。再次,如果是必須通過人工打標籤的數據也不行,因為人工打標籤太慢了。最好的數據是閉環的數據,所謂閉環的數據就是在你應用的時候可以捕捉到數據並且知道最終你根據數據做出的抉擇對或不對。比如阿里巴巴的天池大數據大賽,提供給你某一時段的脫敏交易數據,讓你預測下一時間段的交易情況,並且以實時的數據作為評判標準,來決出勝負。

人工智慧的核心是演算法。擁有了海量的數據,如何將這些數據進行歸類打標這依然是十分重要的事情,如何處理這些數據是十分重要的事情,有了大量的數據,你想通過這些數據,讓機器學習達到什麼目的,如何達到這一目的,要有一批特別懂的人,把一批人丟進去,讓他們去編寫演算法,解決特別大的問題,並不斷的調節演算法,演算法是人工智慧的核心。

人工智慧的保障是計算能力。有了海量的可用數據和優秀的演算法之後,擁有龐大的強大計算能力的機群就顯得尤為重要了。有米有料有菜譜,如果沒有一群強大的廚師,你也很難讓這些原材料變成一桌桌的美味佳肴,擁有強大計算能力的機群就顯得尤為重要了,包括需要什麼處理系統的支持,怎麼去部署,用什麼樣的計算架構等等。

人工智慧發展的要點是什麼?

既然剛才提到2016年是人工智慧的元年,那麼人工智慧如何才能出現一波井噴似的發展呢?我認為現在還欠缺兩個要點:平台、模式。

首先是平台,每一項新技術或者新科技的發展都離不開生態,而生態的構建基礎就是平台,比如iOS的平台、安卓的平台等等,每一次技術井噴式的效應出現,都是以平台的發展為基礎的,所以人工智慧想要急速發展,平台化運作是必然的,也是必須的。就像雲計算髮展一樣,雲計算概念剛開始出現的時候大家都很茫然,但是等各種雲服務以平台方式出現的時候,一切都發展的那麼自然而然,雖然我不知道人工智慧的平台是什麼樣子,或許是演算法集合?或許是什麼其他的模式,宗旨人工智慧想要急速發展,一定會有人工智慧服務平台出現。

其實是模式,人工智慧以什麼模式展現在大家的眼前?比如雲計算,我們可以很清晰的在線選購服務,比如移動互聯網,我們可以很輕易的在手機上以各種App的形式獲取移動服務,那麼人工智最終將會以何種方式為我們提供服務?這是一個很嚴肅的問題,比如以對話框的形式,像現在的Siri、小冰等人工智慧客服;或者是以搜索框的形式,谷歌和百度搜索框那樣;或者是智能推薦的方式,淘寶里你可能喜歡的商品和豆瓣上你可能感興趣的書。

這裡講的模式還包括如何服務,以搜索框為例,一個簡單的搜索,是為你提供海量的查詢結果更好呢?還是為你智能甄選一些最優結果更好?推薦少了可能沒有用戶想要的,給用戶提供很多結果用戶可能會很煩,用戶只想要找到他滿意的那個,即便識別率很低,給你一定量的結果,讓你在一定時間裡得到滿足,其實也能達到了一定的可用度,所以平衡數量和質量是推薦結果面臨的博弈。

人工智慧發展危機重重?

關於人工智慧發展有兩個消息要告訴大家,一個好消息和一個壞消息,好消息是人工智慧的發展非常迅猛!而壞消息是人工智慧的發展太迅猛了!

當然,暫時像《黑客帝國》中的那種機器覺醒,有了自己的意識,想要統治地球、覆滅人類這種的擔心還為時尚早,但是人工智慧會讓很多人失業確實可以預見的。

今天的社會上很多的工作以後大都會消失,比如說翻譯,雖然現在谷歌、百度、有道做的還不是那麼完美,但是每年進步的都很快,我一個英語科班出身的讀者告訴我當年他本科一年級幫人做翻譯是2000元/1000字,大三的時候是500元/1000字,再後來畢業的時候不到100元/1000字,這一定程度上也反映了機器翻譯對人工翻譯的衝擊,再過幾年,除高翻之外的人工翻譯可能就會非常難找到工作了。

未來幾乎所有思考模式可以被理性推算的工作崗位,在有足夠數據支撐的時候,都會被取代,有人會懷疑,人工智慧一定會這麼厲害嗎?如果你對此還有懷疑,你可以想想,為什麼AlphaGo這麼厲害?就是因為它可以動用到幾千台機器每天和自己對弈上萬盤的圍棋,而這人是做不到的;以後為什麼自動駕駛會這麼厲害呢?因為它可以用它的各種的感測器在路上搜集數據,這不是任何一個司機可以匹敵的,所以這些都是一些必然的過程。

有人說十年之內一半的工作會消失,有人說十五年之內一半的工作會消失,我覺得這些都不重要,將會被取代才是最可怕的。最可怕的不是已知的危險,而是不確定的潛在威脅,因為可能在你沒做好準備的時候就被取代了。

這可能是目前所面臨的最嚴峻的問題了,不過我覺得一定會有解決方案,就像農村現在土地承包後,大部分農民將土地承包出去了,這些閑散的勞動力並沒有像之前的擔心的那樣出現閑人,而是走進城市,成為農民工。

未來人工智慧一定會再次導致大批的人被取代,到時候這些人在自己崗位上會毫無剩餘價值可榨取,如何應對這不確定的危機?我認為未來以下兩種人可能較難被取代:領導者、創造者。

領導者是指那些能夠組織大批量的人有序的去做某些需要協同配合的複雜社會活動的事情,而創造者則是指像達芬奇、畢加索這樣,能夠創造出有價值的但是現在世界上所沒有的東西,可能是物品,可能是藝術。

技術永遠都是一把雙刃劍,用的好了,那是人工智慧;如果不能讓人工智慧為我所用,那麼未來我們中的一部分就可能被取代,成為沒有任何的價值的人,每天領著政府的救助戴著VR眼鏡玩遊戲,別以為這是很美好的生活,這時候就要警惕成為人工智慧高度發展下的人工智障了。

歡迎關注公眾號:景辰(iJingChen)


先賣個關子。

大家可以先看一下下面的這幅畫,然後告訴我是哪一位荷蘭畫家的作品。有幾個選項:

A. 梵高 B. 維梅爾 C. 蒙德里安 D. 倫勃朗

梵高的畫筆觸應該很粗獷,色彩應該更加艷麗。有「粉刷匠」之戲稱的蒙德里安應該畫更加抽象的作品。維梅爾更加註重構圖和對環境肖像更感興趣(腦補《倒牛奶的女人》)。而倫勃朗注重光線,畫了很多中產階級的肖像。八九不離十應該是倫勃朗吧。所以選D(手動微笑)。

其實這並不是以上任何一個畫家的作品,而是一件3D列印的作品,是由荷蘭的銀行ING聯手微軟和代爾夫特理工大學完成的一個項目,名字叫做「下一個倫勃朗」(The Next Rembrandt)。

研究人員首先3D掃描了倫勃朗的346張倫勃朗真跡。之後最先確定的是油畫主題:一個帶鬍鬚的中年白人男子,必須是黑衣白領,並且戴著帽子。因為這些是倫勃朗原畫中中最常見的元素。面部特徵:鼻子,眼睛,嘴巴等也是由深度學習決定。

最終的文件擁有148百萬像素,150G的大小。3D列印之後裝裱。如果不是油畫專家或者藝術發燒友,這幅油畫足夠以假亂真。

參考文獻:

The Next Rembrandt


按照目前科學界的劃分

普通認為人工智慧分為三類

弱人工智慧

強人工智慧以及超人工智慧

弱人工智慧是指在某個領域超過人類的人工智慧

比如阿爾法狗或者是專享科技工種機器人

在特定方向上它們勝過人類

但是在其他方向,它們的智能程度就遠不是普通人的對手了

第二種是強人工智慧

它們是指在各個方面都可以和人類比肩的存在

人類所有腦力運動它們都能夠與之匹敵

這樣的人工智慧再現有科技下,幾乎可以說不存在

最後一種,就是超人工智慧

這是存在於未來藍圖裡的人工智慧類型

它們幾乎在所有的領域都超過了人類最最聰明的人

也就是說在智能方面,超人工智慧將完全超越人類的終極智慧

類似終結者里的天網那種,無所不知,無所不能,甚至可以預知未來,穿越時空……

一般人工智慧災難型科幻電影里,都是達到超人工智慧的程度才會對人類造成滅絕的危險

如果只是強人工智慧,頂天也就是一堆機器人戰士,還不存在完全碾壓人類的可能

更別說如今的人工智慧發展僅僅處於第一個階段

連弱人工智慧也僅僅在個別領域上發展起來

絕大部分領域現在依然是人類的天下……


更新:感謝各位的積極評論,想不到贊數沒到100,評論數先破100了;基本每條評論我都認真回復了,這裡我再總結一下。(建議先看原回答,再回來看總結)

0,個人認為(柏林創業公司CEO也這麼認為),自動駕駛到達非常成熟的L5技術,仍需至少5年。

1,技術成熟後,需要和政府溝通,讓單輛車自動駕駛上路,這裡每輛車還是自私的,規劃自己的最短路徑以及用AI躲避行人自動駕駛,這個或許再考察個過2-3年。

2,單輛車自動駕駛成熟後,再次需要政府批文,在某個城市試點全自動駕駛車輛,沒有一輛人類駕駛汽車。這個時候便是這個城市的納什均衡,每輛車的路徑都由運籌學演算法生成,不存在「自私」的開車行為。這個保守估計10年後。

3,上面這條規劃所有汽車的路徑問題,不是一次性的,而是實時的。這時候便需要5G高速通訊技術,華為今年的國際某大會上,一些演算法被列入5G通訊標準了,可喜可賀,可以看看那條廣告,裡面有講到所謂的車聯網,以及物聯網,例如紅綠燈,都可以與汽車實時通訊。

3.1,關於大數據的計算問題,需要雲計算,雲端有一個大的CPU和GPU集群,車輛收集到的數據實時傳送到雲端計算,然後傳送回來,這時便需要5G超高速傳輸。當然車內應搭載小型處理器,處理一些基本的運算。

4,假設以上都實現了,評論中提到很多例如出事故誰負責,以及行駛優先權的問題。

5,大數據時代,誰擁有數據,誰就是最後的贏家。例如安桌系統,他開源全免費,Google靠什麼賺錢?答案就是所有使用案桌系統用戶產生的數據。

同樣如此,今年百度開源了自動駕駛的開發平台(阿波羅計劃),免費提供給車場以及其他研發自動駕駛技術的公司使用,目的就是想掌握所有汽車的信息。

6,關於事故誰負責?出事故了,可以把事故視頻調出來,A車避免碰撞演算法由a研發,B車有b研發,如果是A車的責任,那麼理應由a公司承擔,而百度是不承擔責任的。

7,關於優先權。在我設計的這套未來自動駕駛的概念里,百度擁有所有汽車的信息和數據,因此只有百度有這個能力可以做所有車輛「納什均衡」的路徑規劃,那麼它也可以賣「優先權」。

8,政府這時也必須插入,百度勢力太大也不好。例如美國總統訪華了,總統車輛得搞個優先權吧?

9,如果百度和阿里各share 50%車輛的信息,那麼做多車路徑規劃的時候,就做不到整個社會的「納什均衡」了。

當然有競爭比一家壟斷有其他方面的好處,不展開。

10,網路安全到那時候會顯得格外重要。

黑客入侵了百度,那麼整個城市都將是車禍。

-- 有時間會將該回答整理並擴充成專欄文章,發表到:

[運籌帷幄]大數據和人工智慧時代下的運籌學


三圖(未來黑科技)預警!

我個人很不喜歡開車,每次都希望老婆替我開。特別是如海德堡到法蘭克福這樣半小時以上的「長途」,更是吃不消。

因此就這個問題,我個人最關注自動駕駛這個領域。

據說德國某公司投入幾億歐元成立了AI實驗室,全球廣納良材,招聘廣告中暗指五年後要出無人駕駛的計程車,廣告都打到我老闆這邊來了。(遂邀請其來海德堡大學做相關報告,歡迎小朋友們11月前來圍觀)

對此我是很興奮的,因為這意味著離全民無人駕駛不遠了。

設想那一天到來時,你不必再為北上廣深的高房價擔憂,因為你完全可以住到例如無錫這樣的房子白菜價的鄉下,然後照常時間起床,上車。。

車上應該配備了洗漱、早餐、化妝等各種基本設備。

假設車程一個半小時,如果手腳快一點搞定洗漱、早餐和化妝的話,還能再打一小時盹,睡個回籠覺。。

我是研究運籌學和計算機視覺的,在無人駕駛領域,運籌學的用武之地在於多輛車的路徑規劃和調度問題,以及收集到海量數據後最終的決策問題。

而計算機視覺,特別是深度學習,更是"智能"駕駛的核心--通過對安裝在車輛上的攝像頭產生的圖片進行實時處理,識別前方道路以及車輛、行人,然後再用運籌學這個決策科學,做出加速、減速、拐彎等最終決策。

從這個意義上講,以前你住城市郊區,每個人「自私」地開車、超車、搶道,導致堵車經常發生,你也需要一個半小時開到公司。

而現在,有了無人駕駛,和運籌學的智能路徑規劃和決策,你可以花同樣的房租住無錫的別墅。並且開車堵車這個老大難問題,因為無人駕駛可以從此達到整個社會車輛的納什均衡。

路徑和開車時的所有決策完全由運籌學和計算機視覺演算法生成,從此不再堵車,不僅節省了所有人的駕駛時間,還省了能源,所謂多贏

根據上個月在德國柏林運籌學年會上一個自動駕駛的學術報告所述(演講者為柏林一家自動駕駛創業公司CEO兼CTO,最近被TomTom收購),目前谷歌等自動駕駛龍頭企業已宣稱到達L4級技術(總共L1-L5級,5級即為完全自動駕駛)。

OR2017 Berlin | International Conference on Operations Research – Annual Conference of the German Operations Research Society

那麼,那一天,或許真的五年後就要來臨了。

當然了,大數據時代,擁有數據的公司則擁有一切

這個時候,用戶多花錢,或許可以購買自動駕駛路徑規劃的「優先權」,更短的時間到達目的地。

或者,某位國家領導人造訪,給其車輛設置最高級的優先權。(當然需要政府為其埋單)

現在萬事俱備,只差各國政府的一個章了

而你,準備好用上海80平換無錫300平的太湖湖景別墅了么?

更多有關AI和運籌學的黑科技,敬請關註:

[運籌帷幄]大數據和人工智慧時代下的運籌學

最後,是通往大洋彼岸世界名校,以及人工智慧、數據科學家的傳送門:

歐洲、北美、全球留學及數據科學深度私人定製諮詢,從此DIY - Ruobing Shen的文章 - 知乎專欄


人工智慧指的是用機器來模擬人的思考過程,讓機器更加聰明,具備人類所特有的「智慧」。有許多實現人工智慧的方法,例如神經網路、深度學習等等,伴隨著它的發展,出現了很多擔憂或質疑的聲音——終有一天人工智慧會對人類產生威脅。但是就目前人工智慧達到的程度來說,一些科幻性的設想仍需要時間。我們可以先通過人工智慧比較突出的領域成果來看一下其整體發展程度。

谷歌的無人駕駛汽車

無人駕駛曾被稱為未來對人類影響最大的人工智慧之一,顧名思義就是不需要人類進行操控就能夠自動行駛的汽車,這也是我們經常在各種科幻大片中看到的場景。聽起來很魔幻是不是?但它距離我們並不遙遠。谷歌在軟體領域領先於世界先進水平,很久之前谷歌就開啟無人駕駛汽車項目,目前已經行駛了70萬公里,谷歌的無人駕駛汽車如下圖所示:

無人駕駛汽車頂部有激光雷達,此雷達可以360度旋轉,向外發射多束激光,同時接收周邊環境反射回來的激光,由此判定周邊的障礙物分布和距離,這一部分的原理有些類似我們使用的激光測距儀。

車身周邊配有普通雷達,用來探測車身附近的障礙物,它的有效距離要明顯低於激光雷達,與現在汽車上用的泊車雷達相似。也就是說,激光雷達負責大場景,普通雷達負責車身附近。車上的加速度、角速度等各種感測器,還可以配合GPS感測器確定車輛的具體位置、偏轉角度、航向等數據。這些數據結合攝像頭拍攝到的實時畫面進入電腦,由具備人工智慧的軟體以極高的速度進行信息處理,並對這些信息進行綜合分析,根據分析結果迅速判斷下一步航向,然後獲得類似下圖的機器視野。

圖片雖然看上去很複雜,但由此我們可以得出:在機器的視野中,它已經可以識別很多物體,比如紅綠燈、行人、車輛、建築物等。圖中紫色區域標註的是汽車,紅色的是行人,各種線段則是他們經過的軌跡。谷歌的無人駕駛汽車如今已經可以識別交警的手勢,這些都是人工智慧的功勞。

類似原理的人工智慧還有無人操控磁懸浮中央空調——通過「無人值守」的方式實現正常運轉。該產品將磁懸浮製冷技術應用於數據中心領域,搭載智能雲服務平台,實現了自節能、自運行和自清潔三大技術。它憑藉智能控制系統,動態跟蹤熱負荷變化,為用戶提供了精確服務。這種「無人值守」的智能管理方式,從故障監測、數據分析以及遠程操控等方面都優於人工。

這款無人操控磁懸浮中央空調應用了磁懸浮無油運轉技術,實現了對空調壓縮機的零摩擦,也加速了該行業向智慧時代邁進。可見人工智慧化管理不僅能夠節省人工成本,也為產品的控制分析等提供了更精準的平台數據。

仿人機器人

本田的著名仿人機器人阿西莫作為仿人機器人外形和和十幾歲的小朋友類似,身高1.3米,體重54公斤。

那麼這個仿人機器人與真人有多相似呢?身材嬌小的阿西莫能走能跑,上下樓梯毫無困難,甚至可以踢足球、開香檳、隨著音樂翩翩起舞,端盤子送咖啡這種並不複雜的事情它能夠輕鬆完成,甚至還可以與小朋友一起聊天玩耍。奔跑時的阿西莫速度最快可以達到每小時9公里,可以直線跑和折返跑。阿西莫擁有靈巧的手指,可以和人類握手,通過手語和各種手勢與人交流。

其實,阿西莫全身布滿著各種感測器,視覺系統是重中之重。阿西莫的視覺系統和人類不同,人類的視覺只能看到目光所及之處,而阿西莫的視覺系統可以實現360度感應,也就是你從它後方走來,它也依然能感知認出你。除了視覺系統,阿西莫的超聲波感測器可以探測3米範圍內的物體,它的原理類似於蝙蝠的超聲定位,在黑暗環境中阿西莫依然可以「看清」物體,正常行走。

阿西莫體內有用於控制自己運動的各種感測器,因此它可以精確掌控自己的運動方向、運動速度、加速度、偏轉角、身體姿態、穩定程度,從而配合智能演算法控制自己的重心,實現流暢地拐彎跑步、上下樓梯等動作。即使你冷不丁推它一下,它也會迅速找回平衡而不至於摔倒。

另外,阿西莫手上還裝有多種力覺感受器,這就是人類和它握手時感覺很舒服的原因:它可以根據力覺感受器的數據感受人類握手的力度和方向,然後找一個適合與人類握手的力度及方向,讓其感覺舒適。還有個有意思的設計,就是阿西莫可以理解人類的「眼神」,它會通過記錄人類的眼球運動來判斷運動預期,從而禮讓人類。

世界第一座智能家居宅邸

圖中的這棟建築是世界第一座智能家居宅邸,由比爾·蓋茨於上世紀九十年代末建造。這座「未來屋」內部的所有家用電器都通過無線網路連接,配備聲控及指紋技術,做到進門不用鑰匙,留言不用紙筆,牆上有耳,隨時待命。其中已經有很多家用電器打上了智能化標籤,並隨著技術的進一步發展不斷完善。

例如現在的智能冰箱產品,就已經打破了傳統冰箱工業的設計束縛,將人機交互科技融入冰箱,支持觸控交互、人感交互、語音交互、智能大屏交互等。自帶的外部攝像頭能夠進行QQ物聯、視頻聊天,內部攝像頭能及時對食物進行儲存監測。

在語音識別方面和圖像識別方面,實現通過語音就能查詢用戶所需內容,並識別人臉、表情和食物等。智能大屏上可以點擊進入不同頻道選擇相應內容,冰箱會根據內部食材數量、類別以及口味偏好等推薦不同的飲食菜譜。類似這種智能家居產品在語音、圖像、自然語言識別等方面已經發展到了新層面,用戶可以直接通過相關模式識別對產品設備進行合理控制。

除此之外,智能冰箱兼多種功能於一身,用戶甚至可以通過冰箱來採購到全球最新鮮的食材,真正做到足不出戶體味全球美食。這也意味著當代智能冰箱的作用已經不僅僅是對食材進行保鮮,而是融合了影音娛樂、美食、購物、智能管理等多方面於一體的智能家居產品。

隨著人工智慧在生活中出現的越來越多,我們的生活也變得越來越智能,電視劇中安迪、賀涵的智能家居都展示了人工智慧的力量——回家自動開燈、家中恆溫恆濕、自動背景音樂、自動窗帘、自動打掃、自動安防等多種功能已經實現,部分智能語音類家電產品已經可以接收解釋自然語言,同時發出控制指令。

雖然就當下來說,人工智慧尚不完美,但未來它一定會做到「知你所想,幫你所急」。現在國內的家電市場上,已經有了可以實現語音交互的電視、可以看家護院的智能管家機器人、實現各種智能控制的智能家居系統等產品。人工智慧與家電的深度融合會成為未來的發展方向,畢竟能真正給用戶帶來便利的人工智慧才是最有價值的。相信隨著時間的推移,人工智慧與人們的生活會更加密不可分。以上就是小海的回答,希望對你有所幫助~


很多人知道人工智慧(Artificial Intelligence,簡稱 AI),是因為2016年谷歌麾下DeepMind公司的人工智慧AlphaGo贏得與世界圍棋冠軍柯潔的比賽。其實人工智慧不光會下棋,就目前所知,人工智慧已經在醫療保健、金融、傳統行業的不同領域有所應用。而且快速發展的AI技術,也正在一步步地影響著我們的現實生活。

對美團外賣而言,人工智慧技術的發展,能大大降低我們騎手在送餐途中的安全隱患問題。美團外賣日完成訂單量已突破1800萬單,活躍配送騎手達50萬。每到飯點,騎手為了每天的送單量達標,需要頻繁實時操作手機進行接單、查看訂單、上報送餐狀態等,甚至有些騎手在騎車過程中也會如此,容易造成安全事故。

基於此背景,美團外賣與科大訊飛跨界合作,通過技術革新研發,讓AI科技深入外賣配送場景中——「美團外賣智能語音助手」應運而生。美團外賣智能語音助手分為硬體和軟體兩大部分:

①硬體部分是結合騎行環境定製的藍牙耳機,具有防風降噪、充足續航、防水等特性。

②軟體部分則是結合商家、騎手、用戶、環境等大數據以及語音識別、基於機器學習的場景精準預測等人工智慧技術的語音交互系統

當外賣騎手佩戴耳機後,可以通過自然的語音交互方式完成接受派單、到店上報、取餐上報、語音撥打電話、送達上報等操作,實現全場景的語音交互,簡單便捷。

除此之外,依託美團配送AI大腦,系統還會進行一系列的智能提醒與引導,包括騎行超速提醒、天氣提醒、到達客戶附近時的打電話提醒、訂單查詢與自動播報、配送任務規劃等,實現為騎手安全的全方位護航

上個騎手視角視頻大家直觀感受一下↓↓↓

如大家所見,美團外賣在今年5月份組建產品技術團隊研發的「美團外賣智能語音助手」,產品看起來很簡潔、易用,但背後是豐富的大數據和多項人工智慧核心技術。比如產品首創「零喚醒」的語音交互設計。和常規方案不同,「零喚醒」交互基於配送全維度大數據和多項核心AI技術,可以實現場景自動識別,不需要經過複雜的人機反覆交互就能智能喚醒,使用者只需要「傻瓜式」回復「是與否」就能完成操作,系統更聰明,流程更簡單。

以前騎手送餐的每個環節,都要打開手機、點開app、進入頁面、查看操作,至少要五、六步,現在動動嘴皮子就解決了,從而讓配送員更安全。

外賣配送場景與生活服務息息相關,未來希望能把更多的AI技術落地於生活場景,用科技來解決外賣配送安全問題,更好地守衛生命安全。

_________________________________________________

最後,再上一個美團外賣騎手×智能語音助手的參訪視頻,安全是對愛最好的回應!(看哭了很多騎手的一次走心採訪!)


推薦閱讀:

如何利用變分法求出球面上任意兩點之間短程線方程?
實變函數教科書推薦?
能否吹出環形肥皂泡?
"1 + 1 = 2" 是定義, 還是定理?
定理證明?

TAG:人工智慧 | 數學 | 信息技術IT | 計算機科學 | 科學 |