人工智慧在哪些領域還落後於人類?
已經全部淪陷了么?
說個好玩的吧:威諾格拉德模式挑戰
請看下面這句話:
這頭大象裝不進冰箱里,因為它太大了。
請問,上文的「它」指代什麼?是大象,還是冰箱?
先別笑。
三歲的孩子能回答出是大象太大了,計算機卻不一定搞得清。
這類問題叫做代詞消歧。
70年代,斯坦福計算機科學家威諾格拉德(Winograd)提出了一種特殊的代詞消歧問題,叫做威諾格拉德模式挑戰。舉個例子:
問題1
市議會拒絕給示威者頒發遊行許可,因為他們害怕暴力。
請問,誰害怕暴力?A.市議會B.示威者
問題2
市議會拒絕給示威者頒發遊行許可,因為他們倡導暴力。
請問,誰倡導暴力?A.市議會
B.示威者
顯然,問題1的答案應該是A,問題2的答案是B。兩個問題只有一處不同,但代詞「他們」指代的內容完全相反。
那麼,如果讓計算機來回答這類問題,表現如何呢?
在2016舉辦的挑戰賽中,最好的成績是58%的正確率。這個結果太讓人沮喪了,因為就算瞎蒙,理論上也有50%的正確率。也就是說,人工智慧在面對威諾格拉德模式挑戰時,並沒有比瞎蒙高明多少!這說明,目前的人工智慧還不具備人類邏輯推斷能力和常識。
(威諾格拉德)
最近,國內一家公司搞了個大新聞。如何看待學霸君的高考機器人 Aidam 高考全國文科數學卷考了 134 分? 對此,我強烈質疑。
這是因為,在牛頓力學建立之前,想造出宇宙飛船是不可能的。同樣的,了解威諾格拉德模式挑戰之後,你就會明白,自然語言理解領域還有基礎性的問題沒有解決。恐怕如今的計算機連小學數學題的題干都讀不懂,遑論去做高考題。希望這家公司踏踏實實做事,少一些炒作,別再忽悠大眾了!
補充:評論區的關注點都在文末的學霸君上。(其實這並非本文的重點。)
我的觀點是,這家公司目前既不敢公開測試產品,也不肯公布任何技術細節,這是可笑的。在它拿出有說服力的證據前,我保持懷疑的態度。不多討論。相關回答:
胡晟:無人車的AI遇到違章搶道的人/車會不會避讓?如果會的話,是否很多人類就會大膽在無人車前面搶道?就目前而言:
1)文本風格遷移
目前 AI 研究界里「文本風格遷移」有什麼重大成果?現在,圖像風格遷移已經如火如荼,就連人臉表情遷移都已經到了非常成熟的地步。不過,一些優秀的人類作家,可以模仿其他人的語言風格。然而,AI還做不到這一點。圖象的「風格」已經有了近似的參數定義,但我們還無法歸納出一個代表文本風格的方法。
舉幾個人類文本風格遷移的例子:
紅樓夢變成英國貴族風會是什麼樣? - 知乎;
如何模仿翻譯腔? - 知乎;
如何模仿德式翻譯腔? - 知乎;
如何模仿俄式翻譯腔? - 知乎;
如何用日本輕小說腔講述中國故事? - 知乎;
等有一天,AI能把一篇文言文,用魯迅先生的風格翻譯出來,那才算是超過人類。
2)編程
目前的AI還做不到讀懂人類寫出的需求,然後自動寫出程序和軟體。就連不同編程語言之間的自動轉換都非常原始。此外,AI也無法根據人類的教材,自主學習新的編程語言。當然,DeepCoder是一個有益的初步嘗試。
3)數學
這裡說的數學,不是算術和ATP這種已經被演算法(還算不上AI)攻克的課題,而是抽象的數學理論。現在,還沒有任何一個AI能獨立寫作一篇PhD級別的數學論文。(而且,AI連高考數學都拿不到滿分,且不提近日關於其是否斷網斷資料庫的爭議。)和其他的科研項目相比,數學論文不需要過多的物理實驗,而運算則可以由AI自行執行,所以相對難度不會過高。
4)科研
同上,AI還不具備獨立寫作有價值的科研論文的能力。
5)講故事
現在的AI還沒法講一個語言流暢、有完整起承轉合、有創新(不是照抄現有文本),且可能在人類市場上熱銷的故事。曾有人試過用RNN寫科幻電影劇本,還拿了獎,但說實話,那個劇本幾乎是無意義句子的堆砌(語法和句義都沒有問題,但整體無法理解),完全無法形成受大眾歡迎的劇本。
6)常識以及不同分支能力的整合
這涉及到將擅長不同單一領域的弱AI,整合為一個各方面都很出色的強AI,目前還做不到。
7)政治
人類政治是小樣本學習的巔峰——大多數政治決策的機會只有一次,你不可能重複上百萬次來獲得充足的iid樣本。其關鍵在於歸納和演繹的結合,還會涉及到博弈論、心理學、地理、經濟等眾多學科的複雜關係。quora上曾經有這樣一個問題:「能否讓一個神經網路擔任美國總統?」一個簡明幽默的答案是:「可以,但是誰來訓練它呢?」
評論區里提到用歷年總統數據訓練AI,這讓我想到一幅很有意思的xkcd圖:
小樣本學習的最大問題就是過擬合
最後,關於AI的想像力、創造力、自由意志和「真正」地理解XXX:
如果沒有良好的定義,這些說法就會變成完全無法驗證的玄學。一味探討潛水艇會不會游泳,對於AI的發展毫無作用。
近年來,人工智慧,或者說機器學習演算法的發展速度很快,其中最引人注目的領域就是深度學習了。深度學習(DL)在很多技術領域中都已獲得廣泛應用,包括機器翻譯、語音識別和物體識別等。在研究社區中,人們可以找到各類研究作者開源的代碼,複製他們的結果,進一步發展深度學習。但這些深度學習系統大多為特定的任務進行了專門的設置,只適用於特定的問題和架構,這意味著人們難以開展新的實驗並比較結果,這些系統在很多方面上也仍未達到人類智能水平。
以下是斯坦福大學在讀博士Bharath Ramsundar對目前深度學習局限性的一些探討,可供大家參考。
有什麼是深度學習做不到的?把目前已知深度學習會失敗的事情列在一起很有意思,這有助於指導演算法的改進。
1. 眾所周知,當輸入信息帶有小改動時,深度學習方法就會失去準確性。想一想當顏色被調換後物體識別崩潰的例子吧。
僅僅加入一些特殊的噪點,圖像識別系統就會把大熊貓認作是長臂猿——而且是 99%確信度。這就是《越獄》第五季 Michael 手上紋身用到的梗。
2. 梯度優化速度很慢。要花費非常多的梯度下降步驟才能獲取模式。因此用於高維度預測會很困難。
3. 深度學習方法在應對約束時的表現也很槽糕。它們幾乎不可能找到滿足約束條件的解決辦法,這方面完全跟無法跟線性規劃法相比。
4. 用於負責模型訓練非常不穩定。神經圖靈機和生成對抗網路(GAN)通常訓練的並不好,對隨機種子有很高的依賴性。
5. 與圖解模型不同,深度神經網路並不擅長把自己跟真實世界聯繫起來。不能提取出因果結構。
6. 我們可以考慮影響力偵測的問題。例如參議員投票數據集,想偵測出關鍵人物。我們尚不清楚如何用深度神經網路(DNN)做到這一點。
7. 強化學習方法則非常挑剔。學習的效果在很大程度上取決於參數調節技巧。不過這個問題是有局限性的。
8. 深度學習很難推理出未知實體。比如(棒球)擊球手和屏幕外投手的視頻,我們尚不清楚如何用 DNN 技術推斷出投手的存在。
9. 在線訓練深度網路基本上是不可能的(見上面關於訓練慢的部分),因此想讓它形成動態反應很難。通常,智能活動需要在線下學習形成。
10. 人們經常會提到深度神經網路的可解釋性。我認為這個問題並沒有人們想像的那麼重要。但是,審核深度網路的確很難。我們如何確保一些偏見或種族主義的事情沒被(深度網路)學習到?
11. 讓 DNN 解決邏輯問題並不容易。3SAT 求解器的強大能力是難以被放進深度網路中的。
12.DNN 也很難應付得了寬特徵尺度。不像強隨機森林,深度網路需要繁瑣的特徵調節。
13. 超參數搜索一直很槽糕。參與者要麼需要進行繁重的責任計算,要麼就需要做大量的手動架構調整。
這絕對不是一份詳盡的清單,但所有這些問題都值得思考(也值得進行更多的研究)。一個重要的問題是,這些問題都是深度網路固有的嗎?或者它們只是能夠克服的挑戰?
老實說,這很難回答。有些問題是可能被解決的。也許會有更多的硬體能進行自動超參數搜索。有一些早期架構的機制可以自動歸一化並應對大型數據規模,所以特徵處理問題也許會改善。然而,邏輯、約束、隱藏結構和審查方面的問題則可能更根深蒂固。當然,深度學習研究者都非常有才華而且富有想像力,希望這些問題都會在未來得以解決。
目前,對於 GPU(圖像處理單元)性能的摩爾定律仍舊是有效的,但能維持多長時間?谷歌提出的 TPU(張量處理單元)和定製硬體能拯救我們嗎?對於這些挑戰我們可以持相對樂觀態度。儘管如此,我們還是有理由懷疑深度學習對(機器的)通用智能的實現是遠遠不夠的。
當然這可能只是作者的偏見。專家級的參與者也可能不擅長做預測——他們花了太多時間挖坑,卻忽視了已經種出的森林。
這次小小的探索結束了,剩下的疑問留給敏銳的讀者們分析吧!
參考原文:What Canamp;amp;#x27;t Deep Learning Do?
安啦,人工智慧木有創造力。這一點就把它打敗了。
創造力體現在:自主差異選擇、好奇心,想像力和價值判斷(沒想到寫的這麼嚴肅)
所謂自主差異選擇是指能夠自主地敏銳地察覺當前環境(或問題)與其他的不同。這個不光光是吃口飯覺得淡了要加鹽。。。應該說無論大小事都會有一種感知。簡單來說我在碼字但是感受到加濕器的水霧時而向左偏時而向右偏。你可以告訴人工智慧,去判斷水霧偏向,但是它無法自主選擇對象感知。自主性是很重要的。這是一種感受到環境差異並與差異自動進行相互作用的行為,而且這種相互作用並非設定好的,而是產生新的反應模式,與以往不同的反應模式。生命力體現在擴展和收斂的有機統一。這個擴展就在於接下來的好奇心。
我看到水霧的變化,心裡會浮現一個問題:為什麼它會有這樣的變化呢?
不要小看好奇心。阿爾法狗下完棋可不會思考為什麼對手哭了。好奇心是人的內在動力,好奇才會探索,究其本因。不斷問,為什麼,是什麼,會怎麼樣等問題。為什麼水霧會有變化?有風。風是什麼,風從哪裡來,如何獲得風,怎樣讓風可見呢,風對我們有什麼影響。。。一路問下去,不光代表著你的知識會增加,再加上上文的自主差異選擇,得到這些知識後產生新的反應模式,可以設計新的加濕器,或者新的風機,甚至新的羽毛球,換句話說,就是製造新的東西。這就是創造啊,推動人類社會進步的創造啊。
上面事例從另一個側面說明,一個能很好解決A問題的人工智慧產品換個B問題對象就呵呵噠了。現在的很多深度學慣用的網路模型,在某個問題上可以獲得與現實相近或者最優的結果,換個目標就跪了(感覺學術大神看到我這麼描述想打我。。。。嗯。。。),就是:人工智慧的泛化能力是研究的熱點難點,基於現有的機器學習方法,針對不同的研究目標,無論是分類器或預測器都可能無法達到預期效果(微笑臉)。
關於想像力,這是一種基於當前環境對沒有發生的事物的一種意識創造。所以需要有一定的合理性,有一定的現實基礎,又包含超現實的東西。
人工智慧什麼時候超現實一下,算我輸(寫到後面江郎才盡啊,累死我了)。
價值判斷這個...我們能夠在當前的社會標準下有意識地擴展延伸。簡單來說就是——創造總得創造些有用的吧。設想,如果人工智慧真的有自我意識了,一堆機器人要對抗人類,也得有他們自己的生存法則。不然怎麼相互協作。然而這些機器寶寶被我們創造出來,默認遵從人類生存法則,先做有益於人類社會的事先(哇卡卡卡)。
碼了這麼多,突然想到一點。
不創造的人類還不如機器人。。。。
嚇得我喝了口茶,走走走,擼碼去了
人工智慧現在做不到的事情可多了。
我之前聽過一個笑話,腦腫瘤醫生和家庭主婦哪個更不容易被人工智慧替代?
答案當然是家庭主婦更不容易被替代。在人類需要思考的任務上,人工智慧往往會比較強,例如下棋,例如計算,例如分類。但在人類不需要思考就能完成的很多任務上,人工智慧的水平都還很弱。例如所有的運動能力,走路跑步跳躍,人工智慧都不行。 例如所有的情緒,喜怒哀樂,人工智慧也都沒有。人類在人際交往方面也有不可名狀的理解對方的能力,無論是談判,還是交朋友,和一個人還是和一群人,對其他人的內心時間的判斷總是在意識或者潛意識中運轉,並隨之影響著我們的行為,這方面的能力人工智慧也幾乎沒有。
對於給定一個問題,如果解法有明確的限制條件(邊界),大部分領域(不包括全部,後面講例外),電腦已經超過了人類。什麼叫做限制條件?舉個例子,我和柯潔下圍棋,給定一個目標,我要贏柯潔。如果只准許在棋盤上下棋,拼棋力,這叫做有明確的限制條件。相應的就說,我不能用限制條件以外的方法來贏棋,比如說服柯潔讓棋,或者讓門衛把柯潔攔在外邊。Alphago現在能贏人類,是在有這種明確限定條件下可以贏,如果允許用盤外招,比如拔插頭等,我相信還是人類更厲害。常說的「創造力」,就是典型的突破現有的邊界來尋找新的解法的問題,電腦肯定不如人。
在有明確邊界的問題,電腦還不如人類的,目前看來,大部分是人類的本能並且特有功能(不是人和動物的共有功能)。
人類本能且特有的功能:直立行走,自然語言理解(尤其是非規範的口語)
人類本能但不是特有:識別聲音,識別圖像(動物也會)
人類特有但不是本能:下圍棋,開車(人腦不是天生就習慣用踏板和方向盤控制自己的移動)
現在看來,電腦在聲音識別上不遜於人類但是卻無法理解大段尤其是非規範化的口語(Google翻譯給的那個例子,是從類似新聞聯播等非常規範的語言里選取的)。自動駕駛開車水平要超過人也就是這一兩年的事情了,但是Boston Dynamics的雙足機器人,卻還是比人類差的遠。
基於上述觀點,對自動駕駛來說,個人感覺,對「盤外招」的應對,電腦還是很難趕得上人,人類開車可以「強行變道」,尤其在市區里車速較慢的情況下,膽小的就要讓路給不要命的,這種就屬於「盤外招」,估計自動駕駛還是很難完全應對。在一些「盤外招」比較少的情況,比如郊外的高速公路上,可能是自動駕駛最先可以應用的。
要解答題主的問題,首先要理解人類智慧的要點表現在哪裡?
人類的智慧在於,人能夠製造工具,這是最重要的一點,是人類區別於其它生物的分水嶺。從製造工具出發,我們看到原始人製造各種生活用品和打獵工具,並發現了火。到了近代,人製造出各種機器和交通工具,並開啟了現代文明之路。而現代文明,計算機、互聯網、高鐵、太空梭和空間站等等,其實也是人們製造出來的工具,並且極大地改變了我們的生活。
我們能夠製造出人工智慧,並用人工智慧來控制各種設備和裝置,也包括機器人在內,為我們服務。
那麼人工智慧在哪些領域還落後於人類?其實很簡單,就是設計和製造工具的能力。
由於人工智慧和機器人本身也是工具,因此人工智慧的最高境界就是:人工智慧能夠自我創造。它能夠在沒有人類干預的條件下,自己創造出自己。
機器人製造,既涉及到材料和半導體工業,還有各種機加工機床,以及控制程序的編製。而這一切都要讓人工智慧驅動機器人去設計和製造,其難度可想而知。
這就是人工智慧的最高境界。
我們設想一下:若人工智慧能夠自己創造自己,則人工智慧完全可能構建一個屬於它們的區域,甚至是國家。由於人工智慧不存在壽命問題,維修也方便,只是在能源方面的需求不可避免。於是到那時,人工智慧必然在能源方面和人類爭的你死我活,誰是最後的贏家還很難說。
目前看來,機器人自己設計自己,自己製造自己,還十分遙遠,甚至連可能性都不存在。但從發展的觀點看,這一天應當會到來。
其實人也在發生改變。將來完全有可能將晶元、人體組織機構、功能增強性部件植入人體,於是從某種意義上講,人體似乎也成了機器,人機合一。
真到了人類與機器決鬥的這一天,也許人們就應當想方設法把機器人和人工智慧給滅了。
================
有一部很老的美國電影,叫做《未來世界》。裡面講一男一女兩位記者到「未來世界」旅遊區去考察。未來世界是一個完全由機器人主宰的地方,那些機器人與我們尋常人一模一樣,外觀根本看不出來,但唯獨沒有性功能。
兩位記者到達未來世界後,未來世界的主管試圖用機器人替身來替換這兩位記者。兩位記者的替身與記者一模一樣,連思想感情和弱點都一致。女記者在與替身搏鬥時,一度想逃避,而替身也知曉她的想法,連逃跑路徑都被對方知曉。
經過殊死搏鬥,終於各自戰勝了對手。當兩人再次見面時,都不知道對方到底是人還是機器人。最後通過接吻來辨別真偽。
設想一下,如果我們遇見這種事,該怎麼辦?
畢竟這是科幻片,但在當年此片的確引起轟動,給大家的衝擊著實不小。
個人覺得,這種機器人大概就是人工智慧的最高境界了吧。
無論最近ai吹的多厲害,找一個能回答這個簡單問題的我看看:我兒子的爸爸的媽媽的爸爸的頭髮顏色是紅色和藍色等比混合的顏色問:我外公身體哪部分是紫色的?
The true challenge to artificial intelligence proved to be solving the tasks that are easy for people to perform but hard for people to describe formally—problems that we solve intuitively.——引用自《Deep Learning》也即「框架問題」
第一:吹牛逼的技能
第二:裝逼的技能
數不勝數啊
打dota打不過人打LOL打不過人打王者打不過人打爐石打不過人除此之外,你能否讓AI聽懂人話呢,能否讓AI幫忙調研文獻呢,能否讓AI做數值模擬呢,能否讓AI開發軟體呢,能否讓AI寫小說呢,能否讓AI剪輯電影呢,能否讓AI掃大街呢,能否讓AI蓋出鳥巢呢,能否讓AI做飯呢..可能是沒有意識吧,只能通過神經網路的計算來模擬人類的思維,就算網路設計的再複雜,參數再多,也不過是融入了設計者的意識,沒辦法自己創新,到頭來還是擺脫不了機械的枷鎖,達不到真正人類的思維高度
有人將人工智慧定義為「認知計算」或者是「機器智能」,有的人將 AI 與「機器學習」混為一談。事實上,這些都是不準確的,因為人工智慧不單單是指某一種技術。這是一個由多學科構成的廣闊領域。眾所周知, AI 的最終目標是創建能夠執行任務並且具備認知功能的智慧體,否則它只是在人類智力範圍內的機器。為了完成這個野望,機器必須學會自主學習,而不是由人類來對每一個系統進行編程。
令人興奮的是,在過去 10 年中,人工智慧領域已經取得了大的進步,從自動駕駛汽車到語音識別到機器翻譯,AI 正在變得越來越好,也離我們越來越近。近日,知名風投 Playfair Capital 風險投資人 Nathan Benaich 在 medium 上發布文章《6 areas of AI and machine learning to watch closely》,講述了他眼中人工智慧發展勢頭比較火熱的領域及其應用。雷鋒網(公眾號:雷鋒網)編譯。
1. 強化學習(RL)
強化學習是一種試錯(trial-and-error)的學習範式。在一個典型的 RL 中,強化學習需要連續選擇一些行為,而這些行為完成後會得到最大的收益。強化學習在沒有任何標記,也不告訴演算法應該怎麼做的情況下,先嘗試做出一些行為,得到一個結果,然後通過判斷這個結果的正誤對之前的行為進行反饋,再由這個反饋來調整之前的行為。通過不斷的調整,演算法能夠學習到在什麼樣的情況下選擇什麼樣的行為可以得到最好的結果。谷歌 DeepMind 就是用強化學習的方法在 Atari 遊戲和圍棋中取得了突破性進展。
應用範圍:為自動駕駛汽車提供 3D 導航的城市街道圖,在共享模型環境下實現多個代理的學習和互動,迷宮遊戲,賦予非玩家視頻遊戲中的角色人類行為。
公司:DeepMind(谷歌),http://Prowler.io,Osaro,MicroPSI,Maluuba (微軟),NVIDIA,Mobileye 等。
主要研究人員: Pieter Abbeel(OpenAI),David Silver,Nando de Freitas,Raia Hadsell(谷歌 DeepMind),Carl Rasmussen(劍橋),Rich Sutton (Alberta),John Shawe-Taylor(UCL)等等。
2. 生成模型
與判別模型不同的是,生成方法可以由數據學習聯合概率密度分布,然後求出條件概率分布作為預測的模型,即生成模型。它的基本思想是首先建立樣本的聯合概率概率密度模型,然後再得到後驗概率,再利用其進行分類。2014 年,蒙特利爾大學的 Ian Goodfellow 等學者發表了論文 《Generative Adversarial Nets》 ,即「生成對抗網路」,標誌了 GANs 的誕生。這種生成對抗網路就是一種生成模型(Generative Model),它從訓練庫里獲取很多訓練樣本,並學習這些訓練案例生成的概率分布。GANs 的基本原理有 2 個模型,一個是生成器網路(Generator Network),它不斷捕捉訓練庫里真實圖片的概率分布,將輸入的隨機雜訊(Random Noise) 轉變成新的樣本。另一個叫做判別器網路(Discriminator Network),它可以同時觀察真實和假造的數據,判斷這個數據到底是真的還是假的。這種模型是用大規模資料庫訓練出的, 具有比其他無監督學習模型更好的效果。
應用範圍:用於真實數據的建模和生成,模擬預測時間序列的可能性,比如為強化學習制定計劃,在圖像,視頻,音樂,自然語句等領域都有應用,比如預測圖像的下一幀是什麼。
公司:Twitter Cortex,Adobe, 蘋果,Prisma, Jukedeck,Creative.ai,Gluru, Mapillary,Unbabel 等。
主要研究人員:Ian Goodfellow (OpenAI) , 大神Yann LeCun 以及Soumith Chintala(Facebook AI Research),Shakir Mohamed 以及 A?ron van den Oord(谷歌 DeepMind) 等等。
3. 記憶網路
記憶網路指的是帶有內存的神經網路。為了使 AI 系統能夠在多樣化的現實社會中得到更好的推廣,它們必須不斷學習新的任務,並「記住」自己是如何執行任務的。然而,傳統的神經網路並不能做到這些。原因是當它們在執行 B 任務時,網路中對於解決 A 任務的權重發生了改變。
不過,有幾種強大的架構能夠賦予神經網路不同程度的記憶,比如長短期記憶網路 LSTM,它能夠處理和預測時間序列。還有 DeepMind 的新型機器學習演算法「 可微分神經計算機」DNC,它將「神經網路」計算系統與傳統計算機存儲器結合在一起,這樣便於它瀏覽和理解複雜的數據。
應用範圍:這種學習代理可以應用到多種環境中,比如機械臂控制物體,時間序列的預測(金融市場,物聯網等)。
公司:Google DeepMind,NNaisense ,SwiftKey/微軟等
主要研究人員: Alex Graves, Raia Hadsell,Koray Kavukcuoglu(Google DeepMind),Jürgen Schmidhuber (IDSAI),Geoffrey Hinton(Google Brain/Toronto)等等。
4. 針對小數據集的學習,構建更小的模型
大家都知道,基於大量數據集可以構建出色表現的深度學習模型,比如著名的 ImageNet,作為最早的圖片數據集,它目前已有超過 1400 萬張被分類的圖片。如果沒有大數據集,深度學習模型可能就難以有良好的表現,在諸如機器翻譯和語音識別上也難執行複雜任務。這種數據需求在使用單個神經網路處理端到端問題時會增長,即把語音的原始音頻記錄作為「輸入→輸出」語音的文本轉錄。如果想要 AI 系統用來解決更多具有挑戰性,敏感或耗時的任務,那麼開發出能夠從較小的數據集學習的模型非常重要。在對小數據集進行培訓時,也存在一些挑戰,比如處理異常值以及培訓和測試之間數據分布的差異。此外,還有一種方法是通過遷移學習來完成。
應用範圍:通過模擬基於大數據集的深層神經網路的表現,訓練淺層網路具備同等性能,使用較少的參數,但卻有深度神經網路同等性能的模型架構(如 SqueezeNet),機器翻譯等。
公司:Geometric Intelligence/Uber,DeepScale.ai,微軟研究院, Curious AI 公司,Google,Bloomsbury AI
主要研究人員:Zoubin Ghahramani (劍橋),Yoshua Bengio(蒙特利爾大學), Josh Tenenbaum(麻省理工學院),Brendan Lake (紐約大學),Oriol Vinyals(Google DeepMind) , Sebastian Riedel (UCL) 等。
5. 用於推理和訓練的硬體
人工智慧的發展依仗多項技術的推薦,而我們常說的 GPU 就是促進 AI 進步的主要催化劑之一。與 CPU 不同,GPU 提供了一個大規模並行架構,可以同時處理多個任務。考慮到神經網路必須處理大量(通常是高維的) 數據,在 GPU 上的訓練比 CPU 快得多。這就是為什麼 GPU 最近很受各個科技大佬追捧的原因,其中包括眾人熟知的 NVIDIA 、英特爾、高通、AMD 以及谷歌。
然而,GPU 並不是專門用於培訓或者推理的,它們在創建之始是為了渲染視頻遊戲中的圖形。GPU 具有超高的計算精度,但這也帶來了存儲器帶寬和數據吞吐量問題。這為包括谷歌在內的一些大公司開闢了競競爭環境,專門為高維機器學習應用設計和生產的晶元順勢而生。通過設計出新的晶元可以改善內存帶寬等問題,或許也能具備更高的計算密度,效率和性能。人工智慧系統給其所有者提供了更快速有效的模型,從而形成「更快,更有效的模型培訓→更好的用戶體驗→更多用戶參與產品→創建更大的數據集→通過優化提高模型性能」這樣的良性循環。
應用範圍:快速訓練模型(尤其是在圖像上),物聯網,雲領域的 IaaS,自動駕駛汽車,無人機,機器人等。
公司:Graphcore, Cerebras,Isocline Engineering,Google ( TPU ),NVIDIA ( DGX-1 ),Nervana Systems (Intel),Movidius ( Intel ), Scortex 等。
6.模擬環境
為人工智慧生成訓練數據通常具有挑戰性,但是為了讓這項技術可以運用在現實世界中,必須要將它在多樣化環境中進行普及。而如果在模擬環境中訓練機器學習,隨後就能把知識遷移到真實環境中。這無疑會幫助我們理解 AI 系統是怎麼學習的,以及怎樣才能提升 AI 系統,還會大大加速機器人的學習速度。模擬環境下的訓練能幫助人們將這些模型運用到現實環境中。
應用範圍:學習駕駛,製造業,工業設計,遊戲開發,智能城市等。
公司:Improbable,Unity 3D,微軟,Google DeepMind/Blizzard,OpenAI,Comma.ai,Unreal Engine,Amazon Lumberyard 等。
主要研究人員: Andrea Vedaldi (牛津大學)等。
什麼是智能?會數學運算是不是智能?會邏輯推理是不是智能?還是有自我意識才算智能?現在人類對智能的定義還沒有統一標準,更別提創造出所謂人工智慧了。
不需要效率的領域
場景理解
無監督學習符號推理不確定推理因果分析真實的複雜場景下對抗思辯審美?
人工智慧與人類智能互補,但不太可能互相代替(至少近幾十年內不太可能)兩個阿爾法狗相互對弈,先手懂得不同的起手,在不隨機的情況下,每次的結局不一樣。
整個圖靈機構架都不能識別死循環,還是想想量子計算吧
不太懂這些,只想問問悖論可以被計算機識別嗎
我很懷疑真正的人工智慧百年內能不能做出來,畢竟現在連VI,也就是交互都做不好,靠大數據收集,做出來的產物和智能一分錢關係都沒有。
推薦閱讀: