如何評價 Elon Musk 啟動的 OpenAI 項目?

https://coding.net/u/cocodingding/pp/86848


謝邀,還真找對人了。今天晚上剛參加了OpenAI reception,和他們 Director Ilya Sutskever 斷斷續續地聊了十分鐘。

轉載請註明出處

===先說重要的===

講到為什麼要搞 OpenAI,Ilya Sutskever提出了三個動因:

1. 這樣能夠更方便地和大學展開合作——幾乎任何大學的研究組都不會有商業方面的顧忌。

2. 這個機構能招徠頂級研究者

3. 這個機構創造的條件,能讓研究者關注少數重要的問題。

===以下是詳細經過,本段中的黑體字表示我對他原話的客觀轉述===

Reception開在NIPS主會場對面的酒廊里,幾乎人滿為患。大家或多或少都在期待OpenAI給個華麗的公開演講,但其實 OpenAI 非常低調,主辦方的人甚至連名牌都還是原來單位的(比如Ilya還是Google),不靠人臉識別過去找他們單聊,這裡真的就只剩下free food了。

此前大家還都以為,OpenAI是要做一些 opensourced AI 這樣的工作,搶 DATO, Databricks 這種 AI as a service 公司的飯碗。但當面一聊, Ilya 卻表示,OpenAI 最重要的目標,就是發表有影響力的文章

這個回答著實出乎我的意料。我一邊放慢語速,重複了我的問題,一邊湊近到足夠看清他前額稀疏頭髮的距離,側耳傾聽。

他堅定地回答道:

如果不發表文章,我們怎麼衡量自身的進步?

同行評審的文章,才是最公平的無偏估計。

我們當然有壓力,壓力就是發表文章,尤其是頂級的文章。

至於和學校的區別,Ilya認為,是讓許多名科學家坐在一起,花上一個星期甚至幾個星期的時間,真正把「什麼才是重要問題」這件事想清楚了,然後大家齊心協力,一起解決這個最重要最有影響力的問題

比起廣度,OpenAI會更加註重問題的深度。當然,這一點就算他不說,也可以很容易從他之前透露的信息中猜出來。至於擴張招聘,他看起來則是更加保守,OpenAI會擴張,但只是緩慢擴張

後來陳天奇大神也加入了討論,並問了一個很有趣的問題,轉述如下:

「那OpenAI的數據怎麼來」

這時候 Ilya 繼續用他那斬釘截鐵的語氣,反問道:

你在過去10年里,有沒有見過學術圈任何一個重要工作,是建立在非公開數據集上的?Zero,一個也沒有。所以我們會用公開數據,而數據本身並不是我們關注的主要方面。

===以下是個人感想,本段請勿轉載===

1. 如果說 Allen Institute of Brain Sciences 是一個典型的以工業化規模效應和無限資源去解決科學問題的非盈利研究機構,那麼相比起來,OpenAI 則更像是大學或者大公司的實驗室。然而今天的我們,好像並不缺一個類似的大學實驗室,哪怕他有很多錢(只要還是按照實驗室的規模來運作)。微軟、Facebook等大公司進行的研究,在我看來也已經足夠開放甚至足夠開源了。

2. 只和 Ilya 一個人的短暫交流很可能讓我以偏概全——OpenAI董事會打算做的事情和 Ilya 自己想做的事情是不是高度統一?Ilya今天和我講的和他一年以後要做的事情是不是高度統一?這些我就完全不知道了。

3.我對OpenAI最大的質疑是,是不是應該用發表文章作為衡量自身進步的終極標準?說句題外話,我一直覺得國內種種怪現狀,從高分低能到空氣污染,都是單一KPI帶來的原罪。在學術圈裡,拿SCI湊數評職稱的事情大家更是見怪不怪了。雖說Ilya的原意是指最頂級的,最有影響力的paper。但我卻一直忍不住暢想,如果能用1Billion帶來的影響力,去定義真正有價值的問題,並號召整個學術圈一起來解決。這可能要比讓一個「不會快速擴張」的小團隊自己悶頭解決問題重要得多。

Netflix Challenge 對推薦系統的進步帶來的影響直到今天我們都還能在NIPS看到。試想我們能把Netflix Challenge 這樣規模的大賽舉辦1000次。。。相比來說,我目前所了解的OpenAI眼界還是太狹小了。

4. 另外Ilya對數據的態度也讓我頗感意外。所謂數據不關鍵的觀點,其實邏輯上是講不通的。真正的情況是,大公司在很多地方有著遠超學術圈的黑科技,而這些黑科技正是得益於龐大的私有數據。今日的學術圈之所以發展不夠快,很可能恰恰是由於我們沒有足夠多足夠好的數據集。就拿deep learning來說,在海量的ImageNet問世之前,也仍然花了15年時間徘徊止步於MNIST不受主流學術圈認同。如果只依靠公開dataset,OpenAI是不是能比今年來開NIPS的這3700名研究者(或者至少,這其中願意寫paper開源的人)走的更遠?就讓我們拭目以待吧。。。


OpenAI 的背景是美國政府的科研基金連年萎縮,大批研究者向大公司的實驗室轉移。它自稱Open,在我看來是希望能夠和全世界分享研究成果,消除工業界不公開研究細節的弊端。

美國大學教授的第一要務,不是教學,甚至也不是搞研究,而是搞錢,從各種政府部門搞錢。沒錢就沒學生沒儀器,什麼研究都做不了。當然一說搞錢好像很不正經,實際上有很嚴格的審批機制。National Science Foundation是由大學裡的教授進行審批。上次聽一位剛剛在NSF結束program manager任職的教授講,本program的錢已經連續削減了五年,今年是第一次有增長,他非常欣慰。在這種情況下,NSF的proposal中獎概率已經下降到10%左右,低過一切頂級會議,是非常殘酷的競爭。每天寫proposal然後被拒,可想而知是相當痛苦,因此大學的職位對於很多人來說已經喪失吸引力。

相比之下,近年來幾家大型互聯網公司完全不為錢發愁。因此他們乘此機會招募了大量的成名教授和博士生。除了那幾個最出名的例子,還有很多不太為公眾所知的但也非常出色的教授去了工業界。工業界做研究一來沒有教學任務干擾,二來可以僱傭很多寫代碼的工程師幫你幹活。因此是很愉快的職位。然而在工業界做研究也有重大的缺點,就是研究的結果相當不公開。這種不公開是對科學事業有損害的。

一說學術,大家知道要發文章。那麼為什麼要發文章?發文章除了對作者是一種認可,同時也是向整個學術界分享你的知識。人類的創造力都是建立在前人的基礎上的。一般頂會的文章,如果單獨拿出來看可能讓人覺得不得了,但是如果你熟悉這項研究的脈絡,往往會發現99%的文章都只是比前人多走了一步而已。有了這樣學術傳承的機制,科學才能一步一步的向前進。

大公司進行的研究,實際上很多東西是外人搞不清楚的。他們往往不希望和別人分享自己的知識產權,藉此保持技術優勢。當然,Google Deepmind 和 Facebook AI Research 最近幾年確實發表了一部分有影響力的文章。但是看這些文章的時候,你往往發現:

1. 不太清楚這項研究的歷史脈絡是怎麼樣的。研究的想法好像是從石頭縫裡蹦出來的孫悟空。這個研究從什麼問題引發,又能有哪些後續的發展?這些東西估計是他們有意避而不談的。

2. 有的文章讓人覺得不太實用。不太清楚到底是只能做到這個程度,還是有意把更好的改善隱藏起來。

3. 有些結果重現起來比較困難。不太清楚是不是在文章中省略了一些細節。

當然Google Deepmind 和 Facebook AI Research已經是比較好的例子。就算省略一些細節,只要你仔細去想,大概也能想到一些東西。很多地方完全不會告訴你他們在做什麼。之前是業界旗幟的Microsoft Research正在轉型,要和企業業務結合的更加緊密,換言之也就是把更少的精力放在純研究上。

那麼,總體的趨勢是大學裡面的科研在衰落,而商業化的科研往往在公開的程度上有所保留。就是把這些有保留的東西拿出來,已經在學術圈引發震動。那麼真正的東西是什麼樣子,大家可想而知。

如果這樣的趨勢繼續下去,大家都把自己的東西藏起來,結果會導致長期形成的學術傳統無法維持,科學發展停滯。對大公司來說,這可能沒什麼,甚至是有利於維持他們的商業地位。對於無法維持大型研究隊伍的中小公司,創業公司來說,無法從學術圈的研究中汲取營養,結果就是致命的。

從 @filestorm 的回答來看,OpenAI 顯然走的和普通工業實驗室是一條相反的路。Elon Musk是個對自由市場經濟有信心的人。市場能否找到一條推進科學的道路?我希望他成功。


詳見openAI的招聘頁面,當然你是進不去的。

Anyway招聘requirement最後一句話:

You have a rich uncle who owes you a favor.

It"s easy, we have money, and PhDs are cheap. And they only need computers and A4 paper to do math and change the world, so why don"t we buy some cheap paper and computers to hire people to change the world for us???


在人工智慧(AI)的研究歷史中,經常重新使用過時的思想。現在,伊隆·馬斯克(Elon Musk)開源人工智慧項目的研究人員也重新審視了20世紀80年代以來始終存在的「神經進化」創意,並取得了引人注目的成果。

這個團隊由OpenAI的研究主管伊利亞·蘇茨科威爾(Ilya Sutskever)領導,始終在探索這個領域一種演算法的使用,它被稱為「進化策略」,旨在解決優化方面的問題。研究人員在博客中指出,儘管這種方法的名字很容易讓人產生誤解,但其與生物進化的關係不大。 在抽象層面上,它依賴於允許成功人士將自己的特性傳遞給後代。

研究人員已經採用了這些演算法,並對它們進行了重新設計,以更好地利用深層神經網路,並在大規模的分散式計算系統上運行。為了驗證他們的有效性,研究人員讓這些演算法從事一系列挑戰工作,這些挑戰被視為強化學習的基準,這也是谷歌旗下人工智慧子公司DeepMind最令人印象深刻的技術,包括去年打敗了人類圍棋冠軍。

其中一個挑戰就是訓練演算法來玩雅達利公司開發的各種電腦遊戲。DeepMind曾在2013年宣稱,它可以利用Deep Q-Learning(強化學習和卷積神經網路相結合)成功玩轉七款此類遊戲。另一個挑戰是用演算法來學習如何在物理引擎中控制虛擬的人形機器人。

為了做到這一點,演算法從一個隨機的策略開始。這個隨機策略是一套規則,用來管理系統在雅達利遊戲中如何獲得高分。然後,它會用一些隨機變數創建幾百個版本的策略,而這些都可以在遊戲中測試。然後,這些策略又重新組合起來,而在遊戲中得分最高的策略越會受到重視。這個過程會反覆進行,直到系統制定出一個能夠很好地玩遊戲的策略。

在對雅達利挑戰進行長達1個小時的培訓中,該演算法達到了一種熟練程度,它採用了DeepMind去年發布的areinforcement學習系統,學習了一整天。在步行問題上,這個系統花了10分鐘,而谷歌的方法則用了10個小時。獲得這種引人注目性能的關鍵之一在於,這種方法是高度「可並行的」。

為了解決步行模擬的問題,他們在1440個CPU核心上進行了計算,而在雅達利遊戲挑戰中,他們使用了720個。這是可能的,因為它要求在各種「員工」演算法之間進行有限的溝通以測試候選策略。研究人員表示,像來自DeepMind的演算法一樣,以同樣的方式進行擴展強化演算法存在挑戰性,因為那需要進行更多的交流。

這種方法也不需要反向傳播,它是一種基於神經網路的方法,包括深度強化學習。它可以有效地將網路的輸出與預期輸出進行比較,然後將所得到的信息反饋回網路,以幫助其優化。研究人員說,這使得代碼更短,演算法在實際操作中要快兩到三倍。他們還表示,這將特別適用於更長期的挑戰。在這些挑戰中,行動會產生持久的影響,而這些影響可能在許多步驟之後才會顯現出來。

不過,這種方法確實有其局限性。這類演算法通常是根據它們的數據效率來進行比較的。例如,迭代次數需要依賴在遊戲中獲得特定的分數。在這個標準上,OpenAI的方法比強化學習的方法表現更差,儘管這被其高度並行的特性抵消,可以更快地進行迭代。對於像圖像分類和語音識別這樣的監督學習問題,這種方法也可能比使用反向傳播的其他方法慢1000倍。

儘管如此,這項工作還是展示出了許多有前途的新應用潛力,而OpenAI並不是唯一一個對其進行研究的團隊。谷歌始終在嘗試使用類似的策略來設計出更好的圖像識別演算法。但它是否代表了人工智慧的進化方向,我們還得拭目以待。

(英文來源/singularityhub,編譯/機器小易,校對/小小)

網易智能 2017年4月21日


先說個題外話。OpenGL還是SGI掌權的時代,會告各種以Open*命名的庫。如果是小開發者,基本只能改名了。最出名的例子就是,一個圖像庫,原先叫OpenIL,後來被SGI要求改名,就改叫DevIL。SGI Versus "Open*" and All Things "GL"? 然而SGI已經掛了,OpenGL也已經易主。這件事情不會發生了。

評價OpenAI的話,我覺得與其恐懼,不如這樣讓大家合作,共同面對此事。如果奇點早晚要發生,還不如準備好。基於公開數據集,持續學習,估計是AI的主要方向。

最後,也許迴避奇點的唯一方法,是主動植入AI,成為共生的關係。


OpenAI有著強大的業內背景,Musk和Thiel 是公司的聯席CEO,其他人包括有Alan Kay, PC的創始人之一;Yoshua Bengio,頂尖的深度學習研究員。近日,OpenAI稱已經募集到了十億美元的項目資金。

同時,有著前Google員工Ilya Sutskever和Stripe的前任CTO Greg Brockman出馬,OpenAI具備與業界頂級人工智慧裝備抗衡的能力,包括谷歌和Facebook。而且OpenAI已經將自己定性為非盈利模式。「我們的目標是推動人工智慧造福整體人類,而非產生財務回報,」Brockman在博客中說。

這次的目標是要建立深度學習的系統——人工智慧的一種新形式,最近這些年已經被證明在識別圖像,辨識口語,翻譯,從一定程度上理解人類談話等方面很有作為。

深度學習依賴於神經網路,其機器網路的構成類似於人類大腦的神經元網路。在神經網路輸入足夠多的貓的照片,它可以將貓辨識出。輸入足夠多的數據,它可以學習人類談話。人們還相信它將可以模擬人類的常識。頂尖的研究員們有希望可以推動其走的更遠。

目前,谷歌,Facebook和微軟等公司也參與到了運動中。他們嘗試開源,將平台免費分享給世界。最近,谷歌開源軟體的核心引擎TensorFlow,用以驅動深度學習。而就在這周,Facebook表示將把公司的人工智慧硬體平台Big Sur進行開源。他們希望通過廣泛合作,推動技術的發展。他們之所以做出這些舉動,是因為知道OpenAI將是大勢所趨。


因為Elon Musk自己沒投啥智能相關的公司,眼看趕不上了來玩這一招是成本最低效益最大的辦法,現實的總結一下是這樣。

另一方面,Musk一直持智能威脅態度,對於手握重器的GF兩家來說自然對本領域抱有樂觀期待,而這對包括Musk的所有不持有重量研究機構的組織來說都是一種威脅。退一步講個玩笑話黑谷的邪惡機器人打來了還有OpenAI陣營可以扛一扛,這樣就是上面 @Tok Tik 說的對於中小、創業公司來說學術圈的養分。

更新,有產品出來了,Reinforcement Learning在線學習引擎 -

OpenAI Gym

http://s3-us-west-2.amazonaws.com/rl-gym-doc/cartpole-no-reset.mp4

http://s3-us-west-2.amazonaws.com/rl-gym-doc/cartpole-yes-reset.mp4

OpenAI Gym Betaby Greg Brockman and John Schulman

April 27, 2016

We"re releasing the public beta of OpenAI Gym, a toolkit for developing and comparingreinforcement learning (RL) algorithms. It consists of a growing suite of environments (fromsimulated robots to Atari games), and a site for comparing and reproducing results. OpenAI Gym is compatible with algorithms written in any framework, such as Tensorflowand Theano. The environments are written in Python, but we"ll soon make them easy to use from any language.

We originally built OpenAI Gym as a tool to accelerate our own RL research. We hope it will be just as useful for the broader community.

Getting started

If you"d like to dive in right away, you can work through our tutorial. You can also help out while learning by reproducingaresult.

Why RL?

Reinforcement learning (RL) is the subfield of machine learning concerned with decision making and motor control. It studies how an agent can learn how to achieve goals in a complex, uncertain environment. It"s exciting for two reasons:

  • RL is very general, encompassing all problems that involve making a sequence of decisions: for example, controlling a robot"s motors so that it"s able to run and jump, making business decisions like pricing and inventory management, or playing video games and board games. RL can even be applied to supervised learning problems with sequentialorstructured outputs.
  • RL algorithms have started to achieve good results in many difficult environments. RL has a long history, but until recent advances in deep learning, it required lots of problem-specific engineering. DeepMind"s Atari results, BRETT from Pieter Abbeel"s group, and AlphaGo all used deep RL algorithms which did not make too many assumptions about their environment, and thus can be applied in other settings.

However, RL research is also slowed down by two factors:

  • The need for better benchmarks. In supervised learning, progress has been driven by large labeled datasets like ImageNet. In RL, the closest equivalent would be a large and diverse collection of environments. However, the existing open-source collections of RL environments don"t have enough variety, and they are often difficult to even set up and use.
  • Lack of standardization of environments used in publications. Subtle differences in the problem definition, such as the reward function or the set of actions, can drastically alter a task"s difficulty. This issue makes it difficult to reproduce published research and compare results from different papers.

OpenAI Gym is an attempt to fix both problems.

The Environments

OpenAI Gym provides a diverse suite of environments that range from easy to difficult and involve many different kinds of data. We"re starting out with the following collections:

  • Classic control and toy text: complete small-scale tasks, mostly from the RL literature. They"re here to get you started.
  • Algorithmic: perform computations such as adding multi-digit numbers and reversing sequences. One might object that these tasks are easy for a computer. The challenge is to learn these algorithms purely from examples. These tasks have the nice property that it"s easy to vary the difficulty by varying the sequence length.
  • Atari: play classic Atari games. We"ve integrated the Arcade Learning Environment (which has had a big impact on reinforcement learning research) in an easy-to-install form.
  • Board games: play Go on 9x9 and 19x19 boards. Two-player games are fundamentally different than the other settings we"ve included, because there is an adversary playing against you. In our initial release, there is a fixed opponent provided by Pachi, and we may add other opponents later (patches welcome!). We"ll also likely expand OpenAI Gym to have first-class support for multi-player games.
  • 2D and 3D robots: control a robot in simulation. These tasks use the MuJoCo physics engine, which was designed for fast and accurate robot simulation. Included are some environments from a recent benchmark by UC Berkeley researchers (who incidentally will be joining us this summer). MuJoCo is proprietary software, but offers free trial licenses.

Over time, we plan to greatly expand this collection of environments. Contributions from the community are more than welcome.

Each environment has a version number (such as Hopper-v0). If we need to change an environment, we"ll bump the version number, defining an entirely new task. This ensures that results on a particular environment are always comparable.

Evaluations

We"ve made it easy to upload results to OpenAI Gym. However, we"ve opted not to create traditional leaderboards. What matters for research isn"t your score (it"s possible to overfit or hand-craft solutions to particular tasks), but instead the generality of your technique.

We"re starting out by maintaing a curated list of contributions that say something interesting about algorithmic capabilities. Long-term, we want this curation to be a community effort rather than something owned by us. We"ll necessarily have to figure out the details over time, and we"d would love your help in doing so.

We want OpenAI Gym to be a community effort from the beginning. We"ve starting working with partners to put together resources around OpenAI Gym:

  • NVIDIA: technical QA with John.
  • Nervana: implementation of a DQN OpenAI Gym agent.
  • Amazon Web Services (AWS): $250 credit vouchers for select OpenAI Gym users. If you have an evaluation demonstrating the promise of your algorithm and are resource-constrained from scaling it up, ping us for a voucher. (While supplies last!)

During the public beta, we"re looking for feedback on how to make this into an even better tool for research. If you"d like to help, you can try your hand at improving the state-of-the-art on each environment, reproducing other people"s results, or even implementing your own environments. Also please join us in the community chat!


--以下純屬杜撰--

Elon:山姆老弟,AI這事兒你怎麼看?

Sam:太牛逼了,以後手裡沒有AI都不敢出去見人啊,我們YC那麼多公司都要集中出現短板

Elon:哎呀老弟你說的太對了,這事兒我也焦慮啊,大牛都被拉里和小扎收了,咱現在落後了以後就要挨打啊...

Sam:哥要不咱一起整個實驗室?跟拉里和扎克那挖人給咱弄AI?

Elon:我正有此意!可是人不好挖呀。

Sam:這個咱需要包裝一下,那幫科學家還是有點情懷的!咱就說為了避免AI技術被少數人掌握,哥你再出去吹吹牛,鼓吹一下AI威脅論,咱不就有光偉正的號召力了嗎?

Elon:這個好!但是感覺還差了點什麼!

Sam:再加上一句:沒有贏利壓力,保證科研的純粹性!

Elon:老弟你太聰明了!名字要不就叫OpenAI吧,一聽名字就滿滿的正能量啊!

Sam:名字不錯,但是咱的技術真的要Open出去嗎?

Elon:你傻啊!比較簡單的就開放出去,高級的留著自己用,尤其是等我們有了拉里和小扎手裡都沒有的技術後,就...嘿嘿嘿。

Sam:還是哥哥想得周到!我們保留開放的權力,但我們不輕易開放,哈哈哈。

以上純屬杜撰,只是為了強調OpenAI的出發點並非情懷,而是商業考量的後果。情懷是一件外衣,控制商業風險,掌握未來科技的主動權才是真正的目的。但是有一點是好的,OpenAI本身對推動AI技術的開放和普及肯定會扮演很積極的角色。隨時歡迎巨頭們掐架,我們撿便宜。


openGL openAL openCV openSSL現在又來個openAI

音視圖文都佔全了 就差一個AI了


贊同這一舉措可以成為人工智慧發展的有效推進劑。然而,在對人工智慧憂患有所了解的基礎上(為什麼有很多名人讓人們警惕人工智慧? - 科技,http://zhuanlan.zhihu.com/xiepanda/19950456),有一點顧慮(或者說疑惑)——他的「更多人使用AI才能避免人類命運受到威脅」之言論(馬斯克談人工智慧:更多人擁有才不會被威脅),如果真的是創建 OpenAI 的初衷之一,那這是否並不一定是一個好主意,反而可能會在某個時間點產生更多混亂?Anyone got an answer, please.


對AI不放心的同時站出來,不管能不能成功,至少可以製造混亂。開源是很好的手段,生命力很強。


他以前很怕AI,一直反對Larry Page對AI的研究,突然大轉彎,實在是費解

可能他認為自己有能力控制好AI吧,2016年是AI成長的重要一年,他又加了進來,同時操心那麼多事不知道他能不能忙的過來

估計人類要進入第四次革命了(工業4.0也只能算是其中)


推薦閱讀:

中文房間思想實驗是什麼?它是否成功地否決了圖靈測試的有效性?
如何自學人工智慧?
求大神通俗易懂的解釋下交叉驗證cross-validation?
IBM 是如何訓練「沃森」人工智慧平台的?

TAG:人工智慧 | 伊隆·馬斯克ElonMusk | 如何看待評價X |