如何看待李沐MXNet公開課這件事?


首先不管搶地盤也好,佔領市場也好,有一個中文的Deep Learning System的公開課本來就是造福人民群眾的事。MXNet是人家自己的孩子,用這個作為平台也是很正常的事。你能學到知識,用其他平台一樣沒問題。如果手把手教都學不會,是不是應該檢討下自己的姿勢水平?


現在的框架,感覺就差親手幫用戶調模型了…


純中文授課,作為土生土長的國人,很難看到和沐神一個級別的老師講授這些新的,前言的知識了! 有專門造過輪子的人給你講過課嗎?

至於是不是搶佔市場份額而已,一般用戶別太操心,自己學到知識才是王道。


最近關於深度學習Framework的競爭越來越激烈,我們首先來分析一下當前架構之爭的形勢:

  1. Tensorflow的地位已經不太好撼動了,我還聽說谷歌最近在北京大勢招人準備為國內推廣Tensorflow做準備,憑谷歌的實力及宣傳,Tensorflow已經朝著領導行業標準的方向在發展
  2. Caffe昔日王者,但大勢已去,Caffe的體系設計拿到現在來說是落後的,完全缺乏後端優化導致內存佔用高、並行訓練不理想這些缺陷,使其目前在學術界已經遇到瓶頸,所以今後會有越來越多人轉到其它架構
  3. PyTorch方興未艾,PyTorch作為研究人員主導的框架,有很多優點,最大的優點就是它很適合於研究,API也通俗易懂,PyTorch從發布到現在這麼短的時間內積累了大量用戶(當然包含Torch老用戶)已經很不錯了。這是一個比較有希望的架構,但是可能用戶量不會太多,因為選擇PyTorch的絕大多數是Torch老用戶,新人幾乎都被Tensorflow吸走了
  4. Keras完全可以視作Tensorflow的外殼,其簡單易用,通俗易懂的風格自然會使其在基層研究人員當中不斷壯大。Keras很有可能今後就是Tensorflow中前饋神經網路部分的代名詞了
  5. Caffe2目前還很難看出蓬勃發展的苗頭,貌似之前的Caffe使用者也很少往這個新架構上轉
  6. CNTK作為語音識別研究人員主導的框架可能在語音識別方面會有一些優勢,不過終將是小眾選擇
  7. MXNet已經發展了兩年多,但一直不溫不火,感覺後台Amazon在推廣上也不是很用心,基本處於散養狀態。還好有人提出將項目捐獻給了Apache基金會,我認為這是一個轉折點,使得MXNet從派系之爭走向了中立,使其相較於前面提到的各方都沒有太多的利益牽扯,這對其今後的發展是有利的。經過兩年的積累,架構已相對成熟,如果來個排位,我認為MXNet排在PyTorch、Caffe2和CNTK之前,但在Tensorflow、Caffe和Keras之後;然而隨著Keras和Tensorflow的進一步融合以及Caffe的逐漸失勢,MXNet應會成為僅次於Tensorflow的深度學習框架,一舉取代Caffe之前的地位不是沒有可能。

所以,推廣MXNet基本是順勢而為,MXNet遲早會是世界第二。


leadership


看起來是在推廣一項技術,但深層次還是在搶地盤,等著到時候收割韭菜。

等你們用上手了,用習慣了,還不是我說什麼就是什麼。


謝邀,

前幾天將門邀請了李沐在鬥魚直播MXNet從零開始入門深度學習的免費在線課程。關於在線課這事,已經不新鮮了。就如同很多領域都有在線課程。大家這麼關心可能也是因為深度學習目前正在風口,所以關注的人比較多吧。

做直播這事,對李沐個人和聽眾都是好事,可以說是雙贏。個人以為對李沐的利益比觀眾更大,為什麼不做呢?

比如說,對觀眾,大家能入門深度學習,能夠基本理解深度學習背後的含義以及可以解決的問題。這些優點大家都很好理解。但是對李博士的好處,可不局限於此,我簡單列舉了幾點,歡迎大家討論。

(1)在講解一個領域的時候,往往能使講解者,即李博士,能夠更深的理解這個領域的知識。這個當過老師的人,或者有給別人做過培訓的人應該深有體會。自己如果不能面面俱到到理解各個知識領域,很容易被學生打耳光。其實深度學習也好,機器學習也好,我們平時自己用的時候,不是項目主要思考的領域,我們一般會花很少時間去深入研究。比如我對RNN和GAN的理解就只能停留在書本層面,因為項目用的少。但是如果讓我去給別人講課,我一定得從頭去扣細節,做實驗,不然一定死翹翹。

(2)做直播嘛,可以吸粉,賺點收入,這個都好理解。而且這個公開課是基於MXNet去教大家如何去使用深度學習,變相的就是告訴大家「來,用我的深度學習框架吧,趕緊拋棄tensorflow,caffee,torch等等等」。這個是一件很妙的事情,如果用某個框架的人多了,以後的商業價值不用我說大家也都懂。這也是為什麼谷歌一來就開源TensorFlow。如果大家用慣了某一個深度學習框架,除非項目真的需要,一般是不太願意去換用另外一個。

(3)至於是不是跟吳大俠較勁,我覺得可能性小吧。這些人都是聰明人,不會單單因為跟某人較勁就花力氣搞這個。背後一定是有利益輸送的。做這事還能幫亞馬遜在業內外打個廣告,何樂為不為呢?


感覺這套教程可以總結為,Mxnet一直致力於給廣大熊孩子們打造溫馨並令人感動的搭積木體驗。


紮根學習呢,講的真心好,到目前為止,DeepLearning最好的課程恐怕就是李沐的mxnet實踐課和吳恩達的理論課了。


聽了物體檢測的幾節課 感覺挺好的 雖然是基於mxnet實現的,但模型結構是共通的, 理論層面的講解挺有啟發的


很棒很感謝

我的狀態:技術小白。在udacity上學完了機器學習課程,對深度學習的深度神經網路和卷積神經網路有簡單的了解但是還不太會應用,會簡單地用tensorflow寫mnist的神經網路的入門狀態。

1.我沒趕上之前的直播,看錄像學的。現在學了李沐博士公開課的前兩課,課程內容很緊湊,簡介,明確,實用。每節課還有一些思考題目。這些思考題目真的很好。是課程的亮點。

2.直播課程一步一步寫程序,我會看到原來很厲害的人是這麼寫的,這麼想的。很細節而不流於形式。在以往的學習過程中,看書理論是一回事,寫代碼是一回事,調代碼又是另一回事,每件事之間都有一個gap,爬都爬不過去,跌跌撞撞真是太痛苦了。有這麼一門中文課程,把寫代碼和調代碼也當作一回事,跟理論一起講一起演示,真好!而且講課不是乾巴巴的,完全結合應用講的,很實用!

3.有對應的中文論壇和網站,資料很完善。

4.最重要的是,深度學習或者機器學習的中文課程其實挺少的幾乎沒有,平時都是去聽英文課程比較多,雖然我英語還可以但是畢竟不是母語理解起來總是會慢一點,概念總要在腦海里進行中英文轉換,常常要浪費一些時間花在英語的理解上,對知識本身的印象反而沒那麼深刻,思維也比較難搭建。所以能夠聽到中文課程我表示很開心,而且課程規範詳細講應用細節,講課人是造輪子的博士自己,級別好高的課程,這是第一個吧。

5.我覺得這麼厲害的人還願意做這麼詳細的tutorial,準備時間和講課時間挺長,於他個人的收益應該比不上去干別的事情的收益,所以以前沒人做過,但他願意做。我覺得很了不起了。而且每次他講課的時間都是當地周五晚上的八九點鐘,他至少可以在這時間去休息啊可是他用來講課了!這一點都不是一般人能做到的吧!

6.講課的過程中李博士不像是刻意隱藏自己,將自己塑造成大神一樣的人,感覺還挺真實的。被圈粉了!!


大大的贊


非常感謝沐神!純中文授課請問還有誰?難道不是第一個中文深度學習教程么?至於平台,別人自己的東西順帶做個推廣也無可厚非,教的人與學的人雙贏


直播教學給我的感覺更貼近現實,有問題可以及時回答,(沐神看彈幕)。而且時不時還有笑點,比較活躍,而且中文教學我想對大多數中國人來說還是比較舒服的。總之為李沐點贊吧


有幸聽過李博士第一節課的分享。

感覺面向的對象是感興趣但未動手實踐的學生,加上李博士選擇了AMAZON的MXNet,很難吸收到廣泛的科研群體。

不過,內心還是支持這樣的活動,但課程內容上可能要精簡,「手把手」並不是一件好事。

對於有一定基礎的人現在入門還請大家拿個網路直接跑起來,這裡我推薦高解析度重建SRCNN-keras,這個項目是SRCNN的keras版本,因為是開源的思想,就不額外提名,這裡還是要感謝偉大而努力的前人。

所以至於用什麼深度學習的框架不重要,在學習的工程中應該重點體會基本的概念,找到項目要立刻上手。


其實我是覺得推廣系統和公益同步進行,也有可能是受老吳的刺激吧。


我想說,為啥mxnet直到現在都沒有一個好用的功能完整的c++ api,那怎麼部署啊?直接裸用c api?那個感覺挺難用的啊。。

號稱輕量級框架,卻越來越複雜,什麼mshadow、nnvm、gluon、tvm越來越多。構建一個網路有聲明式symbol、命令式ndarray和gluon三種不同方法。連logging和json解析這種輪子都要自己做(特別是logging,用默認配置的話會導致跟glog的宏定義大量衝突)。能不能把輕量級的形容去掉?

感覺內部架構有點複雜,介面設計不夠乾淨,要做複雜的定製化擴展不太友好(相比caffe)。我覺得文檔一直沒做好也有一部分原因是因為內部結構複雜,不容易把所有的邏輯和坑都講清楚吧。

靈活性和易用性上,雖然現在有了gluon,但不知道相比pytorch有什麼優點?感覺pytorch的設計好像更加純粹和漂亮一些?

好吧,我就是隨便來吐個槽的。綜合各個方面來說其實mxnet還是不錯的。


推薦閱讀:

在NLP領域,現階段最有希望突破深度學習牢籠的研究/思路有哪些?
為什麼支持向量機(SVM)被命名被「機器(Machine)」?
人臉驗證任務中的目標方程為什麼還要加入分類誤差?
tensorflow等框架是如何處理大數據的(數據無法一次性讀入機器內存)?
Facenet即triplet network模型訓練,loss不收斂的問題?

TAG:機器學習 | 網易公開課 | 深度學習DeepLearning |