如何評價MXNet發布的1.0版本?

在Github上發現了MXNet發布了1.0版本

apache/incubator-mxnet


這次主要是速度和穩定性上的改進,多卡imagenet訓練可以比pytorch快20%吧。

新功能不多,值得一提的主要是gluon的dataloader支持多個worker了,速度快不少。

歡迎試用,有什麼問題可以到我們的中文論壇上來討論:https://discuss.gluon.ai/

另外推薦李沐的動手實踐深度學習的課程:https://m.bilibili.com/space/209599371



一直非常期待,不過沒有見到傳說中的dynamic batching。


這個問題和隔壁pytorch 0.3.0發布評價對比 可能還是使用pytorch的知乎用戶量更多


4年後,必然成功


早已經投奔pytorch了。。。


這個問題和隔壁pytorch 0.3.0發布評價對比 可能還是使用pytorch的知乎用戶量更多 心疼沐哥一分鐘

個人在想大概這個API都要固定下來了吧 0.12到1.0.0的改動感覺並不是特別大

說了一堆廢話 最後強推gluon


長期看來,也沒有什麼大的更新,很平穩的升級。我列舉幾點有意義的:

  1. 多了一個CaffeTranslator,可以把caffe的prototxt轉換成mxnet的python代碼,但是是java實現的。。
  2. Gluon也逐漸成熟了,特別是教程很給力,深度學習每方面的應用該有的都有了。如果不是研究很複雜很變態的網路結構,直接從教程中copy代碼然後改改就能滿足絕大多數需求了;
  3. 多了Sparse運算元,NLP什麼的估計會受益;
  4. 可直接兼容樹莓派,tx1什麼的

幾點建議:

  1. 圖像處理仍是深度學習的最主要熱點,從最近一段時間的學術創新上來看,Caffe仍然是圖像處理方面的王者,許多有價值有創新的代碼仍誕生於Caffe。MXNet應該是所有現代深度學習框架之中,對Caffe遷移性和兼容性最好的,所以繼續保持和擴大這種優勢是十分必要的
  2. 可視化方面必須加強,Tensorboard兼容性有待提高,或者集中力量開發自有可視化前端,這也是必要的
  3. Windows上GPU性能差一些,而Caffe在這方面表現的比較好,這個有待提高


mxnet能不能做個conda的binary版。。。在老操作系統上glib升不了級。。。好煩。。。有什麼解決辦法嘛,pytorch有個conda的binary版 毫無壓力


看了看更新日誌,突出一個快字


推薦閱讀:

PyTorch到底好用在哪裡?
2017年1月18日Facebook發行的PyTorch相比TensorFlow、MXNet有何優勢?
如何理解一維卷積神經網路的輸入?
學習機器學習過程中都走過哪些彎路,怎樣避免走彎路?
有沒有可能做出在歐陸風雲里和頂尖人類玩家同等水準的AI?

TAG:機器學習 | 深度學習DeepLearning | mxnet |