如何評價MXNet發布的1.0版本?
01-13
在Github上發現了MXNet發布了1.0版本
apache/incubator-mxnet
這次主要是速度和穩定性上的改進,多卡imagenet訓練可以比pytorch快20%吧。
新功能不多,值得一提的主要是gluon的dataloader支持多個worker了,速度快不少。
歡迎試用,有什麼問題可以到我們的中文論壇上來討論:https://discuss.gluon.ai/
另外推薦李沐的動手實踐深度學習的課程:https://m.bilibili.com/space/209599371一直非常期待,不過沒有見到傳說中的dynamic batching。
這個問題和隔壁pytorch 0.3.0發布評價對比 可能還是使用pytorch的知乎用戶量更多
4年後,必然成功
早已經投奔pytorch了。。。
這個問題和隔壁pytorch 0.3.0發布評價對比 可能還是使用pytorch的知乎用戶量更多 心疼沐哥一分鐘
個人在想大概這個API都要固定下來了吧 0.12到1.0.0的改動感覺並不是特別大
說了一堆廢話 最後強推gluon長期看來,也沒有什麼大的更新,很平穩的升級。我列舉幾點有意義的:
- 多了一個CaffeTranslator,可以把caffe的prototxt轉換成mxnet的python代碼,但是是java實現的。。
- Gluon也逐漸成熟了,特別是教程很給力,深度學習每方面的應用該有的都有了。如果不是研究很複雜很變態的網路結構,直接從教程中copy代碼然後改改就能滿足絕大多數需求了;
- 多了Sparse運算元,NLP什麼的估計會受益;
- 可直接兼容樹莓派,tx1什麼的
幾點建議:
- 圖像處理仍是深度學習的最主要熱點,從最近一段時間的學術創新上來看,Caffe仍然是圖像處理方面的王者,許多有價值有創新的代碼仍誕生於Caffe。MXNet應該是所有現代深度學習框架之中,對Caffe遷移性和兼容性最好的,所以繼續保持和擴大這種優勢是十分必要的
- 可視化方面必須加強,Tensorboard兼容性有待提高,或者集中力量開發自有可視化前端,這也是必要的
- Windows上GPU性能差一些,而Caffe在這方面表現的比較好,這個有待提高
mxnet能不能做個conda的binary版。。。在老操作系統上glib升不了級。。。好煩。。。有什麼解決辦法嘛,pytorch有個conda的binary版 毫無壓力
看了看更新日誌,突出一個快字
推薦閱讀:
※PyTorch到底好用在哪裡?
※2017年1月18日Facebook發行的PyTorch相比TensorFlow、MXNet有何優勢?
※如何理解一維卷積神經網路的輸入?
※學習機器學習過程中都走過哪些彎路,怎樣避免走彎路?
※有沒有可能做出在歐陸風雲里和頂尖人類玩家同等水準的AI?
TAG:機器學習 | 深度學習DeepLearning | mxnet |