怎麼看今天Amazon發布的16 GPU的p2.16xlarge EC2實例?

732GBytes內存,不帶存儲,16個GPU由8個K80組成,一個實例就100人民幣一個小時,spot instance現在9塊一個小時

有更便宜的類似替代嗎?阿里雲會跟進嗎?


正經說幾句,感覺之前的感嘆在沒有講清楚的情況有些偏頗。

1. 現在可用的都是 Kepler 架構的 chips,如果不考慮雙精度的話(實際上 DL 是基本不考慮的),它從 core 的性能到 TFlops 都不如 Maxwell 架構的(舊) Titan X ,更不用跟新的 Pascal 架構比了。

2. 只有 spot instance 比較便宜,但是其實直接開個 instance 也沒有那麼貴。8000刀是送的所以我也沒得選嘛,但是假如有得選而且願意折騰,並且不用自己交電費的話,還是自己動手豐衣足食。此外,aws的內存是個優勢。

3. 由於1,其實 aws 很難加速科研進展。:) 我只能放個要跑一周的代碼上去讓它慢慢跑,想要更快知道結果的還是優先放本地的 Titan X 咯。

=== ===

啊!8000刀的額度終於不用開k520了!興奮到睡不著好嗎!

(spot)價格一如既往的良心啊。


我用過g2.8xlarge,在MNIST數據集上訓練經典卷積神經網路,g2.8xlarge上耗時210秒,相比於不帶GPU的阿里雲主機(耗時6000秒)加速比29倍。p2.16xlarge的GPU數是16個,是g2.8xlarge的4倍,核心數39936,是g2.8xlarge的6.5倍,估計性能會是g2.8xlarge的6到10倍,也就是說,用p2.16xlarge在MNIST數據集上訓練CNN耗時只要二十幾秒,相對於阿里雲主機的加速比是200到300倍。這個確實顯著地提升了大家嘗試不同演算法的速度。在深度學習領域有一種說法是你的硬體快一倍,你出成果的速度也快了一倍。我認為對有需求的人絕對是物超所值。

參考資料:

. New G2 Instance Type with 4x More GPU Power

. New P2 Instance Type for Amazon EC2

. 在AWS GPU主機上用Docker容器運行TensorFlow


這個是趨勢吧,搞深度學習的自己不用再搞機器了。


一台八卡K80,768G內存的機器現在來看應該也就是三十萬人民幣左右。不算電費的話,一小時一百塊,四個月就這麼多錢了。至於託管的話,只拖這麼一台機器的話一個月五千我想是夠的。怎麼算都算自己買便宜呀,如果你打算長期用的話。

而且K80速度好慢的…

另外732這個內存數目比較詭異啊……


亞馬遜的gpu雲主機我怎麼沒有看到有呢?各位大神在哪裡找到的啊?


K80主要優化了浮點運算,適合跑神經網路什麼的,不過我卻拿來跑hash

16個gpu加64個虛擬cpu,同時跑8千萬個sha1,每秒12GH


推薦閱讀:

深度學習中為什麼普遍使用BGR而不用RGB?
支持多label的caffe,有比較好的實現嗎?
如何評價谷歌最近在人臉數據集上取得驚人效果的BEGAN模型?
請問如何將深度學習Caffe做成一個動態庫,方便在其他應用程序中調用?

TAG:人工智慧 | 阿里雲 | 雲服務 | AmazonEC2 | 深度學習DeepLearning |