怎麼看待INTEL處理器支持AVX-512指令集?
深度學習因為演算法密集暴力,通常使用GPU多核並行加速計算,如何看待新型的英特爾處理器將高級擴展指令集擴展到了512位以加速處理深度學習應用。
不得不說原文 (Intel will add deep-learning instructions to its processors) 的作者很會吸引眼球。
AVX-512 系列的擴展指令和之前的 SSE/AVX-128/AVX-256 一樣,都屬於向量運算指令,其主要特點就是支持的數據寬度更大了。這些支持更大數據寬度的向量指令一直以來 (遠在深度學習流行起來以前) 就被用於加速各種實際運算,例如多媒體編解碼、加密解密和數值運算等。深度學習的很多演算法中正好也存在這類運算和需求,所以 AVX-512 被運用在深度學習上也是一件自然的事情。
雖然 Intel 最新的桌面和 Xeon 處理器中都開始支持 AVX-512,但是並不意味這些處理器可以馬上替代現在的專用加速卡 (例如 FPGA 和 GPU) 在深度學習中的地位,因為核數 (或者硬體線程數) 太少。個人覺得 AVX-512 還是要在 Xeon Phi 這種單晶元上百甚至幾百核 (或者硬體線程) 的 CPU 上才能具備和現有專用加速卡比較的意義。AVX-512其實在Larrabee就有了,也就是SSE-&>AVX-&>AVX-256的進一步擴展。可以用於深度學習,也可以用到別的地方,不是支持深度學習指令。報道出了偏差,到底誰負責。
avx-512都能當深度學習指令啦?那我的老hotwell上至少有avx2,是不是也是半個深度學習指令?
說到底這玩意兒早就有了,intel的guide上掛了兩年應該有了吧,可惜只有xeon上能用。
不過另一方面說,加倍的數據寬度理論上又有兩倍的吞吐量提升,理論的峰值性能一定是上漲的。
我不太清楚深度學習的演算法實現是如何,但avx這種數據並行和gpu那樣堆運算核心還是有些區別的。avx就是矢量指令集, 已經有段時間了. 從avx2開始比較成熟, 然後avx512加倍了矢量寬度. 優點是用c編譯器或者彙編指令即可編程, 可以無縫銜接到程序裡面, 可編程性比gpuapi好, 缺點是運算效率還是不如gpu. 其實就是靈活性和性能的取捨. 深度學習目前還是偏重gpu的.
avx多數應用在一些可移植庫上面, 作為一個編譯選項, 屬於一種不用白不用的思維.希望加兩點功能1.累加指令 2.跳步訪存
不然和gpu依然沒辦法競爭,因為計算能力已經夠了,90%以上的時間花費在訪存上
現在的媒體就知道搞標題吸引眼球,都應該扒光拉出去遊街
就算支持也存在內存帶寬不足的問題,估計要四通道才能勉強在多核全開時發揮AVX256的作用,更不要說AVX512了。
無良媒體 報道差錯
推薦閱讀:
※英特爾顯卡相比其他顯卡如何?
※為什麼Intel不開發獨立顯卡(GPU)而是選擇開發Xeon Phi這種協處理器?
※Google、Intel、Adobe 等多家公司之間的「互不挖牆角」協議是否違法?
※晶圓代工(foundry)是一門好生意嗎?
※請幫忙分析一下筆記本CPU:i7-5600U與i5-4310U之間的性能差別?
TAG:英特爾Intel | 中央處理器CPU | 機器學習 | 圖形處理器GPU | 深度學習DeepLearning |