如果英特爾一直以擠牙膏的方式研發 CPU,CPU 的性能是否會進入一段停滯期?
既然英特爾已經基本壟斷了CPU市場,是否意味著CPU將不會再有革命性的突破,只能永遠維持現狀,只有微小的進步?
先講一個最近發生在我們自己身上的事。
背景:
有的同行知道,我們正在做一套與Intel有一定競爭關係的原型系統,Intel在最近兩代的Xeon CPU裡面實現的幾個Xeon CPU專用的技術點,我們也實現了,目前暫時勉強處於並跑狀態(但估計很快就要被甩下了:(
Intel最近把他們的實現方案和技術考慮發了一篇論文出來,同樣的一個技術,Intel的實現在2007年模擬器評估的時候就做到了0.125%的overhead,2015年推進實際產品裡面的量產版本比這個更低。這個技術在我們的平台上剛好是我在負責做的,當時我看到這個公開的數字倒抽了一口冷氣,因為單就overhead來說我們要落後10-40倍,當時算了一下我們的overhead大致上是1.5%~5%左右。
於是很想知道Intel是怎麼做的。他們公開的那個0.125% overhead的方法,是從一篇上世紀90年代初的一篇wisc-madison的老論文裡面挖出來的,而且那篇論文與我們所說的這項技術並沒有很明顯的直接關係。如果Intel的人不把這個發現的價值重新評估一遍,可能它就永遠埋在故紙堆里了。當時看到Intel這個實現方法的來源的時候,震驚不亞於看到0.125%這個數字。
面對一個技術的需求,能夠直接挖到一篇二十多年前不太起眼的一篇不太相關的論文,然後直接開干,可能性太小了,比較合理的推測是,他們內部試驗/討論了很多很多種方法,最終在這篇二十多年前的不太相關的論文裡面獲得了實現靈感,然後找到了這個0.125%的方法。由衷佩服。
然後花了一個星期的時間復現了這個方法,測到了Intel沒有完全公開的一些數據,發現這個方法的效果比預料的還要好一些。
我想說的是,在我工作的microarchitecture這個領域裡,Intel並不是在擠牙膏,而是一直在努力探索。只有當你成為Intel的追趕者或者競爭者的時候才能感到他們的努力和強大。眼下的我僅僅是在一個學術研究機構裡面面臨一些不太直接的技術競爭罷了,都會有這種感到冒冷汗的時候,對於其他工業界的前輩和同行們來說估計壓力要直接的多,也大得多。
普通人感覺Intel進步很小,是因為單線程性能的進步空間已經越來越小了。ILP wall已經是寫進教科書里的問題,《量化研究方法》的兩位超S級作者已經給出了未來的CPU不太可能再繼續激進追求ILP的斷言,激進追求ILP的上世紀90年代已經過去了。微結構的未來在其他地方,比如多核,比如能耗,比如異構,比如cache memory hierarchy,等等。
直到目前為止,Intel的微結構仍然在許多地方保持領先,比如front-end的單線程instruction supply仍然領先IBM Power8/AMD Bulldozer及其後繼系列至少一個身位。你們啊還是要再學習一個...
CPU發展停滯,擠牙膏擠不出來本質上是因為 半導體製造技術的瓶頸...
往大里說,過去的幾十年里,普通人眼裡的科技飛速發展...基本上都不同程度的搭了晶體管的順風車...也就是摩爾定律的順風車...
半導體製造一路高歌猛進,突破90納米大關,本來到了大概45用193nm 的ARF來曝光已經到了極限...但是ASML的immersion刷新了這個極限...一直到了28nm, 甚至到14nm依然用改良的193ArF immersion曝光機進行double甚至triple patterning...雖然成本很高,但是好歹可以勉強接受...然而到10及以下,基本上已經193波長完全不能滿足了...下一代EUV採用13.5nm的極紫外,只是實在還不太成熟,而且成本更高...就很尷尬的卡在這裡了...
如果說EUV方案其實還好...晚個一兩年但完全可以量產,用到7nm也不是問題...然而下一個問題卻是神也無法解決...
5納米的時候就是所謂的物理極限...其實就是5nm會出現大量的量子效應,也就是電子遂穿等,再牛逼的高勢壘材料也擋不住....屆時晶體管的作用機理將完全失效...天要下雨,娘要嫁人...所以ITRS果斷宣布摩爾定律失效...
講到這裡,tick-tock的一個腿就已經斷了...
可以說這個鍋因特爾完全不背啊...however,還是有幾種解決方案的...比方用high mobility的三五族化合物等做溝道材料,比如說發展3D結構 (不是Finfet,那不是3D),比如說quantum dot啊等等...這些課題,各大世界級高校都有在做...成熟到商用也是毋庸質疑的...雖然不知道Intel進展如何,但可以肯定Intel絕對走在最最最前面...
然而速度放緩是註定,而且可以預測的是過10年又會陷入技術斷層...因為你見或者不見,物理極限始終在那裡啊...總之,目前還沒有能取代半導體晶體管的下一代技術...甚至連個苗頭都木有...以後的世界就是是程序員的了,換換架構,優化flow...所謂tick-tock只能不痛不癢一瘸一拐的往前走...
而且,scaling down 能帶來的頻率提升也到頭了,儘管到了3GHz的時候設計上的cross-talk也會導致頻率提升變得極其困難...
講真普通人覺得性能沒提升主要是很多設計上的基本單元幾十年來根沒怎麼變過...本身已經最優了也沒法變...比如緩存,6T或者8T SRAM用到現在...這就讓人很絕望了...
再總之...Intel已經很良心了...大概可能不久的以後你們會看到各種1024核2048線程的CPU出來騙錢了...沒辦法,現在ILP Wall+Memory Wall+Power Wall三座大山已經擋在Intel的面前,目前來看也只能加加浮點單元(Haswell/Broadwell:4,Skylake:5),然而利用多浮點單元的局限性跟多線程優化有些地方很類似,望天,一些常用演算法還是只能硬吃頻率,但是頻率有牆……
順便提一句,仔細算算從80486DX到Pentium III Tualatin,每年的單位頻率效能提升也就平均7%,Pentium 4屬於走了彎路不算,Conroe的架構跟圖拉丁接近,再往後就不說了。其實一如既往的難,只是以前頻率沒卡著,還有單核性能在提高的假象而已。有人提到了GPU,你覺得GPU性能一直在提高,只是因為圖形演算法可以高並發而已,而且Graphics Memory的需求是高帶寬,也就是說可高延遲(GDDR5和DDR3是同等技術,但是GDDR5延遲高不少,換來了超高的帶寬。GDDR5X延遲更大)因此Memory Wall的影響也不明顯。而且GPU核心由於並發度高,單Core的結構簡單,整個核心可以做得比較大,卡Power Wall的上限也高了不少(這一點上可以類比伺服器的E5,20Cores/2.2GHz的功耗比10Cores/4.4GHz低太多了。i7 6950X超頻4.4GHz,一般都要360冷排的分體水才能壓住,然而20C/2.2G的E5,一個小扇子搞定的事。)所以還一直在按照摩爾定律提升性能。如果硬要比所謂的「單線程性能」,應該拿10年前的Tesla架構8800GTX出來,對比單個流處理器的效能。找了下跑分,貌似能找到跑3DMark Vantage Extreme模式分數的最強顯卡是GTX980,27366分。8800GTX差不多2900分,看起來是10倍,然而這是2048sp vs 128sp的效能(實際上流處理器頻率差不多,1288 vs 1350MHz),這麼說來顯卡這十年的「單線程」效能進步更慘啊……ps,答完這個問題突然感覺有點絕望……人類科技現在到處卡殼,別說能源這個關鍵問題有「永遠50年後」的可控核聚變,就連高速發展的電子行業,CPU性能卡在這裡可能真的要不知多久,GPU暫時沒事兒但總要達到物理製程的極限,手機處理器也是早晚的事,同屬於半導體產業的圖像感測器,其實現在離靜態畫質的上限已經很近了(傳輸雜訊已經極低,量子效率接近70%),逼得索尼只好去刷速度來開新技能線,怎麼看都覺得人類的未來很危險啊……當然,最後還是要闡述一下出路:只有旭神才能救世界確實已經進入停滯期了。這也是現實的局限,不是intel可以輕易改變的。或許量子計算機到來會有改觀。
但是說「cpu夠用了,瓶頸不在CPU」的答主,你是不是理解錯了因果關係?因為CPU停滯,才會有cpu夠用的假象;不是因為cpu已經夠用,所以可以停滯可以忽視。 如果CPU還能每年提升50%,軟體馬上可以告訴你什麼叫做不夠用。這不是安迪比爾定律嗎?
——以上發佈於2016-08-04——+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++有知友說評論裡面比答案本身精彩多了,那我直接搬上來吧。機器貓
就按照幾年前的美圖看看版本,i7去跑個1000張單反高像素照片尺寸壓縮試試,,CPU性能遠沒有滿足要求,滿足要求的是拿i7去刷刷知乎聊聊QQ的人。
泛濫的抖機靈
「CPU性能提升,最初是第一批升級的用戶收益,最終是程序員收益,因為不用優化演算法了」,是這麼一層意思嗎?
黃好柱回復 泛濫的抖機靈
你以為你現在用的軟體功能和N年前的還能一樣嗎?圖像越來越大,視頻越來越大,軟體越來越智能,這些難道不需要性能作為支撐嗎?這些可以在相同性能的情況下優化演算法得到嗎?—————————————————————————黃好柱 回復 呉邕呉邕
其實主要原因是軟體發展方向轉離pc了。安迪比爾定律只是經驗定律和摩爾定律一樣,不是真理
你們為什麼總是把結果當作原因呢?!
因為桌面CPU進入停滯期,移動端cpu提升明顯,移動端對「比爾」的需求明顯增加,所以「比爾」才把大量的精力轉離PC端!而不是因為程序員走了,所以intel就不行了!安迪比爾定律不是真理,但也不是摩爾定律這樣的經驗定律。它更像經濟學的定理。硬體在任何時間提升性能,就有整一個軟體行業的人在寫軟體利用起來這部分性能,只要這個平台還有開發軟體的程序員,就會有人針對現行硬體制定相應需求的軟體項目。只要這個平台上有足夠的開發人員,這條定理就接近真理!黃好柱 回復 呉邕呉邕 回復 黃好柱
我沒反對你所有的說法。不要總你們你們原因結果。軟硬本身沒有什麼因果,只是都為了提升用戶體驗滿足人的需求,更像夫妻而不是母子。沒有否定intel的貢獻,我也是很贊同排第一的答案。我的意思是桌面pc到了納米級別的確是大瓶頸,pc端我們軟體需求幾乎滿足也是事實,近幾年發展也少了些。至於如今移動端也是在接近飽和,不在一個領域無窮盡硬體double軟體double,而是增加設計領域,開拓pc,手機之外其它領域。
呉邕 回復 黃好柱是不贊同你那句因為cpu停滯,才有的夠用假象。這本身也沒用因果關係。
我就是這樣認為,你們把 Intel 停滯而產生的各種結果當做了一些事情的原因。我確實是這樣認為的,我不是為了和你吵架。
軟體和硬體是有非常大聯繫的,你認為沒有聯繫可能是因為你沒有好好了解安迪比爾定理,只是把它當做單純觀察得出的定理。把它和想得和摩爾定律一樣。沒有好好了解硬體性能提升了,軟體為什麼會吃掉這部分性能。我用現在的視頻播放舉一個例子。為什麼現在主流的視頻是720P-1080P?以現在的性能,創作這個解析度的視頻是時間-效果的最優解。為什麼不是360P?性能夠用的情況下,可以做出更好的效果,就不做更差的效果,如果做出更差的效果就會失去市場競爭力。4K視頻更有競爭力為什麼不做?因為現在的硬體,創作傳輸4K視頻的時間過長,硬體未達到要求!軟硬體就像上面一樣,在硬體性能很差的時候,我只要求你能輸出計算結果;性能稍強我又要圖形界面,性能再強我又要數據處理,性能再強我又要酷炫界面,性能再強我又要人工智慧,我要VR,我要……因為硬體提供了這樣的性能,那些科幻的功能一一被軟體實現,如果有更強的硬體,軟體就會去實現更科幻的場景。一個時代的軟體肯定要適配這個時代的硬體,不能高太多不會底多少。在70年代,沒有人會去開發這麼強大的互聯網平台,在現在也不會有誰去用70年代的要求開發軟體。如果桌面端CPU繼續提升,那麼4K會來,VR會來,更科幻的也會來。這些到來後,就不會有現在所謂夠用的假象(想想一下酷睿1代在虛擬現實裡面刷知乎?)。如果桌面端CPU繼續提升,PC端需要開發更科幻的軟體,PC端就需要足夠的程序員開發軟體,能提供足夠的工作崗位,那麼PC端就不會人員流失。如果移動端也能提供這麼多崗位,那麼其他行業的人就會到這個行業里來,程序員的人數畢竟不是定值,不是說移動端需要人,PC端就一定有人出走!黃好柱 回復 呉邕你我對安迪比爾定理理解差別好大。我能說的我都說了,但是我依舊無法說服你。我覺得你想說的應該也說得差不多,但我依舊不認同你,各自保持觀點吧。——————————————————呉邕 回復 黃好柱
請仔細看我的回復,我知道intel的努力,我很支持intel這些年的進步,我也反對題主的觀點。但是納米尺寸摩爾定律瓶頸這是物理限制。我沒說硬體軟體無關係。我的觀點是硬體軟體沒有什麼因果關係,不是硬體導致軟體或者軟體導致硬體。而你的觀點是「因為CPU停滯,才會有cpu夠用的假象」,實際原因就是如今pc需求少了,而不是你這個因果。軟硬體沒有因果,是一種共生,是一種合作。而這些東西根源是人的需求。而不是軟體需要硬體硬體需要軟體。二者共同服務於人的需求。你說的那些領域只是從低位重新走了摩爾定律和安迪比爾。從低頻arm到如今高端移動cpu。塞班 安卓等對比,這些東西我都是贊成的。軟體越來越大也是事實。最後重申一遍,我的觀點是,軟硬體沒有因果,是共生。安迪比爾和摩爾定律只是經驗,並不萬能。
黃好柱(作者) 回復 Gaylon丶1、480並沒有崛起,1060性能價格全面吊打。2、zen架構照現在的數據,單核心也就ppt提升40%,而目前英特爾和AMD單核心差距都快100%了!3、不管AMD怎麼崛起,天花板就在那差不多的地方,誰也別想輕易捅破天花板詳細的請到評論里吧。 知乎的排版功能實在是有點弱雞呀! ——以上編輯於2016-08-09——Gaylon丶
主要看AMD的zen架構能不能像今年的480一樣崛起
這個我又要搬出intel曾經的80核計划了。80核計劃,雖然結論是內存牆,但是單核心性能是前提。不久前國外有網站測評了酷睿2E6600和最新的i5 6600。結論是性能提升了3.5倍。用了10年的時間。問題在哪?好事者發現拋開平台因素,和內存,硬碟影響。能夠直接干擾的就只有緩存了。為啥呢,E6600頻率2.4GHz,i5 6600 3.9GHz。四核對雙核,頻率加核心差距就已經有了3倍,加之i5有更高速的內存,2級緩存,多了3級緩存,領先3.5倍很多嗎。差不多就是10年的進步。如果覺得理論差距3倍,和實際差距3.5倍不合適,那麼,網站還有另外一個E6600對賽揚G1620,1620 2.7GHz。兩者,除了工藝,架構和頻率,基本一致。而性能也相差不大。這算擠牙膏嗎?
後面該說intel這些年都幹什麼了。因為80核帶來的研究成果。讓intel對內部緩存機制的加強,提高內存速度和響應時間,減少硬碟瓶頸。提升工藝,降低發熱量。如果你要說核顯,這不在我的討論範圍。intel這10年,基本就干這個了。對比看看農企,K8進化為K10,卻又在後面走了彎路。過於相信IBM的SOI工藝,導致製程落後。又錯誤的高估了模塊化的性能,沒有預見多核心模塊搶資源問題。加上K8之後,架構本身進步不大,被intel甩開。所以才有了後來大家的印象一個學生,考試考95分,經過努力,下回考了96分,再下回考了97分。
另一個學生,考試考了30分,稍微努力了一下,下回考了40分,再下回考了50分。在你看來,第一個是擠牙膏,分數停滯;第二個是大幅度進步?然而哪個好呢?擠牙膏只是你們的錯覺而已。
只不過是主流平台因為沒有AMD的壓力一直沒引入6核導致了你們的錯覺。
至尊平台這幾年從6核到8核再到現在的10核,每次提升都很大。明年主流平台咖啡湖據說要引入6核,估計是感受到AMD zen的壓力了~至於單核性能,這已經不是擠不擠牙膏的問題了,這是整個行業的問題,跟5nm以後怎麼辦高度差不多。除非來一場技術革新,否則基本快到瓶頸,沒法提升了。簡單點說,the smaller, the harder。
現在來看製程越小,製造難度就成倍的增加。現在 CPU 性能的黃金時代已經過去了。這不怪 intel,實際上這可以算是整個行業的難題,只是intel在公眾面前曝光率比較高罷了。早就進入停滯期了,從2011年到2016年換了四代,就只把同頻綜合性能提升了約20%(*浮點性能翻倍,但是對於家庭用戶來說沒什麼用)。
五年前的2720和去年的6700跑象棋得分差不過20%。一個是22倍一個是25倍。
兩者都是移動端入門四核i7。單論性能確實已經停滯。
但是這個移動設備啊,除了看性能,也要看功耗/發熱啊。p50的發熱量比w520小到不知道哪裡去了。回身看看,core m無風扇設計,性能不知道比以前的atom高到哪裡去了。同樣是atom,3735這個白菜u性能比06年的中端t5500還要略微高一些,而功耗卻只有幾分之一。(懶得查了。。。tdp大概是低於5w和差不多35w)再仔細想想,家用方面,現在還有很強的提cpu性能的需求嗎?高計算量的工作都丟包給顯卡了吧?i家現在自己也在努力做集成顯卡。
反而是移動端的低功耗長續航和低發熱更有市場。你看win平板也火了一陣,surface火了一陣,小米本不也有很多人點贊?再換個角度想,i家微架構從p4開始兩次大升級,x86這一塊除了堆料還能怎麼提單核的性能頻率比例似乎已經沒有什麼好辦法,a家持續低迷從另一個角度也反映出要提微架構性能已經是千難萬難。i家擠牙膏也是無奈。
所以,市場不要求提性能,技術上難以提性能,i家轉身專註搞能耗比是合乎邏輯的。
最後,萬一要性能呢?伺服器端的玩意我就多堆幾個核心給它性能不就上去了嗎。一個伺服器要講究什麼單核性能啊!畢竟不是業內人士, 回答這種問題可能sometimes naive.
X86作為一種CISC指令集, 有時候並不需要專門提升總體性能就能獲得更好的體驗, 這是一個重要的事情.
以SSE為例, SSE指令集開始是浮點向量運算, SSE2加入了整數運算, 那麼SSE3加入了什麼?
ADDSUB (兩向量奇數位加, 偶數位減的樣子), HADD/HSUB (兩向量每兩位加在一起), LDDQU (非對齊向量讀取), MOV*DUP (A1=A2, A2=A3, A3=A4的樣子, 向量內按元素移位), 主要就這麼幾個指令, 這就是SSE3, 除了非對齊向量讀取,看上去似乎沒有什麼卵用是吧? 事實上並不是, MOV*DUP就對數字信號處理有比較大的幫助, HADD, HSUB我看至少對維護統計量是有幫助的, ADDSUB我看不出有什麼用來, 莫不是複數計算?
再比如說, SSE4, 加入了好多多媒體指令, 當然這不重要(對我來說), 但是CPU進入了能夠硬解各種視頻的時代, 對於SSE4一族, 我知道有個strcmp指令, 反正長字元串比較加速很多, 配上SSE3的LDDQU.
所以CPU總體性能提升是一個方面, 然而, 幾條指令卻有可能讓一些功能的核心指令減少到原來的一半. 然而, 假設這個功能佔一件事情10%的運算時間, 那麼其實這件事情只快了5%. 所以說, 這也許會顯得性能提升像擠牙膏一樣.
CISC的道理本來就是用硬體去實現更複雜的功能, 所以如果不能輕易地提升起總體性能, 那就針對應用優化唄, 就說Haswell和Ivy Bridge, 兩代間總體性能基本擠牙膏, 但是Haswell加入了AVX2, 終於支持32個8位整數的向量計算了, 之前Smith-Waterman (一個蛋白質序列比對的老演算法)的實現大多基於SSE2, 16個8位向量, AVX2到了性能直接翻倍啊, 然而, 我打坦克並不會因為單核性能提升有所變化啊.
看到有人說嵌入式的提升, 其實對於嵌入式這個東西, 反正大家基本不會用CISC, 除了Atom Z有一些比較小眾的手機/Pad在用. 卡住嵌入式發展的目前來看還是能耗比, 大多數嵌入式的設備不會允許你的晶元自由發熱, 像AMD A10 7xxx系的APU, 從7800, 到7850K加入了超頻功能, 7870K改用焊料導熱進一步提升超頻空間, 7890K又增強風扇, 風冷不行上水冷, 水冷不行上液氮, 反正一般來說散熱設備不會比機箱大一個數量級, 雖然有時候會比手機大好幾個數量級. 那麼製程帶來能耗比的福利之後, 都是RISC的話, 簡單啊, 隨著製程提升, 桌面的移到移動, 移動的移到嵌入式, 多麼簡單, 剩下的就是一些微小的優化.
另外稍微說幾句我們的申威26010, 作為基本也是RISC的設計, 45nm或者65nm的製程, Green500都能上榜, 其實一部分原因就是, 相比X86, 大多數RISC指令集的能耗比實在太好了, 同時雖然26010訪存麻煩, 但是跑linpack訪存那麼規律, 根本不用操心啊. 這其實有點賴皮的針對benchmark優化了.
同時龍芯號稱同頻性能持平/碾壓Intel也是正常的, RISC在添加了最少的需要的指令之後 (反正現在RISC也都有SIMD擴展, 甚至有些RISC架構的CPU還支持一些類似BMI的指令)同頻跑SPECInt之類的裸計算東西同頻性能要是趕不上CISC, 說出去肯定要被打得媽媽都不認識吧.
RISC在尋求一條出路, CISC也在尋求一條出路, 對CISC來說, 目前來看我感覺比較桌面端的總體性能, 不如好好考慮面嚮應用的優化, 當然這種優化在大家眼裡都是擠牙膏, 但是落到特定的人手裡, 那就是革命性突破.
與其說cpu發展進入擠牙膏,不如說是由於技術和材料的原因導致cpu不得不擠牙膏。但是你看,雖然近年來cpu性能提升很緩慢,但是能耗比卻一直在增長,尤其是性能相對較低產品,很多在追平了曾經中檔甚至高檔產品性能的同時,能夠將功耗做到它們的幾分之一甚至十幾分之一,這都是cpu的發展啊。
intel也想按照摩爾定律的速度增長,通過性能的提升來促進計算機的更新換代,這樣才能刺激用戶的購買,這也是intel和微軟這樣的公司的盈利模式。但現在確實進入了瓶頸期,intel也保持著警惕,其投入的科研經費比例遠大於其他互聯網公司。。。具體的可見吳軍博士的《浪潮之巔》對intel公司的講解。
Intel目前致力於研發更高性能的
核芯顯卡。首先要搞清楚一點,英特爾是一個企業,不是一所科學研究機構。凡是企業無外乎離不開兩個核心辭彙 「利潤」和「產品」。英特爾的真是技術有的有多高我們不得而知。但是我相信的是,絕對不是我們在市面上,新聞界,各路評論中大家說見得到的 I3 I5 I7 至強這麼簡單。我是學管理出身,目前從事It工作(興趣使然,工資不太高,但是開心),從營銷的角度來說,產品都是有他的生命周期的,。一個產品從最開始的技術鋪墊,產品設計,技術攻關,打樣生產,設計變更,最後到批量生產最終投入市場,是需要一個很漫長的過程的,至少比我們想像的漫長得多。再這之前公司內部也絕對需要如市場調研,內部分析這樣的流程。強如英特爾,讓它把這麼一系列流程走玩估計最起碼也得幾年過去了吧。一個企業,費了這麼大力氣搞出來的產品,怎麼可能不想盡一切辦法把它能掙的錢都掙出來?舉例說明,一個賣饅頭的小作坊,本來一天能生產出200個小饅頭,一個饅頭1塊錢。不知道為什麼,老闆突然不僅僅打通了任督二脈同時也打通了人脈,不光每天的生產力提高了,麵粉的進價也大幅度降低了。再不提高成本的情況下可以每天做出來400個大饅頭,老闆人好,因為成本降低了,老闆決定饅頭加量反降價,每個饅頭賣5毛錢。結果,這家店改進了工藝,降低了來料成本,可是掙的錢卻一點兒也沒多。天下哪裡來的這麼好的事兒啊。每個產品從開始推廣銷售的時候,到最後賣不動的時候公司都會針對市場的反饋來做出營銷調整,直到最後實在賣不動了,才會不失時機的推出一款新產品,然後一副我們已經儘力了的表情。只有這樣,才能做到產品資源最大化利用。從理論上來說,英特爾的 I 3 5 7系列,生產成本和技術成本上的差距,遠沒有賣價差距大,可是為什麼還要搞這麼個差距出來呢?價格歧視嘛。說白了,有對比才有幸福嘛而且英特爾也好,AMD也好,他們的真正核心技術絕對不在我們看的見的地方。往往那些我等觸及不到的領域,才是這些行業大佬們真正的G點呢
反正intel自己沒有擠牙膏的 只是已經撞牆了 是現行的結構的極限了 期待其他領域的發展吧
CPU其實不是短板,硬碟才是,大多數電腦的CPU其實都是夠用的,所以就性能而言,intel已經很難有動力去革命了。當前CPU的革新主要是降發熱和降功耗,我行最新配的筆記本電腦,已經能夠持續使用十小時以上,並且發熱很小。前幾年進的windows平板,使用過程中發熱都很厲害,簡直能用燙手來形容,最新進的一批平板,已經很好地解決了發熱這個問題,待機時間也變長了。
看完了這篇里的答案我覺得我們可以等光計算機了…………
不過感覺光計算機其實並不能把tdp降低多少,不過似乎可以提高一下耐高溫的能力。坐等量子計算機
AMD 的不給力間接造成了停滯
推薦閱讀:
※Windows的cmd都有哪些奇技淫巧?
※Intel 为何在家用 i5 桌面端以上的处理器中一直保留核显?
※计算机系学生想从事金融行业,如何起步?
※哪裡可以學到最新的計算機技術,比如網站、雜誌?
※還沒發明計算機時,例如sin,,π,根號389等之類的數是如何計算,特別是在一些計算量大或需要精準的領域?