深度學習最終會淘汰掉其他所有機器學習演算法嗎?


謝邀,我可以很準確地說,不會。

各有各的長處,各有各的短處。

可能首先要明確一點,深度學習為何被稱為「深度」?從現在的技術角度看,深度學習通過組合低層特徵形成更加抽象的高層表示屬性類別或特徵,以發現數據的分散式特徵表示。

而普通機器學習演算法為什麼在面對大數據時有時候無法體現其優勢呢?是因為在工程界有這麼一說,要達到同樣的模型水準,要不就是複雜模型+簡單特徵,要不就是簡單模型+複雜特徵。深度學習屬於前者,它有很多參數需要調優,是一個非常龐大的參數模型。一般的機器學習模型屬於後者,需要有強有力的特徵來分離數據,最終得出不同的類別。

總的來說,目前深度學習確實有很多好處,譬如對我而言就很簡單暴力了,不用花很長時間進行調參,把數據清洗一下扔進去看看結果,如果不好就調整參數繼續嘗試,而做一般機器學習模型可不是這樣,要做很多特徵工程。但深度學習在工程上有個至今為止沒有解決的問題,它是個「黑盒」,可解釋性差,導致系統出現bug無法迅速找出原因或者回溯之前的錯誤,所以在做工程而言,我們實際上更傾向於較少的特徵工程和可解釋性強的模型就可以得到較好的結果,很期待未來深度學習的進一步發展。


如果你對學習人工智慧和深度學習感興趣,可以訂閱我的頭條號,我會在這裡發布所有與演算法、機器學習以及深度學習有關的有趣文章。

(碼字不易,若文章對你幫助可點個贊~)


不會。

深度學習也屬於統計學習方法。人工神經網路的研究由來已久,一直與其它經典機器學習演算法並存,沒有淘汰誰一說。這些演算法各有優劣,具體用哪種要根據應用場景靈活選擇。舉個例子,就拿最近很火的 AlphaGo 來說,由於快速走子(fast rollout)要達到微秒級的響應速度,神經網路目前還做不到,因此 Google DeepMind 採用了邏輯斯諦回歸(logistic regression)演算法。有機器學習背景的同學都知道,邏輯斯諦回歸作為一種線性模型,大概是最基本的機器學習演算法之一,然而並沒有像題主說的「有點多餘」,相反仍然有廣泛的應用和研究。

深度學習大佬 Yoshua Bengio 在 Quora 上回答一個類似的問題時,有一段話講得特別好,這裡引用一下:

Science is NOT a battle, it is a collaboration. We all build on each other"s ideas. Science is an act of love, not war. Love for the beauty in the world that surrounds us and love to share and build something together. That makes science a highly satisfying activity, emotionally speaking!

是的,科學不是戰爭而是合作。任何學科的發展從來都不是一條路走到黑,而是同行之間互相學習、互相借鑒、博採眾長、相得益彰,站在巨人的肩膀上不斷前行。機器學習的研究也是一樣,你死我活那是邪教,開放包容才是正道。


簡單粗暴一點的說,我認為深度學習會,甚至已經在淘汰幾乎所有的傳統機器學習演算法… 但是,深度學習也會被更新的未來演算法所淘汰。

當然實際上這麼說是不太公平或不準確的。應該說演算法進化是一個不斷融合,不斷取長補短的揚棄過程。淘汰這個詞過於武斷或是戲劇化了。

深度學習的積極意義在於,至少我認為是,擺脫了傳統「專家系統」的局限性,是首次真正站在「機器」的角度,而不是從人的視角,去學習智能。

我常說這個突破堪比微積分,是劃分初等數學和高等數學的分界線。人工智慧領域也是從深度學習開始從「初等智能」邁向「高等智能」的。

當然這絕不是終極演算法,想想微積分從牛頓時代到今天都發展了多少?


本人曾經長期從事聽覺感知和自然語言理解的研究工作,神經網路早已有之,但此神經網路絕非人類的神經網路,近幾年又出來了所謂深度學習,很好奇,上網看了看,結果發現無非是神經網路的若干改進而已,比如深度學習中的語音識別的內核,仍然是上世紀八十年代古老的隱含馬爾科夫鏈,與人的語音感知根本就不是一碼事。仍屬於超大計算量的蠻幹。所以竊以為,在揭示人類的聽覺和視覺模式感知奧秘之前,AI不會有多大的作為。


首先可以很肯定的說,不會!理由是因為每種演算法都有擅長的領域,解決相應的問題,沒有一種演算法可以解決所有問題。而且在實際應用中還需要考慮成本問題,深度學習是很高級的演算法這一點沒錯,但並不代表它就適合解決所有問題,難道真的要用高射炮去打蚊子嗎?效果不一定好哦,而且成本是不是太高了呢。再退一步講深度學習也是基於早期的演算法發展起來的,他們是包含關係,並不是獨立存在的。


當然不會,只能說深度學習這個分支會繼續蓬勃發展。但還有很多別的分支,比如遷移學習、強化學習…會繼續向前發展。另外,DL的發展也會有瓶頸,Hinton大神的最新Capsule論文也說明了問題,所以凡事都沒有絕對,多吸收各種知識,開闊眼界,才能更好的掌握AI的各方面。


怎麼可能,任何演算法都有特定的應用對象,儘管彼此之間會存在某些重疊,但在不同條件之下,優勢會彼此不一樣。

深度學習根植於神經網路,是通過增加網路層次深度來優化模型。對於諸如語音圖像識別有非常出色的能力。但在許多分類問題上,類似邏輯回歸,支持向量機同樣不差,更重要的是也簡單許多。應該說沒有什麼演算法是包打天下,具體問題具體分析。


推薦閱讀:

GitHub上最好的機器學習開源項目有哪些?
神經網路能否發現諸如π、e等無限不循環小數的內在規律?
能用計算機圖形學技術和機器學習等實現精細模仿人類畫手的漫畫/日式動畫風格渲染嗎?
SVM在線性不可分的情況下,利用核函數升維後就一定線性可分嗎?
語音識別中,聲學模型與語言模型扮演什麼角色?或者說是怎麼通過兩個模型進行語音識別的?

TAG:演算法 | 深度學習 | 機器學習 | 科技 |