機器學習如今是否取得了「巨大」的進展?
人工智慧無一不涉及到機器學習,現在結合演算法+大數據+硬體提升,使機器學習開始應用到工業界,並取得喜人效果。但是,就像現在最熱的深度學習演算法、CNN、DNN這些,都是很久以前提出大物演算法,只是當時缺乏數據、硬體不支持罷了。那麼,1、如今的機器學習能否算取得實質的進展呢?2、如果演算法本身沒能取得進展,過分依靠數據、硬體發展下去,會不會不久又出現停滯呢?3、目前學術界在演算法層面是否取得重大進展呢?
馬克思教導我們,歷史總是螺旋式前進的。出現停滯是必然的,只是何時開始的問題。而停滯也是為下次突破積累力量。
感謝邀請。
同學,個人感覺你被朋友圈荼毒過深,建議走進去然後跳出來。
第一個問題,是的。
第二個問題,無法確定,薛定諤的機器學習。第三個問題,有,並且每年都有大突破。說說應用,我們系研究所從今年開始自己用到了深度學習實現泡沫浮選的工業檢測,已經在工程中使用了。也就是說,傳統工業應用這個,已經開始了。
最後科普一下,今年四月,日本一個現代化農場已經實現了基於tf自動分類農產品等級。
我們如果還在搞 "大數據",我們真的太low了1.當然有很大的實質性進展,最主要的是圖像跟語音,這兩類應用現在已經可以做到工業級的應用。
2.第二個問題很複雜,但是從傳統機器學習的角度看,他的理論基礎還是很完善的,所以演算法在本質上並不會有什麼大的突破,現在重要的不是演算法而是特徵。現在的深度學習跟大數據結合的手段實質上的改進都是特徵學習帶來的,當然特徵也可以認為是一種演算法。
3.單純的從演算法角度入手的話,現在傳統的通用分類演算法已經做的很成熟了,目前如果說有什麼演算法上的變化,一般都不是通用型分類演算法,而是strucuture prediction這種adhoc的演算法,都是根據問題來決定演算法怎麼建模。
對於機器學習:
1. 實質的進展一直都有!DeepMind的AlphaGo就是一個很經典的例子。2. 演算法的基礎是數學以及物理學研究,或者統一說是基礎理論研究。如果我們的基礎理論沒有進步的話,我們只能通過蠻力或一些tricks來榨取基礎理論的成果。參考小說《三體》三體星人鎖死地球科技的情節後,人類的奮鬥。3. 演算法層面,最最關鍵的就是如何解決NP難問題,據說以後的量子計算可以在這個地方突破,但是目前似乎還不行,但是也有一些近似的演算法。關鍵點是:數據是人們採集的;硬體是人設計的;所以我們人類自己也是在摸索中前進。
換句話說,我們整個人類共同體就是一個在線的無監督集成學習系統,從幾千年前開始訓練測試評估了,至於會不會在發展的過程中點錯了「科技樹」,這個就無法講清楚了。 如果真有「導師
」可以在人類的進化發展中作出指導,使得無監督學習轉換成監督學習,那這樣的結果會大大的不一樣。參考小說 :異星歧途 ( The Road Not Taken)不請自來,無恥回答一下這個問題。
1.是的。不論題主說的實質進展是指方法論層面的還是工程層面的。現在工業級的應用非常多,舉幾個簡單的例子,機器翻譯里百度翻譯和GNMT,中文語音識別科大訊飛,圖像的應用更是多如牛毛,目前工業上的應用主要以detection為主。
2.不知道。但不能說演算法本身沒有發展,只能說理論基礎沒有發展,還是要調參手靠各種tricks和empirical的優化。換個角度想,為什麼要否定數據和硬體呢?機器學習本來就是data-driven的,數據是燃料,硬體是引擎,你不能否認ImageNet在CV領域這幾年發展里的貢獻。3.幾乎每年都有。domain-specific的不敢亂說,通用的就拿神經網路來說。從AlexNet到VGG,從ResNet到DenseNet,從GoogLeNet到FractalNet,在深度和解析能力上就一直在增加。NN深度上不去之前performance被SVM碾壓這麼多年,前幾年很火的sparse coding在DNN出來後馬上就死了。但誰也不知道明天會不會在sparse coding上就有重大突破。你只看見了突破,卻忘了磚是一塊塊搬的。所有突破背後都是科研工作者兢兢業業的努力和不懈堅持的求知理想,向他們致敬。推薦閱讀:
※如何評價昨天刷屏的「滴滴大數據丨2016年最「狠」公司排行榜」中,各個公司的加班現象?
※相比於傳統 BI,基於 Hadoop 的大數據(Big Data)戰略有何不同?
※人工智慧、大數據、雲計算、物聯網,彼此之間有哪些內在聯繫?
※如何評價《Big Data:大數據時代》這本書?
※怎麼看待oracle的exadata與share nothing系列的hadoop等,以及優缺點相互對比、各自的前途..對未來的影響?