現今人工智慧,機器學習領域研究的困難主要有哪些?

看馬哲課本,突然腦洞很大,在思考人的思維的源泉。

我以前覺得人和自然界萬物的差別在於,人不是機械的,具有自主性,思維不依賴什麼機械的規律性。現在感覺不對。人的思維和行為似乎也是建立在某種特定的輸入輸出反饋上,都是固定的,和其他東西都是一樣的。只不過人類的機制更加複雜,接收的信號的參變數非常多,因此看起來人的思維和行動是自主的,實際上並非如此,都是固定的!只是因為變數太多看起來有自主性!

對了,自主性,從某個方面也可以理解為一個個體根據自身所掌握的信息的決策機制!

人生來相當於是個具備智能學習的機器,他今後的各種決定取決於他今後所能接收、處理、記憶的各種環境輸入信息!(當然有可能不同的人因為基因不同對某些信息最原始的處理方式不同)

下圖是我的感悟,歡迎大家來討論交流。


機器學習現今的主要困難是難以正確限制和搜索複雜的函數空間。

簡單的機器學習演算法,比如線性回歸,線性分類器,只能搜索簡單的函數空間(比如空間中的所有直線或超平面),且只有簡單的限制(比如l2 regularization)。但是現實生活中,feature的關係大都是非線性的,複雜的。這就需要我們的演算法能優化複雜的目標函數。

近來機器學習的研究大都在朝這個方向努力。例如,深度學習可以搜索整個布爾函數空間(可以學習任何布爾函數),但是其訓練複雜度也極大,近來相關的研究(比如卷積神經網路,分散式深度學習)都旨在增加限制條件,充分利用資源,使其可行。

另一個凸優化的重要研究問題,l1 和 l0 regularization,旨在發明新演算法,搜索以前不可能搜索的函數空間(目標函數不可微甚至非凸)。而另一個熱點概率圖模型則致力於發現或限制feature之間的關係,簡化需要搜索的函數空間。


看這描述, 我也是醉了, 我感覺題主就差發功寫代碼了


feature與語義之間的語義鴻溝,這就好像地基和高樓的關係,feature沒表達好,後面再怎麼搞一堆複雜的模型,效果提升也是極為有限的,這幾年很火的深度學習也是為了更好的對特徵進行表達。


我覺得制約機器學習根本原因是很多信息都沒有量化,或者不規整的量化。

機器學習的根本在於數據本身,而不是高深演算法。

近年來機器學習的快速發展是建立在收集,儲存數據成本快速下降的基礎上的。

如果那天我們把生活中的一切都規整的量化了,數據信息像空氣一樣普遍,機器可以像人類一樣被訓練了,估計我們理想中的人工智慧就出現了。


個人比較淺薄的直覺,現在機器學習/人工智慧和真正的人的智能比,在於還只是在表面上仿生了一些人的意識、記憶、神經元相互溝通等人的機能,還是沒有和一般的計算機程序區別開來——人指定其數據/計算過程或路徑,讓計算機重複這些。

機器學習/人工智慧和真正的人的智能的區別,還在於一個能拉自己頭髮能讓自己飛起來的關鍵——要在一個看似封閉自循環的的維度里,而循環的動因要在其他維度找。

我說的不嚴謹,只是想把直覺說出來。


題主我看明顯是上課走神 打一頓就好了


我覺得最難的是 end to abstract to end 的過程,而不是簡單的end to end的過程。


AlphaGo的時候還可以說和數據量有關,zero一出來怕是要有全新的認識了。


It"s not who has the best algorithms that win. It"s who has the most data.


推薦閱讀:

怎樣求出K個斐波那契數的最小公倍數?
如何判斷一條線段和一個矩形或者圓相交?
對大整數N開平方,求其整數部分,有什麼好的演算法嗎?
有沒有一種加密演算法可以識別不同密鑰加密的同一明文?

TAG:人工智慧 | 演算法 | 機器學習 | 程序 | 計算機科學 |