深度學習巨頭Yann Lecun 中科院自動化所座談及清華大學講座乾貨速遞(二)(內含珍貴歷史影像及學術八卦)
02-08
下面 我們分享Lecun關於無監督學習和強化學習的觀點實現通用人工智慧一個關鍵的問題就是要讓計算機擁有常識,比如當東西太多我們就會知道行李箱裝不下(筆者註:這是一個自然推理的過程,就好比天冷了要加衣服一樣),我們擁有常識因為我們知道這個世界如何運轉,那如何讓機器也學習到這些呢?常識就是預測的能力,比如說當Lecun照片的某一部分被遮擋,我們可以推理出被遮擋的部分,對於文本中省略的詞語,我們也可以補足(這難道是傳說中的完形填空?)。接著,Lecun拋出了自己的主打概念「Predict Learning(預測學習)」,也就是大多數人認為的無監督學習。(筆者註:個人認為預測學習的提法更加精準,預測的內涵就是推理)經典比喻:強化學習:櫻桃,監督學習:蛋糕上的糖霜;非監督學習:蛋糕,
強化學習玩星際爭霸Dyna:強化學習泰斗Sutton所提出的一個框架古典的基於模型最優化控制人工智慧的一個架構:智能體感知世界進行推理、規劃以獲得最高獎賞預測+規劃=推理基於模型的強化學習,為了做好規劃,我們需要對世界進行建模模擬
目前火熱的對抗訓練閃亮登場很多情況下預測的結果具有不確定性,但是它們會在同一個數據流形上對抗訓練是在不確定條件下進行預測的關鍵,Lecun再一次高度讚揚了GAN基於GAN生成的逼真度很高的卧室圖片生成的卡通頭像有意思的圖像算數:眼鏡男-普通男+普通女=眼鏡女
EBGAN生成的自然圖像,仔細看可以發現他們並不是真實的自然物體,生成的狗頭有點像畢加索畫的風格,抽象派多尺度的卷積神經網路用於視頻預測
在Lecun看來,非監督學習是主體。
預測磚塊掉落的軌跡
通過記憶模塊增強神經網路基於能量的無監督學習:學習一個能量函數,該函數在數據流形上的值比較低,其他地方的值較高
講座結束,各位大牛們上台合影
推薦閱讀:
※給妹紙的深度學習教學(2)——拿NIN試水
※請問batch_normalization做了normalization後為什麼要變回來?
TAG:深度学习DeepLearning | 人工智能 | TensorFlow |