深度學習巨頭Yann Lecun 中科院自動化所座談及清華大學講座乾貨速遞(二)(內含珍貴歷史影像及學術八卦)

下面 我們分享Lecun關於無監督學習和強化學習的觀點

實現通用人工智慧一個關鍵的問題就是要讓計算機擁有常識,比如當東西太多我們就會知道行李箱裝不下(筆者註:這是一個自然推理的過程,就好比天冷了要加衣服一樣),我們擁有常識因為我們知道這個世界如何運轉,那如何讓機器也學習到這些呢?

常識就是預測的能力,比如說當Lecun照片的某一部分被遮擋,我們可以推理出被遮擋的部分,對於文本中省略的詞語,我們也可以補足(這難道是傳說中的完形填空?)。接著,Lecun拋出了自己的主打概念「Predict Learning(預測學習)」,也就是大多數人認為的無監督學習。(筆者註:個人認為預測學習的提法更加精準,預測的內涵就是推理)

經典比喻:強化學習:櫻桃,監督學習:蛋糕上的糖霜;非監督學習:蛋糕,

在Lecun看來,非監督學習是主體。

強化學習玩星際爭霸

Dyna:強化學習泰斗Sutton所提出的一個框架

古典的基於模型最優化控制

人工智慧的一個架構:智能體感知世界進行推理、規劃以獲得最高獎賞

預測+規劃=推理

基於模型的強化學習,為了做好規劃,我們需要對世界進行建模模擬

預測磚塊掉落的軌跡

通過記憶模塊增強神經網路

基於能量的無監督學習:學習一個能量函數,該函數在數據流形上的值比較低,其他地方的值較高

目前火熱的對抗訓練閃亮登場

很多情況下預測的結果具有不確定性,但是它們會在同一個數據流形上

對抗訓練是在不確定條件下進行預測的關鍵,Lecun再一次高度讚揚了GAN

基於GAN生成的逼真度很高的卧室圖片

生成的卡通頭像

有意思的圖像算數:眼鏡男-普通男+普通女=眼鏡女

EBGAN生成的自然圖像,仔細看可以發現他們並不是真實的自然物體,生成的狗頭有點像畢加索畫的風格,抽象派

多尺度的卷積神經網路用於視頻預測

講座結束,各位大牛們上台合影
推薦閱讀:

給妹紙的深度學習教學(2)——拿NIN試水
請問batch_normalization做了normalization後為什麼要變回來?

TAG:深度学习DeepLearning | 人工智能 | TensorFlow |