如何評價 MIT Deep Learning 這本書?

很多人都推薦說 MIT 的 Deep Learning 是比較權威的一本學習 深度學習 的書。 大家怎麼看?

此書還未出版,詳見官方網站 : Deep Learning


我沒有資格評價這本書,我只能談談這本書。

這本書在寫的過程中我也一直在關注,還是殘本的時候我就反覆看了。這本書加上Hinton老爺子的公開課,基本上Deep learning的入門足夠了。內容全面,而且不啰嗦,乾貨滿滿。看懂的成本也不高,基本上高年級的本科生就能看懂了。

而且這種一邊寫一邊一直放在網上更新,邊寫邊接受評論修改的方式,實在讓人欽佩。而且在線更新的過程中不停的把新成果和參考文獻加進去,保證了書不會一出版就落後,內容非常新,甚至超前。

總之就是,好評好評好評,推薦推薦推薦。


如果想對深度學習有深刻的理解,Bengio這本書的part 2 絕對讓你相見恨晚。其它的資料大多要麼理解的膚淺,要麼講的不夠全面。絕對推薦看一下,講得非常系統全面,而且深入淺出。

Hinton的公開課感覺只能作為一個入門。這本書讀完讓你有一種讀了很大數量的論文的收穫感。


瀏覽器里收藏了一段時間了,每次有不懂的總是點進去看看,基本上都能得到解答。所以僅談一下我的看法。

首先說下我了解的八卦,Ian Goodfellow似乎是Bengio的博後,也是牛人,從Google去了OpenAI,另一作者(我沒注意過名字)是同校的助理教授,大牛之間相互認同,可以看出他也不賴。

作者的手稿放在網上,但畢竟是他們辛苦工作,出版社也是花了錢的,所以建議在線瀏覽,不贊成列印。

書的內容來說,我個人比較贊成二樓的建議。第二部分確實很有用!它偏嚮應用,從FNN說起到RNN及CNN,涉及到優化,訓練的方方面面。

第三部分注重理論擴展,是進階深造的好材料。第一部分是數學和機器學習基礎,可看可不看。

全文七八百頁,算是不多吧,同時不像PRML那麼多公式,個人感覺還是挺好讀的。

就全書來看,我個人感覺作者的重心在提綱挈領地闡述整個深度學習的研究;對於特定的任務,大家還可能需要多跟文獻。

大概就這些,有幫助請點贊(?ω&< )


極好的書,由淺入深,系統全面,並且還免費。


我讀到part2部分,的確覺得講的很細,但裡面的公式還有很多數學術語增加了理解難度,好些推導過程都不太理解,大家有這樣的經歷嗎。


深度學習最全面的書,逐步深入。我覺得學習深度學習,機器學習,計算機視覺等的都應該好好看看這本書。

另外看到這本書有個讀書會,每周日討論交流,還不錯,推薦一下

https://github.com/ExtremeMart/DeepLearningBook-ReadingNotes


做不了評價,單單從一個初學者的角度來談談自己的閱讀體驗吧。

我是在17年九月份從網上下載這本書的,具體的搜書名加『github』關鍵詞就可以下載。貌似已經是完成版了。

書分三部分,第一部分數學基礎,第二部分神經網路應用案例,第三部分神經網路中未充分研究的問題。書在最前面提到本書適合在校本科生(研究生),以及相關的工程師。作為一名研究生,我開心的讀了起來。

啃的是英文版,看了兩百多頁,也就是二到六章。第一章緒論,跳過了。二到五章是數學基礎。這也就是我最想看的。對機器學習這一整塊了解的都很少,先補補最開始的數學基礎部分吧。

第二章是線性代數,轉置、範數、特殊矩陣、特徵分解,前面的內容和考研數學中的線性代數差不多,到後來出了Singular Value Decomposition,跡(trace),有了一些新的東西。看完這章,感覺對機器學習中的矩陣操作有了更深入的了解。

第三章是概率論與資訊理論,前面的隨機數、概率分布、條件概率、邊緣概率等等在本科概率論中學過,但給我的感覺是這裡講的很清楚,常常能回答清楚「為什麼」這個問題。其中對獨立性與相關性的解釋非常棒。再接著介紹了一些常用的概率分布,特別提到了機器學習裡邊用的一些概率分布。資訊理論方便提到了交叉熵、KL散度的概念,後面會用。

第四章是數值計算,先介紹了在計算機上進行數值計算的一些基本主義事項,接著介紹梯度下降演算法、Jacobian矩陣、Hessian矩陣以及解最優值得牛頓方法,再介紹了約束條件下求最優解。這裡大概算是為優化cost過程做鋪墊吧。

第五章是機器學習基礎,章節幅度比以前來說更長。從學習演算法分類,到容量、欠擬合、過擬合,再到正則化。之前只是形象上知道欠擬合等概念,但這裡更多藉助了數學工具來表達這樣的概念。更抽象,但也可以推廣到更多的方面。下來是超參數、交叉驗證集,評價器,包括引入了偏差和方差的評價概念,均衡偏差和方差也很有趣,有種對立相生的哲學味道在裡邊。

接著描述了最大似然估計與貝葉斯統計,這兩種方法一個沒有先驗證概率的說法,一個有。似乎是概率統計理論下兩個大的分支,這種對比來看的視角是我再本科的概率論課程中所沒有看到的。接下來更具體的介紹了一些傳統的監督學習、非監督學習演算法,也提到了它們的局限性,如它們輸入數據的維數不能太大,因此在圖像識別與語音識別上表現不好,算是後面神經網路的一個引子吧。

第一部分就此結束。之前在網上上過吳恩達的Machine Learning課程,讀罷第一部分,過去那些形象而又淺顯的機器學習基本概念得到了深化,感覺很棒。

來到第六章,風格一下就變了。我對神經網路沒什麼了解,儘管每天花了兩到三個小時,從6.1節讀到6.6節花了兩周的時間。讀的時候覺得講的東西抽象,又花了一周的時間在MNIST數據集與CIFAR-10數據集上部署了多層感知機演算法來進行實際操作。這才感覺消化了一些看的內容。

第六章先介紹了對「異或」功能的實現,這是傳統線性結構做不到的,用神經網路就可以實現。再從梯度演算法的角度介紹了輸出單元的問題。再講到了隱藏單元的問題,接著是結構設計。6.5節是重點,描述計算梯度的反向傳播演算法的實現。

六章花三周、七章花三周,第二部分還剩好幾章,這樣看起來效率很低,而且學到的東西後似乎並沒有消化。昨天和一位做神經網路的老師交流了一下,他給出了如下建議,我以為有理:

1 《Deep Learning》這本書中的內容是很全面的,並不需要每一點都看,可以先選你最需要的看。

2 有些書不是一下子就看完的,它需要一定的時間消化。

接下來一段時間我準備將《Deep Learning》這本書當作一本工具書、一本選讀物品,有需要的部分就進到書中尋找。而主要的精力會投入到瀏覽論文,找自己感興趣的idea,並進行實現。

已經看的這少少的幾章給了我許多學習的樂趣,放上Ian GoodFellow先生的一張照片,以表感激


這本書讓我對傳統的機器學習的演算法有更加深刻的理解,Deep Learning也由淺入深,講了motivation,講了具體方法,不同方法之間的聯繫,講了representation learning的視角,還有deep learning目前的研究前景和主要痛點

真的很感謝實習的同事在我大三的時候就給我推薦了這本書。


我覺得作者真的對這個領域理解非常非常深刻,把概念講的非常簡單。這應該是最好的教材了。


這本書寫的很好,很吸引人。

特別是開頭部分講到:

塞普勒斯國王皮格馬利翁(Pygmalion)創作了一個美女雕像伽拉泰亞(Galatea)並把她作為自己的妻子;

同樣有個雕刻家叫代達羅斯(Daedalus),也是刻啥啥都能以假亂真;

還有個青銅巨人叫塔羅斯(Talos),據說是由火神赫淮斯托斯(Hephaestus)和獨眼巨人賽克洛斯(Cyclops)創造;

赫淮斯托斯還用粘土做了一個女人叫潘多拉(Pandora ),送給普羅米修斯作為對人類的懲罰。

嗯,我現在已經讀到《伊利亞特》的第三卷了。


作為機器學習的入門都未嘗不可。

當然此書側重deep learning,對經典的理論演算法感興趣的話可以讀PRML


正在看。是本好書,內容更接近一般機器學習的總論,但是有深度學習的focus,很多演算法降得非常透徹,比如如何從symbolic的角度解BP,很佩服作者。


我還是看完再來評價比較好。

掃了一眼非常好。


你能找到比這本更好的deep learning書么?


繼ESL, PRML後的又一力作~

個人感覺比ESL和PRML更加好讀好懂一些


最近各種關於machine learning的新書都出來了,是不是意味著這個領域已經過了最熱的時候呢。


推薦閱讀:

如何評價「膠囊理論」和其論文 Dynamic Routing Between Capsules?
如何用c++在mnist上實現一個簡單的卷積神經網路,有哪些參考資料?
如何看待《Deep Learning without Poor Local Minima》?
RBF神經網路和BP神經網路有什麼區別?
卷積神經網路和深度神經網路的區別是什麼?

TAG:機器學習 | 模式識別 | 神經網路 | 大數據 | 深度學習DeepLearning |