吳恩達深度學習課程課後習題(第一課第二周)
在正式開始之前,還是強調一下本魚寫這個系列文章的初衷是為了大家更好的交流和學習,請不要將此答案用於coursera刷分等其他用途,否則後果自負。
神經網路中的一個神經元計算g(z),即計算一個激活函數,此激活函數的自變數是線性函數wx+b。答案D
loss function用來衡量輸出值和真實值有多接近。我們一般會考慮採用兩者的差的絕對值或者差的平方來衡量。但是這樣做有一個壞處,這會導致最後在優化的時候,這個函數是非凸的,會出現很多局部最優解。所以,我們定義了一個logistic的loss,如上面C所示,這樣的好處是,很容易去做最優化。答案C
reshape成列向量,那肯定是(n,1)這樣的形式。現在一個圖片由RGB三層,每層由32x32個像素組成,每個像素點上是一個值,代表R或B或G的深度值,為了完全體現所有信息,肯定得有32*32*3個維度。答案C
這是python中的廣播。在計算的時候,它會先將b沿列方向複製3倍,再和a運算。答案C
在python中,兩個矩陣的*星號乘法,代表的是兩個矩陣中各個元素分別相乘,前提是這兩個矩陣的維度得匹配。答案A
nx個特徵,組成一個列向量(nx,1),現X中有m個樣本,維度為(nx,m),答案C
np.dot是矩陣的點乘,A-維度(a,b)點乘B-維度(b,c),結果是一個維度為(a,c)的矩陣,答案D
c的維度(3,4),再回看a和b的維度,a維度一樣無需轉置,b需要轉置並廣播。答案A
此題還是考查星號乘法及廣播。b先沿列方向複製3份,維度一致後再與a星號乘。答案A
J=u+v-w=a*b+a*c-(b+c)=a*(b+c)-(b+c)=(a-1)*(b+c),答案B
推薦閱讀:
※應用機器學習演算法的一些具體建議
※碼農書架 - Ver 2017.1
※深度學習概述與發展歷史-花書第一章解讀(上)
TAG:人工智能 | 机器学习 | 深度学习DeepLearning |