CS231N 課程筆記合集
03-16
Python Numpy 教程
- Python
- Scipy
- Matplotlib
圖像分類筆記(上)
- 圖像分類、數據驅動方法和流程
- 近鄰分類器
圖像分類筆記(下)
- 驗證集、交叉驗證集和超參數調參
- 近鄰分類器的優劣
線性分類筆記(上)
- 線性分類器簡介
- 線性評分函數
- 線性分類器
線性分類筆記(中)
- 多類 SVM
- 正則化
線性分類筆記(下)
- Softmax分類器
- SVM 與 Softmax的比較
最優化筆記(上)
- 最優化簡介
- 損失函數可視化
- 最優化
- 隨機搜索
- 隨機局部搜索
- 跟隨梯度
最優化筆記(下)
- 梯度計算
- 使用有限差值進行數值計算
- 微分分析計算梯度
- 梯度下降
反向傳播筆記
- 反向傳播簡介
- 簡單表達式和理解梯度
- 複合表達式,鏈式法則,反向傳播
- 直觀理解反向傳播
- 模塊:Sigmoid例子
- 反向傳播實踐:分段計算
- 回傳流中的模式
- 用戶向量化操作的梯度
神經網路筆記1(上)
- 神經網路簡介
- 單個神經元建模
- 生物動機和連接
- 作為線性分類器的單個神經元
- 常用的激活函數
神經網路筆記1(下)
- 神經網路結構
- 層組織
- 前向傳播計算例子
- 表達能力
- 設置層的數量和尺寸
神經網路筆記 2
- 設置數據和模型
- 數據預處理
- 權重初始化
- 批量歸一化(Batch Normalization)
- 正則化(L2/L1/Maxnorm/Dropout)
- 損失函數
神經網路筆記3(上)
- 梯度檢查
- 合理性(Sanity)檢查
- 檢查學習過程
- 損失函數
- 訓練集與驗證集準確率
- 權重:更新比例
- 每層的激活數據與梯度分布
- 可視化
神經網路筆記3(下)
- 參數更新
- 一階(隨機梯度下降)方法,動量方法,Nesterov動量方法
- 學習率退火
- 二階方法
- 逐參數適應學習率方法(Adagrad,RMSProp)
- 超參數調優
- 評價
- 模型集成
卷積神經網路筆記
- 結構概述
- 用來構建卷積神經網路的各種層
- 卷積層
- 匯聚層
- 歸一化層
- 全連接層
- 將全連接層轉化成卷積層
- 卷積神經網路的結構
- 層的排列規律
- 層的尺寸設置規律
- 案例學習(LeNet / AlexNet / ZFNet / GoogLeNet / VGGNet)
- 計算上的考量
課程作業# 1
在學習完 最優化 之後完成該作業。
課程作業# 2
在學習完 神經網路 之後完成該作業。
課程作業# 3
在學習完 卷積神經網路 之後完成該作業。
- 線性分類器簡介
- 線性評分函數
- 線性分類器
推薦閱讀:
- CS231n官方筆記授權翻譯總集篇發布
- CS231N 課程內容中文翻譯
推薦閱讀:
※嘗試克服一下小夥伴對神經網路的恐懼No.26
※Zero-Shot Learning with Semantic Output Codes(NIPS2009)
※崛起中的機器文明
※《集異璧》作者侯世達瘋狂吐槽谷歌翻譯,AI讓譯者失業?還早著呢!
※初探機器學習檢測 PHP Webshell
TAG:機器學習 |