吳恩達機器學習課程筆記(完結)
為什麼說,零基礎的人的機器學習,超級推薦從吳恩達開始!2018.4.29 (視頻)
https://www.zhihu.com/video/974002334635958272嗶哩嗶哩轉載原課程視頻
我的視頻筆記
what is machine learning? 課程 筆記
如何理解machine learning?
what is supervised learning? 課程 筆記
如何理解有監督的學習?
what is unsupervised learning? 課程 筆記
如何理解無監督學習?
model representation 課程 筆記
什麼是機器學習流程, 監督學習,無監督學習
什麼是 linear regression, uni-variant, multi-variant regression
cost function 原課程 筆記
如何用一張圖直觀理解損失函數
cost function Intuition I 課程 筆記
圖解 cost function 直覺1
cost function Intuition II 課程 筆記
圖解 損失函數直覺2
gradient descent 課程 筆記
gradient descent計算流程和注意事項
gradient descent intuition 課程 筆記
圖解gradient的智能與learning rate的注意事項
GradientDescentForLinearRegression 課程 筆記
如何為linear regression 計算gradient descent?
演算法流程是什麼?
圖解機器學習:如何用gradient descent一步一步求解最優linear regression 模型以及其他值得注意的細節
吳恩達機器學習所需的所有線性代數
原課程視頻 What_s Next Matrices and Vectors Addition and Scalar Multiplication Matrix Vector Multiplication Matrix Matrix Multiplication Matrix Multiplication Properties Inverse and Transpose 筆記視頻 圖解深度學習:理解Andrew Ng機器學習所需的所有線性代數知識
如何用vectorization加速多變數函數值求解
原課程:Multiple Features
筆記:如何利用vectorization快速求解多變數函數值
如何用vectorization一次性更新多變數函數的所有參數
原課程:Gradient Descent for Multiple Variables
筆記:如何用vectorization一次性更新多變數函數的所有參數
如何通過拉伸壓縮features來加速梯度下降的訓練進度
原課程:Gradient Descent in Practice I - Feature Scaling
筆記:如何通過拉伸壓縮features來加速梯度下降的訓練進度
如何快速識別模型訓練是否正常以及如何調節學習率幫助訓練正常化
課程:Gradient Descent in Practice II - Learning Rate
筆記:如何快速識別模型訓練是否正常以及如何調節學習率幫助訓練正常化
圖解機器學習:為什麼說提煉特徵和探尋模型藝術性權重大於科學性
課程:Features and Polynomial Regression
筆記:為什麼說提煉特徵和探尋模型藝術性權重大於科學性
圖解機器學習:Normal Equation如何實現一步求解最優參數及其特點
課程:Normal Equation
筆記:Normal Equation如何實現一步求解最優參數及其特點
圖解機器學習:Normal Equation計算中出現non invertible matrix該如何處理以及背後的直觀成因有哪些
課程:Noninvertibility
筆記:Normal Equation計算中出現non invertible matrix該如何處理以及背後的直觀成因有哪些
如何使用Octave來做機器學習?
吳恩達的編程課:
Basic Operations Moving Data Around Computing on Data Plotting Data Control Statements_ for, while, if statements Vectorization Working on and Submitting Programming Exercises 感受:主流語言是python, R, matlab,非常簡單易用,為什麼要學Octave?- 沒有必要學Octave, 如果要給學Octave 找一個理由,那就是Octave無需引入任何lib,操作上是最直截了當,直觀簡單
圖解機器學習:如何使用vectorization來做梯度下降
課程:Vectorization
筆記:如何使用vectorization來做梯度下降
圖解機器學習:如何理解classification以及為什麼logistic比linear regression更適合做classification
課程: Classification
筆記:如何理解classification以及為什麼logistic比linear regression更適合做classification
圖解機器學習:如何理解logistic regression與linear regression的區別
課程: Hypothesis Representation
筆記:如何理解logistic regression與linear regression的區別
圖解機器學習:如何理解decision boundary的生成原理和實質內涵
課程: Decision Boundary
筆記: 如何理解decision boundary的生成原理和實質內涵
圖解機器學習:如何理解logistic regression的損失函數的由來和構成
課程:Cost Function
筆記:如何理解logistic regression的損失函數的由來和構成
圖解機器學習:如何對logistic regression的聯合形態的損失函數做梯度下降更新參數
課程:Simplified Cost Function and Gradient Descent
筆記:如何對logistic regression的聯合形態的損失函數做梯度下降更新參數
圖解機器學習:哪些演算法比gradient descent 更強大
課程:Advanced Optimization
筆記:哪些演算法比gradient descent 更強大
圖解機器學習:如何利用logistic regression二元分類模型解決多元分類問題
課程:Multiclass Classification_ One-vs-all
筆記:如何利用logistic regression二元分類模型解決多元分類問題
圖解機器學習:如何粗略理解underfitting, overfitting, 和overfitting的解決方案
課程:The Problem of Overfitting
筆記:如何粗略理解underfitting, overfitting, 和overfitting的解決方案
圖解機器學習:如何直觀理解regularization背後的直覺
課程:Cost Function
筆記:如何直觀理解regularization背後的直覺
圖解機器學習:regularized linear regression計算中增加的新內容
課程:Regularized Linear Regression
筆記:regularized linear regression計算中增加的新內容
圖解機器學習:regularized logistic regression在訓練時有何不同?
課程:Regularized Logistic Regression
筆記:regularized logistic regression在訓練時有何不同?
圖解機器學習:為什麼linear logistic regression不足以解決現實世界的問題
課程:Non-linear Hypotheses
筆記:為什麼linear logistic regression不足以解決現實世界的問題
圖解機器學習:神經網路模型的現狀和目標
課程:Neurons and the Brain
筆記:神經網路模型的現狀和目標
圖解機器學習:跟neural net打個正式的招呼(介紹)
課程:Model Representation I
筆記:跟neural net打個正式的招呼(介紹)
圖解機器學習:如何理解neuralnet的智能化精簡提煉特徵
課程:Model Representation II
筆記:如何理解neuralnet的智能化精簡提煉特徵
圖解機器學習:如何通過XNOR理解neuralnet提煉複雜特徵的能力
課程:Examples and Intuitions I Examples and Intuitions II
筆記:如何通過XNOR理解neuralnet提煉複雜特徵的能力
圖解機器學習:為什麼說neuralnet做多元分類的本質與多logistic regression解決方案本質相同但模型構架不同
課程:Multiclass Classification
筆記:為什麼說neuralnet做多元分類的本質與多logistic regression解決方案本質相同但模型構架不同
圖解機器學習:neuralnet做多元分類損失函數代碼執行要注意的細節
課程:Cost Function
筆記:neuralnet做多元分類損失函數代碼執行要注意的細節
圖解機器學習:如何理解neuralnet的backprogapation計算邏輯
課程:Backpropagation Algorithm
筆記:如何理解neuralnet的backprogapation計算邏輯
圖解機器學習:如何理解neuralnet的backprogapation中的error的計算邏輯
課程:Backpropagation Intuition
筆記:如何理解neuralnet的backprogapation中的error的計算邏輯
Implementation Note_ Unrolling Parameters
圖解機器學習:什麼是gradient checking及其注意事項
課程:Gradient Checking
筆記:什麼是gradient checking及其注意事項
圖解機器學習:參數起點設計的重要性,symmetry breaking
課程:Random Initialization
筆記:參數起點設計的重要性,symmetry breaking
圖解機器學習:訓練神經網路模型的工作全流程梳理
課程:Putting It Together
筆記:訓練神經網路模型的工作全流程梳理
圖解機器學習:為什麼說診斷模型病症很重要以及如何分割數據來驗證模型效果
課程:Autonomous Driving Deciding What to Try Next Evaluating a Hypothesis
筆記:為什麼說診斷模型病症很重要以及如何分割數據來驗證模型效果
圖解機器學習:為什麼驗證數據讓模型評估更客觀公正
課程:Model Selection and Train_Validation_Test Sets
筆記:為什麼驗證數據讓模型評估更客觀公正
圖解機器學習:為什麼以及如何用bias variance診斷模型病症
課程:Diagnosing Bias vs. Variance
筆記:為什麼以及如何用bias variance診斷模型病症
圖解機器學習:為什麼說regularizer是模型治療手段(bias variance診斷方式)
課程:Regularization and Bias_Variance
筆記:為什麼說regularizer是模型治療手段(bias variance診斷方式)
圖解機器學習:如何用learning curve動態識別模型的病症和選擇合適改進措施
課程:Learning Curves
筆記:如何用learning curve動態識別模型的病症和選擇合適改進措施
圖解機器學習:機器學習和神經網路模型表現差的病因分類和治療方案選擇
課程:Deciding What to Do Next Revisited
筆記:機器學習和神經網路模型表現差的病因分類和治療方案選擇
圖解機器學習:如何用Error analysis 幫助改進模型(垃圾郵件分類案例)
課程:Prioritizing What to Work On Error Analysis
筆記:如何用Error analysis 幫助改進模型(垃圾郵件分類案例)
圖解機器學習:為什麼面對skewed 數據precision recall能規避accuracy評估能力的片面性
課程:Error Metrics for Skewed Classes
筆記:為什麼面對skewed 數據precision recall能規避accuracy評估能力的片面性
圖解機器學習:如何理解precision與recall的博弈及其現實意義,為什麼F1能綜合precision和recall
課程:trading off precision and recall
筆記:如何理解precision與recall的博弈及其現實意義,為什麼F1能綜合precision和recall
圖解機器學習:怎樣的條件下更多數據能夠(或不能)幫助改進模型
課程:Data For Machine Learning
筆記:怎樣的條件下更多數據能夠(或不能)幫助改進模型
圖解機器學習:對比logistic regression來理解SVM通道式的decision boundary的由來
課程:Optimization Objective
筆記:SVM公式是如何從logistic regression 變形而來的課程:Large Margin Intuition 筆記:為什麼說SVM是一個維持最大間隔的classifier(decision boundary)課程:Mathematics Behind Large Margin Classification 筆記:如何利用線性代數幫助理解管道式的decision boundary 的由來
圖解機器學習:如何理解kernels通過參照點創造更好更多features來幫助模型實現non-linear能力01
課程:Kernels I Kernels II Using An SVM
筆記:如何理解kernels通過參照點創造更好更多features來幫助模型實現non-linear能力01 筆記:何時使用kernel來輔助SVM
圖解機器學習:如何理解無監督學習做聚類的K-means演算法流程和優化目標的實現
課程:Unsupervised Learning_ Introduction K-Means Algorithm Optimization Objective
筆記:如何理解無監督學習做聚類的K-means演算法流程和優化目標的實現
圖解機器學習:K-means如何精細處理centroid的random intialization和選擇最優cluster數量
課程:Random Initialization Choosing the Number of Clusters
筆記:K-means如何精細處理centroid的random intialization和選擇最優cluster數量
圖解機器學習:為什麼要對數據做降維和壓縮,可視化有助於理解壓縮後的維度內涵
課程:Motivation I_ Data Compression Motivation II_ Visualization
筆記:為什麼要對數據做降維和壓縮,可視化有助於理解壓縮後的維度內涵
圖解機器學習:如何理解PCA是一種projection降維的最優方案以及PCA的演算法邏輯
課程:Principal Component Analysis Problem Formulation
課程:Principal Component Analysis Algorithm 筆記:如何理解PCA是一種projection降維的最優方案以及PCA的演算法邏輯
圖解機器學習:PCA是如何通過K尋找最優的降維幅度的
課程:Choosing the Number of Principal Components
筆記:PCA是如何通過K尋找最優的降維幅度的
圖解機器學習:如何理解PCA中的U_reduce, x, z, x_approximation的關係
課程:Reconstruction from Compressed Representation
筆記:如何理解PCA中的U_reduce, x, z, x_approximation的關係
圖解機器學習:實際模型訓練中如何正確使用PCA和規避常見錯誤用法
課程: Advice for Applying PCA
筆記:實際模型訓練中如何正確使用PCA和規避常見錯誤用法
圖解機器學習:如何理解anomaly detection的本質,工作原理和演算法流程
課程:Problem Motivation Gaussian Distribution Algorithm
筆記:如何理解anomaly detection的本質,工作原理和演算法流程
圖解機器學習:如何理解anomaly detection實際使用的簡單流程
課程:Developing and Evaluating an Anomaly Detection System
課程:Anomaly Detection vs. Supervised Learning 課程:Choosing What Features to Use 筆記:如何理解anomaly detection實際使用的簡單流程
圖解機器學習:如何理解單變數正態分布 對比多變數正態分布運用於anomaly detection的優缺點
課程:Multivariate Gaussian Distribution
課程:Anomaly Detection using the Multivariate Gaussian Distribution筆記:如何理解單變數正態分布 對比多變數正態分布運用於anomaly detection的優缺點
圖解機器學習:為什麼要學習推薦系統,簡單推薦系統的問題長什麼樣
課程:Problem Formulation
筆記:為什麼要學習推薦系統,簡單推薦系統的問題長什麼樣
圖解機器學習:為什麼說content based recommender是用電影特徵來訓練用戶參數
課程:Content Based Recommendations
筆記:為什麼說content based recommender是用電影特徵來訓練用戶參數
圖解機器學習:為什麼說collaborative filtering是讓電影特徵與用戶參數不斷迭代相互訓練相互更新
課程:Collaborative Filtering
筆記:為什麼說collaborative filtering是讓電影特徵與用戶參數不斷迭代相互訓練相互更新
圖解機器學習:梳理collaborative filtering合併2個交替訓練模型的演算法流程和如何利用電影和用戶特徵來預測
課程:Collaborative Filtering Algorithm
筆記:梳理collaborative filtering合併2個交替訓練模型的演算法流程和如何利用電影和用戶特徵來預測
圖解機器學習:在collaborative filtering代碼執行如何採取vectorization加速計算和訓練後快速找相似電影
課程:Vectorization_ Low Rank Matrix Factorization
筆記:在collaborative filtering代碼執行如何採取vectorization加速計算和訓練後快速找相似電影
圖解機器學習: 新用戶沒有給出任何評分時,如何避免訓練好的模型代替新用戶給所有電影都打0分
課程:Implementational Detail_ Mean Normalization
筆記:新用戶沒有給出任何評分時,如何避免訓練好的模型代替新用戶給所有電影都打0分
圖解機器學習:面對巨量數據如何高效訓練模型和發現問題改進
課程:Learning With Large Datasets
課程:Stochastic Gradient Descent 課程:Mini-Batch Gradient Descent課程:Stochastic Gradient Descent Convergence 筆記:面對巨量數據如何高效訓練模型和發現問題改進
圖解機器學習:什麼是online learning(一句話)
課程:Online Learning
筆記:什麼是online learning(一句話)
圖解機器學習:什麼是map reduce 和data parallal(一句話)
課程:Map Reduce and Data Parallelism
筆記:什麼是map reduce 和data parallal(一句話)
圖解機器學習:一個簡單的OCR文字識別系統的工作全流程長什麼樣子
課程:Problem Description and Pipeline
課程:Sliding Windows 筆記:一個簡單的OCR文字識別系統的工作全流程長什麼樣子
圖解機器學習:合成新數據的方法及相關挑戰和注意事項
課程:Getting Lots of Data and Artificial Data
筆記: 圖解機器學習:合成新數據的方法及相關挑戰和注意事項
圖解機器學習:如何找到能最大化改進模型效果的具體工作任務或模型組建
課程:What Part of the Pipeline to Work on Next
筆記:如何找到能最大化改進模型效果的具體工作任務或模型組建
圖解吳恩達機器學習課程完結:for who, how to use, why
課程:Summary and Thank you
筆記:圖解吳恩達機器學習課程完結:for who, how to use, why
推薦閱讀:
※L1範數正則項使解稀疏的解釋
※模型部署
※Kaggle比賽教你最快速度入門文本分類(經典方法篇)
※非極大值抑制演算法(Python實現)
※機器學習:回歸演算法
TAG:吳恩達AndrewNg | 機器學習 | 人工智慧 |