圖解機器學習的數學基礎專輯(完結)總結:who, why, what

(更新)開始增加概率內容,讓機器學習的數學基礎更完整

圖解Bayes theorem: 如何構建條件機率公式和Bayes rule的直覺理解

圖解概率的直覺,用15分鐘串聯葉丙成概率16小時公開課


本視頻回答以下問題:

這個專輯的定位觀眾是怎樣的?

為什麼要做這個專輯?

這個專輯內容特點是怎樣的?

https://www.zhihu.com/video/972863050651439104


原課程specialization:Imperial College of London, Math for Machine Learning

深度學習所需的數學,Ian Goodfellow 的「花書「是」蜻蜓點水「,默認大家已經學過了;Khanacademy 潛心為所有人從0開始講解,但感覺太耗時;Imperial College London這門課是為機器學習量身定製,可能是恰到好處!


1、圖解學習linear algebra目的:高效求解大量linear equations

2、圖解學習linear algebra目的:高效求解模型參數擬合大量數據

3、圖解線性代數:線代如何切入幫助解決模型優化

4、圖解線性代數:向量的本質和加乘運算

5、圖解線性代數:vector length and dot product

6、圖解線性代數:vector dot product, length, cosine

7、圖解線性代數:scalar projection, vector projection

8、圖解線性代數:vector projection 與 vector transformation

9、圖解線性代數:linear combination, independence, basis vector

10、圖解線性代數:vector, projection, basis vector在機器學習中的應用11、圖解線性代數:matrix簡介

12、圖解線性代數:用映射projection來理解matrix的變形能力

13、圖解線性代數:機器學習的本質與matrix transformation的各種形態

14、圖解線性代數:matrix疊加變形的直觀理解

15、圖解線性代數:inverse與identity matrix的理解和求解

16、圖解線性代數:determinant, inverse, dependence, solution

17、圖解線性代數:einstein summation convention and dot product的對稱性

18、圖解線性代數:我的視野里的vector, basis vector在panda的視野里長得什麼樣子

19、圖解線性代數:案例熊貓與人類的視野轉換

20、圖解線性代數:如何理解orthogonal matrix

21、圖解線性代數:gram-schmidt與轉換坐標空間來實現vector變形

22、圖解線性代數:eigenvectors and eigenvalues

23、圖解線性代數:eigenvectors and eigenvalues的求解邏輯

24、圖解線性代數:用eigenvector, eigenvalues化簡n個matrix的疊加變形計算

25、圖解微積分:什麼是函數,為什麼說數學就是一門語言,微積分是幹什麼用的

26、圖解微積分:如何直觀理解calculus研究的輸入值與輸出值之間的變化關係

27、圖解微積分:對derivative和gradient定義的直觀理解

28、圖解微積分:如何用sum和power規則來計算函數的derivative

29、圖解微積分:特殊函數讓多重derivative計算變得簡單高效

30、圖解微積分:2個函數相乘的複合函數的derivative推導過程(product rule)

31、圖解微積分:chain rule多個函數套用的複合函數的derivative高效計算的直覺理解

32、圖解微積分:如何用sum, product, power, chain rules解決看似極複雜的函數的derivative

33、圖解微積分:如何直觀理解independent, dependent variables, constant, 以及多變數函數的derivative的求解邏輯

34、圖解微積分:直觀理解total derivative的用途和構造

35、圖解微積分:直觀理解Jacobian的用途和構造

36、圖解微積分:如何理解Jacobian matrix結構和用途

37、圖解微積分:如何理解Jacobian在尋找函數全局和局部大小值時存在近視問題

38、圖解微積分:如何理解Hessian matrix結構和用途

39、圖解微積分:為什麼深度學習中Jacobian hessian用不上而必須用numeric method

40、圖解微積分:如何用Jacobian vector matrix解多個函數疊套且每個函數有多個變數的derivative

41、圖解微積分:如何實現從神經網路圖譜到vector matrix計算公式的轉化(正向傳遞)

42、圖解微積分:Jacobian vector matrix高效完成神經網路反向傳遞的邏輯和計算流程

43、圖解微積分:引入Taylor series

44、圖解微積分:maclaurin series的構造(Taylor series的特殊版)

45、圖解微積分:Taylor series構造的由來

46、圖解微積分:maclaurin, taylor series 案例求解

47、圖解微積分:Expected error and multivariate taylor

圖解PCA

圖解機器學習:為什麼要對數據做降維和壓縮,可視化有助於理解壓縮後的維度內涵

課程:Motivation I_ Data Compression Motivation II_ Visualization

筆記:為什麼要對數據做降維和壓縮,可視化有助於理解壓縮後的維度內涵

圖解機器學習:如何理解PCA是一種projection降維的最優方案以及PCA的演算法邏輯

課程:Principal Component Analysis Problem Formulation

課程:Principal Component Analysis Algorithm

筆記:如何理解PCA是一種projection降維的最優方案以及PCA的演算法邏輯

圖解機器學習:PCA是如何通過K尋找最優的降維幅度的

課程:Choosing the Number of Principal Components

筆記:PCA是如何通過K尋找最優的降維幅度的

圖解機器學習:如何理解PCA中的U_reduce, x, z, x_approximation的關係

課程:Reconstruction from Compressed Representation

筆記:如何理解PCA中的U_reduce, x, z, x_approximation的關係

圖解機器學習:實際模型訓練中如何正確使用PCA和規避常見錯誤用法

課程: Advice for Applying PCA

筆記:實際模型訓練中如何正確使用PCA和規避常見錯誤用法

推薦閱讀:

深度學習讀書筆記 第一部分 線性代數
拋棄行列式的線性代數 1.2 向量空間的定義
線性代數的形象理解
線性方程組(5)-克雷洛夫子空間與伽遼金原理

TAG:機器學習 | 深度學習DeepLearning | 線性代數 |