標籤:

Udacity AI學習筆記(零)

  • 安裝Slack,之前上過深度學習的課程,學員和老師之間的交流工具。地址:Windows | Downloads,不翻牆有可能打不開網頁。不支持網易、qq等國內郵箱登陸
  • 安裝Anaconda,強烈建議用清華的國內鏡像,下載和之後安裝package的速度都很快Tsinghua Open Source Mirror
  • Python編程知識:Google Python course,Python開發經驗比較多的可以略過。
  • Git基礎知識:Udacity free course on Git,平時在使用git的可以略過。
  • 連續函數及其導數:

    C = 0

    (sinx) = cosx

    (cosx) = - sinx

    (x^n)= nx^(n-1) (n∈R)

    (e^x) = e^x

    (a^x) = (a^x)lna

    (Inx) = 1/x

    (logax) =x^(-1) /lna(a>0且a不等於1)
  • 向量:
  1. 向量加法: overrightarrow{A} + overrightarrow{B} =(X_1 + X_2, Y_1 + Y_2)
  2. 向量減法: overrightarrow{A} - overrightarrow{B} =(X_1 - X_2, Y_1 - Y_2)
  3. 標量乘法: k cdot overrightarrow{A} = (k * X_1, k * Y_1)
  4. 向量的模: ||overrightarrow{A}|| = sqrt{X_1^2 + Y_1^2}
  5. 向量內積: overrightarrow{A} cdot overrightarrow{B} = X_1 * X_2 + Y_1 * Y_2 = ||overrightarrow{A}|| * ||overrightarrow{B}|| * cos	heta
  6. 向量夾角: cos	heta = overrightarrow{A} cdot overrightarrow{B} / (||overrightarrow{A}|| * ||overrightarrow{B}||) ,向量夾角90度稱為正交,0度或者180度稱為平行
  7. 向量投影: ||overrightarrow{A}|| = ||overrightarrow{A}|| * cos	heta = ||overrightarrow{A}|| * overrightarrow{A} cdot overrightarrow{B} / (||overrightarrow{A}|| * ||overrightarrow{B}||) = overrightarrow{A} cdot overrightarrow{B} / ||overrightarrow{B}||
  8. 單位向量: frac{1}{||overrightarrow{A}||} cdot overrightarrow{A}
  9. 線性相關:在線性代數里,向量空間的一組元素中,若沒有向量可用有限個其他向量的線性組合所表示,則稱為線性無關或線性獨立(linearly independent),反之稱為線性相關(linearly dependent)
  • 矩陣
  1. 矩陣乘法:A是(m, n)矩陣,B是(n, p)矩陣,則 AB = sum_{r}^{n}{a_{i,r} ullet b_{r,j}}
  2. 轉置矩陣:把矩陣A的行和列互相交換所產生的矩陣稱為A的轉置矩陣 ,這一過程稱為矩陣的轉置。
  3. 矩陣轉置的性質: (AB)^T = B^TA^T
  4. 逆矩陣:設A是數域上的一個n階方陣,若在相同數域上存在另一個n階矩陣B,使得: AB=BA=E。 則我們稱B是A的逆矩陣,而A則被稱為可逆矩陣。註:E為單位矩陣。
  5. 伴隨矩陣:如果A可逆,那麼 A^{*} = |A| A^{-1}
  6. 特徵值和特徵向量:設A是n階方陣,如果數λ和n維非零列向量x使關係式Ax=λx成立,那麼這樣的數λ稱為矩陣A特徵值,非零向量x稱為A的對應於特徵值λ的特徵向量。式Ax=λx也可寫成( A-λE)X=0。這是n個未知數n個方程的齊次線性方程組,它有非零解的充分必要條件是係數行列式| A-λE|=0。
  7. 矩陣的秩:在線性代數中,一個矩陣A的列秩是A的線性獨立的縱列的極大數目。類似地,行秩是A的線性無關的橫行的極大數目。
  8. 齊次線性方程組:常數項全部為零的線性方程組。當r=n時,原方程組僅有零解;<n時,有無窮多個解(從而有非零解)。
  1. 定義:圖(Graph)是由頂點的有窮非空集合和頂點之間邊的集合組成,通常表示為:G(V,E),其中,G表示一個圖,V是圖G中頂點的集合,E是圖G中邊的集合。在圖中的數據元素,我們稱之為頂點(Vertex),頂點集合有窮非空。在圖中,任意兩個頂點之間都可能有關係,頂點之間的邏輯關係用邊來表示,邊集可以是空的。
  2. 有向圖:有向圖由頂點和弧構成。弧有弧尾和弧頭之分,帶箭頭一端為弧頭。
  3. 無向圖:無向圖由頂點和邊組成
  4. 鄰接表:鄰接表是圖的一種鏈式存儲結構。主要是應對於鄰接矩陣在頂點多邊少的時候,浪費空間的問題。它的方法就是聲明兩個結構,頭結點[頂點的信息,指向第一條依附在該頂點邊的信息],表結點[某條邊指向的那個頂點的位置,指向下一個表結點]。
  5. 鄰接矩陣:圖的鄰接矩陣的表示方式需要兩個數組來表示圖的信息,一個一維數組表示每個數據元素的信息,一個二維數組(鄰接矩陣)表示圖中的邊或者弧的信息。
  6. 廣度優先搜索:類似二叉樹中的層序遍歷。從圖中某頂點v出發,在訪問了v之後依次訪問v的各個未曾訪問過的鄰接點,然後分別從這些鄰接點出發依次訪問它們的鄰接點,並使得「先被訪問的頂點的鄰接點先於後被訪問的頂點的鄰接點被訪問,直至圖中所有已被訪問的頂點的鄰接點都被訪問到。如果此時圖中尚有頂點未被訪問,則需要另選一個未曾被訪問過的頂點作為新的起始點,重複上述過程,直至圖中所有頂點都被訪問到為止。
  7. 深度優先搜索:類似二叉樹中的先序遍歷。假設初始狀態是圖中所有頂點均未被訪問,則從某個頂點v出發,首先訪問該頂點,然後依次從它的各個未被訪問的鄰接點出發深度優先搜索遍歷圖,直至圖中所有和v有路徑相通的頂點都被訪問到。 若此時尚有其他頂點未被訪問到,則另選一個未被訪問的頂點作起始點,重複上述過程,直至圖中所有頂點都被訪問到為止。
  • 演算法複雜度:
  1. 常數階O(1):不需要循環遍歷
  2. 對數階O(log2n):二分法
  3. 線性階O(n):一層遍歷
  4. 線性對數階O(nlog2n):一層遍歷嵌套一層二分法
  5. 平方階O(n^2):兩層遍歷
  6. 立方階O(n^3):三層遍歷
  7. k次方階O(n^k):k層遍歷
  8. 指數階O(2^n):窮舉法
  • 集合:
  1. 交換律:A∩B=B∩A;A∪B=B∪A
  2. 結合律:A∪(B∪C)=(A∪B)∪C;A∩(B∩C)=(A∩B)∩C
  3. 分配對偶律:A∩(B∪C)=(A∩B)∪(A∩C);A∪(B∩C)=(A∪B)∩(A∪C)
  4. 對偶律:(A∪B)^C=A^C∩B^C;(A∩B)^C=A^C∪B^C
  5. 同一律:A∪?=A;A∩U=A
  6. 求補律:A∪A=U;A∩A=?
  7. 對合律:A=A
  8. 等冪律:A∪A=A;A∩A=A
  9. 零一律:A∪U=U;A∩?=?
  10. 吸收律:A∪(A∩B)=A;A∩(A∪B)=A
  • 邏輯:
  1. 演繹論證:它由一般原理出發推導出關於個別情況的結論,其前提和結論之間的聯繫是必須的。
  2. 歸納論證:歸納論證是運用歸納推理進行的論證。論據是關於特殊事實的命題,論題則為一般性的原理,整個論證體現了由個別到一般的思維過程。
  3. 原命題:一個命題的本身稱之為原命題
  4. 逆命題:將原命題的條件和結論顛倒的新命題
  5. 否命題:將原命題的條件和結論全否定的新命題
  6. 逆否命題:將原命題的條件和結論顛倒,然後再將條件和結論全否定的新命題
  7. 命題的否定:命題的否定是只將命題的結論否定的新命題,這與否命題不同。
  • AIMA:購買地址


推薦閱讀:

史上最嚴苛隱私數據保護法5月生效!
Mask R-CNN神應用:像英《黑鏡》一樣屏蔽人像
人工智慧的三個層次:運算智能,感知智能,認知智能
「跨領域人工智慧應用」系列Live的第三篇——深入人工智慧應用案例:娛樂、交通和環境
重磅 | 牛津劍橋OpenAI聯合發出AI預警《人工智慧的惡意使用》

TAG:人工智慧 |