Udacity AI學習筆記(零)
05-01
- 安裝Slack,之前上過深度學習的課程,學員和老師之間的交流工具。地址:Windows | Downloads,不翻牆有可能打不開網頁。不支持網易、qq等國內郵箱登陸
- 安裝Anaconda,強烈建議用清華的國內鏡像,下載和之後安裝package的速度都很快Tsinghua Open Source Mirror
- Python編程知識:Google Python course,Python開發經驗比較多的可以略過。
- Git基礎知識:Udacity free course on Git,平時在使用git的可以略過。
- 連續函數及其導數:C = 0(sinx) = cosx
(cosx) = - sinx
(x^n)= nx^(n-1) (n∈R)(e^x) = e^x(a^x) = (a^x)lna(Inx) = 1/x
(logax) =x^(-1) /lna(a>0且a不等於1) - 向量:
- 向量加法:
- 向量減法:
- 標量乘法:
- 向量的模:
- 向量內積:
- 向量夾角:
,向量夾角90度稱為正交,0度或者180度稱為平行
- 向量投影:
- 單位向量:
- 線性相關:在線性代數里,向量空間的一組元素中,若沒有向量可用有限個其他向量的線性組合所表示,則稱為線性無關或線性獨立(linearly independent),反之稱為線性相關(linearly dependent)
- 矩陣
- 矩陣乘法:A是(m, n)矩陣,B是(n, p)矩陣,則
- 轉置矩陣:把矩陣A的行和列互相交換所產生的矩陣稱為A的轉置矩陣 ,這一過程稱為矩陣的轉置。
- 矩陣轉置的性質:
- 逆矩陣:設A是數域上的一個n階方陣,若在相同數域上存在另一個n階矩陣B,使得: AB=BA=E。 則我們稱B是A的逆矩陣,而A則被稱為可逆矩陣。註:E為單位矩陣。
- 伴隨矩陣:如果A可逆,那麼
- 特徵值和特徵向量:設A是n階方陣,如果數λ和n維非零列向量x使關係式Ax=λx成立,那麼這樣的數λ稱為矩陣A特徵值,非零向量x稱為A的對應於特徵值λ的特徵向量。式Ax=λx也可寫成( A-λE)X=0。這是n個未知數n個方程的齊次線性方程組,它有非零解的充分必要條件是係數行列式| A-λE|=0。
- 矩陣的秩:在線性代數中,一個矩陣A的列秩是A的線性獨立的縱列的極大數目。類似地,行秩是A的線性無關的橫行的極大數目。
- 齊次線性方程組:常數項全部為零的線性方程組。當r=n時,原方程組僅有零解;<n時,有無窮多個解(從而有非零解)。
- 圖
- 定義:圖(Graph)是由頂點的有窮非空集合和頂點之間邊的集合組成,通常表示為:G(V,E),其中,G表示一個圖,V是圖G中頂點的集合,E是圖G中邊的集合。在圖中的數據元素,我們稱之為頂點(Vertex),頂點集合有窮非空。在圖中,任意兩個頂點之間都可能有關係,頂點之間的邏輯關係用邊來表示,邊集可以是空的。
- 有向圖:有向圖由頂點和弧構成。弧有弧尾和弧頭之分,帶箭頭一端為弧頭。
- 無向圖:無向圖由頂點和邊組成
- 鄰接表:鄰接表是圖的一種鏈式存儲結構。主要是應對於鄰接矩陣在頂點多邊少的時候,浪費空間的問題。它的方法就是聲明兩個結構,頭結點[頂點的信息,指向第一條依附在該頂點邊的信息],表結點[某條邊指向的那個頂點的位置,指向下一個表結點]。
- 鄰接矩陣:圖的鄰接矩陣的表示方式需要兩個數組來表示圖的信息,一個一維數組表示每個數據元素的信息,一個二維數組(鄰接矩陣)表示圖中的邊或者弧的信息。
- 廣度優先搜索:類似二叉樹中的層序遍歷。從圖中某頂點v出發,在訪問了v之後依次訪問v的各個未曾訪問過的鄰接點,然後分別從這些鄰接點出發依次訪問它們的鄰接點,並使得「先被訪問的頂點的鄰接點先於後被訪問的頂點的鄰接點被訪問,直至圖中所有已被訪問的頂點的鄰接點都被訪問到。如果此時圖中尚有頂點未被訪問,則需要另選一個未曾被訪問過的頂點作為新的起始點,重複上述過程,直至圖中所有頂點都被訪問到為止。
- 深度優先搜索:類似二叉樹中的先序遍歷。假設初始狀態是圖中所有頂點均未被訪問,則從某個頂點v出發,首先訪問該頂點,然後依次從它的各個未被訪問的鄰接點出發深度優先搜索遍歷圖,直至圖中所有和v有路徑相通的頂點都被訪問到。 若此時尚有其他頂點未被訪問到,則另選一個未被訪問的頂點作起始點,重複上述過程,直至圖中所有頂點都被訪問到為止。
- 演算法複雜度:
- 常數階O(1):不需要循環遍歷
- 對數階O(log2n):二分法
- 線性階O(n):一層遍歷
- 線性對數階O(nlog2n):一層遍歷嵌套一層二分法
- 平方階O(n^2):兩層遍歷
- 立方階O(n^3):三層遍歷
- k次方階O(n^k):k層遍歷
- 指數階O(2^n):窮舉法
- 集合:
- 交換律:A∩B=B∩A;A∪B=B∪A
- 結合律:A∪(B∪C)=(A∪B)∪C;A∩(B∩C)=(A∩B)∩C
- 分配對偶律:A∩(B∪C)=(A∩B)∪(A∩C);A∪(B∩C)=(A∪B)∩(A∪C)
- 對偶律:(A∪B)^C=A^C∩B^C;(A∩B)^C=A^C∪B^C
- 同一律:A∪?=A;A∩U=A
- 求補律:A∪A=U;A∩A=?
- 對合律:A=A
- 等冪律:A∪A=A;A∩A=A
- 零一律:A∪U=U;A∩?=?
- 吸收律:A∪(A∩B)=A;A∩(A∪B)=A
- 邏輯:
- 演繹論證:它由一般原理出發推導出關於個別情況的結論,其前提和結論之間的聯繫是必須的。
- 歸納論證:歸納論證是運用歸納推理進行的論證。論據是關於特殊事實的命題,論題則為一般性的原理,整個論證體現了由個別到一般的思維過程。
- 原命題:一個命題的本身稱之為原命題
- 逆命題:將原命題的條件和結論顛倒的新命題
- 否命題:將原命題的條件和結論全否定的新命題
- 逆否命題:將原命題的條件和結論顛倒,然後再將條件和結論全否定的新命題
- 命題的否定:命題的否定是只將命題的結論否定的新命題,這與否命題不同。
- AIMA:購買地址
推薦閱讀:
※史上最嚴苛隱私數據保護法5月生效!
※Mask R-CNN神應用:像英《黑鏡》一樣屏蔽人像
※人工智慧的三個層次:運算智能,感知智能,認知智能
※「跨領域人工智慧應用」系列Live的第三篇——深入人工智慧應用案例:娛樂、交通和環境
※重磅 | 牛津劍橋OpenAI聯合發出AI預警《人工智慧的惡意使用》
TAG:人工智慧 |