人工智慧學習筆記之數學篇--高等數學

人工智慧學習筆記之數學篇--高等數學

前言

理解機器學習核心是演算法,演算法的核心是數學知識,擁有大學的數學基礎知識即可,分三篇筆記圈出涉及的相關知識點,適合有一定數學基礎的同學理解涉及的數學知識,無基礎或者基礎薄弱的可以按照下述知識範圍進行學習,達到快速建立人工智慧基礎數學系統知識機構的目的,歡迎各位朋友批評指正和交流

函數的定義

函數的定義:給定一個數集A,假設其中的元素為x。現對A中的元素x施加對應法則f,記作 f(x) ,得到另一數集B。假設B中的元素為y。則y與x之間的等量關係可以用 y=f(x) 表示。我們把這個關係式就叫函數關係式,簡稱函數

y=f(x) 其中x為自變數,y為因變數

函數特性

奇偶性

單調性

周期性

數列

數列是以正整數(或它的有限子集)為定義域的函數,是一列有序的數。數列中的每一個數都叫做這個數列的項,排在第n位的數稱為這個數列的第n項,通常用 a_{n} 表示

極限

設函數 f(x) 在點 x_{0} 的某一去心鄰域內有定義,如果存在常數a,對於任意給定的正數ε,

,使不等式 left| f(x)-a 
ight|<varepsilonleft| x -x_{0}
ight|epsilon (0, delta ),時恆成立,那麼常數 a ,就叫做函數 f(x)x 
ightarrow x_{0} 時的極限,記作lim_{x 
ightarrow x0}f(x)=a

基本性質:

1.有限個無窮小的代數和仍是無窮小

2.有限個無窮小的積仍是無窮小

3.有界變數與無窮小的積仍是無窮小

4.無限個無窮小之和不一定是無窮小

5.無窮小的商不一定是無窮小

函數的連續性

設函數 y=f(x) 在點x_{0}的某鄰域內有定義,如果當自變數的改變數 Delta x 趨近於零時,相應函數的改變數 Delta y 也趨近於零,則稱 y=f(x) 在點 x_{0} 處連續。函數 y=f(x)在點 x_{0}處不連續,則稱其為函數的間斷點

導數

導數是微積分中的重要基礎概念。當函數y=f(x)的自變數 x 在一點 x_{0} 上產生一個增量Deltax時,函數輸出值的增量Δy與自變數增量Δx的比值在Δx趨於0時的極限a如果存在,a即為在x0處的導數,記作 fx_{0}df(x_{0})/dx

偏導數

在數學中,一個多變數的函數的偏導數,就是它關於其中一個變數的導數而保持其他變數恆定(相對於全導數,在其中所有變數都允許變化)

表示固定面上一點的切線斜率

偏導數 fx(x_{0}y_{0}) 表示固定面上一點對 x 軸的切線斜率;偏導數fy(x_{0}y_{0})表示固定面上一點對 y 軸的切線斜率

方嚮導數

設函數z=f(x,y) 在點P(x,y)的某一領域U(P)內有定義,自點P引射線 l ,自x軸的正向到射線 l的轉角為 varphip(x+Delta x,y+Delta y) epsilon U(p)l 上的另一點,若

存在,則稱此極限值為 f(x,y) 在點P沿方向 l 的方嚮導數,記作 frac{partial f}{partial l} .其計算公式為

定理:如果函數 在點 x_{0} 是可微分的,那麼在該點沿任意方向L的方嚮導數都存在

梯度

梯度:梯度的本意是一個向量(矢量),表示某一函數在該點處的方嚮導數沿著該方向取得最大值,即函數在該點處沿著該方向(此梯度的方向)變化最快,變化率最大(為該梯度的模)

設函數 z=f(x,y) 在平面 D 內具有一階連續偏導數,則對於每一點 (x,y)epsilonD ,都可以定出一個向量 frac{partial f}{partial x}i+frac{partial f}{partial y}j ,稱為函數在點p的梯度,記作 grad f(x,y)

函數在某點的梯度是這樣一個向量,它的方向與取得最大方嚮導數的方向一致,而它的模為方嚮導數的最大值,所以梯度為等高線上點p處的法向量,因此我們可得到梯度和等高線的下述關係,函數 z=f(x,y) 在點 p(x,y) 的梯度的方向與過點p的等高線f(x,y)=c在這點的法線的一個方向相同,且從數值較低的等高線指向數值較高的等高線。

場景理解:

梯度下降法的基本思想可以類比為一個下山的過程。假設這樣一個場景:一個人被困在山上,需要從山上下來(找到山的最低點,也就是山谷)。但此時山上的濃霧很大,導致可視度很低。因此,下山的路徑就無法確定,他必須利用自己周圍的信息去找到下山的路徑。這個時候,他就可以利用梯度下降演算法來幫助自己下山。具體來說就是,以他當前的所處的位置為基準,尋找這個位置最陡峭的地方,然後朝著山的高度下降的地方走,同理,如果我們的目標是上山,也就是爬到山頂,那麼此時應該是朝著最陡峭的方向往上走。然後每走一段距離,都反覆採用同一個方法,最後就能成功的抵達山谷

二、微積分

當x無窮小時,總和S總是趨於確定的極限I,則稱極限I為函數f(x)在曲線[a,b]上的定積分

性質

1、當a=b時, int_{a}^{b} f(x) dx =0

2、常數可以提到積分號前,int_{a}^{b}kf(x)dx=k int_{a}^{b}f(x)dx

3、代數和的積分等於積分的代數和 int_{a}^{b}left{ f(x)+g(x)
ight}dx=int_{a}^{b}f(x)dx+g(x)dx

4、定積分的可加性:如果積分區間[a,b]被c分為兩個子區間[a,c]與[c,b]則有

int_{a}^{b}f(x)dx=int_{a}^{c}f(x)dx+int_{c}^{b}f(x)dxf(x)dx

5、積分中值定理:設f(x)在[a,b]上連續,則至少存在一點ε在(a,b)內使

int_{a}^{b}f(x)dx=f(varepsilon)(b-a)

就是把直角坐標繫上的函數的圖象用平行於y軸的直線把其分割成無數個矩形,然後把某個區間[a,b]上的矩形累加起來,所得到的就是這個函數的圖象在區間[a,b]的面積。實際上,定積分的上下限就是區間的兩個端點a,b。我們可以看到,定積分的本質是把圖象無限細分,再累加起來

牛頓-萊布尼茨公式

定積分與不定積分由於一個數學上重要的理論的支撐,使得它們有了本質的密切關係。把一個圖形無限細分再累加,這似乎是不可能的事情,但是由於這個理論,可以轉化為計算積分。這個重要理論就是大名鼎鼎的牛頓-萊布尼茲公式,它的內容是:

如果 f(x) 是[a,b]上的連續函數,並且有 F(x)=f(x) ,那麼

int_{a}^{b}f(x)dx=F(b)-F(a)

用文字表述為:一個定積分式的值,就是原函數在上限的值與原函數在下限的值的差。

泰勒公式

在已知函數在某一點的各階導數值的情況之下,泰勒公式可以用這些導數值做係數構建一個多項式來近似函數在這一點的鄰域中的值

若函數 f(x) 在包含 x_{0} 的某個閉區間[a,b]上具有n階導數,且在開區間(a,b)上具有(n+1)階導數,則對閉區間[a,b]上任意一點x,成立下式:

f(x)=frac{f(x_{0})}{0!}+frac{f(x_{0})}{1!}(x-x_{0})+...+frac{f^{n}(x_{0})}{n!}(x-x_{0})^{n}+R_{n}(x)

麥克勞林展開式

函數的麥克勞林展開指上面泰勒公式中x0取0的情況,即是泰勒公式的特殊形式,若f(x)在x=0處n階連續可導,則下式成立:

f(x)=frac{f(0)}{0!}+frac{f(0)}{1!}x+...+frac{f^{n}(0)}{n!}x^{n}+R_{n}(x)

拉格朗日乘子法

基本的拉格朗日乘子法就是求函數f(x1,x2,...)在約束條件g(x1,x2,...)=0下的極值的方法。其主要思想是將約束條件函數與原函數聯立,從而求出使原函數取得極值的各個變數的解。

對於具有l個等式約束的n維優化問題:

把原目標函數f(x)改造成為如下形式的新的目標函數

式中的待定係數 lambda_{k} 稱為拉格朗日乘子。這種方法稱為拉格朗日乘子法。

在極值點處,有n+l 個方程,足以算出這n+l個變數,此法也稱為升維法

在山上有一個曲線(給定的約束條件),找出這個曲線的極值點,用曲線方程和函數構造一個新的方程,求出極值點

推薦閱讀:

TAG:高等數學 | 人工智慧產品 |