M.1.3 神經網路的數學基礎-張量進階
張量概念的延伸
首先將前幾章提到的張量的形式作總結(對於坐標變換)給出數組若其滿足如下的變換方式:
則稱上述為p+q階的(p,q)型張量。
回顧之前提過的幾種張量:
對於坐標變換,進行如下的變換(公式為矩陣相乘)n1.標量 (0階張量)n不變化n2.向量v ((1,0)型1階張量)n變換方式為v=Avn3.余向量m ((0,1)型1階張量)n變換方式為m=mBn4.向量內積G ((0,2)型2階張量)n變換方式為G=AtGAn5.余向量內積Gm ((2,0)型2階張量)n變換方式為Gm=BGmBtn6.向量線性運算元L ((1,1)型2階張量)n變換方式為L=BLAn
這裡注意,所有的張量的是從屬於空間內某一個點的對象。但其定義方式是微分形式的,是空間點和其鄰域。
這裡將空間中的坐標基以不同方式表示,向量坐標基為,余向量的坐標基為,二者指標位置不同,代表單層的坐標變換方式不同。
這樣寫是方便的,對於任意張量可表示為:
將稱為(p,q)型張量的線性空間的坐標基,這裡單位基向量是不能交換順序的。
張量的三個運算
張量的運算比較重要的由三個
第一種為指標置換,說的明白一點就是對中的i或者j指標的順序進行置換,置換方式用函數表示。
第二種為縮並,對於指標縮並指的是:
相同指標代表對於相應指標求和。
第三種為張量乘積,如果給出(p,q),(k,l)兩個張量T,P,其乘積記為
注意張量乘積是有順序的,距離來說向量和線性運算元的乘積
因為向量微分運算元為(1,1)型張量,向量為(1,0)型張量,所以二者乘積T為(2,1)型3階張量。對其進行縮並運算
則得到一個向量。這裡是對向量應用線性微分運算元。
舉個例子吧:
柱坐標變換的例子:
我們做個函數的梯度:
變換後為:
這個分量是在原來的xyz坐標之下的分量,顯然對於柱坐標需要的是一個旋轉:
相乘之後得到柱坐標之下梯度:
推薦閱讀:
※微分流形(上)
※已知任意三角形的角平分線長度,求作這個三角形?
※Tropical geometry、mirror symmetry 是研究什麼?
※微分形式