跡的幾何意義是什麼?

一個矩陣的跡等於特徵值之和。我知道特徵值在幾何上代表的是拉伸係數,那作為這些拉伸係數之和的跡有什麼幾何意義?

從維基百科上看,跡跟群論像是有很大的聯繫。但我僅有高數和很初級的線代基礎。如果跡 沒有顯而易見的幾何意義,那能否提供一些學習資料的索引?

先行謝過諸君~

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

補充:

這回是從英文的維基百科上摘來的:

Geometrically, the trace can be interpreted as the infinitesimal change in volume (as the derivative of the determinant), which is made precise inJacobi"s formula.

我好奇的是,什麼賦予了對角線上的數這麼神奇的性質?為什麼其他的數沒有這樣的性質?


提供一個不太一樣的思路。

我覺得矩陣的trace意義難以理解,是因為我們不應該把矩陣看成某個線性空間 V 映到自身的線性映射,而應該看成 Votimes V^* 裡面的一個元素。那麼 Votimes V^* 有什麼幾何/物理意義?這個首先就應該考慮 V^* 是什麼意義。如果我們只是把 V 看成一個線性空間,那麼 V^* 同構於 V ,我們就看不出它是什麼意義。所以我們這裡應該考慮表示論。例如:如果 V 是某個李代數 mathfrak g 的線性表示,那麼我們可以利用線性映射的transpose操作自然地定義一個 V^* 上的表示,這個表示叫做對偶表示。在一般情況下一個表示是不同構於其對偶表示的。在物理上,如果 V 是一個代數結構的不可約表示,那麼它就代表一個基本粒子,而對偶表示 V^* 代表相應的反粒子。 Votimes V^* 是正反粒子同時存在的耦合情況。矩陣的trace搬到這個表示空間上看其實就是一個evaluation map mathrm{ev}_{V^*}:Votimes V^*
ightarrow mathbb C ,這裡 mathbb C (我們假設 V 為複數域上的)為一維表示,對應的是真空態[1]。 這個 mathrm{ev}_{V^*} 其實代表的就是就是粒子和反粒子的相互作用,也就是湮滅。

其實題主如果了解過一點multilinear algebra的話就會知道,trace操作本身就是矩陣作用和矩陣乘法的推廣:線性映射作用在線性空間上的操作 mathrm{End}(V)otimes V
ightarrow VAotimes vmapsto Av 等價於 mathrm{id}_Votimesmathrm{ev}_V:Votimes V^*otimes V
ightarrow Votimes mathbb Csimeq V。這個意思就是說:線性映射作用在線性空間(態空間)上,等價於我先拿一些反粒子湮滅掉一些 V 裡面的粒子,在同時create一些 V 裡面的粒子。而矩陣相乘映射 mathrm{End}(V)otimesmathrm{End}(V)
ightarrow mathrm{End}(V)Aotimes Bmapsto AB 其實等價於映射 mathrm{id}_{V}otimes mathrm{ev}_{V}otimes mathrm{id}_{V^*}:Votimes V^*otimes Votimes V^*
ightarrow Votimes mathbb Cotimes V^*simeq Votimes V^* ,所以也可以用evaluation map,實際上也就是用trace寫出來。這個映射的物理意義is left to the reader as an exercise。

取trace其實和cobordism也有點關係:如果一個可定向帶邊流形 M 的邊界 partial M 有一對互相同構但方向相反的聯通分支 N_1,N_2 ,那我們就能把這兩個聯通分支給粘起來,得到一個新的流形 M 。相應的,如果 partial M 的每個聯通分支都賦予一個表示,其中 N_1N_2 上給定的表示互為對偶(也就是互為反粒子),那麼 M 上就有一個關聯函數的線性空間,而從 M 上的關聯函數構造 M 上的關聯函數的方法就是取 N_1,N_2 上那對互為對偶表示的evaluation map。例如和仿射李代數相對應的情況是: M 是一個cylinder,它的邊界是一對方向相反的circle,那麼attach之後的 M 就是一個torus。通過取trace構造仿射李代數表示的特徵標其實就是一個從cyclinder(或者更一般的帶邊界的0-虧格黎曼面)上的關聯函數到torus上的關聯函數的過程,無怪乎仿射李代數的特徵標理論和模形式有關係。而著名的monstrous moonshine conjecture的解決,也就是通過構造一個0-虧格黎曼面上的場論(moonshine VOA),使得其具有monster group作用下的對稱性,同時其特徵標是模形式j-invariant。

[1] 一般的,真空態對應的表示空間可以不是一維的,但是真空表示與任何一個表示的tensor——也就是說耦合——都必須是那個表示自己。當然in general我們說的tensor也不是一般意義上的tensor over field mathbb C ,而是over更加複雜的東西。


跡是一個很「泛」的東西,和特徵值一樣,都是矩陣(或者張量)的某種不變數,我不覺得有什麼明顯的幾何意義。我舉幾個例子:黎曼張量固定2個分量取跡就得到Ricci曲率,對Hessian取跡就得到Laplacian. 表示論裡面對群元取跡就得到特徵標。等等。

學數學有時候不要過多糾結為什麼要搞出這麼個東西。數學家為什麼要定義跡這個東西?因為特徵值比較好玩,他們想看看把它們加起來能不能得到什麼好玩的東西。結果發現加起來還挺有用的。有時候單純看定義你也看不出什麼來。單純看第一陳類的定義你能看出他跟intersection number有關係?學得多了,知道的多了,有些概念你自然而然就明白為什麼要這麼定義,有什麼價值了

==================

補充一點:

如果樓主糾結的是「為什麼對角線元素加起來是個相似不變數」的話,那麼有個general fact:

特徵值的k次基礎對稱多項式等於矩陣的k階主子式之和。寫成公式就是:

sum_{1leq i_1<...<i_kleq n} lambda_{i_1}...lambda_{i_k} =sum_{1leq j_1<..<j_kleq n} Aleft(^{j_1...j_k}_{j_1...j_k}  
ight) .

k=1就得到跡,k=n就得到行列式。


我自己一直理解的大概就是

某種意義下是「」不動點」的個數…

給定向量空間V一組基e_1,hdots,e_n,線性變換的跡定義為

Tr phi =sum_{i}^{}{} <phi(e_i),e_i> (&< ,e_i&>表示取e_i分量)

如果e_i是一個phi不動點的話,那麼<phi(e_i),e_i>貢獻的就是1,大概反映了在這個線性變換作用之後大概有「多少」還留在了e_i這裡,可以理解成被fix的成分是多少…

1.

如果考慮有限群的置換表示的話,那麼Trace就是不動點個數。

另外特徵標理論裡面特徵標就是取Trace,而其可以反映足夠多的信息,這也是一個有意思的問題。

2.

Lefschetz fix-point theorem

sum_{x in mathrm{Fix}(f)} i(f,x) = sum_{k geq 0} (-1)^k mathrm{Tr}(f_*|H_k(X,mathbb{Q}))

如果f沒有不動點,取個足夠小的單形剖分,f總把一個單形映到這個單形之外,所以f沒有不動的「單形」,從而對角元全是0,右邊的跡是0,Lefeschetz數=0。

與之類似的Atiyah-Bott不動點定理也有跡出現,不贅述。

3.

F是一個域,我們有

A in M_n(F)的跡為0 等價於 A 相似於 一個對角元全是0的方陣。

所以一個跡0的線性變換在合適的基下會把一個基向量完全映到其他的基向量形成的子空間里。

4.

如果A是冪等陣,即A^2=A,那麼A的trace恰好就是V中A的不動點構成的子空間的維數,也是A的秩

5.複分析裡面莫比烏斯變換的分類問題

C^2的可逆線性變換把一維復直線映成復直線,誘導P^1的自同構,P^1等同成擴充複平面即莫比烏斯變換,按照變換的跡分成4類:

橢圓型,如果跡為實數,並且絕對值&<2,這時在兩個不動點附近其形如旋轉。

雙曲型,如果跡為實數,絕對值&>2,此時一個不動點為吸引子,另一個為排斥子,並且對稱。

斜駛型,如果跡為正負2,此時為上兩種的複合。

拋物型,如果跡不是實數,此時只有一個不動點,類似平移。

上面的分類可見Needham著,齊民友先生譯的複分析可視化方法

————————————

另一種意義下是用於定義雙線性型(乘法後取trace),看成是內積的類似物。

如定義內積,作為正交性的判定(典型的例子是2x2自伴復跡0陣空間裝配跡雙線型給出2-復疊SU(2) 
ightarrow SO(3)

其他例子如李代數的Killing形式(非退化)、數域的Trace二次型;

具體應用比如:

A=(a_{ij}),B=(b_{ij}),那麼Tr(AB^T)恰好就是a_{ij}b_{ij}的和。

用上面的結論可以輕鬆證明兩個正定陣的Hadamard積還是正定的,結合PDE可以得到:黎曼流形上的函數u如果局部Delta u<0,那麼局部沒有嚴格最小值。

想到再補充…

當然黎曼幾何里trace就是(1,1)張量縮並,縮並運算當然是很常見的。


謝邀。

在概念還沒搞清的時候,先不要考慮太難的問題,請先理解對角陣,在確定自己完全理解清楚了對角陣(對角陣的特徵值、對角陣的跡),再漸漸加大難度,考慮其它問題。

分三步來理解。

  1. 高中生學過二次方程的韋達定理,請題主思考:x^2+bx+c=0 這個方程的所有根的和等於多少、所有根的積等於多少。

  2. 把二次方程推廣到 N 次,那麼接下來可以類似地來思考:(x-x1)(x-x2)(x-x3)...(x-n_N)=0 這個方程的所有根的和對應於等式左邊展開後幾次項的係數,所有根的積對應等式展開後幾次項的係數。

  3. 考慮矩陣的特徵值問題,有矩陣 A 的特徵值方程,det(A-λI)=0。除了主對角元的乘積 (λ-a11)(λ-a22)...(λ-ann) 外次數都小於 n-1。因此 n-1 次項的係數就是 (λ-a11)(λ-a22)...(λ-ann) 中 λ^(n-1) 的係數。

理解了矩陣的跡,還要順便搞清楚行列式是什麼。因為一個是特徵值的乘積,一個是特徵值的加和,你可以自己思考可以怎樣對矩陣做處理,可以讓一個矩陣的行列式變成另一個矩陣的跡。關於行列式,可以參考:科學家最初發明行列式和矩陣是為了解決什麼問題?

此外,考慮矩陣的跡的不變性,還可以從很多不同的角度來理解,例如題主已經在題目中補充了:

Geometrically, the trace can be interpreted as the infinitesimal change in volume (as the derivative of the determinant), which is made precise in Jacobi"s formula.

我已經提示了行列式(determinant)的意義,那麼參考:雅可比矩陣,理解 Wiki 上面的講法應該也就不難了。題主可以再查查看相應的資料。

可以參考:

晨跡 ? [轉]理解矩陣

晨跡 ? [轉]理解矩陣2

晨跡 ? [轉]理解矩陣3

部分公式複製自:矩陣中 為什麼矩陣的跡就是特徵值的和 為什麼等於第二項係數?要具體證明

關於線性代數的參考書,我總是推薦《線性代數應該這樣學 (豆瓣)》。


前置閱讀:

  • 如何理解矩陣乘法?
  • 如何理解相似矩陣?

線性代數中,把方陣的對角線之和稱為「跡」:

為什麼叫這個名字啊?翻下字典:

確實,「跡」就是線性變換藏在矩陣中痕迹。

上面那幅圖還有個有意思的地方,用了金、篆、隸、楷來寫「跡」字,雖然各有千秋,卻又「相似」,彷佛在暗示,線代中的「跡」反映出矩陣「相似」這個特徵。

本文準備如下來講解:

  • 什麼是線性變換?
  • 同一個線性變換在不同基下的矩陣,就是相似矩陣
  • 相似矩陣的「跡」都相等
  • 相似矩陣的「跡」、行列式、特徵值的關係

1 什麼是線性變換?

函數我們很早就接觸了,直觀地講,就是把 x 軸上的點映射到曲線上(下面是函數y=sin(x) ,把 x 軸上的點映射到了正弦曲線上):

還有的函數,比如 y=x ,是把 x 軸上的點映射到直線上,我們稱為線性函數:

如果我們放寬限制,不再只考慮 x 軸上的點,而是考慮整個平面,把平面上某直線上的點映射到另外一條直線上去(注意,不是把整個平面的所有點映射到同一根直線上去):

這其實也是線性函數,只是一般我們把這稱為線性變換。

線性變換雖然說也是函數,但是因為自變數已經不在坐標軸上了,用 y=f(x) 的形式不好表示了,所以我們用線性變換的獨有的表示方式,向量與矩陣:

vec{y_{}}=Avec{x_{}}

可見,所謂的矩陣乘法,其實就是線性函數,寫成這樣子是不是更像函數:

vec{y_{}}=A(vec{x_{}})

只要回答了下面兩個問題,就可以得到這個矩陣 A (值域、定義域這裡就忽略了):

  • 坐標系是什麼?這在線性代數裡面稱為
  • 映射法則是什麼?這在線性代數裡面稱為線性變換

綜合上面兩點,其實,所謂矩陣就是指定基下的線性變換。

2 同一個線性變換在不同基下的矩陣,就是相似矩陣

之前提到的線性變換,為了示意整個平面的點都被變換了,我用下面的淡藍色網格來表示這個線性變換(增加一個參考點 vec{x_{}} 方便觀察):

可見,這就是一個圍繞藍點旋轉的線性變換,並且作為文章作者,我可以準確的告訴你,所有的點旋轉了 2 弧度(藍點,即中心點也可以認為旋轉了 2 弧度)。

我們來看看該線性變換在不同基下的矩陣是什麼樣子的。

下面我會給出所有具體的數字,你可以去計算一下,省得說我騙你。

2.1 標準正交基下的矩陣 A

標準正交基是 { vec{i_{}}=egin{pmatrix} 1 \ 0 end{pmatrix},vec{j_{}}=egin{pmatrix} 0 \ 1 end{pmatrix}} ,它們所張成的線性空間如下(關於這幅圖畫的解釋,可以參考 如何理解矩陣乘法? ):

旋轉矩陣 A 在此基下,旋轉 2 弧度:

在標準正交基 { vec{i_{}},vec{j_{}}} 下,用一個旋轉矩陣來表示來表示此線性變換:

A=egin{pmatrix} cos(2)  -sin(2)\ sin(2) cos(2) end{pmatrix}approx egin{pmatrix} -0.41615 -0.90930\ 0.90930 -0.41615end{pmatrix}

2.2 另外一個基下的矩陣 B

不是一定要在標準正交基下,我們也可以在 { vec{i 下表示這個線性變換:

可見淡藍色網格代表的線性變換是沒有發生變化的,只是基不一樣了。

矩陣具體計算出來就是:

B=P^{-1}APapprox egin{pmatrix} -1.62854 -1.51550\ 1.51550 0.79625end{pmatrix}

其中 P 為:

P=egin{pmatrix} vec{i

為什麼這麼計算,就請查看 如何理解相似矩陣 這篇文章了。

2.3 相似矩陣

淡藍色網格代表的線性變換,在 { vec{i_{}},vec{j_{}}} 基下為矩陣 A ,在 { vec{i 基下為矩陣 B

同一個線性變換在不同基下的矩陣,就是相似矩陣, AB 互為相似矩陣。

3 相似矩陣的「跡」都相等

這個線性變換,悄悄在這兩個相似矩陣 AB 中留下了痕迹,就是它們的主對角線之和相等:

-0.41615+(-0.41615)=-1.62854+0.79625

主對角線之和因此稱為「跡」。

從另外一個觀點來看,我們也可以認為「跡」與坐標無關,也可以說「跡」是相似不變數。

4 相似矩陣的「跡」、行列式、特徵值的關係

4.1 行列式

因為 AB 代表同一個線性變換,而根據 行列式的意義 ,行列式代表的是線性變換的伸縮比例。

既然是比例,那麼也和坐標無關:

|A|=|B|=1

行列式又是一個相似不變數。

4.2 特徵值

根據 特徵值 分解的定義,特徵值矩陣 Lambda

Lambda = Q^{-1}AQ

這裡用 Q 是為了和之前的 P 進行區別。

可見, Lambda AB 也是相似矩陣。

無懸念的,對 AB 求特徵值矩陣都得到的是同一個 Lambda (特徵向量有所不同,因為在不同的基下):

Lambda approx egin{pmatrix} -0.41615+0.90930i 0\ 0 -0.41615-0.90930iend{pmatrix}

特徵值是兩個複數。

根據 Lambda ,我們可以得到跡為:

-0.41615+0.90930i+(-0.41615-0.90930i)=-0.923

行列式為:

(-0.41615+0.90930i)	imes (-0.41615-0.90930i)=1

更一般的可以得到這兩個相似不變數分別為:

  • 跡= lambda _1+lambda _2+cdots
  • 行列式= lambda _1cdot lambda _2cdot cdots

其中 lambda _1,lambda _2,cdots 是矩陣的特徵值。

你的相貌隨著年歲變換,我卻還能一眼認出,就是因為其中藏著特徵。

什麼是特徵,不被變換所改變的就是特徵。

跡、行列式都是相似變換中的不變數,也就是線性變換的特徵,現在全部被特徵值表示了出來。看來特徵值這個名字名副其實啊。


我也是剛剛看到這個,個人理解是矩陣的跡&<=&>散度&<=&>單位體積的流量。

參照wiki繼續討論吧,不知道理解的對不對。


看到一個跟行列式類似的定義

從這本書里看到的線性代數從矩陣和行列式入門真的是最恰當的學習方法嗎? - 楚天舒的回答


嗯其實我的水平回答這個應該還是並不太夠,不過還是來強答一發了。

瀉藥。

嘛,先說一聲,贊成樓上,很多時候不一定要追求找到一些幾何直觀。更何況跡本身也是一個代數上的概念,雖然應該很多代數概念在幾何中都的確是有一定含義的(這句是嘴炮,其實並不懂),但不一定要迴避單純從代數的角度進行理解吧。

其實我也說不好題主所希望的幾何意義應該是什麼, 所以就隨便扯啦.

以下我們的討論中, 全部考慮mathbb{R}的情形.

實際上樓上有答主說到了, 考慮f(A) = det(A),對矩陣(線性映射)X = (x_{ij}),相應的在GL(n, mathbb{R})單位元1處的切向量X_1 = Sigma_{1 leq i, j leq n}x_{ij}left(partial / partial a_{ij}
ight)_1,我們就有

(Xf)_1 = sum_{1 leq i, j leq n}{x_{ij}left(frac{partial f}{partial a_{ij}}
ight)_1} =  sum_{1 leq i, j leq n}{x_{ij}delta_{ij}} = mathrm{tr}(X),

所以也許可以說, 跡函數實際上在mathrm{tr}(X) = (Xf)_1 = (df)_1(X_1)意義下是由行列式函數導出的一個線性函數(那個, 這部分是現學的, 可能有很多錯誤, 啊真是好方啊感覺).

題主的問題說, 為什麼恰好是矩陣對角線元素之和具有這樣特別的性質, 那其實從上面的推導可以看到, 關鍵在於我們在求單位元處微分的時候發現所有非零的偏導數都在主對角線上, 換句話說, 因為矩陣環的(乘法)單位元1主對角線全部為1, 其餘元素全部為0, 所以跡函數會是現在這樣主對角元之和的形式.

(因為又學了一點點, 所以姑且再整理一點東西自己看吧)

進一步地(現學現賣下去), 似乎可以討論一點點Lie代數到Lie群的指數映射. 由於我也不會, 所以我們考慮矩陣Lie代數mathfrak{gl}(n, mathbb{R}), 容易證明的是(這個大概還是比較初等的, 我感覺)

f(e^X) = det(e^X) = e^{mathrm{tr}(X)},

所以先前的式子mathrm{tr}(X) = (Xf)_1 = (df)_1(X_1)也就變得很自然了. 再說下去我大概就要胡言亂語了, 所以還是不污染大家的眼睛了.

更進一步, 我想題主知道行列式函數的幾何意義, 它其實是矩陣(線性變換)的變積係數(或者差不多叫放縮倍數之類的東西嗎), 我們直觀上會希望用行列式來度量一個矩陣, 然而非常不好的一點是它不是線性的. 然而從上面我們會發現, 矩陣的跡是線性函數, 而且它是由行列式函數很自然的導出的. 這樣也就很自然的, 我們可以構造M_{m 	imes n}M_{n 	imes m}之間的雙線性函數A, B mapsto mathrm{tr}(AB). 進而還可以構造M_{m 	imes n}上的內積A, B mapsto langle A, B 
angle = mathrm{tr}(AB^{T}).這樣的話, 大概就可以算是有一些幾何上的結構了吧.

包括Laplacian, 我們也可以看到

egin{split}
Delta  = mathrm{tr} (left(frac{partial}{partial x_i}
ight)_{1 leq i leq n}left(frac{partial}{partial x_i}
ight)_{1 leq i leq n}^T ) \
 = langle left(frac{partial}{partial x_i}
ight)_{1 leq i leq n}, left(frac{partial}{partial x_i}
ight)_{1 leq i leq n}
angle = langle 
abla, 
abla 
angle
end{split}

所以跡和向量場散度的一些關係也就似乎可以看到了.

嘛,其實寫下這樣的東西,除了又重複了一些陳詞濫調之外,也並沒有什麼用處。不過如果在考慮一些問題的時候能把這些陳詞濫調翻出來大概也不是一件壞事吧。


線性代數中有兩個不變數很有意思,一個是方陣的行列式,另一個是方陣的跡。行列式是對角陣元素乘起來的相似不變數,而跡是對角陣元素加起來的相似不變數。二者背後的本質和意義是相同的,因此本篇文章就一起來解釋一下。

首先,直接給出答案:行列式的意義就是方陣中的行或列向量所構成的「平行多面體」的有向面積或有向體積而跡的意義就是方陣中的行或列向量所構成的「平行多面體」的有向周長;如果用矩陣來描述線性變換,那麼行列式的意義就是從「體積」伸縮角度描述線性變換A的綜合作用效果。而跡的意義就是從周長伸縮的角度描述線性變換A在各個坐標軸方向上的綜合縮放效果。接下來詳細解釋。

我們首先來看行列式表示體積的解釋,以二階行列式和三階行列式的為例:

對於高維的,其意義也是類似的。行列式的加減,其實就是體積之間的加減。行列式為零,就表示在這個n維空間中這n個向量不能構成一個「體」,但是可以構成「點」或者「面」。可是怎麼理解這種事情呢?我們不妨換一個角度:對於一個對角陣,它的行列式的幾何意義比較好理解:對於二維平面就是長×寬;從三維空間就是長×寬×高;對於高維度的空間也是一樣。那麼好,如果行列式對應的矩陣可以對角化,也就是說這個矩陣和一個對角陣相似,問題就好理解了,還記得這個公式么

det (A)={{lambda }_{1}}cdot {{lambda }_{2}}cdot cdot cdot {{lambda }_{n}}

也就是先將A對角化,將坐標之間的耦合關係解除。我們知道相似變換就是把線性空間裡面的對象換了一組基來表示而已。這時複雜的幾何體就變成一個規則的「空間幾何體」,有點類似長方體。然後取行列式的幾何意義就清楚了,它真的是表示空間「幾何體」的體積!

以上二維和三維行列式的例子中,行列式被解釋為向量形成的圖形的面積或體積。面積或體積的定義是恆正的,而行列式是有正有負的,因此需要引入有向面積和有向體積的概念。負的面積或體積在物理學中可能難以理解,但在數學中,它們和有向角的概念類似,都是對空間鏡面對稱特性的一種刻畫。如果行列式表示的是線性變換對體積的影響,那麼行列式的正負就表示了空間的定向。

如上圖中,左邊的黃色骰子(可以看成有單位的有向體積的物體)在經過了線性變換後變成中間綠色的平行六邊形,這時行列式為正,兩者是同定向的,可以通過旋轉和拉伸從一個變成另一個。而骰子和右邊的紅色平行六邊形之間也是通過線性變換得到的,但是無論怎樣旋轉和拉伸,都無法使一個變成另一個,一定要通過鏡面反射才行。這時兩者之間的線性變換的行列式是負的。可以看出,線性變換可以分為兩類,一類對應著正的行列式,保持空間的定向不變,另一類對應負的行列式,顛倒空間的定向。

一旦你接受了體積有正負這一假設,那麼接下來的理解就變得簡單起來。對於矩陣的跡,我們關鍵是要理解把特徵值加起來有什麼意義。首先從最簡單的情況開始,如果特徵值都大於零,我們發現特徵值加起來是某種「周長」的意義。對於二維平面就是周長=(長+寬)*2;從三維空間就是周長=(長+寬+高)*4。對於多維的情況,我們忽略最後面乘的那個常數。就得到如下關係:

tr(A)={{lambda }_{1}}+{{lambda }_{2}}+cdots +{{lambda }_{n}}

特徵值有正負,那麼跡的值也就有正負。當坐標系發生變化,也就是矩陣不再是對角陣的情況,那麼這種特殊的「周長」的計算不是邊長相加,而是每個主對角線元素的直接求和。為什麼非要抓住這個矩陣的對角線不放呢?因為每個對角線元素恰好對應一個坐標軸,矩陣的對角線可以表示一個物體的相似性。在機器學習里,主要為了獲取數據的特徵值,那麼就是說,在任何一個矩陣計算出來之後,都可以簡單化,只要獲取矩陣的跡,就可以表示這一塊數據的最重要的特徵了,這樣就可以把很多無關緊要的數據刪除掉,達到簡化數據,提高處理速度。

這裡還存在一個問題,就是變換坐標系的事情,我們知道,同一個空間體積可以用不同的基和坐標表示,我們可以分別算出這兩組基表示下幾何體的體積,其計算出來的值一般是不一樣的。那麼,兩個體積之間有什麼關係呢?

答案是兩個體積之間相差的是一個坐標變換矩陣的行列式!無論是線性變換,還是非線性變換(比如微積分中的直角坐標和極坐標之間的變換),兩個體積之間相差的都是一個行列式的關係(微積分中相差的是雅克比行列式)。也就是第二種解釋的伸縮因子。

這裡順便簡單說一下雅克比行列式吧,在微積分中,我們在進行 的坐標變換時,我們可以得到全微分dx,dy和du,dv之間的關係,寫成矩陣形式就是

於是,可以得到體積微元之間的關係就是 	ext{d}x	ext{d}y=	ext{det}left( J 
ight)	ext{dud}v ,其中 det(J) 就是我們熟悉的雅克比行列式!對於直角坐標和極坐標之間有 	ext{d}x	ext{d}y=	ext{det}left( J 
ight)	ext{d}r	ext{d}	heta =r	ext{d}r	ext{d}	heta ,對於三維的關係是 	ext{d}x	ext{d}ydz=	ext{det}left( J 
ight)	ext{d}r	ext{d}	heta dvarphi ={{r}^{2}}	ext{sin}varphi 	ext{d}r	ext{d}	heta dvarphi

行列式是用來描述線性變換前後體積伸縮的綜合效果,而矩陣的跡則是用來描述線性變換前後周長伸縮的綜合效果。這裡所說的綜合效果不是對某一個向量而言,而是一個總體效果。比如,如果線性變換矩陣的行列式是小於零,我們就知道這個變換是將體積顛倒空間方向。如果線性變換矩陣的跡小於零,我們就知道這個變換是將向量朝反方向作用。描述行列式和跡從不同角度來描述矩陣對向量的縮放作用,二者都只是從單一的方面進行描述。

為什麼行列式和矩陣的跡在改變坐標系前後都不會發生改變呢?直觀理解就是矩陣的這種對向量的縮放性能和選取的坐標系沒有關係,矩陣的行列式和跡都是描述矩陣性質的的固有參數,就像振動系統的固有頻率一樣,與坐標系的選取無關。另一方面,從公式的角度理解就是偉大的韋達定理了:

特徵值是特徵多項式 |A-λI| 的根,多項式係數 a_{i} 的展開就不在這裡展示了,參看任何一本線性代數的書籍上面都有。從公示上我們會發現,其實跡和行列式只不過是比較特殊的兩個量,還有其他更多的不變數,只不過由於計算的複雜,我們常用的只有行列式和矩陣的跡而已。

希望這篇拙作能起到拋磚引玉的作用,歡迎大家留言討論。也歡迎加入QQ群下載《神奇的矩陣》和《神奇的矩陣第二季》最新版本了解更多有關線性代數和矩陣的知識。


體積應變


量子力學裡有一些求跡,比如求約化密度矩陣,求期望值,統計物理里也有求跡,但也是量子的情形。我理解就是普通的運算,難道加法也有特殊意義?


當初學線性代數時沒學明白行列式和跡,這裡強答一下(不免哲學化)。

從代數角度看,行列式是歸一化的交錯線性函數。

跡也有類似線性函數定義(記不準了)。定義在n階方陣上,大致滿足:

1.f(AB)=f(BA). 2.f(I)=n.

的線性函數f就是跡tr。這裡自然考慮有限維空間。

以下進入哲學部分:

關於類似AB=BA這樣的討論往往與空間均勻性有關。在討論曲率時,類似的換序後,一般並不相等。所以能否猜想跡是空間均勻性的某種刻畫,從特徵值入手分析?

此外,在陳類的曲率表示中,第一陳類c1(E)也是跡,可否從第一陳類角度做探討呢?

以上兩個?號權當拋磚引玉。


先佔個坑,以後再詳細回答。具體可以參考trace formula.


振動光譜夠不夠幾何?

其實群表示對線代里很多基本概念的理解都有幫助哦~


正定矩陣的trace似乎和nuclear norm有關,為奇異值的和,可以描述矩陣的內在rank


以PDE中的坐標變換為例。

球坐標變換為:

egin{cases} x(r,	heta,phi) = rcos	heta cosphi \ y(r,	heta,phi) = rcos	heta sinphi \ z(r,	heta,phi) = rsinphi end{cases}

該變換的Jacobi矩陣為:

J=egin{pmatrix} cos	heta cosphi  -r sin	heta cosphi  -r cos	heta sinphi \ cos	heta sinphi  -r sin	heta sinphi  r cos	heta cosphi \ sin	heta  r cos	heta 0 end{pmatrix}

若有一個函數 w=w(x,y,z)=w(r,	heta,phi)

(w_x,w_y,w_z)^T關於(x,y,z)的矩陣偏導為:

A=frac{partial(w_x,w_y,w_z)^T}{partial(x,y,z)} =egin{pmatrix} w_{xx}  w_{xy}  w_{xz} \ w_{yx}  w_{yy}  w_{yz} \ w_{zx}  w_{zy}  w_{zz} end{pmatrix}

(w_x,w_y,w_z)^T關於(r,	heta,phi)的矩陣偏導為:

B = frac{partial(w_x,w_y,w_z)^T}{partial(r,	heta,phi)} =egin{pmatrix} w_{xr}  w_{x	heta}  w_{xphi} \ w_{yr}  w_{y	heta}  w_{yphi} \ w_{zr}  w_{z	heta}  w_{zphi} end{pmatrix}

A,B,J之間的關係為:

B=AJ

具體的推導如下:

dw_x=(w_{xx},w_{xy},w_{xz})left(egin{array}{c} dx \ dy \ dz end{array}
ight)=(w_{xr},w_{x	heta},w_{xphi})left(egin{array}{c} dr \ d	heta \ dphi end{array}
ight)=(w_{xx},w_{xy},w_{xz})Jleft(egin{array}{c} dr \ d	heta \ dphi end{array}
ight)

(w_{xr},w_{x	heta},w_{xphi})=(w_{xx},w_{xy},w_{xz})J

left(egin{array}{c} dw_x \ dw_y \ dw_z end{array}
ight)=AJleft(egin{array}{c} dr \ d	heta \ dphi end{array}
ight)=Bleft(egin{array}{c} dr \ d	heta \ dphiend{array}
ight)

(w_r,w_	heta,w_phi)^T關於(r,	heta,phi)的矩陣偏導為:

D=frac{partial(w_r,w_	heta,w_phi)^T}{partial(r,	heta,phi)} =egin{pmatrix} w_{rr}  w_{r	heta}  w_{rphi} \ w_{	heta r}  w_{	heta	heta}  w_{	hetaphi} \ w_{phi r}  w_{phi	heta}  w_{phiphi} end{pmatrix}

D=B^TJ=J^{T}A^TJ

w_{rr} + w_{	heta	heta} + w_{phi	heta} = trace(D) = trace(J^{T}A^TJ)

Delta_{(r,	heta,phi)}w=w_{rr} + w_{	heta	heta} + w_{phi	heta} = trace(D) = trace(J^{T}A^TJ)

Delta_{(r,	heta,phi)}w=r^2sinphi Delta_{(x,y,z)}w

變換域的laplace運算元可由求解。因而,跡可以理解為兩個坐標系中laplace運算元的一種相關聯繫。


只知道有一些良好的性質,可以幫助簡化一些矩陣的計算。


推薦閱讀:

線性代數中,向量空間的子空間的「和」與「直和」,這兩個概念的區別是什麼?
如何理解線性空間這一概念?
如何理解並區分線性空間、向量空間、矩陣空間這三個數學概念?
如何理解內積空間?
為什麼向量的內積是標量,而向量的矢量積是向量?

TAG:數學 | 線性代數 |