將線性代數形象化(七) · 矩陣的特徵

/***************************************************

前言:最近因為思考一些問題需要用到線代,然後在B站上找到了一個不錯的線代講解系列視頻,特點在於將線性代數中常見的行列式、向量、矩陣、點積、叉乘、特徵向量等等形象直觀地表現出來,作者也是花了很大的心思,通俗易懂(雖然有些視頻我看了兩遍才懂。。。)在以前的學習中,線代一上來就是各種計算,得到一個結果就完事了。具體為什麼要這麼算,這麼算的意義在哪,一無所知。因此在看的過程中懂了以前很多沒懂的點,也從另一個角度更好地理解了線代。為了在自己腦里形成一個更清晰的脈絡,所以也嘗試整理一下,包括自己以前踩過的坑以及自己的思考領悟,主要參考該系列視頻。如果我不偷懶並且順利的話,預計一個月填完吧~~

視頻鏈接:【官方雙語/合集】線性代數的本質 - 系列合集

***************************************************/

終於寫到這部分了,其實還挺激動的。因為看完之後真的有豁然開朗的感覺~

激動到我直接先放自己所理解的概念了,誰都不要攔我:

  • 特徵向量就是線性變換後還留在原來直線上的向量
  • 特徵值就是特徵向量的縮放係數

由上面兩個結論,也就理解了為什麼物理上又稱本徵向量、本徵值。

也許有人覺得這定義書上有寫,沒什麼好激動的。但我真不記得我的線代課本上有寫啊!一直以來遇到特徵的題我都是照著例題來寫的,線代高數都不例外,知道這兩個很有用,但就是不知道為什麼有用啊!

好了,言歸正傳,進入正題。另註:以下所說矩陣,一律為方陣

【特徵向量、特徵值】

正如前面所說的,在經過方陣所描述的線性變換後,大多數向量都偏離了它們原本所在的直線。而留在原本所在直線上的向量,就稱作特徵向量。特徵值就是特徵向量的縮放係數。特徵值為正時,特徵向量在原方向上縮放;特徵值為負時,特徵向量反向縮放。在三維中,特徵向量有個更直觀的形象——旋轉軸。當特徵向量為旋轉軸時,特徵值必須為1。

【計算】

自然地,我們不會講怎麼計算,但我們會用形象的方式講講為什麼這麼算。

先來看公式:mathbf{A}vec{v}=lambdavec{v}mathbf{A} 表示變換矩陣, vec{v} 表示特徵向量, lambda 表示特徵值。也就是說,矩陣向量乘積,等效於向量的數乘。(再一次,結合矩陣乘法,這條公式的確也說明了特徵向量變換後還留在原來的直線上(對向量的縮放也可以是對向量的變換的一種特殊形式),而不是偏離。)我們的目的是要求出 lambdavec{v}

為了方便計算,我們要把等式右邊變成矩陣向量相乘的形式,很簡單,左乘一個單位矩陣 mathbf{I} 就可以了(恆等變換)。於是整理一下,我們得到: (mathbf{A}-lambdamathbf{I})vec{v}=vec{0}

自然地,零解總是存在的。但我們更關心的是非零解的情況。這時候,就要令矩陣 (mathbf{A}-lambdamathbf{I}) 的行列式為0了。意思是,存在一個非零向量 vec{v} ,使得變換矩陣 mathbf{A} 減去 lambda 乘以單位陣的結果,乘上 vec{v} 等於零向量。這也就意味著,

  1. vec{v}mathbf{A} 的特徵向量;
  2. (mathbf{A}-lambdamathbf{I}) 將空間降維了。

求出特徵值後,回代,即可求出特徵向量。

注意,在實數域,二維空間不一定有特徵向量,比如旋轉。(忽然發現前面的篇章都忘了講一個事。。。由方陣引起的線性變換,實質效果只有兩種,一名旋轉,一名剪切)。作者在視頻里有說(那麼一大段話出現不超過一秒。。。):

不過有意思的是,與 i 相乘載複平面中表現為90°旋轉和 i 是這個二維實向量旋轉變換的特徵值有所關聯。這部分的具體細節略微超出我今天想討論的內容,但是注意一點,特徵值出現複數的情況一般對應於變換中的某種旋轉。

重根:屬於單個特徵值的特徵向量可以是一條直線上的相反方向(剪切變換),也可以不止在一條直線上(將所有向量同時縮放)。

【與行列式的關係】

這一段是我在查找資料時發現的一個有趣的關係【1】,視頻裡面沒有的。讓我們稍微往回看一下。要求非零解,即要求 det(mathbf{A}-lambdamathbf{I})=0 。設 mathbf{A}=left[egin{matrix}a&b\c&dend{matrix}
ight] ,則

det(mathbf{A}-lambdamathbf{I})=(a-lambda)(d-lambda)-bc=0 	ag{1}

又,該方程是一元二次方程,可假設特徵方程的解為 lambda_1、lambda_2 ,則特徵方程可改寫為:

(lambda-lambda_1)(lambda-lambda_2)=0 	ag{2}

(1)(2)兩式為同一個式子的不同寫法,故(1)=(2)。觀察它們的常數項發現, lambda_1lambda_2=ad-bc=|mathbf{A}|

看到這裡,你肯定發現了什麼對吧?事實上,對任意維度,都可以證明 |mathbf{A}|=prod_ilambda_i

即,行列式的值等於特徵值的乘積

從幾何角度來理解,是比較直觀的。行列式表示了變換後面積變化的大小,而特徵值表示的是變換後仍留在原直線的向量的縮放的比例。藉助微積分,我們只要沿這些特殊直線將區域切割成一個個很小的正方形即可,變換後就成為了菱形。將這些菱形的面積求和就得到了上面的結論。

【矩陣的跡(trace)】

這裡同樣部分參考了【1】。trace的公式為 trace(mathbf{A})=sum_{i}A_{ii} ,即為矩陣主對角線元素之和。然後,神奇的事再一次發生。如果沒有忘記前面的(1)(2)式子的話,我們這次只觀察一次項,就會驚喜地發現, lambda_1+lambda_2=a+d=sum_iA_{ii}=trace(mathbf{A}) 。(emmm說實話其實沒什麼好驚喜的,其實就是我們都學過的韋達定理。。。現在用矩陣表示罷了)

同樣的,對於任意維度,都可證明 trace(mathbf{A})=sum_ilambda_i

即,矩陣的跡等於特徵值的和

從幾何角度來說,跡大概類似於周長吧。需要用到相似對角化的知識。

行列式與跡,都是相似不變數,在方陣里有著重要的地位。

【特徵基】

基向量都是特徵向量,稱為特徵基

對角矩陣

  • 每一列都是特徵向量,非零值表示特徵值
  • 單位矩陣 mathbf{I} 是特徵值全為1的對角矩陣

上一篇基向量末尾提到的相似矩陣中,有一個很重要的應用就是相似對角化求矩陣的n次冪。因為對角陣的特殊緣故,矩陣的n次冪簡化成相當於求特徵值的n次冪。 mathbf{Lambda}=mathbf{P^{-1}}mathbf{A}mathbf{P}

註:不是所有的方陣都能找到對角矩陣,如剪切變換就不能,因為剪切變換的特徵向量不足以張成全空間(只能張成一維空間)。只有特徵向量能張成全空間的矩陣才能對角化。

視頻末尾的題目

實質上就是斐波那契數列,只是用矩陣表達了而已。

一定一定要去看原視頻!!

【小結】

  1. 特徵向量就是線性變換後還留在原來直線上的向量
  2. 特徵值就是特徵向量的縮放係數
  3. 屬於單個特徵值的可能不只一個特徵向量
  4. 特徵值的乘積等於行列式的值,特徵值的和等於方陣主對角線元素之和。(可由韋達定理擴展)
  5. 一組基向量都是特徵向量,稱為特徵基。應用於相似對角化

參考:

【1】矩陣的特徵:特徵值,特徵向量,行列式,trace

========================================

本系列其他文章:

將線性代數形象化(一)· 向量

將線性代數形象化(二)· 矩陣與線性變換

將線性代數形象化(三) · 行列式

將線性代數形象化(四) · 逆矩陣、列空間與秩

將線性代數形象化(五) · 點積、叉乘與對偶性

將線性代數形象化(六) · 基變換與相似矩陣

將線性代數形象化(八) · 抽象向量空間&向量概念的擴展

將線性代數形象化 番外篇 高維空間形象化


推薦閱讀:

TAG:線性代數 | 特徵值 | 行列式 |