有沒有人能用人類的語言告訴我,相似矩陣有什麼用?

做論文需要用相似矩陣評估一個聚類模型。我不需要知道其數學原理,只要知道這東西是幹什麼用的。有人能告訴我么?

=====================

補充一下,我知道什麼是相似矩陣,也知道其各種數學原理,但是我不明白這東西到底有什麼用。換句話說,我想知道這東西在現實中能做什麼。

比如,我去買菜,我可以用多元回歸,分析出菜價和汽油價格成正比,那麼油價漲了這幾天,我知道菜價也會漲。我是想知道這樣一個應用


相似矩陣的定義是:

A,B 都是 n 階矩陣,若有可逆矩陣 P ,使 P^{-1}AP=B 則稱 B A 的相似矩陣,或說 A B 相似。----《線性代數》同濟版

讓我們從通俗解釋開始。

1 通俗解釋

今天《雷神3》上映了,我坐在第一排看電影:

而你坐在最後一排看電影:

我們看的是同一部電影,但是我們各自眼中看到的電影卻因為位置不同而有所不同(比如清晰度啊、角度啊),所以說,「第一排看到的電影」和「最後一排看到的電影」是「相似」的。

那麼相似矩陣走進的電影院,放映的是哪部電影?也就是說,什麼是不變的呢?

是線性變換。

2 線性變換

什麼是線性變換?讓我們從函數說起。

2.1 線性函數

函數我們很早就接觸了,直觀地講,就是把 x 軸上的點映射到曲線上(下面是函數y=sin(x) ,把 x 軸上的點映射到了正弦曲線上):

還有的函數,比如 y=x ,是把 x 軸上的點映射到直線上,我們稱為線性函數:

2.2 從線性函數到線性變換

線性函數其實就是線性變換,為了看起來更像是線性變換,我換一種標記法。

比如之前的 y=x ,我們可以認為是把 (a,0) 點映射到 (0,a) 點,我們稱為線性變換T ,記作:

T:(a,0)	o (0,a),ain mathbb {R},bin mathbb {R}

不過按照這個寫法,作圖就有點不一樣了:

矩陣的形式很顯然如下:

egin{pmatrix} 0 \ a end{pmatrix}=egin{pmatrix} 0  1 \ 1  0 end{pmatrix}egin{pmatrix} a \ 0 end{pmatrix}

這樣做最直接的好處是,我們可以輕易的擺脫 x 軸的限制。

只要替換 (a,0) 為平面內所有的點 (a,b) ,我們就可以對整個平面做變換,該線性變換記作:

T:(a,b)	o (b,a)

進而可以寫作矩陣的形式:

egin{pmatrix} b \ a end{pmatrix}=egin{pmatrix} 0  1 \ 1  0 end{pmatrix}egin{pmatrix} a \ b end{pmatrix}

為了示意整個平面的點都被變換了,我用下面的淡藍色網格來表示這個線性變換(這個變換實際上鏡面反轉,為了方便觀察增加一個參考點 vec{x_{}} 以及虛線表示的反轉對稱軸):

我們記:

vec{y_{}}=egin{pmatrix} b \ a end{pmatrix}qquad vec{x_{}}=egin{pmatrix} a \ b end{pmatrix}qquad A=egin{pmatrix} 0  1 \ 1  0 end{pmatrix}

我們可以得到更簡便的記法(這種形式看起來也更像線性方程 y=ax ):

vec{y_{}}=Avec{x_{}}

反正 vec{y_{}},vec{x_{}} 都是指代的平面上所有的點,我們乾脆更簡化點,認為:

y=x 不過是這個 A 的一種特殊情況。

2.3 矩陣 A 與基

慢著!剛才的結論其實是不完整的,我們還少了一個信息。

y=x 是基於直角坐標系的,通過這個轉換:

y=x	o A=egin{pmatrix} 0  1 \ 1  0 end{pmatrix}

得到的 A 也是基於直角坐標系的。

只是在線性變換中,我們不稱為直角坐標系,我們叫做標準正交基。

標準正交基是 { vec{i_{}}=egin{pmatrix} 1 \ 0 end{pmatrix},vec{j_{}}=egin{pmatrix} 0 \ 1 end{pmatrix}} ,它們所張成的線性空間如下(關於這幅圖畫的解釋,可以參考 如何理解矩陣乘法? ):

A 在此基下,完成了鏡面反轉這個線性變換:

因此,讓我們補完之前的結論:

看到這個結論,可能你會想,難道還可以在別的基下?在別的基下是什麼情況啊?

好,終於到了我們本文的重點了。

3 相似矩陣

知道了線性變換,讓我們回到文章開頭就給出的隱喻,看電影。

線性變換就是電影院中播放的電影,不同的基坐在不同的位置觀看:

同一部「電影」,不同基「看到」的就是不同的矩陣:

那怎麼得到不同基下的矩陣呢?讓我們來看看變換的細節。

3.1 細節

先上一張圖,說明不同基下的矩陣的變換思路,這個圖有點複雜,請參照之後的解釋一起來看:

下面是對圖的解釋:

  • 有兩個基: V_1:{ vec{i_{}},vec{j_{}}} V_2:{ vec{i
  • V1	o V2 ,可以通過 P^{-1} 轉換
  • V2	o V1 ,可以通過 P 轉換

整個轉換的核心,就是上圖正中的文字:

解釋下:

  • vec{vV2 下的點
  • vec{v 通過 P 變為 V1 下的點,即 Pvec{v
  • V1 下,通過 A 矩陣完成線性變換,即 APvec{v
  • 通過 P^{-1} 從變回 V2 下的點,即 P^{-1}APvec{v

綜上,我們可以有:

Bvec{v

我們可以認為:

B=P^{-1}AP

那麼 BA 互為相似矩陣。

那就還有一個細節了, V2	o V1 的轉換矩陣 P

這個問題不複雜,只是坐標換來換去的,我盡量講清楚。

首先我們給出空間中的一點,比如說 m 點吧:

相信大家可以理解,不論有沒有基,這個點都是客觀存在的。

然後,我們給出 m 點在 vec{i 的坐標 vec{v

為了表示 vec{vvec{i 下的坐標,我們寫成這樣:

vec{v

如果我們知道了 vec{ivec{i},vec{j} 下的坐標:

那麼有:

egin{align*} vec{v

此時,實際上 m 點的坐標,已經變到了 vec{i},vec{j} 下的 vec{v}

坐標已經轉換了,繼續往下推:

egin{align*} vec{v}  = a(cvec{i}+dvec{j})+b(evec{i}+fvec{j})\  = egin{pmatrix} c  e \ d  f end{pmatrix}egin{pmatrix} a \ b end{pmatrix}\  = egin{pmatrix} vec{i

所以 P 其實就是:

P=egin{pmatrix} vec{i

要記得啊,上面的 vec{i 是在 vec{i},vec{j} 下的坐標。

這裡面稍微複雜點的就是,轉換的時候要想清楚到底是在哪個基下!

為什麼我們需要相似矩陣呢?我們來看看熟悉的極坐標。

3.2 極坐標

比如我把直角坐標系( xy 坐標系)的圓方程換元為極坐標( 
ho 	heta 坐標系)下:

x^2+y^2=a^2implies egin{cases} 
ho =a\ 	heta in mathbb {R}end{cases}

圖像也從左邊變為了右邊:

換元之後是不是代數式和圖像都變簡單了。

相似矩陣的目的也是為了找到更簡單的坐標系。

那麼什麼叫作簡單的坐標系呢?

3.3 對角矩陣

比如這個 A 矩陣:

A=egin{pmatrix} 2  -1 \ -1  2 end{pmatrix}

可以這樣分解:

B=P^{-1}AP=egin{pmatrix} 3  0 \ 0  1 end{pmatrix}

其中 P=P^{-1}=egin{pmatrix} -frac{sqrt{2}}{2}  frac{sqrt{2}}{2} cr frac{sqrt{2}}{2}  frac{sqrt{2}}{2} end{pmatrix}

B 就是對角矩陣,看上去就很清爽,我認為這個就是簡單的坐標系。

關於這方面更多的可以參看, 特徵值、特徵向量


群的兩個矩陣表示同構,當且僅當對應的矩陣相似,當然,它們也都同構於某個線性表示


咱不扯什麼線性變換,就從矩陣本身來說。

線性代數整個在乾的事就是在各種意義下分類矩陣。沒錯,就這麼回事,分類---分門別類。

這裡「各種意義」是什麼意思呢?如果你對數學比較熟悉的話,當我說到「分類」這個詞時,你就肯定會想到另一個詞「等價關係」。一種等價關係決定一種分類方法,反過來說也對。

相似就是一種等價關係,線代書上想必都是證明過這個結論的。所以,我們就可以愉快的用相似來對各種各樣的矩陣進行分類啦。把所有相似的矩陣都給我放到一塊,它們裡面隨便拿哪個出來都可以作為這一個類的代表,那我們當然就想找一個看著養眼(比較漂亮(?&> &

其他的一些矩陣之間的關係也都可以作類似理解,例如相抵,合同等,就是從不同角度對矩陣分類…

現在回答題主問題,相似能用來幹嘛?很簡單嘛,能用來分類啊(咦,好像是廢話…)面對紛繁複雜的世界,我們能做的不就是分類嗎!

其實學到現在的數學,我越來越覺得很多數學本質上都是在做分類工作 →_→

歡迎指正|ω?)


相似矩陣就是同一個線性變換在不同坐標基下的對應矩陣


建議你看一下孟岩的老三篇《理解矩陣》,

還有科學空間版的六篇《新理解矩陣》

分割線

現在有更好的東西了,b站上3blue1brown的熟肉,線性代數的直觀理解


說實話沒看明白題主想問什麼。。。

相似變換我見過最多的應用就是特徵值分解。也就是構造一個變換矩陣(特徵向量陣),找到一個相似對角陣(特徵值對角陣)。

對一個矩陣進行特徵值分解,得到它的特徵值對角陣和特徵向量矩陣,那麼這個矩陣的所有性質不就明了了嗎。

把矩陣看成線性變換的話,這個變換的方向,各方向上變換的大小(尺度)都一目了然。

然後像主成分分析啊、能觀性能控性分析啊在此基礎上就能夠很容易的開展了。

所以題主不說怎麼評估模型,我也不知道怎麼進行下一步應用了。。。


想到結論應該放在開頭,不然別人沒耐心看…結論是:為了對角化矩陣以用於「矩陣冪級數」的計算。詳見下文。

-----------------------------------------

首先矩陣的內涵很豐富,在不同的背景下代表的問題不同,比如可以用來討論線性方程組,可以用來討論二次型,還可以用來討論「線性變換」…而各個領域背景下的矩陣,代表的意義其實很不相同,很多學線性代數或高等代數的同學,如果沒想通這一點,那就等著糊塗去吧...

那麼說到「相似」這個概念源自哪裡、最初屬於哪一個背景談論的概念:是「線性變換」。

而「線性變換」的內涵也很豐富(指線性空間到自身的線性映射),是「一類」運算的抽象。大家知道有很多運算都可以歸類於線性運算,比如說常微分方程——求導就是線性運算——

而若把該運算作用的對象集體看作「向量」組成一個「線性空間」(常微分方程背景下的「函數」),

運算(求導運算,不只有一階導 還可以是一階二階n階導多少倍求和 是一個「算符」的概念)看作是對整個空間作用的一個「線性變換」,

接下來是令人驚奇的事——我們都知道空間中的對象(「向量」)可以選擇一組基,從而用一個向量來表示 (唉…都是「向量」但意思不一樣…前面指的是客觀存在的那個對象,後面指的就是一組數排列成的「坐標」…一定要理解沒有基是不存在後者意義的向量的,任何一個坐標向量,必暗含選定了一組基)

…好,那麼令人驚奇的事是什麼呢?

我們用一組基能表示這個空間里的對象沒問題吧…因為「基」本身也是對象啊!只不過是被選出來作為表示其他對象的「代表」罷了;

可是如果我說,這個「線性變換」也能用這組基來表示,你會不會感到很驚奇?我第一次理解的時候反正是震驚了…太美妙太神奇了。

簡單說一下操作吧…大概懂的能聽明白,不懂的也聽不明白 。

就是因為

①這個線性變換是作用於空間中所有對象的,所以自然也作用於基;

②基是可以表出空間中所有對象的,所以自然也可以表出經過線性變換作用後(根據線性變換的定義:仍在該空間里)的對象的

於是我們把「每一個」基向量被這個線性變換作用後得到的變換向量,再用同一組「整組基」表示出來,就可以用一個矩陣表示一個變換啦!!【嚴格一一對應的證明請參見教材】

這種對應就像向量和坐標向量的對應一樣,只不過「運算」變成了「二維」,著實嘆為觀止。

能看到這的大概不多…覺得我跑題甚嚴重…不,你要想理解,不費點功夫就能理解的話,不早就出現在教科書上了么?世之奇偉、瑰怪,非常之觀,常在於險遠~

好了回到主題,換一組基,就可以把我們「算符」用矩陣表示的形式變得簡單,像首贊馬同學說的那樣,沒錯:對角陣!

【換基之後空間中每一個向量的坐標會以新基為標準發生改變,同樣地,同一個線性變換的矩陣也會以新基為標準發生改變,改變前後的關係,就是「相似」。

一句話:線性變換在換基前後的矩陣的關係叫做「相似」。

注意:正如向量坐標依賴於基的選擇一樣,「線性變換的矩陣」也是依賴於基的選擇的,因為這個矩陣就像坐標,坐標是坐標,不是對象本身】

也就是說,只要「適當地」選擇一組基,我們可以讓該(非退化的)線性變換的矩陣「在該組基下」是對角陣。

說實在的,這大概是相似最大的一個功能了。在上面提到的(線性運算背景的)實際運算中,那些問題可以最終化歸為某種形式的矩陣的運算。

而這些矩陣運算中很重要的便是

sum_{n=1}^{infty}{k_ncdot A^n} 這樣的矩陣冪級數 (其中 k_n 為常數係數)

這個怎麼做?

如果A是對角陣,好做吧?

那如果不是對角陣怎麼破?

——利用相似,化成對角陣!

這就是傳說中的「對角化方法」計算冪級數。

具體來說若找到了可逆矩陣P,使得

D=P^{-1}AP ,其中D是對角陣,那麼…

A^n=(PDP^{-1})^n=

=PDP^{-1}PDP^{-1}...PDP^{-1}

根據矩陣乘法結合律,中間相鄰的 P^{-1}P 都可以消掉,於是就剩下了開頭和末尾的,以及中間的n個D:

A^n=PD^{n}P^{-1}

【P有求法的,其實是換基的過渡矩陣;求法就是先求特徵值然後解出特徵向量的那一套,最後把特徵向量作為「列」排排站就是P】

代回到冪級數就得:

sum_{n=1}^{infty}{k_ncdot A^n}=sum_{n=1}^{infty}{k_ncdot (PD^{n}P^{-1})}

利用矩陣乘法分配律把可以收尾提出來:

sum_{n=1}^{infty}{k_ncdot A^n}= P(sum_{n=1}^{infty}{k_ncdot D^n)P^{-1}} 【最終結果】

厲害吧![吐舌],

我們需要做的只是求出特徵值(以組成對角陣D) 以及特徵向量(對應特徵值組成P)而已。

當然了,如果還有有心的童鞋繼續問:為什麼矩陣的冪級數重要呢?

那麼這個問題,我以問作答:為什麼在函數項級數中,冪級數重要呢?

一個道理 ; )


強勢來答一波。推薦一個視頻課程,叫做《線性代數的本質》來自 3Blue1Brown,絕壁秒殺"國產公式手冊"級別的線性代數教材。

相信我,他會改變你對線性代數的根本性理解。

下面是B站視頻鏈接

嗶哩嗶哩 ( ゜- ゜)つロ 乾杯~ Bilibili

PS:原答案「秒殺」一詞居然引戰了,數學愛好者們果然嚴謹啊。我就表達一下情感而已。


相似矩陣用途,就是把一個矩陣化簡,讓這矩陣的特點更加突出,找到這類矩陣相應的特徵。比如說亞洲人的外貌,對個體來講,每個亞洲人外貌特點都不一樣,但可以通過相似比較得出,亞洲人特徵是 黃皮膚,黑頭髮。

你的論文用聚類 可能是想看看先提取矩陣的特徵,然後比較這些特徵的相似性,相似度高的作為一類。


用一句話來回答吧,相似矩陣就是兩個坐標系統對同一個線性關係的刻畫,而其中的矩陣P就是兩個坐標體系的變換矩陣


學線性代數時曾經看過人人網一篇文章,裡面大致意思:矩陣的本質是運動的描述,那麼用微積分來表達就是反應線性空間里的各種變換。對於線性變換選一組基就可以找一個矩陣來表達它,換一個基就可以用另一個矩陣來表達,如何判定這兩個矩陣描述的是同一個線性變換呢?如何判定不同位置的人看到的電影屏幕畫面是同一個電影?不同角度畫的瓷器素描是否是同一個瓷器?兩張照片一張特寫豬屁股一張注重豬頭,這兩照片照的是同一隻豬嗎?這時相似矩陣就來了,如果得出是相似矩陣,那麼我們就肯定同一個電影同一件瓷器照的同一隻豬。

所以一句人話解釋:相似矩陣來判斷這一堆是否同一個東西或者同一個東西可以用哪些視角來看,我們選一個看起來最舒服的視角。比如一場空戰,一份資料是基地指揮雷達上各個點的移動,一份是參戰飛機自帶攝像機的攝像,指揮官戰後分析陣型肯定用前者,分析雙方戰鬥素質等等肯定適合用後者。

我覺得學這玩意能看懂這個就行了


用通俗語言來講,相似矩陣的用途,就是所謂把一個一般形式的新問題轉化為一個已被解決過的「規範」問題,就像求解一元二次代數方程的時候我們把它化成一般形式然後套用求根公式一樣。

對於相似矩陣的數學解釋可以參考任意一本線性代數課本。相似矩陣可以視作同一個線性變換在不同基上的不同形式。

若兩個矩陣相似,則這兩個矩陣具有秩相等,行列式相等,跡相等,初等因子相等,特徵值相等,特徵多項式相等,等等一些很好的特性。所以當我們研究一個一般形式的矩陣的時候,如果可以找到與它相似的一些標準形式,就可以將任意矩陣的問題轉化為一些固定形式的問題。比如對於可對角化的矩陣,可以研究與其相似的對角陣;對於一般的複數域上的矩陣,都可以轉化為Jordan標準型。因為這些標準型具備與原矩陣相同的很多特性,而由於標準型的形式比較特殊,其特性更易於研究,並且由於標準型的形式是固定的,對其各種特性的研究有固定的套路可循。


矩陣相似意義如其他答案所說:若A表示某線性變換,B表示同一線性變換在另一組基下的表示,則A和B的關係就是A=M-1BM。M就是那組新基 BM表示B對基M做線性變換; M-1左乘一個向量表示將該向量換算成以M為基表現的形勢


要理解相似矩陣,首要要知道矩陣代表的是線性變換。雖然我們可以直接去研究矩陣的一些特性,但我們其實可以這樣說:

矩陣就是線性變換! 矩陣就是線性變換! 矩陣就是線性變換!

(註:雖然咱們很多課本都是先介紹的矩陣再介紹的線性變換,但是很多經典的線性代數課本都是先介紹的線性變換,再引入的矩陣對其的描述,因為有了矩陣線性變換表示起來就方便了。)

而兩個相似的矩陣的定義簡單說就是:同一個線性變換的不同矩陣表示形式

可是為什麼變換相同,而矩陣卻不一樣呢?原因就是線性空間中的一個很基本的概念—線性空間的基。注意同一個向量在不同的基下表示形式不一樣,所以同一個線性變換在不同的基下矩陣的表示也就會不一樣。用一個例子來表示吧。

例子:我們先找一個線性變換f(left(
egin{array}{ccc}
 x  \
 y  end{array}

ight) )
=
left(
egin{array}{ccc}
 x + 2y \
 y  end{array}

ight)

比如f(left(
egin{array}{ccc}
 1  \
 1  end{array}

ight) )
=
left(
egin{array}{ccc}
 3 \
 1  end{array}

ight)

下面我們給出描述這同一個線性變換的兩個相似的矩陣。前面說了,我們同時也要給出兩個不同的基:

第一個基:B=<left(
egin{array}{ccc}
 1  \
 0  end{array}

ight),
left(
egin{array}{ccc}
 0  \
 1  end{array}

ight) ></p>
<p>,相應的矩陣為:T1=left(
egin{array}{cc}
 1   2\
 0   1end{array}

ight)

用矩陣來計算線性變換分兩步:

(1) 先將要變換的向量變成相應的基下的坐標形式,比如left(
egin{array}{ccc}
 1 \
 1  end{array}

ight) 在基B(因為B是自然基)下的的坐標還是left(
egin{array}{ccc}
 1 \
 1  end{array}

ight) ,所以可以直接使用;

(2) 將要變換的向量左乘這個矩陣。

試一下:f(left(
egin{array}{ccc}
 1  \
 1  end{array}

ight) )
=
left(
egin{array}{ccc}
 1  2 \
 0   1end{array}

ight)
left(
egin{array}{ccc}
 1  \
 1  end{array}

ight) =
left(
egin{array}{ccc}
 3  \
 1  end{array}

ight)

第二個基:D=<left(
egin{array}{ccc}
 0  \
 1  end{array}

ight),
left(
egin{array}{ccc}
 1  \
 1  end{array}

ight) ><br />
,相應的矩陣為:T2=left(
egin{array}{cc}
 -1   -2\
 2   3end{array}

ight)

至於T2是怎麼求的,這裡省略。

下面我們就來驗證一下,T2描述的還是線性變換f。

首先我們還是來看向量left(
egin{array}{ccc}
 1 \
 1  end{array}

ight) 在基D下的坐標,通過計算得到left(
egin{array}{ccc}
 0 \
 1  end{array}

ight) ,然後我們左乘:f(left(
egin{array}{ccc}
 1  \
 1  end{array}

ight) )
=
left(
egin{array}{ccc}
 -1  -2 \
 2   3end{array}

ight)
left(
egin{array}{ccc}
 0  \
 1  end{array}

ight) =
left(
egin{array}{ccc}
 -2  \
 3  end{array}

ight)

為什麼結果不對? 原因就是left(
egin{array}{ccc}
 -2  \
 3  end{array}

ight)還是在D下的坐標,我們在把它轉變為自然基下的表示形式,這裡因為要驗證,所以寫一下步驟:

-2 left(
egin{array}{ccc}
 0  \
 1  end{array}

ight)
+ 3
left(
egin{array}{ccc}
 1  \
  1 end{array}

ight) =
left(
egin{array}{ccc}
 3  \
 1  end{array}

ight)

這裡我們完全是為了寫的方便,所以才用一個具體的向量left(
egin{array}{ccc}
 1 \
 1  end{array}

ight) ,其實完全可以用符號比如x和y來驗證一般的形式,從而確定兩個矩陣的確表示的是同一個線性變換。

這樣我們就驗證了:T1和T2是相似的,表示的都是f這個線性變換。

既然那麼多矩陣表示的都是同一個線性變換,為什麼要找那麼多呢?原因就是有些矩陣的形式比較簡單,觀察或者計算比較方便。所以也就會引出特徵值、對角化等的概念了,這裡就不說了。

.


簡單來說,兩個矩陣相似,那麼,他們具有相同的性質。

那這條性質的用法就是。當你想知道一個矩陣有什麼性質但因為它太複雜了看不出來時候。這時候,你正好知道,它跟另一個矩陣相似,而那個矩陣的特性一眼就看出來了。那麼,本來這個很複雜的矩陣的性質跟那個矩陣是一樣的。

就是這樣用的。

----------------------------------------------------

補充一點吧,前面很多答主都再說變換到對角陣啊,Jordan形式,上三角形式啊之類的。這些都是操作上的東西了。

其實核心在於相似兩個字。用法跟相似三角形也差不太多。給你了你個你不知道的三角形。你想知道它的角度,性質啥的。抓瞎了。

這時候了我告訴你,它跟一個你知道的三角形相似。好了,那你就知道那個三角形的性質了。


剛剛就用相似矩陣推導出了不同基底下的某系統哈密頓量。

還有題主的買菜問題很奇怪,既然菜價和油價成正比,擬合出正比的係數就可以了,和線性代數有什麼關係?


考研做的筆記。簡單來說就是,n維向量空間有一組基P(不一定是正交的)某在絕對坐標系下表示的向量Y在P下的坐標是X,則Y經過某線性變換A變換後的新向量AY在P下的新坐標X1=BX,其中B是A的相似矩陣,B=P-1AP。(慢慢地我已經把線性變換的概念融入到線性代數的理解中了如果有人看不懂也沒關係我是自娛自樂)


相似矩陣是用來簡化矩陣的,通過坐標變換。


建議樓主先去看看坐標變換公式,這個是相似矩陣的基礎,它描述的是在不同的基中同一個向量(此處去掉腦海中的網格線)的坐標表示如何切換。相似矩陣多用於特徵值分解和奇異值分解中,而它們最常見的就是用於PCA降維。因為對矩陣特徵值分解後就能得到矩陣的主要運動方向和運動幅度,這些對於降維和去噪都是很必要的


簡單說就是描述一個運動的同一個線性變換在不同坐標系下的表達。有意思的是如果描述同一個空間在不同坐標系的位置只要用變換矩陣的逆矩陣左乘位置向量就可以,而描述運動還需要再右乘一次變換矩陣。


推薦閱讀:

初學數學建模有什麼好書可以入門?
中國連續兩年IMO未奪冠是否和取消競賽加分保送有關?
確定至少需要放置多少個節點,才能覆蓋95%以上的區域?
一些疑惑的最優化問題,希望大神幫忙解答一下,非常感謝!?

TAG:數學 | 線性代數 | 矩陣 | 基礎數學 |