摘 要:描述了矩陣的特征向量和特征值的定義,簡述了矩陣的特征向量特征值在數學、物理、信息和哲學上的一些意義,對于從多角度深入理解矩陣的特征向量特征值有積極意義。
關鍵詞:線性代數;矩陣;特征向量;特征值
1 線性變換與矩陣的特征向量特征值[1]
線性變換是指一個n維列向量被左乘一個n階矩陣后得到另一個n維列向量,它是同維向量空間中的把一個向量線性映射成了另一個向量。即
Y=AX (Y,X∈Rn A=(aij) A=(aij)n×n)
如果對于數λ,存在一個n維零列向量X(即X∈Rn且X≠0),使得
AX=?姿X
則稱數λ為矩陣A的一個特征值,X為矩陣A對應于λ的特征向量。
在線性代數中研究線性變換就是研究相應的矩陣A,矩陣A的特征向量和特征值是線性變換研究的重要內容。
2 在數學上的意義
矩陣乘法對應了一個變換,是把任意一個向量變成另一個方向或長度都大多不同的新向量。在這個變換的過程中,原向量主要發生旋轉、伸縮的變化。如果矩陣對某一個向量或某些向量只發生伸縮變換,不對這些向量產生旋轉的效果,那么這些向量就稱為這個矩陣的特征向量,伸縮的比例就是特征值。這里可以將特征值為負,特征向量旋轉180度,也可看成方向不變,伸縮比為負值。所以特征向量也叫線性不變量。特征向量的不變性是他們變成了與其自身共線的向量,他們所在的直線在線性變換下保持不變;特征向量和他的變換后的向量們在同一根直線上,變換后的向量們或伸長或縮短,或反向伸長或反向縮短,甚至變成零向量(特征值為零時)[2]。
對對稱矩陣而言,可以求得的特征向量是正交的,就是把矩陣A所代表的空間,進行正交分解,使得A的向量集合可以表示為每個向量a在各個特征向量上面的投影長度。
例如,對于x,y平面上的一個點(x,y),我對它作線性變換A,
這個線性變換相當于關于橫軸x做鏡像。我們可以求出矩陣A的特征向量有兩個[1,0]和[0,1],也就是x軸和y 軸。什么意思呢? 在x軸上的投影,經過這個線性變換,沒有改變。在y軸上的投影,乘以了幅度系數-1,并沒有發生旋轉。兩個特征向量說明了這個線性變換矩陣對于x軸和y軸 這兩個正交基是線性不變的。對于其他的線性變換矩陣,我們也可以找到類似的,N個對稱軸,變換后的結果,關于這N個對稱軸線性不變。這N個對稱軸就是線性變換A的N個特征向量。
譜定律告訴我們一個線性變換可表示為它的所有的特征向量的一個線性組合,其中的線性系數就是每一個向量對應的特征值。矩陣的特征向量特征值可以研究傅立葉變換對應的頻率譜、求概率分布的功率譜密度、統計上的主成分分析,微分方程的特征函數等。
3 在物理上的意義
一個物理系統,其特性可以被一個矩陣所描述,那么這個系統的物理特性就可以被這個矩陣的特征值所決定,這個矩陣能形成“頻率的譜”,就是因為矩陣在特征向量所指的方向上具有對向量產生恒定的變換作用:增強(或減弱)特征向量的作用。進一步的,如果矩陣持續地疊代作用于向量,那么特征向量的就會凸現出來。各種不同的信號(向量)進入這個系統中后,系統輸出的信號(向量)就會發生相位滯后、放大、縮小等各種紛亂的變化。但只有特征信號(特征向量)被穩定的發生放大(或縮小)的變化。如果把系統的輸出端口接入輸入端口,那么只有特征信號(特征向量)第二次被放大(或縮小)了,其他的信號如滯后的可能滯后也可能超前。
例如一個駐波通過一條繩子,繩子上面的每個點組成一個無窮維的向量,這個向量的特征向量就是特征函數sin(t),因為是時變的,就成了特征函數。每個點特征值就是每個點在特定時刻的sin(x+t)取值。再如,從太空中某個角度看地球自轉,雖然每個景物的坐標在不斷的變換,但是這種變換關于地球的自傳軸有對稱性,也就是關于此軸的平移和拉伸的坐標變換不敏感。所以地球自轉軸,是地球自轉這種空間變換的一個特征向量。矩陣的特征向量特征值在材料、力學、電學等方面也有重要的應用。
4 信息處理上的意義
由于這些投影的大小代表了A在特征空間各個分量的投影,那么我們可以使用最小2乘法,求出投影能量最大的那些分量,而把剩下的分量去掉,這樣最大限度地保 存了矩陣代表的信息,同時可以大大降低矩陣需要存儲的維度,簡稱PCA方法。[3]
線性變換PCA可以用來處理圖像。如2維的人像識別:我們把圖像A看成矩陣,進一步看成線性變換矩陣,把這個訓練圖像的特征矩陣求出來(假設取了n個能量最大的特征向量)。用A乘以這個n個特征向量,得到一個n維矢量a,也就是A在特征空間的投影。今后在識別的時候同一類的圖像(例如,來自同一個人的面部照片),認為是A的線性相關圖像,它乘以這個特征向量,得到n個數字組成的一個矢量b,也就是B在特征空間的投影。那么a和b之間的距離就是我們判斷B是不是A的準則。
又如Google公司的PageRank,也是通過計算一個用矩陣表示的圖。這個圖代表了整個Web各個網頁“節點”之間的關聯。用特征向量來對每一個節點打“特征值”分
5 哲學上的意義
矩陣的特征向量特征值是把向量和矩陣作為一個整體,從部分的性質出發,推到出整體的性質,再由整體的性質得到各種應用和物理上的概念。如何知道一個矩陣的局部其實對應于另一個矩陣上不同位置的局部呢? 這仍然只是一個主觀的先驗的直覺主義的判定! 計算機不過是紙和筆的變形,它不能理解意義——即使1+1=2這樣的運算結果,它本身也不能判定對錯。如果它咨詢別的計算機來判斷對錯呢——別的計算機又如何能自我證明對錯? 根本不能,必須等到一個主體的“人”來觀察這個結果,這個結果才會變得有意義。形而上學的理論,也沒有超出經驗主義的牢籠。[4]
參考文獻
[1]王萼芳,石生明.高等代數(第3版). 北京:高等教育出版社,2003.
[2]尤承業.解析幾何[M].北京:北京大學出版社,2004.
[3]閆常浩,丁先鋒,韋鑫余.人臉識別算法[J].四川兵工學報,2011,04.
[4]Stewart Shapiro.數學哲學[M].上海:復旦大學出版社,2009.