

摘 要 線性代數教學的難點在于將抽象概念與幾何意義相結合,逐步培養學生形象化的認知過程。文章運用數形結合的數學思想,從二維空間中的線性變換引出特征值與特征向量的幾何意義;并針對大規模問題中特征多項式求解困難的情況,介紹了特征值與特征向量的數值解法以及討論特殊矩陣對實特征值與特征向量的存在性的影響,旨在幫助學生深入理解線性代數的基本概念,提高其解決實際問題的能力。
關鍵詞 矩陣特征值;矩陣特征向量;幾何意義;求解方式;存在性
中圖分類號:G642 " " " " " " " " " " " " " "文獻標識碼:A " "DOI:10.16400/j.cnki.kjdk.2024.6.020
Exploration of Teaching Matrix Eigenvalues and Eigenvectors in Linear Algebra
CHANG Jingya, WANG Yijie
(Guangdong University of Technology, Guangzhou, Guangdong 510000)
Abstract The difficulty of teaching linear algebra lies in combining abstract concepts with geometric meanings, gradually cultivating students' visual cognitive processes. This article uses the mathematical idea of combining numbers and shapes to derive the geometric meaning of eigenvalues and eigenvectors from linear transformations in two-dimensional space; And in response to the difficulty in solving feature polynomials in large-scale problems, this paper introduces the numerical solution of eigenvalues and eigenvectors, and discusses the influence of special matrices on the existence of real eigenvalues and eigenvectors, aiming to help students deepen their understanding of the basic concepts of linear algebra and improve their ability to solve practical problems.
Keywords matrix eigenvalues; matrix eigenvectors; geometric significance; solution method; existence
矩陣的特征值與特征向量是線性代數這門課的重點教學內容之一,其在量子力學、機器學習、信號與圖像處理等學科領域都有著重要的應用,其概念和內涵是理工科學生應該熟練掌握并深刻理解的。然而在實際教學中,由于課時量不夠、學生數學基礎薄弱、授課內容較理論等原因,學生對于矩陣特征值與特征向量的認識往往不夠直觀,只會死記硬背教師上課所講授的解題步驟來求解矩陣的特征值和特征向量。為了加深學生對矩陣特征值和特征向量這一知識點的理解,本文從其幾何意義、實際應用求解方式、特殊情況等幾個方面探討矩陣特征值與特征向量的教學。
1 "矩陣特征值與特征向量的實際應用
在學習矩陣特征值和特征向量的內容之前,教師可以適當介紹矩陣特征值和特征向量的應用,作為課堂教學的引入,以創造一個積極的學習環境,打開學生的思維。比如教師可以從以下幾個方面介紹矩陣特征值和特征向量的應用。
①矩陣的特征向量在聚類問題中的應用:圖譜聚類算法是求解聚類問題的重要算法之一。我們可以根據實際數據的特征,構建相似度矩陣和圖,進一步求解其拉普拉斯矩陣的特征向量來對事物進行聚類。具體地,對于二分類問題,我們計算拉普拉斯矩陣的第二小特征值對應的特征向量,再根據該特征向量元素的正負不同,對事物進行二分類。對于k(kgt;2) 分類的問題,借助于圖的拉普拉斯矩陣的前k個特征向量,我們可以將圖的頂點投影到一個子空間中,并利用k-means算法對圖的頂點進行k分類。
②矩陣的特征值在核磁共振成像中的應用:磁共振成像的基本原理是通過測量水分子的受限擴散運動來推斷人體的微觀組織結構。現在醫學界常用的擴散張量成像(DTI) 模型是在每一個節點處,使用一個對稱正定矩陣,稱為擴散張量,來描述人體組織內水分子的擴散行為。擴散張量的最大特征值所在的特征方向就對應了神經纖維束的走行方向。該方法在診斷神經系統和大腦白質病變的時候特別有效。
③在信號與圖像處理中的應用:信道感知是認知無線電技術的基本問題。我們通過接收到的有限信號樣本,計算樣本協方差矩陣。再利用樣本協方差矩陣的最大特征值來檢查信號是否存在。對于相干信號,該方法的效果要比能量檢測的方法效果更好。
2 "矩陣特征值與特征向量的幾何意義
在講解矩陣特征值和特征向量的概念時,可以通過介紹其幾何意義,幫助學生識記概念,加深學生對概念的理解。
設階方陣,若存在數和非零維向量 ,使得 = 成立,稱數 是方陣的特征值,向量 為方陣對應于特征值 的特征向量。從變換的角度來看,當維向量 是矩陣的特征向量時,矩陣對向量 的變換作用等同于對特征向量 進行倍的拉伸。接下來我們借助二維線性變換中的一個具體例子來闡述特征值與特征向量的幾何意義。
在上考慮一個變換矩陣為的線性變換。在線性變換前,向量空間的基向量 。經過線性變換后,原來的基向量變為,整個空間的其他向量也因此改變,如圖1所示。
緊接著,我們對比變換前后的向量空間中任意一個向量,并且考慮這個向量所張成的空間,即該向量所在的直線。從圖1中可以看到,由于整個空間都發生了旋轉變換,大部分向量在變換后都離開了其所張成的空間,即離開了向量變換前所在的直線,比如向量變換為。但是可以注意到,某些特殊的向量仍留在它們所張成的空間里,例如基向量變換為,該向量的長度變為原來的3倍,但它仍然留在軸里。這意味著該線性變換對這些向量的作用僅僅是拉伸或者壓縮而已。更一般來說,變換矩陣對向量 的變換作用等同于對向量 進行 倍的拉伸,其中的向量 稱為特征向量,拉伸的倍數 稱為特征向量 的特征值。在這個例子中,基向量就是一個特征向量。除此之外,還有一個略顯隱蔽的特征向量,它在變換中也留在自己所張成的空間里,最終被拉伸為原來的2倍。處在它所張成的對角線上的其他任意一個向量,也僅僅被拉伸為原來的2倍。除了上述兩個張成空間中的向量,任何其他的向量在變換中都有或多或少的旋轉,從而離開了自己所張成的空間。
3 "矩陣特征值與特征向量的數值解法
在教材中,矩陣特征值和特征向量通過求解特征多項式和矩陣的方程得到。其中涉及行列式的計算和線性方程組的求解。但是對于大規模的問題,行列式和線性方程組往往不容易計算。為了幫助學生在進一步的學習中利用矩陣的特征值和特征向量解決實際的編程問題,我們可以在課堂上簡單介紹幾種矩陣特征值和特征向量的數值解法,比如冪法、反冪法和QR方法等。
具體來說,冪法就是用于求矩陣按模最大的特征值與相應特征向量的一種迭代算法。冪法特別適用于大型的稀疏矩陣,其迭代格式如下:
其中是任意給定的初始向量,通常要求。冪法求特征值簡單易用,并且通常收斂速度較快。它被廣泛應用于科學計算、圖像處理、機器學習等領域。
在實際應用中,冪法的數值效果會受到多個因素的影響,比如矩陣A是否對稱、是否存在多個特征值等。為了提高計算精度和數值穩定性,可以采用改進的冪法,如反迭代、Rayleigh商加速等方法。另外,對于計算一般中小型矩陣的全部特征值與特征向量,QR算法是目前最有效的方法之一,MATLAB中的庫函數eig就是采用這種方法。QR方法的基本思想是利用矩陣的QR分解,其迭代格式如下:
將代入上式,隨著迭代步數的增加,矩陣收斂到一個上三角矩陣,其對角線元素收斂到原矩陣的特征值。對于一般的矩陣來說,QR分解不一定是唯一的。當矩陣具有某種結構或者性質,并采用特定的QR分解時,該分解就可以是唯一的。例如,如果矩陣是滿秩的,那么可以通過Gram―Schmidt正交化方法得到唯一的QR分解。對于稠密矩陣,可采用Householder變換進行QR分解;而稀疏矩陣,則可采用Givens旋轉進行的QR分解,以得到唯一的分解。
QR方法可以求出矩陣的全部特征值與特征向量,具有良好的數值穩定性和通用性,但是在計算復雜度和存儲空間利用方面存在一定的局限性,且收斂速度較慢,運算量較大。因此可以考慮對QR方法作進一步的改進。如通過Householder變換,把原矩陣預處理變換為一個上Hessenberg矩陣,然后采取帶位移策略的QR方法(用于提高收斂速度)、隱式QR方法(用于處理大型矩陣)等方法,對矩陣進行QR迭代,以此加速收斂并減少運算量。
4 "實特征值和特征向量的存在性
學生在計算矩陣特征值和特征向量時,總是能求得該矩陣的實特征值和實特征向量,這會給學生造成一個錯覺,讓他們誤以為任意的實矩陣都有實特征值。因此教師在授課時,有必要對實特征值和特征向量的存在性從以下方面進行澄清。
4.1 "矩陣可能不存在實特征值與特征向量
在上,考慮一個90度的旋轉變換,即變換矩陣。它并沒有特征向量,因為每一個向量都發生了旋轉并離開了其所張成的空間。當我們嘗試去計算它的特征值時,
這個多項式的根只能是虛數與,并沒有實數解。因此該矩陣沒有實特征值。
4.2 "實對稱矩陣的特征值與特征向量的存在性
任意一個n階實對稱矩陣,特征值全為實數并且一定有n個線性無關的特征向量。如果特征多項式無重根,即n個特征值對應n個線性無關的特征向量;如果有k重根,該重根必有k個線性無關的特征向量。
4.3 "關于復數域的特征值和特征向量的情況
在復數域中,矩陣的特征值和特征向量的計算與實數域有所不同。對于一個n€譶的復數矩陣,在復數域下可以計算出該矩陣有n個特征值(特征值是可以重復的)以及對應的特征向量。特征值可能是重復的,這意味著可能存在多個線性無關的特征向量對應于同一個特征值。此時,我們可以通過求解齊次線性方程組來找到特征向量的一組線性無關解,這些線性無關解就是對應于該特征值的特征向量。
5 "結語
綜上所述,在矩陣特征值與特征向量的教學中,我們可以先介紹其應用,激發學生學習興趣,接著講解矩陣特征值與特征向量的幾何意義加深理解,并討論一些特殊情況,引入求解矩陣特征值和特征向量的數值解法,討論矩陣特征值和特征向量的存在性,以拓寬學生知識面,有利于學生在其他學科對矩陣特征值與特征向量的應用和研究。
基金項目:信息時代的線性代數教學改革與實踐(廣工大教字〔2023〕51號)。
參考文獻
[1] 馬麗娜.淺談線性代數課程教學設計——以“特征值與特征向量”為例[J].高等數學研究,2023,26(1).
[2] 雍龍泉.線性變換的幾何意義[J].高師理科學刊,2022,42(1).
[3] 王小春.特征值與特征向量的教學研究[J].高師理科學刊,2019,39(12).
[4] 徐樹方,高立,張平文.數值線性代數[M].北京:北京大學出版社,2013.