
【摘要】線性代數“課程思政”建設對于實現強化價值引領、知識傳授、能力培養“三位一體”的教育教學目標格外重要.本文以課程發展、定理和算法的形成、言傳身教的核心,以及應用為著力點,研究如何有效地將 “課程思政”元素融入線性代數教學.
【關鍵詞】“課程思政”;線性代數;教學方法
【基金項目】上海理工大學“教學成果獎”培育項目,上海市課程思政領航高校建設項目.
為了貫徹習近平在全國高校思政會議上關于 “各類課程與思想政治理論課同向同行,形成協同效應” 的講話精神,各高校紛紛開展“課程思政”的探討.線性代數是高等學校的重要公共基礎課程,是本科理、工、經、管等非數學類各學科本科生的必修課程.該課程的內容、思想及方法,對學生后繼課程的學習有直接的影響.正因如此,線性代數的“課程思政”建設對于實現強化價值引領、知識傳授、能力培養“三位一體”的教育教學目標格外重要,具有推廣價值.
一、以課程發展歷史增強學生的民族凝聚力
學過線性代數的人都知道,線性代數的發展史上并沒有中國人的名字,難道說古老的中華民族在近代數學發展中落伍了?其實不然,以矩陣的起源為例,早在《九章算術》中,我們的祖先就采用分離系數的方法表示線性方程組.《九章算術》方程章中共計18道題目,其中關于二元一次方程組的有8道題目,三元的有6道題目,四元、五元的各2道題目,其求解的基本方法和加減消元法基本一致,是世界上最早的完整的簡單線性方程組的解法.而在西方,直到17世紀才由萊布尼茲提出完整的線性方程的解法.這既說明了人類的認知途徑是從簡單到復雜,從形象到抽象,形象和抽象相結合的認知規律,又驗證了 “實踐—理論—實踐”的馬克思主義認識論,更說明了中國數學對于世界的影響.
二、以定理和算法的形成樹立學生的辯證唯物觀
數學是一門客觀、嚴謹的自然科學,體現了唯物論和辯證法的哲學思想.線性代數中的很多定理和算法都是從具體的客觀現象中抽象出來的.比如,線性方程組的解法、向量組線性相關和線性無關的判定定理等都是由實際問題歸納總結出來的,最終回歸到實踐中,經過了“由特殊到一般,再由一般到特殊”的認識過程及“從具體到一般,再從一般到具體”的思維方法.
三、言傳不如身教,教師是“課程思政”的核心
“課程思政”建設的關鍵在于教師.教師是課堂教學實施的主體,也是第一責任人.多年來形成的教學觀念和教學習慣,難免會讓部分教師對數學課程開展中融入課程思想政治的認識深度不夠,認為與己無關.因此,認識到“課程思政”的重要性和必要性,改變教師多年形成的教學觀念和教學習慣,提高育人意識,才能切實做到“愛學生、有學問、會傳授、做榜樣”.
四、以實際應用為著力點
線性代數有何用?這是線性代數“課程思政”的著力點.理論來源于實踐,理論的價值最終也在實踐中體現.線性代數在編碼解碼等領域有重要的應用,可以毫不夸張地說,一半以上的實際應用問題,最終都可以轉化成一個超大規模的線性方程組問題.下面就以幾個實際的例子說明線性代數的應用.
1.向量在數據表示中的應用
(1)onehot編碼.在機器學習中,對一個對象的表示有兩種常見的方式.最簡單且不需要學習的方式就是onehot編碼,它可以將研究的對象表示為向量,這個向量只有某一個分量為1,其余全為0.
可以想象有多少種類型,這個向量的維數就是多少.如果用這種方式將中文漢字向量化,假設所有的中文漢字有N個,要想通過這種方式去表示這些漢字,那么每個字都需要用一個N維的向量,總共需要N×N大小的矩陣.在自然語言處理中,詞袋模型就是以此為基礎構建的.
例1? 用onehot編碼表示“我愛蘋果,我愛香蕉”,一個詞語對應著一個數字,那么上面的4個詞語,可以用下列方式編碼:
“我”的編碼為[1,0,0,0],“愛”的編碼為[0,1,0,0],“蘋果”的編碼為[0,0,1,0],“香蕉”的編碼為[0,0,0,1].
(2)分布式表示.分布式表示是一種高維空間中的向量表示方法.首先,通過某種方式得到一個低維稠密的向量表示研究對象,最典型的例子就是顏色.我們知道任何一種顏色都可以通過紅、綠、藍3種顏色混合得到,在計算機中通常使用RGB方式將顏色表示為一個三元組.比如用RGB表示粉色、淺粉色、深粉色分別為(255,182,193),(255,192,203),(255,20,147).這種表示方法可以反映顏色的相近程度.而如果要用onehot編碼表示這些顏色,對于256級的RGB來說,總共有約2563種色彩,就需要2563維向量,數據是非常高維且稀疏的.
例2 例1中的四個詞可以用以下四個三維向量表示:我 [1,1,1],愛 [1,-1,1],蘋果 [-1,1,0.5],香蕉 [-1,1,0.4].不但維數降低了,還可以直觀地看出蘋果和香蕉在語義上較為接近,因為它們都是水果.
2.線性運算在卷積神經網絡的應用
卷積神經網絡(Convolutional Neural Networks,CNN)是一類包含卷積計算且具有深度結構的前饋神經網絡,是深度學習的代表算法之一,在深度學習中占有非常重要的地位.一般情況下,CNN由3個部分構成:卷積層、池化層和全連接層.卷積層負責提取圖像中的局部特征,而卷積其實質是一種特殊的線性運算.
例3 假設卷積核為一個3階方陣B=010201112,圖片A=2351000122332114130032622經卷積后可得到圖片C=141410191210311619.其運算為對A的3階子陣的元素按系數分別為0,1,0,2,0,1,1,1,2進行線性運算.
c11=0×2+1×3+0×5+2×0+0×0+1×1+1×3+1×3+2×2=14;
c12=0×3+1×5+0×1+2×0+0×1+1×2+1×3+1×2+2×1=14;
c13=0×5+1×1+0×0+2×1+0×2+1×2+1×2+1×1+2×1=10;
c21=0×0+1×0+0×1+2×3+0×3+1×2+1×4+1×1+2×3=19;
c22=0×0+1×1+0×2+2×3+0×2+1×1+1×1+1×3+2×0=12;
c23=0×1+1×2+0×2+2×2+0×1+1×1+1×3+1×0+2×0=10;
c31=0×3+1×3+0×2+2×4+0×1+1×3+1×3+1×2+2×6=31;
c32=0×3+1×2+0×1+2×1+0×3+1×0+1×2+1×6+2×2=16;
c33=0×2+1×1+0×1+2×3+0×0+1×0+1×6+1×2+2×2=19.
3.特征值和特征向量在主成分分析法的應用
在用統計分析方法研究多變量問題時,變量個數太多會增加問題的復雜性,還會增加運算成本.理想的做法是在減少變量個數的同時,盡量保留完整的信息.實際上,有些變量之間往往具有一定的相關性,當兩個變量之間有一定相關性時,它們攜帶的信息往往有一定程度的重復.
主成分分析(Principal Component Analysis,PCA)是一種統計方法,是設法將原來變量重新組合成一組新的相互無關的綜合變量,同時根據實際需要從中選出較少的總和變量盡可能多地反映原來變量信息.其數學定義為:一個正交化線性變換,把數據變換到一個新的坐標系統中,使得這一數據的任何投影的第一大方差在第一個坐標(第一主成分)上,第二大方差在第二個坐標(第二主成分)上,依次類推.
假設有m個樣本數據,每個數據是n維的,按列組成矩陣Xnm,則PCA步驟如下:
(1)均值化矩陣Xnm,得到X=Xnm-X-nm(其中X-nm的第i行元素均為Xnm的第i行元素的均值).
(2)求出協方差矩陣C=1m-1XXT.
(3)求出協方差矩陣C的特征值和特征向量.
(4)選取k個最大的特征值對應的特征向量.
(5)降維矩陣Ykm=WknX.
例4 假設X2×5=22353-11122.
(1)均值化:X=X2×5-X-2×5=-1-1020-20011.
(2)協方差矩陣:C=15-1XXT=321132.
(3)特征值:λ1=52,λ2=12,取特征向量ω1=11,ω2=1-1,將特征向量單位化,ω′1=1212,ω′2=12-12.
(4)按照特征值大小排序,這里選取λ1,此時矩陣W1×2=1212.
(5)降維矩陣
Y1×5=W1×2X=1212-1-1020-20011=-32-1203212.
【參考文獻】
[1]劉錫平,宇振盛,何常香,魏連鑫.線性代數[M].北京:高等教育出版社,2018.
[2]曹偉麗,蔡康盛.線性代數[M].長沙:湖南科學技術出版社,2013.
[3]劉錫平,曹偉麗,宇振盛.線性代數[M].北京:科學出版社,2013.
[4]Jolliffe I T.Principal Component Analysis[M].Berlin:SpringerVerlag,2002.