單榮杰 馬文明 祁明明
(煙臺大學(xué)計算機與控制工程學(xué)院 山東 煙臺 264005)
互聯(lián)網(wǎng)自誕生以來,便在逐步地發(fā)展成熟,尤其是隨著通信技術(shù)的發(fā)展,各種移動終端設(shè)備能夠更加方便地接入互聯(lián)網(wǎng)?;ヂ?lián)網(wǎng)技術(shù)的發(fā)展使得網(wǎng)絡(luò)節(jié)點中的信息數(shù)據(jù)也在不斷地增長,給用戶帶來了豐富的信息,用戶可以便捷地獲取到海量的知識數(shù)據(jù)。但信息數(shù)據(jù)的指數(shù)級增長引發(fā)了信息過載的問題,大量的冗余信息使用戶難以在有限的時間內(nèi)獲取到有效信息。搜索引擎的出現(xiàn)使用戶可以在數(shù)據(jù)增長的早期通過關(guān)鍵字、模糊查詢等算法搜索,緩解了信息過載的問題。自進入大數(shù)據(jù)時代,數(shù)據(jù)引擎搜索技術(shù)越發(fā)乏力,由于各種冗余信息的存在,當(dāng)用戶需求不明確時,便無法滿足用戶的需求,信息搜尋效率下降。因此針對現(xiàn)存在的問題,個性化的推薦系統(tǒng)應(yīng)運而生,成為了緩解數(shù)據(jù)過載問題的有效方法[1]。
推薦系統(tǒng)不需要用戶提供明確的需求信息,而是通過各種推薦算法以現(xiàn)有的用戶數(shù)據(jù)進行分析,為用戶進行興趣建模,主動推薦與用戶興趣相似的信息內(nèi)容,引導(dǎo)用戶發(fā)現(xiàn)興趣點[2]。個性化的推薦需要依賴用戶行為信息,當(dāng)信息不充分時,算法容易存在較大誤差,不能夠充分分析用戶的興趣,理解用戶的需求,因而產(chǎn)生的推薦質(zhì)量不高,數(shù)據(jù)稀疏性是推薦系統(tǒng)面臨的一大挑戰(zhàn)。
在實際推薦系統(tǒng)的運用中,雖然目標(biāo)域內(nèi)的數(shù)據(jù)比較稀疏,但其相關(guān)聯(lián)的域內(nèi)數(shù)據(jù)記錄比較多[3],例如,在某商城中,買圖書的人是少數(shù),其評價記錄也較少,但購買電影票的記錄相對較多,評分記錄較為稠密。用戶如果喜歡某一類的電影,也可能會喜歡同一類型的圖書,因此,可以利用用戶對電影的評分模式去預(yù)測用戶對圖書的評分,進而挖掘用戶的偏好為用戶推薦,屬于跨領(lǐng)域推薦的一種典型類型。研究跨領(lǐng)域推薦的問題,主要目的是挖掘數(shù)據(jù)記錄較為稠密的源域中的信息,為目標(biāo)域的評分預(yù)測提供輔助,提高準(zhǔn)確性。
根據(jù)目標(biāo)域數(shù)據(jù)與源域數(shù)據(jù)的重疊關(guān)系,跨領(lǐng)域的問題可以分為用戶和物品均沒有重疊、用戶有重疊、物品有重疊、用戶以及物品均有重疊四種類型[4],源域中的數(shù)據(jù)密度高于目標(biāo)域的數(shù)據(jù)密度,通過使用源域中的信息,提升推薦系統(tǒng)在目標(biāo)域的中的推薦質(zhì)量,這種推薦稱為跨領(lǐng)域推薦。
通過使用跨領(lǐng)域推薦的方法,可以有效緩解數(shù)據(jù)稀疏性對評分預(yù)測的準(zhǔn)確度的影響[5]。遷移學(xué)習(xí)方法是利用在源域內(nèi)學(xué)到的權(quán)重知識應(yīng)用到目標(biāo)域的推薦中,共享了潛在的評分模式[6]。本文提出的基于用戶-項目交叉注意力機制的遷移推薦模型(T-UIA),在目標(biāo)域數(shù)據(jù)稀疏,而其相關(guān)源域數(shù)據(jù)較為稠密的條件下,利用神經(jīng)網(wǎng)絡(luò)的非線性、多輸入、自學(xué)習(xí)數(shù)據(jù)等特點進行訓(xùn)練學(xué)習(xí),同時結(jié)合注意力機制挖掘源域潛在的評分模式,用以初始化目標(biāo)域神經(jīng)網(wǎng)絡(luò)模型,進而提高評分預(yù)測的準(zhǔn)確度。
在推薦系統(tǒng)的研究中,評分記錄數(shù)據(jù)的稀疏、用戶以及物品的冷啟動一直是被關(guān)注的問題。在一些傳統(tǒng)的推薦算法中,Lee等[7]提出了非負(fù)矩陣分解方法NMF(Nonnegative Matrix Factor),以矩陣分解在非負(fù)約束條件下尋找潛在的數(shù)據(jù)特征,預(yù)測用戶對未知物品的興趣喜好進行推薦。文獻[8]使用基于概率矩陣分解的算法將評分矩陣分解為用戶和物品的潛在特征矩陣,不受非負(fù)條件的約束,將兩個分解后的矩陣還原為評分矩陣形式,填充空白記錄。矩陣分解相關(guān)方法很大程度上受限于數(shù)據(jù)的稀疏性,過于稀疏會導(dǎo)致算法誤差大,數(shù)據(jù)填充質(zhì)量低,進而影響推薦的整體效果。因此,利用其他領(lǐng)域的數(shù)據(jù)作為輔助數(shù)據(jù)集,共享其中潛在的評分特征以及模式為填充目標(biāo)域提供依據(jù)是解決此問題的突破點。
跨領(lǐng)域的推薦在一定程度上緩解了目標(biāo)域數(shù)據(jù)稀疏性的問題。文獻[9]利用跨領(lǐng)域的方法改善冷啟動的問題,表明跨領(lǐng)域數(shù)據(jù)的利用對提升推薦質(zhì)量有貢獻。文獻[10]在推薦中融入了多種媒體文本信息,將用戶的興趣進行跨領(lǐng)域的遷移,解決目標(biāo)域內(nèi)數(shù)據(jù)稀疏性的問題,表明對于跨領(lǐng)域的數(shù)據(jù)記錄信息,會對目標(biāo)域的推薦產(chǎn)生正影響作用,提高推薦質(zhì)量,也會對推薦產(chǎn)生負(fù)影響,降低推薦的質(zhì)量,因此處理源域中的數(shù)據(jù)是關(guān)鍵問題。
在跨領(lǐng)域模型推薦算法中,利用領(lǐng)域間潛在的結(jié)構(gòu)作為連接橋梁,也可以實現(xiàn)遷移的效果[11]。文獻[12]提出了利用密碼本遷移協(xié)同過濾的經(jīng)典模型CBT(CodeBook Transfer),該模型利用正交非負(fù)矩陣分解算法抽取用戶對于物品的評分模式,如式(1)所示。
(1)
式中:O為最優(yōu)函數(shù);Xt為評分特征矩陣;U、V分別為分解后的用戶與物品潛在特征矩陣;S為評分矩陣。
CBT模型從輔助域中學(xué)習(xí)稠密數(shù)據(jù)的聚類層次用戶評分模式,該評分模式矩陣被稱為“密碼本”,然后將密碼本遷移到目標(biāo)域內(nèi)進行填充,預(yù)測未有評分記錄的物品的評分。
NeuMF模型由He等[13]提出,該模型解決了矩陣分解算法中因大量的潛在因子對算法的不利影響,尤其是提高了在稀疏數(shù)據(jù)下的泛化能力。該模型通過深度神經(jīng)網(wǎng)絡(luò)的方法,將GMF模型與MLP模型結(jié)合使用,從稀疏數(shù)據(jù)中學(xué)習(xí),提高了泛化能力。
基于NeuMF模型原理,本文首先提出了交叉注意模型UIA(User Item Attention),結(jié)合注意力機制學(xué)習(xí)用戶、物品以及評分之間更為復(fù)雜的潛在關(guān)系[14]。注意力機制在圖像處理、語音識別以及自然語言理解等深度學(xué)習(xí)方面有著廣泛的應(yīng)用[15]。注意力機制在全局范圍內(nèi)尋找重點信息,對于關(guān)鍵性的信息賦予較高權(quán)重,形成“注意”。例如,用戶對不同類型的電影關(guān)注程度是有差別的,喜歡愛情、浪漫類別的電影對恐怖、懸疑類別的關(guān)注表現(xiàn)為較少關(guān)注,如果以全局評分分析賦以相同權(quán)重有不合理之處。使用注意力機制能夠?qū)Σ煌憩F(xiàn)進行權(quán)重合理化分配,從而提升評分預(yù)測的準(zhǔn)確度[16]。
如圖1所示,UIA模型由Interest_Factor和CoA_Factor兩部分組成,其中:Interest_Factor可以處理潛在的評分特征,CoA_Factor使用注意力機制學(xué)習(xí)評分關(guān)系,可以合理地調(diào)整權(quán)重。

圖1 UIA模型框架圖
Interest_Factor使用點乘方式處理特征之間的交互,定義如下:
G=ui⊙vi
(2)
式中:ui及vi分別表示用戶向量、物品向量;“⊙”表示矩陣點乘。
模型中Interest_Factor能夠通過潛在特征因子點乘的形式學(xué)習(xí)到Emdedding向量數(shù)據(jù)的一些潛在特征,但其在處理高稀疏數(shù)據(jù)時仍存著很大的不足,將Interest_Factor與注意力神經(jīng)網(wǎng)絡(luò)結(jié)合,能夠在數(shù)據(jù)稀疏時更好地學(xué)習(xí)潛在特征關(guān)系。
在機器學(xué)習(xí)中Embedding 技術(shù)有著廣泛的應(yīng)用,能夠?qū)嶓w對象表示為連續(xù)的向量,實現(xiàn)了輸入的高維稀疏向量轉(zhuǎn)換為低維稠密的表示形式,易于進行處理學(xué)習(xí)[17-18]。由于每個用戶ID及物品ID都是唯一的,模型將每個用戶ID及物品ID以Embedding表示,將ID映射為向量化的輸入。
CoA_Factor使用了注意力機制的原理,對權(quán)重進行合理分配。將用戶的ID使用Embedding方法處理,用User-Embedding表示用戶的ID序號,同樣可以將物品ID用Item-Embedding表示,首先將Item-Embedding形成三個相同的副本,記為q1、k1、m1,將User-Embedding同樣形成三份副本,記為q2、k2、m2,然后通過將Item-Embedding與User-Embedding交叉點乘的方式得到a11、a12、a21、a22。
a11=k1⊙q1a12=k2⊙q1a21=k1⊙q2a22=k2⊙q2
(3)
式中:“⊙”表示矩陣點乘,User-Embedding與Item-Embedding的交叉點乘,使得具有相關(guān)性的向量能夠獲得較大的乘積,而不相關(guān)的則表現(xiàn)為較小乘積,突出相關(guān)聯(lián)的關(guān)系。
對于Attention Net的定義如下:

M1=A11⊙m1+A12⊙m2
M2=A21⊙m1+A22⊙m2
(4)
Attention Net層使用softmax函數(shù)將a11、a12同時計算,在計算后將結(jié)果按原維度拆分得到A11、A12,以相同的方式計算得到A21、A22,將A11、A12、A21、A22與m1、m2點乘以及加和的方式得到M1、M2。
經(jīng)過以上處理,可以分別計算得到Interest_Factor和CoA_Factor的處理結(jié)果。結(jié)合深度學(xué)習(xí)技術(shù),將Interest_Factor與CoA_Factor進行拼合,輸入到深度神經(jīng)網(wǎng)絡(luò)層中,進一步處理。
深度神經(jīng)網(wǎng)絡(luò)從整體上劃分,可以將第一層劃分為輸入層,最后一層劃分為輸出層,中間的網(wǎng)絡(luò)層劃分為隱藏層。隱藏層可以由一到多層組成,同時每一層可設(shè)置不同的神經(jīng)元個數(shù),是最復(fù)雜的一部分。隱藏層的連接方式可以是全連接方式,也可以使用Dropout技術(shù)使得神經(jīng)元之間部分連接,結(jié)合激活函數(shù)有著強大表達(dá)能力。
深度神經(jīng)網(wǎng)絡(luò)定義如下:

?
(5)
式中:G代表Interest_Factor部分的處理結(jié)果;N代表CoA_Factor部分的處理結(jié)果。將G與N首先進行拼合的操作,然后作為神經(jīng)網(wǎng)絡(luò)的輸入層,使用梯度下降優(yōu)化處理。
神經(jīng)網(wǎng)絡(luò)具有非線性學(xué)習(xí)的能力,每一層的激活函數(shù)可以選擇sigmoid、tanh以及ReLU等函數(shù)[19],本文選擇ReLU函數(shù)主要原因在于sigmoid函數(shù)將輸出值限定在(0,1)范圍內(nèi),容易出現(xiàn)梯度消失以及梯度爆炸的情況且計算耗時收斂速度變慢,而對于tanh激活函數(shù),計算速度相較sigmoid函數(shù)有所提升,但是仍然沒有解決梯度消失的問題。
ReLU激活函數(shù)解決一部分梯度消失問題,計算較為簡單,收斂速度較快[20],適合于較為稀疏的數(shù)據(jù),激活部分神經(jīng)單元,增加了稀疏性,因此不容易出現(xiàn)過擬合的問題,已經(jīng)被證明是非飽和的,得到了廣泛的使用。定義如下:
(6)
在實驗中使用了均方誤差(MSE)作為損失函數(shù),其定義如下:
(7)

實驗中采用了Adam迭代更新優(yōu)化算法,相比隨機梯度下降算法,該算法能夠自適應(yīng)更新學(xué)習(xí)率參數(shù),需要更少的超參數(shù),學(xué)習(xí)率初始設(shè)置為0.005。
源域內(nèi)數(shù)據(jù)較為稠密,目標(biāo)域內(nèi)的數(shù)據(jù)較為稀疏,將模型在源域內(nèi)進行訓(xùn)練學(xué)習(xí),并保存神經(jīng)網(wǎng)絡(luò)權(quán)重參數(shù)信息,遷移到目標(biāo)領(lǐng)域,在目標(biāo)域訓(xùn)練前加載,初始化目標(biāo)域神經(jīng)網(wǎng)絡(luò)模型。T-UIA模型框架如圖2所示。

圖2 T-UIA模型框架圖
遷移時需要保證目標(biāo)域與源域的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)相同,將全連接層的權(quán)重參數(shù)共享。在初始化目標(biāo)域的神經(jīng)網(wǎng)絡(luò)后,讀取目標(biāo)域的數(shù)據(jù)進行訓(xùn)練,與隨機初始化的神經(jīng)網(wǎng)絡(luò)相比,使用遷移方式初始化的模型,梯度優(yōu)化時,Loss有著更快的下降速度。遷移算法如算法1所示。
算法1模型遷移算法
輸入:用戶u,物品v,評分r。
輸出:用戶u對物品v的評分誤差。
Step1使用源域數(shù)據(jù)訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型,設(shè)置較小的迭代次數(shù)。
Step2將源域模型參數(shù)保存。
Step3加載模型參數(shù),初始化目標(biāo)域神經(jīng)網(wǎng)絡(luò)模型,將全連接層參數(shù)進行初始化。
Step4使用目標(biāo)域中的訓(xùn)練集數(shù)據(jù),完成在目標(biāo)域內(nèi)的神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練。
Step5預(yù)測用戶評分,計算誤差。
Step6改變源域訓(xùn)練的迭代次數(shù),重復(fù)Step 1-Step 5,得到最優(yōu)訓(xùn)練次數(shù)。
Step7輸出評分誤差。
通過將源域權(quán)重遷移到目標(biāo)域中,能夠?qū)δ繕?biāo)域的預(yù)測產(chǎn)生影響,但過度的遷移存在著負(fù)影響,使得神經(jīng)網(wǎng)絡(luò)模型在目標(biāo)域內(nèi)存在較大誤差,控制適度的訓(xùn)練是遷移的關(guān)鍵。
本實驗采用的編程語言為Python3.6,深度學(xué)習(xí)框架為Keras+Tensorflows1.14,操作系統(tǒng)為Windows 7,主頻3.20 GHz,內(nèi)存8 GB。
實驗所用的數(shù)據(jù)來自UCI的MovieLens數(shù)據(jù)記錄[21]。該數(shù)據(jù)集中每個用戶至少對20個不同的影片有評分記錄,其中MovieLens100k數(shù)據(jù)集包含943名用戶以及1 682部電影,共計100 000條記錄。
實驗中首先將數(shù)據(jù)集分為源域數(shù)據(jù)(Source)和目標(biāo)域數(shù)據(jù)(Target),本實驗選擇用戶ID小于800、電影ID小于500的范圍作為源域,其余數(shù)據(jù)作為目標(biāo)域,并限制源域與目標(biāo)域的數(shù)據(jù)中用戶和物品記錄均不存在重疊,將目標(biāo)域數(shù)據(jù)按比例隨機選取進行實驗驗證。
本文采用了常用的評分預(yù)測評價指標(biāo):均方根誤差(RMSE)與平均絕對誤差(MSE)。
平均絕對誤差定義為:
(8)
均方根誤差定義為:
(9)

為了對比驗證模型的效果,本文采用的基準(zhǔn)方法如下:
MF:傳統(tǒng)矩陣分解方法,將稀疏的用戶評分矩陣分解為兩個矩陣,以相乘的形式填充還原為原矩陣維度,以特征向量的形式學(xué)習(xí)潛在評分模式。
GMF:廣義的矩陣分解,將用戶和物品使用Embedding向量化表示,以點乘的方式學(xué)習(xí)內(nèi)在關(guān)系,使用梯度下降迭代訓(xùn)練[13]。
NeuMF:結(jié)合GMF與MLP的神經(jīng)網(wǎng)絡(luò)矩陣分解模型,使用梯度下降的方式獲得最優(yōu)解[13]。
UIA:本文提出的未經(jīng)遷移的用戶-項目交叉注意模型,使用注意力機制減小預(yù)測誤差。
T-NeuMF:將源域全連接層進行參數(shù)遷移的NeuMF模型,即目標(biāo)域與源域參數(shù)共享。
T-UIA:本文提出的基于用戶-項目交叉注意力機制的遷移推薦模型,通過將在源域數(shù)據(jù)學(xué)習(xí)到的參數(shù)遷移到目標(biāo)域神經(jīng)網(wǎng)絡(luò)進行評分預(yù)測。
實驗時在目標(biāo)域內(nèi)隨機選取不同比例的數(shù)據(jù),每個算法模型在該比例下進行5次實驗,取均值作為當(dāng)前選取比例下的實驗結(jié)果,目標(biāo)域數(shù)據(jù)集的訓(xùn)練集與測試集比例為7∶3。在數(shù)據(jù)比例過小時,實驗中采用的對比算法波動較大,因此實驗使用了15%作為起始比例。
從表1中數(shù)據(jù)可以發(fā)現(xiàn),在使用遷移的方式后,NeuMF以及UIA的遷移模型均相比于未遷移的模型在均方根誤差的指標(biāo)上有更好的表現(xiàn)。選取比例在20%以下時,由于數(shù)據(jù)記錄數(shù)稀疏,非遷移模型表現(xiàn)出了較大誤差。而遷移的模型由于使用了在源域中學(xué)習(xí)的參數(shù),并未因目標(biāo)域的數(shù)據(jù)記錄的稀疏在結(jié)果上表現(xiàn)較大波動。

表1 不同方法在數(shù)據(jù)集上的RMSE結(jié)果
當(dāng)數(shù)據(jù)選取比例在20%時,T-UIA模型相比于未遷移時均方根誤差降低了10.9%。實驗數(shù)據(jù)選取的比例在30%時,遷移模型誤差值最小,之后隨著目標(biāo)域數(shù)據(jù)量的增加,遷移的效果表現(xiàn)有所下降,此時模型總體的表現(xiàn)更趨向于在目標(biāo)域的訓(xùn)練,過度地使用源域數(shù)據(jù)訓(xùn)練會對模型產(chǎn)生負(fù)影響。
從表2中的數(shù)據(jù)可以發(fā)現(xiàn),在不同的選取比例下,遷移后的NeuMF以及UIA模型在平均絕對誤差的指標(biāo)上要優(yōu)于未進行遷移的模型。當(dāng)數(shù)據(jù)選取20%時,遷移的算法模型表現(xiàn)更為穩(wěn)定,相較于其他算法,MAE及RMSE指標(biāo)值最小。

表2 不同方法在數(shù)據(jù)集上的MAE結(jié)果
結(jié)合表1和表2的結(jié)果數(shù)據(jù)可以發(fā)現(xiàn),使用遷移對于目標(biāo)域的評分預(yù)測有降低誤差的作用,同時本文提出的T-UIA算法模型比NeuMF算法模型的遷移效果更好,能夠?qū)撛谠u分模式特征更好地應(yīng)用遷移,預(yù)測實際評分。
遷移后的算法模型在Loss上具有更快的下降速度,UIA算法模型在訓(xùn)練集相比NCF模型有更快的Loss下降表現(xiàn)。如圖3所示,當(dāng)實驗設(shè)置迭代次數(shù)為20時,Loss下降不再出現(xiàn)較大變化。

圖3 目標(biāo)域Train的Loss曲線圖
實驗通過改變Embedding超參數(shù)的設(shè)置以及神經(jīng)網(wǎng)絡(luò)層深度,探究了對模型性能的影響。根據(jù)圖4的結(jié)果可以看出,隨著Embedding超參數(shù)選擇的增大,RMSE結(jié)果是表現(xiàn)為逐漸下降,設(shè)置超參數(shù)為40時,RMSE數(shù)值為1.076,高于40時基本趨于穩(wěn)定,不再有較大幅度的下降,在1.075附近波動。

圖4 Emdedding對模型的影響
全連接層深度對實驗的影響結(jié)果如圖5所示,深度為2層時,實驗結(jié)果較好,隨著深度的增加,RMSE結(jié)果有升高的趨勢。

圖5 模型深度的影響
通過改變?nèi)B接層神經(jīng)元的個數(shù),比較單層神經(jīng)網(wǎng)絡(luò)神經(jīng)元個數(shù)對實驗的影響,從圖6中可以看出,當(dāng)神經(jīng)元個數(shù)設(shè)置為10時,模型并不能充分學(xué)習(xí)到數(shù)據(jù)的信息,結(jié)果輸出存在較大誤差,誤差為1.119。隨著神經(jīng)元數(shù)目的增多,RMSE結(jié)果開始下降,最低為1.065,并趨于平穩(wěn),但過多的神經(jīng)元也會對實驗結(jié)果產(chǎn)生不利影響,當(dāng)神經(jīng)元數(shù)目設(shè)置為90及100時,誤差呈現(xiàn)上升的趨勢。

圖6 模型神經(jīng)元個數(shù)的影響
模型多個超參數(shù)的聯(lián)合確定,在目標(biāo)域訓(xùn)練集中劃分20%的數(shù)據(jù)作為驗證集,通過使用網(wǎng)格參數(shù)搜索的方法進行模型運行實驗,可以得到在每個超參數(shù)設(shè)置下的表現(xiàn)情況。在實驗中確定的超參數(shù)范圍,Embedding大小參數(shù)搜索區(qū)域為[10,20,30,40,50,60,70,80,90,100],全連接層神經(jīng)網(wǎng)絡(luò)深度搜索區(qū)域為[1,2,3,4,5,6,7],單層神經(jīng)元搜索區(qū)域為[10,20,30,40,50,60,70,80,90,100],使用目標(biāo)域驗證集運行實驗,輸出在驗證集上的誤差,得到在驗證集上每組組合下的運行結(jié)果,選取均方根誤差最小的組合作為最優(yōu)參數(shù)。
本文提出了基于用戶-項目交叉注意力機制的遷移推薦模型,模型通過使用交叉注意機制的方式學(xué)習(xí)源域數(shù)據(jù)中用戶、物品以及評分間的潛在特征信息,將學(xué)習(xí)到的知識應(yīng)用到目標(biāo)域中輔助推薦,在不同的數(shù)據(jù)比例上驗證了其效果,能夠緩解數(shù)據(jù)稀疏的不利影響。
推薦系統(tǒng)的評分預(yù)測可以將物品以評分作為依據(jù)進行排序,將評分高的物品推薦給用戶,預(yù)測用戶的興趣,減少用戶的搜尋時間并提高了交易量。下一步的研究著重于模型的優(yōu)化問題,并結(jié)合多方面屬性信息逐步將模型成熟化以適應(yīng)不同的數(shù)據(jù)環(huán)境,以期應(yīng)用于實際工程項目中。