










摘 要:為了解決苗繡圖像樣本量不足以及識別精度較低的問題,提出了一個新穎的樣式生成對抗網絡(StyleGAN2)結合高效通道注意力機制(ECA)優化的殘差神經網絡(ResNet50)苗繡圖像分類模型。首先,利用StyleGAN2對原始苗繡數據集進行訓練和生成,以擴充小樣本數據集。接著,在ResNet50骨干網絡中融入ECA注意力機制,增強了模型的特征提取能力。最終,結合StyleGAN2和ECA優化后的ResNet50創建了新的StyleGAN2-ECA-ResNet50模型,用于小樣本苗繡圖像的識別。實驗結果顯示,該方法在測試集上的準確率達到了89.29%,較傳統的ResNet50模型提高了5.87%,并且在性能上超過了多個先進的深度學習模型。
關鍵詞:苗繡;小樣本圖像分類;數據增強;StyleGAN2;ECA
中圖分類號:TP391 文獻標識碼:A 文章編號:2096-4706(2025)02-0024-09
Research on Generation and Recognition of Few-Shot Miao Embroidery Images
WU Jing1,2, YANG Bangqin1, ZHANG Yinjian1, LI Mingzhu2, CHEN Yan1,3
(1.School of Data Science and Information Engineering, Guizhou Minzu University, Guiyang 550025, China; 2.ZX-YZ School of Network Science, Haikou University of Economics, Haikou 570203, China; 3.School of Automation Science and Engineering, South China University of Technology, Guangzhou 510641, China)
Abstract: To address the issues of insufficient sample sizes and low recognition accuracy of Miao embroidery images, this paper proposes a novel Miao embroidery image classification model, which combines StyleGAN2 with optimized ResNet50 by the Efficient Channel Attention (ECA). Firstly, StyleGAN2 is utilized to train and generate on the original Miao embroidery dataset, thereby augmenting the Few-Shot dataset. Subsequently, the ECA Attention Mechanism is integrated into the ResNet50 backbone network to enhance the feature extraction capability of the model. Ultimately, the new StyleGAN2-ECA-ResNet50 model is created by combining StyleGAN2 and ResNet50 optimized by ECA for the recognition of Few-Shot Miao embroidery images. Experimental results show that the accuracy of this method reaches 89.29% on the test set, which is an improvement of 5.87% over the traditional ResNet50 model and surpasses several advanced Deep Learning models in performance.
Keywords: Miao embroidery; Few-Shot image classification; data augmentation; StyleGAN2; ECA
0 引 言
苗繡,作為中國獨特的非物質文化遺產,是中國苗族文化的重要組成部分,具有深厚的歷史文化積淀和豐富的藝術價值。它不僅是苗族人民日常生活、婚嫁儀式等重要社會活動中的必備技藝,更承載著苗族獨特的民族記憶與審美追求[1]。然而,隨著現代化的推進和傳統手工藝傳承方式的衰退,苗繡的生存環境日益嚴峻。為了保護這一珍貴的非物質文化遺產,探索數字化手段的保護與傳承已成為當前學界和文化保護領域的重要方向[2]。
近年來,苗繡的數字化保護日益受到重視。數字化技術為苗繡的紋樣、技法和文化信息的精確記錄提供了新的手段,不僅能夠動態保存這一非物質文化遺產,還可以通過虛擬現實(VR)和增強現實(AR)等技術增強其展示效果,提升觀眾的互動體現[3]。此外,智能繡花機的數碼仿真技術在苗繡的傳承與創新中發揮了重要作用,為其在現代社會中的應用開辟了新的路徑[4]。陳世婕的研究表明,利用多尺度網絡對苗繡繡片紋樣進行分割,不僅提高了圖像處理的效率,還為苗繡的數字化保護提供了技術支持[5]。田玉晶在貴州遵義苗繡紋樣的數字化生成研究中指出,數字技術可以實現苗繡紋樣的高效生成和展示,為苗繡的傳承提供了新的途徑[6]。通過數字化手段,不僅可以記錄和保存傳統苗繡的技藝和圖案,還能通過線上平臺進行展示和傳播,使得更多人能夠了解和學習這一傳統技藝。
在當前的計算機視覺領域,小樣本學習(Few-Shot Learning, FSL)作為一種應對訓練數據稀缺的有效方法,受到廣泛關注。小樣本學習的主要方法包括元學習(Meta-Learning),通過從多任務中學習共享知識快速適應新任務;度量學習(Metric Learning),通過優化度量空間提升分類性能;以及數據增強(Data Augmentation),用于擴充有限數據以增強模型泛化能力[7-9]。
近年來,國內外學者采用了多種深度學習模型來解決小樣本分類問題。例如,EfficientNetB0作為一種高效的卷積神經網絡架構,通過復合縮放方法提升了分類性能,但在處理高多樣性的圖像數據時表現仍不夠理想[10]。MobileNetV2由于其輕量化結構和高效的卷積操作,被廣泛應用于移動設備中的圖像分類任務,然而在小樣本學習場景中,其泛化能力有限[11]。DenseNet121通過密集連接機制改善了梯度傳遞和特征復用,但在面對復雜的苗繡圖案時,其特征提取能力仍顯不足[12]。VGG16以其深層次的網絡結構在許多圖像分類任務中表現優異,但其參數量大,計算成本高,且在小樣本學習中容易過擬合[13]。針對上述模型的不足,本文提出了一種結合StyleGAN2數據增強和ECA注意力機制的苗繡圖像分類方法,以提高分類精度和泛化能力。
本文選擇數據增強方法來解決苗繡小樣本圖像分類問題,采用StyleGAN2來擴充數據集。StyleGAN2是基于StyleGAN改進的生成對抗網絡(GAN),在圖像生成任務中表現出色,能夠生成高質量且多樣化的圖像,有效緩解過擬合問題并提高模型的泛化能力[14-15]。通過使用StyleGAN2,能夠擴展現有的數據集,捕捉到苗繡圖案的細微特征,進一步提高分類模型的精度。在數據增強之后,在ResNet50模型中嵌入了有效通道注意力機制(Efficient Channel Attention, ECA),以進一步提升分類性能。ECA注意力機制通過自適應地調整不同通道的權重來增強模型對關鍵特征的關注,從而提高分類的準確性和魯棒性[16]。
本文的主要貢獻包括:提出了一種結合StyleGAN2數據增強和ECA注意力機制的苗繡圖像分類方法;通過實驗證明,使用StyleGAN2生成的擴充數據結合嵌入ECA注意力機制的ResNet50模型,能夠顯著提升分類性能;為苗繡設計的創意化提供了一種人工智能的方式——利用算法進行苗繡圖像生成。
1 理論基礎
1.1 ResNet50殘差網絡
本文選擇了基于ResNet50的架構作為核心的卷積神經網絡框架。ResNet50通過引入恒等映射的卷積網絡結構來減輕退化問題,消減深度網絡的訓練難度,提高網絡的性能及精度。該模型的結構包括六個關鍵部分:一個輸入單元、四個包含不同數量殘差單元(3、4、6和3個)的殘差模塊,以及一個輸出單元。每個殘差塊的基本結構如下:
(1)
其中,x表示輸入,y表示輸出,表示殘差函數,表示卷積、批歸一化(Batch Normalization, BN)和ReLU激活函數的組合操作。具體地,殘差函數F可以表示為:
(2)
每個殘差塊內部通過增加恒等映射(Identity Mapping)路徑,保留輸入信息,使得網絡在訓練深層模型時仍然能夠保持有效的梯度流動,解決了深層網絡訓練困難的問題。關于ResNet50的整體架構如表1所示。
1.2 StyleGAN2網絡
StyleGAN2是一種先進的生成對抗網絡(Generative Adversarial Network, GAN)模型,用于高質量圖像生成。相比其前身StyleGAN,StyleGAN2引入了更有效的歸一化和調制方法,從而顯著提高了圖像生成的質量和多樣性。StyleGAN2的生成器主要分為兩個部分:映射網絡(Mapping Network)和合成網絡(Synthesis Network)。
映射網絡通過8層全連接層將輸入潛在向量z映射到中間潛在空間w:
(3)
其中,M表示映射函數。這種設計使得潛在空間的表示更具表達力,能夠更好地控制生成圖像的風格。
合成網絡通過一系列的卷積操作和逐層調制(Modulation)與去調制(Demodulation)來生成圖像。合成網絡中的每個卷積層都由風格調制和噪聲注入(Noise Injection)操作組成,其算式如下:
(4)
其中,Mod(x,w)表示由風格向量w控制的調制參數,Demod表示去調制操作,Noise表示注入的噪聲,用于增加圖像的細節。
在StyleGAN2中,調制與去調制操作的算式為:
(5)
(6)
其中,表示逐元素乘法,s表示尺度參數,ε表示一個小常數用于數值穩定性。
StyleGAN2引入了層級正則化(Per-Layer Regularization)來減少偽影和提高圖像質量。同時,采用了改進的歸一化技術,如正態化(Normalization)和方差調制(Variance Modulation),使得生成的圖像更加穩定和逼真。圖1展示了StyleGAN2生成器的整體架構。
(7)
其中,A和B分別表示調制和偏移參數,Conv表示卷積操作。
StyleGAN2在圖像生成任務中表現出色,尤其是在高分辨率圖像生成和多樣性上有顯著提升,適用于小樣本數據集的樣本擴充。
1.3 ECA注意力機制
ECA注意力機制是一種高效的通道注意力機制,通過局部跨通道交互捕捉不同通道之間的關系,顯著提高了卷積神經網絡的性能。ECA的核心思想是避免通過全連接層對每個通道的特征進行加權,而是采用局部的1D卷積來實現通道間的交互。其基本操作步驟如下:
對輸入特征圖X進行全局平均池化(Global Average Pooling, GAP):
(8)
其中,H和W分別表示特征圖的高度和寬度,c表示通道索引。
對池化后的特征圖進行1D卷積操作:
(9)
其中,σ表示sigmoid激活函數,Conv1D表示1D卷積操作。
將加權后的特征與原始輸入特征進行逐通道相乘:
(10)
通過這種方式,ECA機制能夠自適應地調整每個通道的權重,從而增強重要特征,抑制無關特征。圖2展示了ECA模塊的結構。
2 本文所提模型架構
2.1 苗繡小樣本生成識別模型框架流程圖
在本次研究中,提出了一種改進的基于樣式生成對抗網絡(StyleGAN2)和高效注意力機制(ECA)的苗繡小樣本生成識別模型框架,稱為StyleGAN2-ECA-ResNet50模型框架,其結構如圖3所示。
從StyleGAN2-ECA-ResNet50模型框架流程圖中可以看出,本文采用了跨域遷移學習方法[17]。遷移學習是一種深度學習方法,它通過復用源數據集中訓練好的模型權重,能夠有效解決目標數據集數據不足的問題,減少對大規模標注數據的依賴,并提高模型在目標任務中的性能[18-19]。ImageNet數據集龐大,包含約1 400萬張圖像和1 000個類別。在ImageNet上訓練的特征可以有效地遷移到其他圖像分類任務中,并且使用遷移學習進行訓練比從頭開始訓練效果更好。
該模型的工作流程可分為三個步驟:
1)對MX數據集使用StyleGAN2進行數據擴充。即從潛在空間z采樣潛在向量并進行歸一化處理,將歸一化后的潛在向量通過映射網絡映射到中間潛在空間,并進行結構操作生成風格向量,風格向量再通過合成網絡最終輸出新生成的苗繡圖像。
2)在ResNet50模型中嵌入ECA模塊。圖中的CB(eca)則表示嵌入了ECA模塊的卷積塊,亦即嵌入了ECA的Bottleneck塊,輸入圖像通過卷積層、池化層和ECA注意力機制模塊后被提取特征,最后通過全局平均池化和全連接層進行分類。
3)將預訓練的ECA-ResNet50模型進行遷移學習,并對最后一層進行微調,使其適應生成的圖像和原始圖像的混合輸入。即新生成的圖像與原始MX圖像被混合輸入到微調后的嵌入ECA模塊的ResNet50模型中,利用預訓練的模型權重,通過卷積層、池化層和ECA注意力機制模塊提取圖像特征,最終通過全局平均池化和全連接層進行分類,得到苗繡分類結果。
2.2 苗繡分類器ECA-ResNet50介紹
該模型的關鍵部分是將ECA注意力機制嵌入到ResNet50的殘差塊中,以提升模型的特征提取能力。具體來說,ECA模塊被嵌入在每個殘差塊的ReLU激活函數之后,通過對每個通道進行加權,增強重要特征的表達。ECA模塊通過全局平均池化(GAP)和一維卷積(Conv1D)實現對通道注意力的高效捕捉。首先,對輸入特征圖進行全局平均池化,得到每個通道的全局描述,然后通過一維卷積操作實現通道間的交互,最后通過Sigmoid激活函數生成注意力權重,并將這些權重應用于原始特征圖上,從而增強重要通道特征,抑制不重要通道特征。
在具體實現上,將預訓練的ResNet50模型中的每個瓶頸層(Bottleneck)替換為帶有ECA模塊的增強版瓶頸層。原始的瓶頸層由多個卷積層和批歸一化層組成,在這些層之后嵌入ECA模塊,使得每個瓶頸層在提取空間特征的同時,還能動態調整通道的重要性。
改進后的瓶頸層結構如下:
1)輸入特征圖經過多個卷積層和批歸一化層的處理。
2)在ReLU激活函數之后,特征圖進入ECA模塊,通過全局平均池化和一維卷積生成注意力權重。
3)將注意力權重應用于特征圖,增強關鍵特征。
4)將原始輸入特征圖通過殘差連接與增強后的特征圖相加,緩解梯度消失問題。
5)最后經過ReLU激活函數,輸出處理后的特征圖。
通過這種方式,ECA模塊能夠在保持網絡深度和復雜度的同時,進一步提升模型對重要特征的學習效率和精確度。在ECA-ResNet50中,每個殘差塊經過上述改進,使得整個模型在特征提取過程中更加高效,嵌入ECA模塊前后Bottleneck block結構如圖4所示。這種嵌入方式的優勢在于,通過局部的卷積操作實現了對通道注意力的高效捕捉,同時避免了全連接層帶來的大量參數開銷,適用于各種深層卷積神經網絡。
3 實驗設置
3.1 實驗數據集及參數
本文使用的苗繡數據集主要通過實地調研貴州省黔東南苗族侗族自治州臺江縣的苗族村落獲得。研究團隊在走訪過程中用手機拍攝收集了這些數據,確保了數據的真實性和多樣性,下面將該苗繡數據集稱為MX,其包含九個類別,分別是板絲繡、辮繡、堆繡、打籽繡、破線繡、梳繡、雙針繞線繡、錫繡和皺繡,共計1 970張圖片,各類苗繡的典型圖片如圖5所示,MX數據集訓練和測試集按照8∶2的比例劃分,具體樣本數量如表2所示。
此外,將經過StyleGAN2模型擴充后的數據集命名為MX-A,即在MX訓練集中為每類苗繡增加了600張圖片。擴充生成的苗繡圖片如表3所示,具體類別數量及擴充率如表4所示。
StyleGAN2-ECA-ResNet50模型運行實驗環境為Linux操作系統,CUDA版本為11.3,軟件編程環境為Python 3.9.7,使用的深度學習框架為PyTorch 1.10.1,使用的顯卡為英偉達 GeForce RTX 2080 Ti,顯存為11 GB。模型訓練epoch設置為30,批量大小設置為32。
3.2 實驗評價指標
為了對StyleGAN2-ECA-ResNet50模型性能進行評估,采用準確率(Accuracy)、精確率(Precision)、召回率(Recall)和F1分數(F1 Score)四個指標作為實驗的評估標準。計算式如下所示:
(11)
(12)
(13)
(14)
如表5所示,TP(True Positive)表示真正類的正確預測數,TN(True Negative)表示真負類的正確預測數,FP(False Positive)表示負類被錯誤預測為正類的數目,FN(False Negative)表示正類被錯誤預測為負類的數目。
4 結果與分析
4.1 消融實驗
為了評估數據增強方法StyleGAN2和ECA注意力機制在ResNet50模型中的有效性,在上述自己構建的苗繡數據集上進行消融實驗。逐步將StyleGAN2和ECA注意力機制引入到ResNet50網絡中得到StyleGAN2-ResNet50以及將StyleGAN2和ECA注意力機制共同添加到ResNet50網絡中得到StyleGAN2-ECA-ResNet50模型,并將它們與原ResNet50模型進行對比,實驗結果如表6所示。
由表5可知,通過遷移學習后重訓練的ResNet50模型顯示出了基本的性能水平,其準確率為83.42%,精確度為84.74%,召回率為82.53%,F1得分為83.53%。這一結果為后續的技術增強提供了基準,具體如下:
1)引入StyleGAN2后的模型StyleGAN2-ResNet50,其性能得到了顯著提升。具體而言,模型的準確率提高到85.71%,精確度提高到87.98%,召回率提高到85.58%,F1得分提高到86.52%。這一顯著提升表明,StyleGAN2對模型的特征提取和圖像理解能力有極大的增強作用。
2)同時采用StyleGAN2和ECA注意力機制的模型StyleGAN2-ECA-ResNet50展現了最佳性能,準確率高達89.29%,相比于ResNet50模型提升了5.87%,精確度為89.88%,召回率為88.54%,F1得分為88.96%。這表明兩種技術的結合存在協同效應,共同推動了模型性能的極大提升。
整體上看,這些消融實驗結果清楚地展示了不同技術組合在提高模型性能方面的有效性和潛力。特別是StyleGAN2和ECA的結合,在所有評估指標上都表現出最優性能,證實了多技術集成的策略在復雜模型優化中的重要價值。同時,這也證明了StyleGAN2數據增強方法和ECA注意力機制在ResNet50網絡中的有效性。
4.2 對比實驗
為進一步評估StyleGAN2-ECA-ResNet50模型的性能,在同等實驗條件下,將其與當前領域內一些表現卓越的模型進行了對比分析,包括EfficientNetB0、MobileNetV2、DenseNet121和VGG16。這些模型在MX數據集上的分類表現如表7所示。
通過一系列綜合性能指標的評估,包括準確率、精確度、召回率和F1分數。本文模型(StyleGAN2-ECA-ResNet50)表現出了卓越的性能,其準確率高達89.29%,精確度為89.88%,召回率為88.54%,F1分數為88.96%,除了精確率略低于模型VGG-16外,其余指標均高于其他對比模型。各模型在苗繡測試集上的準確率變化曲線如圖6所示。
總體而言,本文模型(StyleGAN2-ECA-ResNet50)顯現出了在精確性和泛化能力上的顯著優勢。尤其在準確率和召回率上,模型展示了它在正確識別和減少誤判方面的強大能力,確保了對苗繡圖像細膩特征的高度敏感性和識別準確性。這些成果不僅驗證了該模型在圖像分類領域的強大應用潛力,也為未來圖像處理技術的研究和實際應用提供了寶貴的參考和啟示。
5 結 論
本文提出了一種新穎的苗繡圖像生成識別模型StyleGAN2-ECA-ResNet50。通過利用StyleGAN2生成技術,顯著擴展了苗繡圖像數據集,不僅有效解決了苗繡樣本量不足的問題,為ResNet50分類模型提供了豐富且多樣的訓練樣本,同時還為苗繡的設計提出了一種AI解決的方式——苗繡圖像生成。通過添加ECA注意力機制,使得ResNet50能夠有效地處理不同層次的圖像信息,降低了分類難度,顯著提升了苗繡圖像的分類精度,這也進一步推動了苗繡作品的數字化保護。展望未來,計劃進一步優化生成模型,以產生更高質量的圖像,從而從源頭上解決數據質量問題。此外,本文提出的圖像生成與分類框架也可應用于更廣泛的小樣本圖像分類任務中,例如侗族服飾分類、瑤族刺繡分類、蒙古族節日圖像分類等。
參考文獻:
[1] 耿心入.貴州苗繡色彩與野獸主義繪畫色彩對比分析 [J].文藝爭鳴,2024(7):194-197.
[2] 劉文良,黃潔.數字時代苗繡智慧化傳承的困惑與破解路徑研究 [J].家具與室內裝飾,2023,30(1):68-74.
[3] 代永琪,彭莉,謝乃鵬.數字賦能:基于視覺Transformer的非遺苗繡紋樣數字化提取 [J].絲綢,2024,61(7):14-24.
[4] 王建萍,周玉瑩,虞倩雯,等.基于智能繡花機的數碼仿真縐繡研發和工藝參數研究 [J].絲綢,2024,61(7):47-54.
[5] 陳世婕,王衛星,彭莉.基于多尺度網絡的苗繡繡片紋樣分割算法研究 [J].計算機技術與發展,2023,33(11):149-155.
[6] 田玉晶,薛凱文,崔齊,等.貴州遵義苗繡紋樣的數字化生成研究 [J].東華大學學報:社會科學版,2023,23(2):49-58.
[7] CHEN H X,LI H X,LI Y H,et al. Multi-level Metric Learning for Few-Shot Image Recognition [C]//Artificial Neural Networks and Machine Learning(ICANN 2022).Bristol:Springer International Publishing,2022:243-254.
[8] LI X,SONG K,LIN T,et al. PDAMeta: Meta-Learning Framework with Progressive Data Augmentation for Few-Shot Text Classification [C]//2024 Joint International Conference on Computational Linguistics, Language Resources and Evaluation(LREC-COLING 2024).Torino:ELRA and ICCL,2024:12668-12678.
[9] SONG Y S,WANG T,MONDAL S K,et al. A Comprehensive Survey of Few-Shot Learning: Evolution, Applications, Challenges, and Opportunities [J/OL].arXiv:2205.06743 [cs.LG].(2022-05-13).https://arxiv.org/abs/2205.06743v1.
[10] TAN M X,LE Q V. EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks [C]//International Conference on Machine Learning.Taiyuan:IMLS,2019:6105-6114.
[11] SANDLER M,HOWARD A,ZHU M L,et al. MobileNetV2: Inverted Residuals and Linear Bottlenecks [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City:IEEE,2018:4510-4520.
[12] HUANG G,LIU Z,MAATEN L V D,et al. Densely Connected Convolutional Networks [C]//2017 IEEE Conference on Computer Vision and Pattern Recognition(CVPR).Honolulu:IEEE,2017:2261-2269.
[13] SIMONYAN K,ZISSERMAN A. Very Deep Convolutional Networks for Large-scale Image Recognition [J/OL].arXiv:1409.1556 [cs.CV].(2014-09-04).https://arxiv.org/abs/1409.1556.
[14] KARRAS T,LAINE S,AITTALA M,et al. Analyzing and Improving the Image Quality of StyleGAN [C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).Seattle:IEEE,2020:8107-8116.
[15] KARRAS T,LAINE S,AILA T. A Style-based Generator Architecture for Generative Adversarial Networks [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2021,43(12):4217-4228.
[16] WANG Q L,WU B G,ZHU P F,et al. ECA-Net: Efficient Channel Attention for Deep Convolutional Neural Networks [C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).Seattle:IEEE,2020:11531-11539.
[17] 孟偉,袁藝琳.遷移學習應用于新型冠狀病毒肺炎診斷綜述 [J].計算機科學與探索,2023,17(3):561-576.
[18] IMAN M,RASHEED K,ARABNIA H R. A Review of Deep Transfer Learning and Recent Advancements [J/OL].arXiv:2201.09679 [cs.LG].(2022-01-19).https://arxiv.org/abs/2201.09679?context=cs.CV6.
[19] TIAN S I P,REN Z,VENKATARAJ S,et al. Tackling Data Scarcity with Transfer Learning: A Case Study of thickness Characterization from Optical Spectra of Perovskite Thin Films [J/OL].arXiv:2207.02209 [cs.LG].(2022-06-14).https://arxiv.org/abs/2207.02209.
作者簡介:吳菁(1988.05—),女,苗族,貴州貴陽人,副教授,碩士生導師,博士,研究方向:檢測技術與自動化裝置;楊邦勤(1999.10—),女,漢族,貴州黎平人,碩士在讀,研究方向:海量數據統計與分析;張銀建(1998.09—),男,漢族,貴州織金人,碩士在讀,研究方向:海量數據統計與分析;李明珠(1983.03—),女,漢族,海南臨高人,副教授,碩士,研究方向:智能檢測與智能控制、軟測量建模;通信作者:陳妍(1987.09—),女,漢族,貴州遵義人,博士在讀,研究方向:苗繡圖像識別研究與可視化。
DOI:10.19850/j.cnki.2096-4706.2025.02.005
收稿日期:2024-09-02
基金項目:貴州省科技計劃項目(黔科合基礎-ZK〔2021〕一般340);貴州省教育廳自然科學研究項目(黔教技〔2023〕061號);貴州省教育廳自然科學研究項目(黔教技〔2023〕012號);貴州省教育廳自然科學研究項目(黔教技〔2022〕047號);貴州民族大學博士科研啟動項目(GZMUZK〔2024〕QD11)