









摘要:針對小樣本多層次文本數據具有高度復雜性和多樣性的特點,提出了一種基于ERNIE-Attention BiGRU-Multi-Channel CNN With Dilated Conv文本分類模型.該模型融合了ERNIE的語言表示能力、局部注意力增強的BiGRU以及帶空洞卷積的多通道CNN.利用帶局部注意力機制的BiGRU模型可以更好的提取出全局特征文本特征,利用帶空洞卷積的多通道CNN可以提取出文本的局部特征信息.最后,將提取到的兩部分特征通過拼接融合后作為多個全連接層的輸入,計算分類結果.實驗結果表明,該模型在自建數據集上相較于第二優的模型分類的準確率、Micro-F1 和Macro-F1分別提高了5.31%、1.19%和9.1%,測試集損失率為0.016,時間降低了0.69 ms,并且在公共數據集中,測試集的準確率依然能夠保證88.21%,損失率為0.015.在小樣本多層次分類領域中取得了良好的效果.
關鍵詞:小樣本多層次;ERNIE模型;BiGRU神經網絡;多通道空洞卷積;深度學習
中圖分類號:TP391.1;TP183文獻標志碼:A
Small Sample Multi-level Classification Method Based on EABMD
SHEN Yongkang, ZHU Quanyin, SUN Jizhou, SHI Yuquan, LIU Chuhan
(School of Computer and Software Engineering, Huaiyin Institute of Technology, Huai’an 223001, China)
Abstract: In view of the high complexity and diversity of small-sample multi-level text data, we propose a text classification model based on ERNIE-Attention BiGRU-Multi-Channel CNN with Dilated Conv. This model integrates the linguistic representation capability of ERNIE, the local attention-enhanced BiGRU, and the multi-channel CNN with dilated convolution. The BiGRU model with local attention mechanism is utilized to better extract global textual features, while the multi-channel CNN with dilated convolution is employed to capture the local features of the text. Subsequently, the features extracted from these two parts are concatenated and fed into multiple fully connected layers to compute the classification results. Experimental results demonstrate that, on a custom dataset, our model outperforms the second-best model in terms of accuracy, Micro-F1, and Macro-F1 by 5.31%, 1.19%, and 9.1% respectively, with a test set loss rate of 0.016 and a time reduction of 0.69 ms. Moreover, on public datasets, the accuracy of the test set still reaches 88.21% with a loss rate of 0.015. Our model has achieved commendable results in the field of small-sample multi-level classification.
Key words: small sample; ERNIE model; BiGRU neural network; Multi-channel dilated convolution; deep learning
1概述
小樣本多層次的文本分類問題成為自然語言處理領域的一個重要挑戰[1].在自然語言處理(NLP)領域,深度學習技術在許多領域,包括文本分類在內,已經顯示出巨大的潛力[2].特別是在處理具有復雜結構和多標簽特性的文本數據時,深度學習技術提供了新的解決方案.
深度學習技術,尤其是卷積神經網絡(CNN)、遞歸神經網絡(RNN)及其變體如長短期記憶網絡(LSTM)和雙向門控循環單元(BiGRU)等,已在處理標準文本分類問題中取得顯著成就.然而,這些模型在處理特定應用領域的長文本和復雜多標簽數據時,仍存在一定的局限性.為了解決這些挑戰,研究者們探索了不同的模型結構組合[3].BiGRU和CNN的結合在中文文本分類中顯示出良好的性能,證明了不同深度學習技術結合的有效性[4].此外,注意力機制的引入也為長文本分類提供了新的視角[5].這些模型能夠有效捕捉文本中的局部特征和長期依賴關系,提高分類的準確性和效率.然而,在小樣本多層次的場景中,如何有效利用這些深度學習模型仍是一個待解決的問題[6].小樣本條件下的數據稀缺和多層次結構的復雜性,使得模型訓練變得更加困[7].
為了提高小樣本多層次文本數據分類的準確性和效率,提出了一種基于ERNIE-Attention BiGRU-Multi-Channel CNN With Dilated Conv的深度學習模型(簡稱EABMD模型).針對小樣本多層次的文本分類任務,EABMD模型結合了ERNIE的預訓練語言表示能力、BiGRU的雙向序列處理優勢以及CNN的局部特征提取效率,旨在有效處理復雜且多層次的小樣本文本數據.
2相關工作
伴隨著深度學習和自然語言處理技術的迅速發展,文本分類方法經歷了從傳統機器學習技術到復雜神經網絡模型的重大轉變[8].本節回顧和分析現有的各種文本分類技術,為我們提出的EABMD模型奠定基礎.
2.1深度學習技術在文本分類中的應用
傳統的文本分類方法依賴于統計模型和手工特征值[9],例如支持向量機(SVM)和樸素貝葉斯分類器和K鄰近算法.這些方法在處理結構簡單的文本數據時效果良好[10],然而,它們在處理復雜或多層次的文本數據時常常受限[11].
深度學習技術中的CNN和RNN,已經成為處理復雜文本數據的關鍵工具.CNN憑借其強大的特征提取能力,能夠識別文本中的局部特征能力.而RNN,包括其變體LSTM(長短期記憶網絡)和GRU(門控循環單元),則能有效捕獲文本中的時間序列信息[12].這些技術的結合使得深度學習模型能夠更加準確和高效地處理文本分類任務.Deng提出了一種用于中文長文本分類的模型,利用注意力機制的BiLSTM和CNN提高了分類的準確率[13].Liu等通過改善標簽嵌入的質量,提高了識別復雜文本結構中的有效性[14].Guo等通過有效地捕捉文本和標簽之間的關聯關系,提高了分類準確性[15].
傳統的深度學習模型在小樣本學習和多層次分類任務中的表現通常不足.為應對這些挑戰,研究者們采用了一系列技術,如預訓練語言模型、遷移學習和數據增強方法[16],以提高模型在復雜任務中的性能.
2.2小樣本多層次分類的技術進展
小樣本學習和多層次分類是近年來自然語言處理領域的研究熱點.小樣本學習關注于如何在有限的數據集上進行有效學習,而多層次分類則著眼于對文本進行更細致的層級分類和結構化處理[17].針對這些挑戰,深度學習領域出現了多種創新方法.例如,預訓練語言模型如BERT和ERNIE通過在大量文本上預先學習語言的深層特征,提高了模型在特定任務上的泛化能力[18-19].Ishikiriyama等使用文本挖掘技術,在商業智能中發掘了少量文本數據,這對未來的商業發展具有的深層意義[20].Wang等利用復雜的少量驗證碼樣本,解決了實際生活中的快速識別驗證碼問題[21].Liu等在多層次文本分類中通過全局敏感GAT改善了標簽嵌入質量[22].
雖然現有研究在文本分類領域取得了一定的成果,但如何有效整合不同深度學習技術以提升分類精度和效率仍是一個待解決的問題.鑒于此,本文提出了一種新型的ERNIE-Attention BiGRU-Multi-Channel CNN With Dilated Conv,即EABMD模型,彌補了在特定行業應用深度學習模型時的空白,適應了多樣化的文本分類需求.
3分類模型架構
本文提出的EABMD模型集成了ERNIE的深度中文文本語義理解能力、局部注意力增強的BiGRU的全局處理優勢(Attention BiGRU)、帶空洞卷積的多通道CNN(Multi-Channel CNN With Dilated Conv)局部特征提取效率以及多層全連接層的有效整合.以下內容將詳細闡述模型的每個組成部分,以及它們如何共同作用于提高多層次文本分類的準確率和效率.
3.1整體架構
EABMD模型結合了深度語義編碼、序列模式識別和局部特征提取的先進技術,旨在提高文本分類的準確性.整體架構分為四個主要部分:文本表示層、特征提取層、增強特征融合層和輸出層.模型的整體框架圖如圖1所示.
在文本表示層,模型利用ERNIE進行深度語義嵌入,將原始文本轉換為豐富的向量表示,這一步驟捕捉了文本的基本語義信息.在特征提取層,通過Attention BiGRU捕獲序列的前后文依賴關系并聚焦于當前任務最關鍵的信息,而Multi-Channel CNN With Dilated Conv用于提取不同尺度的局部特征,這些特征對于理解文本的細粒度語義至關重要.在增強特征融合層,模型通過拼接結合了Attention BiGRU和Multi-Channel CNN With Dilated Conv層的特征輸入到全連接層,它進一步整合了融合的特征,并進行了適當的變換,以適應最終的分類任務.最后,在輸出層,即模型的決策制定中心,模型通過激活函數產生了多層次標簽分類的概率輸出.
EABMD模型在自建數據集和公共數據集上的實驗中都顯示出了卓越的性能,證明了其在小樣本多層次分類應用領域的有效性和可行性.
3.2文本表示層
在EABMD模型中,文本表示層采用了ERNIE(Enhanced Representation through Knowledge Integration).ERNIE的核心思想是通過融合傳統的語言模型訓練和外部知識(如實體識別和語義理解)來提升模型對自然語言的理解.
相對于BERT(Bidirectional Encoder Representation from Transformers)和其他預訓練語言模型,ERNIE的主要創新在于它的訓練機制.ERNIE通過層級化的預訓練任務來綜合不同級別的語言信息,從單詞和短語到整個句子的結構.這有助于模型理解更復雜的語言結構和語義關系,特別是在處理多層次文本分類任務時.BERT的掩碼策略通常會隨機選擇句子中的某些詞,如一個或多個字進行掩碼處理.相比BERT,ERNIE可能會選擇掩碼整個短語或實體,而不是單獨的詞.這有助于模型學習更深層次的語義關系,BERT掩碼機制如圖2所示,ERNIE掩碼機制如圖3所示.
BERT更傾向于隨機掩碼單個詞,而ERNIE則考慮更多的語義信息,選擇掩碼更大的語言單位,例如整個短語或實體.這種差異反映了兩者在預訓練策略上的不同焦點,進而影響它們在理解復雜文本時的性能.
3.3特征提取層
在深度學習自然語言處理研究中,特征提取層的設計至關重要.這一層的主要任務是從原始文本數據中提取重要的特征,為后續的分類任務提供必要的信息支持.在EABMD模型中,通過結合Attention BiGRU和Multi-Channel CNN With Dilated Conv的特征提取層設計來進行特征提取.
3.3.1Attention BiGRU
GRU(Gated Recurrent Unit)是一種高效的循環神經網絡單元,它通過更新門和重置門這兩個關鍵的門控機制來管理信息的流動,這使得它特別適合處理序列數據,如文本.GRU單元的核心功能是在每一個時間步驟中,決定要從歷史信息中保留多少并且要引入多少新信息.更新門(zt)控制著隱藏狀態(ht)保留多少過去的信息,而重置門(rt)決定了多少過去的信息將被忽略,允許模型在每個時間步驟“忘記”或“記住”信息,GRU結構圖如圖4所示.
BiGRU(雙向門控循環單元網絡)由前向GRU 與后向GRU 組合而成,這種結構不僅捕捉從左到右的信息,同時也捕捉從右到左的信息,這使得每個時間步的隱藏狀態Ht包含了當前詞元的前后文信息,這種全面的理解提高了模型處理復雜語義問題的能力.Ht的計算公式為Ht=htht,其中ht和ht分別是在時間步t的前向隱藏狀態和后向隱藏狀態.
本研究中,進一步通過集成局部注意力機制來增強BiGRU層,使之能夠更加有效地識別和利用序列中的關鍵信息.這一改進的模塊被稱為Attention BiGRU,結構如圖5所示.
Attention BiGRU利用雙向GRU捕捉序列數據的前向和后向信息,同時,通過引入注意力機制,模型能夠為序列中的每個元素分配一個權重,這些權重反映了每個元素對于序列處理任務(如分類、預測)的重要性.注意力機制的加入使得模型能夠自適應地關注于那些對當前任務最具信息量的序列部分.
Attention BiGRU模塊首先通過一個全連接層將BiGRU的每個時間步輸出轉換為一個注意力得分,t時刻注意力得分計算公式如下:
at=expql×ht∑lt′=1expql×ht′(1)其中ht為t時刻BiGRU的輸出,q為注意力機制動態查詢向量,l為輸入序列的總長度.
然后,根據得到的注意力權重,對所有時間步的隱藏狀態進行加權求和,生成一個加權的序列表示,該表示捕獲了序列中對當前任務最重要的信息,計算公式如下:
ct=∑lt=1at×ht(2)
通過集成局部注意力機制,Attention BiGRU不僅能夠有效處理序列數據,還能自適應地關注于序列中最具判別力的部分,從而提高了整體模型在小樣本多層次分類任務中的性能和泛化能力.
3.3.2Multi-Channel CNN With Dilated Conv
在EABMD模型中,通過引入多通道卷積神經網絡(CNN)結合空洞卷積(Dilated Convolution)的策略,旨在從Attention BiGRU模塊提取的特征表示中捕獲更為復雜和精細的局部特征信息,同時擴大模型的感受野,以捕捉更廣泛的上下文依賴.
空洞卷積(Dilated Convolution)是一種擴展了卷積核作用范圍的卷積形式,允許網絡在不增加參數數量和計算復雜度的情況下,增加感受野.通過引入空洞率(Dilation Rate)參數,空洞卷積在卷積核的元素之間插入空格,使得卷積核覆蓋的輸入數據區域更廣.
Multi-Channel CNN With Dilated Conv模塊采用三個并行的卷積通道,每個通道都應用了不同空洞率的空洞卷積層.這種設計允許模型同時捕獲不同尺度的上下文信息,增強模型對文本特征的理解和分類能力.卷積的輸出特征將通過一個注意力機制加權融合,該機制動態調整每個通道輸出的重要性.通過這種方式,模型能夠自適應地關注對當前分類任務最有用的特征表示,三卷積的加權融合公式如下:
αi=exp(wi)∑3j=1exp(wj)(3)
M=∑3i=1αi×Ci(4)
其中wi為第i個卷積未歸一化的加權融合權重,αi和Ci分別為第i個卷積的加權融合權重和特征輸出.通過Multi-Channel CNN With Dilated Conv模塊的設計,EABMD模型能夠有效地從文本數據中提取多尺度的特征,提高分類性能,尤其是在小樣本多層次分類問題上
3.4增強特征融合層
在EABMD模型的增強特征融合層中,全連接層的序列被設計用于處理來自模型不同部分的特征信息.這一層包含了三個全連接層,每個全連接層后都緊跟著一個ReLU激活函數和一個Dropout層.這種結構設計旨在平衡特征的線性變換和非線性表達,同時通過Dropout減少模型對特定訓練樣本的過度擬合,增強模型的泛化能力.
全連接層的線性變換能夠將從ERNIE、Attention BiGRU和Multi-Channel CNN With Dilated Conv層提取的特征進行有效的整合和線性加工.
全連接層輸出之后的ReLU激活函數為模型引入非線性激活函數,使其能夠捕獲和表達更為復雜的數據模式.此外,Dropout層的引入增加了模型處理不同數據時的穩定性和健壯性.在這個層級中,全連接層第i層的輸出公式如下:
h′=ReLUWi*hfci-1+bi(5)
hfci=Dropout(h′,p=0.2)(6)
其中i∈[1,3],hfc0是特征提取層初始輸入特征,Wi和bi分別是第i個全連接層的權重矩陣和偏置項,h′是經過線性激活函數后的結果,最終輸出結果y為:
y=Sigmoid(hfc3)(7)
4實驗
實驗所使用的環境為:CPU為Xeon(R) Silver 4214R,GPU 為RTX 3080 Ti,內存為12 GB,操作系統為ubuntu(20.04),Python版本為3.8,深度學習框架為PyTorch(2.00).
4.1實驗數據
本研究的實驗數據來源于化工廢棄物企業簡介文本數據集和公共數據集Baidu_Extract_2020.Baidu_Extract_2020數據集由百度公司發布,是從百度的搜索引擎和百度百科中提取的,包含了13 456條中文多層次文本數據,它通常用于自然語言處理和機器學習研究,特別是在中文語境中.另一方面,通過網絡爬蟲技術從百度百科網站爬取了41 000條化工廢棄物企業的詳細信息文本數據作為自采集實驗數據,首先對收集到的化工企業詳細信息數據進行數據清洗、預處理.
使用半監督學習方式對數據進行實驗.將企業文本數據進行人工標注,按照訓練集∶驗證集∶測試集=7∶2∶1的比例劃分數據,28 700條用于模型訓練,8 200條用于驗證模型效果,4 100條用于測試模型效果.再將訓練集數據劃分為有標簽數據和無標簽數據,其中有標簽數據∶無標簽數據=1∶1,各有14 350條文本數據.
根據國家市場監督管理總局發布的文件《廢棄固體化學品分類規范》和《國標廢棄液體化學品分類規范》可將廢棄物化工品分為廢棄液體和廢棄固體,其中廢棄液體包含6大類58小類,廢棄固體包含8大類39小類.
因此,將以此國家標準進行分類類別實驗,每大類分類規范如表1所示.
4.2實驗參數設置
EABMD模型使用了內置Sigmoid的BCEWithLogitsLoss損失函數,空洞卷積的擴張率分別為1、2和4,卷積核的大小都為3,模型實驗超參數的設置如表2所示.
4.3實驗結果及分析
為了驗證化工企業分類模型的有效性,采用準確率(Accuracy)、Micro-F1和Macro-F1、損失率(Loss)和測試時間作為實驗評價標準[23-25],各指標的定義公式分別如下所示,模型分類結果如表3所示.
Accuracy=TP+TNTP+TN+FP+FN(8)
Micro-F1=2*TP2*TP+FP+FN(9)
Macro-F1=1N∑Ni=1F1i(10)
Lpos=∑Ni=1yi*logσxi(11)
Lneg=∑Ni=1(1-yi)*logσxi(12)
Loss=-1N(Lpos+Lneg)(13)
其中Lpos是正類的損失部分,Lneg是負類的損失部分,σ(xi)是第i個樣本應用Sigmoid函數的結果,其公式為:
σxi=11+e-xi(14)
實驗結果可以看出本文EABMD模型比其他模型效果好,表明該模型的優越性.由實驗結果可見混合模型的準確度比單模型的準確度高,驗證了混合模型增強特征提取的能力.改進后的EABMD模型準確率、Micro-F1 和Macro-F1分別比Ernie+DPCNN的模型提高了5.31%、1.19%和9.1%,測試時間降低了0.69 ms.可得EABMD模型能夠增強模型對局部特征和全局特征的提取,進而提高分類的準確度.
Baidu_Extract_2020公共數據集共分為兩層,第一層9類,第二層65類.同樣按照訓練集∶驗證集∶測試集=7∶2∶1的比例劃分數據,其中訓練集9 419條,驗證集2 691,測試集1 346條.Baidu_Extract_2020公共數據集實驗結果實驗結果如表4示.
由表4可以看出本文提出的 EABMD模型分類效果最佳.該模型與Ernie+CNN、Ernie+BiGRU和Ernie+DPCNN等算法相比準確率、Micro-F1和Macro-F1值分別提高了3.96%~5.89%、0.75%~1.95%、2.19%~9.21%,時間降低了0.02~0.88 ms.因此EABMD模型可以有效提取文本特征并且增強關鍵特征,對不同數據集都具有泛化能力,進一步提高文本的語義理解能力.
5結束語
本文提出了一種基于EABMD模型的小樣本多層次文本分類方法.該方法結合了ERNIE的強大語言表示能力、局部注意力機制增強的BiGRU時序特征捕獲能力,以及多通道空洞卷積網絡的高效空間特征提取能力,旨在解決小樣本條件下多層次分類任務的挑戰.
實驗結果表明,相較于傳統的文本分類方法,EABMD模型在化工廢棄物企業文本數據集和公共數據集Baidu_Extract_2020實現了顯著的性能提升.EABMD模型的成功實現和實驗驗證展示了深度學習在小樣本多層次分類任務中的巨大潛力.今后的研究工作將進一步優化模型結構和訓練過程以適應更多樣化的數據集和復雜的小樣本多層次分類任務.
[參考文獻]
[1]趙凱琳,靳小龍,王元卓.小樣本學習研究綜述[J].軟件學報,2021,32(2):349-369.
[2]MOHAMMED H H,DOGDU E,GRR A K,et al.Multi-label classification of text documents using deep learning[C]//2020 IEEE International Conference on Big Data (Big Data).IEEE,2020:4681-4689.
[3]ISLAM M S,ISLAM M N,HASHIM N,et al.New hybrid deep learning approach using BiGRU-BiLSTM and multilayered dilated CNN to detect arrhythmia[J].IEEE Access,2022,10:58081-58096.
[4]LIU J,YANG Y,LV S,et al.Attention-based BiGRU-CNN for Chinese question classification[J].Journal of Ambient Intelligence and Humanized Computing,2019:1-12.
[5]王春東,孫嘉琪,楊文軍.基于矯正理解的中文文本對抗樣本生成方法[J].計算機工程,2023,49(2):37-45.
[6]LU G,LIU Y,WANG J,et al.CNN-BiLSTM-Attention:A multi-label neural classifier for short texts with a small set of labels[J].Information Processing amp; Management,2023,60(3):103320.
[7]MATYKIEWICZ P,PESTIAN J.Effect of small sample size on text categorization with support vector machines[C]//BioNLP:Proceedings of the 2012 Workshop on Biomedical Natural Language Processing.2012:193-201.
[8]KOWSARI K,JAFARI MEIMANDI K,HEIDARYSAFA M,et al.Text classification algorithms:A survey[J].Information,2019,10(4):150.
[9]JOACHIMS T.A statistical learning model of text classification for support vector machines[C]//Proceedings of the 24th annual international ACM SIGIR conference on Research and development in information retrieval,2001:128-136.
[10]KOTSIANTIS S B,ZAHARAKIS I,PINTELAS P.Supervised machine learning:A review of classification techniques[J].Emerging artificial intelligence applications in computer engineering,2007,160(1):3-24.
[11]MOSCHITTI A,BASILI R.Complex linguistic features for text classification:A comprehensive study[C]//European conference on information retrieval.Berlin,Heidelberg:Springer Berlin Heidelberg,2004:181-196.
[12]CHO K,VAN MERRIENBOER B,GULCEHRE C,et al.Learning phrase representations using RNN encoder-decoder for statistical machine translation[C]//Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP).Association for Computational Linguistics,2014:1724.
[13]DENG J,CHENG L,WANG Z.Attention-based BiLSTM fused CNN with gating mechanism model for Chinese long text classification[J].Computer Speech amp; Language,2021,68:101182.
[14]LIU B,ZHOU Y,SUN W.Character-level text classification via convolutional neural network and gated recurrent unit[J].International Journal of Machine Learning and Cybernetics,2020,11:1939-1949.
[15]GUO H,LI X,ZHANG L,et al.Label-aware text representation for multi-label text classification[C]//ICASSP 2021-2021 IEEE International Conference on Acoustics,Speech and Signal Processing (ICASSP).IEEE,2021:7728-7732.
[16]ZHONG X,BAN H.Pre-trained network-based transfer learning:A small-sample machine learning approach to nuclear power plant classification problem[J].Annals of Nuclear Energy,2022,175:109201.
[17]WANG B,SHAN D,FAN A,et al.A sentiment classification method of web social media based on multidimensional and multilevel modeling[J].IEEE Transactions on Industrial Informatics,2021,18(2):1240-1249.
[18]KENTON J D M W C,TOUTANOVA L K.BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding[C]//Proceedings of NAACL-HLT.2019:4171-4186.
[19]ZHANG Z,HAN X,LIU Z,et al.ERNIE:Enhanced language representation with informative entities[C]//Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics.2019:1441-1451.
[20]ISHIKIRIYAMA C S,MIRO D,GOMES C F S.Text mining business intelligence:A small sample of what words can say[J].Procedia Computer Science,2015,55:261-267.
[21]WANG Y,WEI Y,ZHANG M,et al.Make complex captchas simple:a fast text captcha solver based on a small number of samples[J].Information Sciences,2021,578:181-194.
[22]LIU H,HUANG X,LIU X.Improve label embedding quality through global sensitive GAT for hierarchical text classification[J].Expert Systems with Applications,2024,238:122267.
[23]CHICCO D,JURMAN G.The advantages of the Matthews correlation coefficient (MCC) over F1 score and accuracy in binary classification evaluation[J].BMC genomics,2020,21(1):1-13.
[24]BANERJEE S,AKKAYA C,PEREZ-SORROSAL F,et al.Hierarchical transfer learning for multi-label text classification[C]//Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics.2019:6295-6300.
[25]WANG X,YANG W,QIN B,et al.Intelligent monitoring of photovoltaic panels based on infrared detection[J].Energy Reports,2022,8:5005-5015.
[26]LIU H,CHEN Z,YU M,et al.Evaluation of the Relevance of Adverse Drug Reactions Based on ERNIE-DPCNN[C]//2023 IEEE 47th Annual Computers,Software,and Applications Conference (COMPSAC).IEEE,2023:1525-1529.
[責任編輯王光]