張凈 邵文文 劉曉梅 李賀亮 高躍 張軒誠



摘要:農作物葉部病害已經嚴重影響農作物的產量和質量,為提高農作物葉片病害識別的效果、減少經濟損失、提高種植者的收益,提出基于超圖的雙模態特征融合的農作物病害識別算法BimodalFINet。BimodalFINet由文本模態分支、圖像模態分支和超圖神經網絡構成。首先利用循環神經網絡和改進的卷積神經網絡構造圖像文本雙分支并行結構,提取語義特征信息和富含空間位置信息的特征表示,得到2種模態特征,然后利用特征融合方法實現各分支特征信息的互補與融合,得到包含更加豐富的病害雙模態特征信息。最后利用超圖神經網絡將上述融合后的雙模態特征信息進行編碼以獲得數據之間的相關性和數據表示,提升模型識別準確率。結果表明,BimodalFINet的文本模態分支TextRNN取得91.28%的識別準確率,圖像模態分支RexNext50-CA取得89.20%的識別準確率,相比于單個ResNext50模型提高了1.08百分點,聯合模態分支取得92.32%的識別準確率,相比于圖像和文本單模態模型分別提高了3.12百分點和1.04百分點,加入超圖后模型取得94.83%的識別準確率,相比于聯合模態模型提高了2.51百分點。嵌入超圖后的模型具有更好的特征提取能力,能夠為田間環境下農作物的病害識別提供有效技術支持。
關鍵詞:農作物病害;超圖神經網絡;卷積神經網絡;特征融合;雙模態
中圖分類號:TP391.41 文獻標志碼:A
文章編號:1002-1302(2023)15-0164-09
基金項目:國家重點研發計劃(編號:2019YFC1606600)。
作者簡介:張 凈(1975—),女,江蘇鎮江人,博士,副教授,碩士生導師,研究方向為計算機應用。E-mail:jszj08062000@163.com。
通信作者:邵文文,碩士研究生,研究方向為機器視覺。E-mail:355060863@qq.com。
現階段,農作物病害已經成為我國面臨的重大挑戰之一,隨著農業生產能力的不斷提升,生產環境隨之復雜化,在生產過程中遇到病害的情況也越加頻繁,對農作物的生長造成了非常嚴重的影響,從而加劇農作物食品安全問題[1-2]。隨著計算機技術的不斷進步,卷積神經網絡在眾多領域如圖像識別方面不斷取得新的突破,現階段眾多專家學者運用卷積神經網絡提取病害特征,從而幫助農業工作者識別診斷農作物病害,及時發現農作物病害的癥狀并作出預防措施[3-6]。Too等基于PlantVillage數據庫對VGG、ResNet、DenseNet和ResNext等卷積神經網絡進行評估,最終DenseNet達到了最佳的分類效果[7-11]。侯志松等提出一種基于集成學習的圖像分類模型,該模型平均準確率為96.9%,效果較好[12]。Hou等提出坐標注意力,該機制通過嵌入病害位置信息到通道注意力,在獲取更大范圍的病害信息的同時避免了較大開銷,性能較好[13]。
由于卷積神經網絡的相鄰輸入并無直接相關性,而語言又具有序列性,所以卷積神經網絡在語言識別領域中效果較差。循環神經網絡某一時刻v隱藏層的值是由v的輸入和v-1時的輸入所決定的,所以循環神經網絡適合序列數據的建模。Lai等提出一種基于循環神經網絡(RNN)的文本分類模型TextRNN,該模型利用RNN捕獲更長的序列信息,從而獲得更佳的識別效果[14]。
圖是不規則結構且蘊含豐富的信息,卷積神經網絡的卷積操作無法在圖結構上進行有效的計算,而圖神經網絡節點通過邊相連,將不同樣本(節點)之間的關系等信息進行有效和充分的表達,從而圖神經網絡能夠高效地利用樣本(節點)實例之間的結構性特征,但普通圖網絡邊的度僅被設置為2,不能建模數據之間的高階關系,Berge提出超圖理論并全面提出無相超圖理論,同時對普通圖和超圖進行比較:超圖是普通圖的重要擴展,普通圖僅能表現2個節點之間存在的相關性,而超圖中的邊即超邊能包含任意數量的節點并能表現多個節點之間存在的某種關系[15-16]。黃汝激提出有向超圖理論,并解釋分解超圖等概念[17]。Feng等提出超圖神經網絡(HGNN)框架,與普通圖結構邊的度被限制為2不同,超圖神經網絡可以使用無度超邊編碼數據之間的相關性并通過超邊卷積運算處理表示學習過程中的數據相關性,從而通過超圖神經網絡有效提升雙模態融合的效果,進而提升模型識別準確率[18]。
現階段大部分農作物病害識別模型都是基于圖像模態,但在使用圖像單模態進行農作物病害識別時,現有方法未能有效利用農作物病害描述文本信息,而人們根據相關農作物病害圖像作出的文本描述通常含有豐富的語義信息,其與圖像模態在描述病害信息中存在高度相關性和互補性,兩者的結合能融合2種模態之間的共性和特性,現如今已有相關學者對此進行探究,并充分挖掘雙模態甚至是多模態的潛力。本研究提出一種基于超圖的雙模態特征融合的農作物病害識別算法,將圖像模態、文本模態以及超圖神經網絡進行結合以改善現有農作物病害識別方法識別準確率低的問題。
1 農作物病害識別模型
1.1 病害圖像模態分支
本節將ResNext50-CA網絡作為特征提取模塊,模塊包括ResNext50和坐標注意力機制2個部分。ResNext是結合ResNet與Inception思想設計的特征提取網絡,采用殘差結構和多分路卷積,并引入分組卷積以解決Inception網絡需要專門設成不同結構導致參數量增多的問題,相同的構造不僅簡化了網絡,而且增強了模型的特征表達能力。為有效獲取長范圍依賴的信息,使模型更準確地定位并識別目標區域,本研究在ResNext50網絡中嵌入坐標注意力,見圖1-a。坐標注意力將通道注意力分為2個一維特征編碼過程,分別沿2個空間方向聚合特征,通過水平與垂直方向注意力圖不僅能捕獲特征的遠程依賴關系,還可以有效保持精準的位置信息,提高網絡識別目標的準確率。
圖1-b為嵌入坐標注意力機制前ResNext50網絡殘差模塊的結構圖,其中圖1-a(除虛線包含的部分)與圖1-b所示網絡嚴格等價。由圖1-b可知,每個分組結構都是采用1×1和3×3卷積操作組合而成,圖像首先經過1×1卷積層降低維度,降低后續卷積操作的計算量,然后通過3×3卷積層獲得相關特征信息,其次通過嵌入的坐標注意力機制捕獲特征遠程依賴關系以及精準的位置信息,再通過1×1卷積層升維,最后對每個分組的輸出進行加權計算。
如圖2所示,坐標注意力網絡主要包括2個部分,分別為坐標注意力生成和坐標信息嵌入。首先,對于輸入特征圖X分別設其長、寬和通道數為 H、W 和 C,先利用尺寸為 (H,1) 和 (1,W)的平均池化沿著水平和垂直方向對每1通道進行編碼,得到1對方向感知特征圖,此操作不僅能保存1個空間方向的精確位置信息,還能捕獲到沿著另一個空間方向的長期相關性,使網絡更加精準的定位感興趣的目標。然后,將上述生成的特征圖進行級聯,使用1個共享的1×1卷積層進行變換以對通道進行降維,并通過1個非線性激活層,得到具有垂直和水平方向空間信息的中間特征圖,圖2中r表示下采樣比例,用來控制模塊大小。其次,沿著空間維度將中間特征圖進行切分得到2個單獨的張量,利用2個1×1卷積層將切分的2個單獨張量變換到與輸入特征圖X相同的通道數,并用Sigmoid激活函數引入非線性,最后進行輸入-輸出殘差連接操作。
1.2 病害文本模態分支
TextRNN利用循環神經網絡的線性序列結構處理數據中的序列關系,但當序列較長時則會存在梯度消失問題,為解決這一問題,本研究選擇使用長短期記憶網絡(LSTM)對TextRNN中的循環單元進行改進。LSTM由3個門控(遺忘門、輸入門和輸出門)組成。遺忘門利用Sigmoid函數決定哪些信息會被遺忘。輸入門主要由Sigmoid層和Tanh層組成,輸入門先通過Sigmoid層決定哪部分數值需要更新,再通過Tanh層產生新的候選值向量并加入到細胞狀態當中,從而實現對狀態的更新。輸出門決定什么信息需要輸出,其主要利用Sigmoid函數來實現這一目的。然后利用Tanh層對細胞狀態進行處理,兩者相乘得到最終的輸出信息。由上述可知,LSTM通過其門控結構使得網絡在計算下一個單詞的輸出時,仍會考慮上一個單詞的輸出,實現有選擇地遺忘不需要的信息,有選擇地輸入輸出需要的信息,從而捕獲更為詳盡的長期與短期的文本特征。
文本模態分支結構見圖3,TextRNN首先將句子中的詞向量序列作為輸入逐個輸送到雙向LSTM中,該層可以實現信息有選擇地通過,其主要利用LSTM中的Sigmoid函數和點乘操作,并在單個LSTM基礎上加入1個將信息流反向的LSTM以避免網絡只關注數據的上文而忽略下文,以此捕捉數據長短期時間依賴,捕獲完整的過去和未來的上下文信息。其次,將語句中的詞向量輸送到雙向LSTM層后,在輸出層可以獲得每個時間步長神經元的正反雙向信息流的輸出,將二者拼接,形成最終的雙向LSTM的輸出。
1.3 特征融合層
ResNext50-CA網絡和TextRNN網絡分別提取圖像和文本特征,并且在特征維度層進行融合,融合方式采用的是Concat方式,即拼接方式,拼接的特征融合方式直接將2種特征在通道數維度上拼接起來,增加了特征維度,保留所有的完整信息。拼接的融合方式可以讓深度學習網絡自己去學習每個信息的重要性,增加信息量的同時也降低了錯誤發生的概率。
1.4 超圖神經網絡
雙模態融合網絡利用模態之間的互補與融合實現正確分類,從而提升網絡的識別準確率。超圖神經網絡利用其易于靈活的無度超邊對數據之間的相關性進行建模,提升模態融合的效果,從而得到更好的識別準確率和穩定性,普通圖和超圖分別如圖4、圖5所示,圖中圓圈表示頂點,曲線表示超邊,普通圖中邊的度必須為2,而超圖神經網絡中邊的度為任意非負整數,同一條超邊可以連接不同的頂點用于表示相連接的頂點之間存在相關性。
本研究將病害圖像模態分支與文本模態分支分別訓練并進行特征融合后輸送入超圖神經網絡,如圖6所示。首先,超圖神經網絡利用雙模態病害數據集的復雜相關性構建相應的超邊組H1和H2,并對超邊組進行拼接操作得到關聯矩陣H,關聯矩陣是描述圖的一種矩陣表示,用以代表超圖神經網絡中頂點和超邊之間的相關性,關聯矩陣見圖7。
除此以外,可以用公式(1)表示關聯矩陣,公式如下:
式中:v表示超圖頂點;e表示超邊。如果頂點包含在超邊中,則將關聯矩陣中相應位置記為1,否則記為0。然后將超圖的關聯矩陣和數據集中所包含的節點特征輸送到超邊卷積層中進行卷積操作以學習高維數據的隱含特征,其中卷積操作可以用公式(2)、公式(3)表示。
式中:X(0)表示經兩模態分支特征融合后的輸入X;σ為非線性激活函數;X(l)∈RN×C表示超圖神經網絡在l層的信號;Dv和De表示歸一化;θ(l)表示過濾處理矩陣,H表示關聯矩陣,W表示各條超邊權重的對角矩陣。最后輸出病害類別標簽,輸出公式Y如下所示。
式中:θ表示可訓練參數;Y表示可用于分類任務的超圖卷積公式以此得到輸出病害類別標簽。
經過以上運算可以使超圖更好地細化特性,可以有效處理學習過程中出現的復雜數據的相關性,從而更好地識別出各種農作物的病害。
1.5 BimodalFINet網絡架構
BimodalFINet包括圖像模態分支、文本模態分支和超圖神經網絡3個部分,BimodalFINet輸入為農作物病害圖像-文本對。
BimodalFINet網絡架構見圖8,網絡由ResNext50-CA、TextRNN以及超圖神經網絡組成,網絡架構圖中各個方塊表示模塊所構造的參數和結構,其中ResNext50-CA架構圖中的×3、×4、×6、×3 表示殘差模塊重復堆疊的數量,C表示為分組的數量,CA表示坐標注意力,1×1和3×3等表示卷積核的尺寸,K表示類別數量。圖像數據先輸入進ResNext50-CA模型中,再經過多個卷積層,得到的輸出尺寸為7×7,最后輸入到全連接層,得到的輸出尺寸為1×1。經過圖像分支后每張圖像最終得到1×1 000的向量。
文本數據輸入進TextRNN模型后,經過嵌入層與多個LSTM層以捕獲更為詳盡的長期與短期的文本特征,每張圖像對應的文字描述最終得到1個 1×1 024的向量。2種模態通過特征融合得到1個融合的1×2 024特征向量,即超圖神經網絡的輸入。由于真實的圖往往是高維且難以處理的,所以圖神經網絡將高維圖進行編碼成低維向量表示來學習高維圖結構信息。超圖神經網絡先將圖中每個節點映射編碼成對應的向量表示,節點的向量表示保留了圖的結構和節點之間的連接,超圖神經網絡通過將原始特征映射到各個節點以及超邊上,這樣在保留特征的同時更可以保留每個特征之間的相關信息,提高模態之間的融合度。之后采用2個超邊卷積層提取特征,其中每個超邊卷積層包含16個隱藏節點,概率為0.5的Dropout層以防止過擬合,激活函數采用ReLU,最后通過輸出的超圖節點來預測得到標簽。
2 農作物病害分類試驗設計
2.1 數據集
試驗應用的數據集為田間實際應用場景下拍攝的病害圖像,數據集包括5種農作物(蘋果、馬鈴薯、辣椒、玉米、番茄)下的7類病害(蘋果黑星病、蘋果銹病、馬鈴薯早疫病、馬鈴薯晚疫病、玉米葉枯病、甜椒葉斑病、番茄早疫病)圖像,共包含5 178張圖片(表1),均獲取于Kaggle官方網站(https://www.kaggle.com),文本數據集共包含5 178條數據。每種病害所包含的樣本量見表1。本研究抽取數據集中80%的圖像作為訓練集,其余20%的圖像作為測試集,病害文本數據集是由2名農業研究員對照病害文本數據集中的圖像進行描述,如表2所示,該數據集部分樣本描述。
2.2 數據預處理
預處理主要將數據集中的圖像裁剪為統一標準的224×224,使得在模型輸入維度相同的情況下比較各模型之間的性能。
在病害文本輸入循環神經網絡前需要進行一系列處理。首先將文本數據集通過jieba分詞工具進行中文分詞,去除文本中如“的”“和”等無意義停用詞和相應的標點符號,使得在試驗中減少文本數據集中的噪聲數據,提高分類算法的分類效果。此外,還需要將中文文本進行文本向量化,將文本向量表示后的數據作為TextRNN的輸入,對中文文本進行訓練。
2.3 試驗環境及相關參數設置
本試驗于2022年3—7月在江蘇大學電氣信息工程學院實驗室完成模型訓練和測試過程。本試驗硬件環境為2個RTX2060s,軟件環境則采用Ubuntu 16.04操作系統以及Pytorch深度學習框架,其CUDA API的版本為9.1,cuDNN的版本為9.0,算法實現語言采用Python 3.6.3版本。
本試驗設計以及對照試驗過程中參數設置:學習率為0.000 1,Batch-size設為32,本試驗采用自適應距估計(adaptive moment estimation,Adam)優化算法,并設置參數β1=0.9,β2=0.999,ε=1×10-8,迭代次數為100。
3 結果與分析
3.1 試驗評價指標
本研究將改進后的模型在數據集上進行訓練和測試,采用準確率(Accuracy)和F1值對改進后的模型性能進行評價,公式如下:
式中:TP表示預測為正類,真實為正類;TN表示預測為負類,真實為負類;FP表示真實為負類,預測為正類;FN表示真實為正類,預測為負類。
3.2 圖像分支模型對比試驗
相同試驗條件下,采用準確率和F1值作為模型性能的評價指標。由表3所知,對6種圖像識別模型進行比較,結合各個模型在數據集上的表現,選擇最優模型,本節圖像分支模型采用Adam優化器,學習率為0.000 1,Dropout設置為0.5。
由表3可知,各個模型平均準確率均在87%以上,平均準確率排名第一的為ResNet18,平均準確率為89.61%,其次是ResNext50,其平均準確率為89.20%,說明深度學習模型應用于農作物病害識別中具有較好的表現。各個模型的F1值也達到82%~88%,F1值排名第一的為ResNet18,其F1值為87.29%,其次是ResNext50,其F1值為86.52%,表明圖像分支對照組中的各模型在不同的類別中的表現差異相對較小,相對均衡。
不同模型的準確率曲線見圖9。ResNet18和ResNext50均達到較高的準確率,分類效果優于其他模型。從收斂速度上來看,ResNext 50的收斂速度比較快,能夠在第30次迭代左右趨于收斂,由此可以得出,ResNext50能夠在較短的時間內訓練出較為優秀的模型,其余圖像單模態分支對照組中的各模型在訓練過程中相對穩定,表現良好。
3.3 文本分支模型對比試驗
本節使用TextRCNN、TextRNN、TextRNN_Attention和TextCNN 4種經典文本特征提取網絡選取文本分支最優模型[19-21]。文本分支模型采用Adam,學習率為0.000 1,Dropout為0.5。由表4可以看出,所有文本分支對照組的測試集結果中4種網絡的平均準確率均超過91%,其中TextRCNN的平均準確率最高,為91.72%,其次是TextRNN,其平均準確率為91.28%,各個網絡的F1 值也均超過88%,其中最高的為TextRCNN,F1值為89.44%,其次是TextRNN,F1 值為88.75%,說明循環神經網絡的線性序列結構能將之前輸入的整個歷史映射到每個輸出,使得網絡能夠較為準確地提取農作物病害描述文本的特征并對其進行分類。由圖10可知,文本分支各個模型在訓練過程中相對穩定,由于TextRCNN通過雙向RNN結構取代了TextCNN卷積層的特征提取,即由卷積層+池化層轉化為雙向RNN+池化層,所以其在病害文本數據集中的效果最優。
3.4 聯合分支模型對比試驗
在病害特征不突出的情況下,卷積神經網絡較難從圖像單模態中學習到足夠的病害特征以實現正確分類。當存在不準確病害描述文本的情況下,僅使用文本進行病害判斷也會導致準確率的下降。本節采用圖像和文本雙模態聯合對農作物病害進行識別。考慮到各模型的準確率以及F1值,選擇圖像分支與文本分支中的部分網絡進行組合,2個分支分別優化以達到最優的分類效果。本節優化器采用Adam,學習率采用0.000 1。
如表5所示,雙模態對照組中采用圖像分支中F1值高的4種網絡分別與文本分支對照組中的不同網絡進行結合,其中,采用的4種圖像單模態分支網絡分別為ResNet18-CA、VGG16-CA、ResNext50-CA、DenseNet121-CA,采用的聯合分支對照組如表4中所示模型。
由表5可知,試驗中的聯合模型均取得了較好的識別準確率和F1值,其中平均準確率最高的為ResNext50-CA+TextRNN,平均準確率為93.22%,F1值為92.07%。但僅利用圖像和文本單模態時,兩種單模態模型的平均準確率為89.20%和91.28%,從而表明使用雙模態聯合分支模型比使用圖像或文本單分支模型的分類效果更佳,并且從圖11中可以看出,與圖像和文本單分支對照組相比,聯合分支中各個網絡模型的平均準確率的上升速度較為明顯。由此說明,2種模態相互結合的識別性能比單模態的要好。
3.5 加入超圖后聯合分支模型對比試驗
為了更好地提升雙模態融合效果,本節將5種網絡分別輸送入超圖神經網絡,利用超圖神經網絡多元復雜關系展示能力提升模態融合效果,得到更好的識別準確率,本節優化器采用Adam,學習率采用0.000 1,Dropout采用0.5,可以防止過擬合。
如表6和圖12所示,聯合分支對照組中各個模型加入超圖神經網絡后的識別準確率和F1值均有提升,其中5種網絡加入超圖神經網絡后平均準確率分別提升1.55、1.42、1.03、1.54、1.61百分點。由此說明,超圖神經網絡能夠利用超圖構建和相關超邊卷積計算表示復雜數據之間的相關性,從而增強圖像和文本模態結合的融合度,進而提升網絡的識別準確率。
3.6 消融試驗
為了驗證各個模塊在BimodalFINet網絡中的貢獻,本研究在數據集上進行消融試驗,各組試驗所得到的平均準確率和F1值見表7。從表7可以看出,ResNext50未加入坐標注意力時,平均準確率為88.12%,嵌入坐標注意力機制后模型平均準確率提升1.08百分點,說明坐標注意力對于模型平均準確率的提升有一定促進作用。在ResNext50-CA基礎上聯合TextRNN,模型的平均準確率和F1 值進一步提升,分別提升近4.02、5.55百分點,說明雙模態融合網絡能有效利用圖像模態以及根據病害圖像作出的文本描述所含有的語義信息。在ResNext50聯合坐標注意力和TextRNN后輸送入超圖神經網絡,模型的識別準確率和F1值進一步提升,分別提升了1.61%、1.92%,說明超圖神經網絡通過構建超圖和超邊卷積運算能提升雙模態之間的融合度,最終達到較高的平均準確率,綜上所述,本模型在數據集上表現出了良好的識別效果,能夠有效的對病害進行識別。
4 結論
本研究提出一種基于超圖神經網絡的雙模態特征融合的農作物病害識別算法(BimodalFINet)用于農作物病害識別,從而避免傳統方法依賴于費力且耗時的人工特征設計,該算法包含ResNext50-CA、TextRNN和超圖神經網絡3個部分,圖像模態分支采用基于坐標注意力的卷積神經網絡(ResNext50-CA)提取相關病害特征,坐標注意力機制通過在像素坐標系中的有效定位,使得模型能關注于感興趣的區域,從而達到更好的分類效果。文本模態分支采用TextRNN,為了避免梯度消失等問題,本研究對TextRNN的循環單元進行改進,嵌入LSTM,使得網絡能同時考慮到長期和短期的病害文本特征。圖像和文本2種模態在特征維度層進行融合,并輸送入超圖神經網絡進行分類,超圖神經網絡使用超圖結構進行建模,即利用超圖的無度超邊(超越普通圖的成對連接)編碼數據之間的高階關系,并通過超邊卷積運算學習雙模態之間復雜的數據相關性,從而超圖神經網絡能充分利用農作物病害圖像與農作物病害文本描述之間的相關性,進一步增強網絡的融合效果,得到更佳的識別準確率。綜上所述,本研究提出的方法能有效改善單模態模型識別準確率低導致消耗過多人力財力的問題。此外,本研究所提出的模型是一種通用框架,在使用過程中可以使用更為優異的卷積神經網絡、循環神經網絡以及圖神經網絡以達到最優的識別效果。為了進一步提升模型的識別準確率,后期將會對模型進行改進,使得模型能夠更好地應用于農業實踐當中。
參考文獻:
[1]王桂榮,王源超,楊光富,等. 農業病蟲害綠色防控基礎的前沿科學問題[J]. 中國科學基金,2020,34(4):374-380.
[2]王景鳳. 農作物科學種植及病蟲害防治技術[J]. 農業災害研究,2021,11(8):166-167.
[3]張 珂,馮曉晗,郭玉榮,等. 圖像分類的深度卷積神經網絡模型綜述[J]. 中國圖象圖形學報,2021,26(10):2305-2325.
[4]季長清,高志勇,秦 靜,等. 基于卷積神經網絡的圖像分類算法綜述[J]. 計算機應用,2022,42(4):1044-1049.
[5]陳 超,齊 峰.卷積神經網絡的發展及其在計算機視覺領域中的應用綜述[J]. 計算機科學,2019,46(3):63-73.
[6]李書琴,陳 聰,朱 彤,等. 基于輕量級殘差網絡的植物葉片病害識別[J]. 農業機械學報,2022,53(3):243-250.
[7]Too E C,Li Y J,Njuki S,et al. A comparative study of fine-tuning deep learning models for plant disease identification[J]. Computers and Electronics in Agriculture,2019,161:272-279.
[8]Simonyan K,Zisserman A.Very deep convolutional networks for large-scale image recognition[EB/OL]. (2014-09-14)[2022-10-05]. https://arxiv.org/abs/1409.1556.
[9]He K M,Zhang X Y,Ren S Q,et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas:IEEE,2016:770-778.
[10]Huang G,Liu Z,van der Maaten L,et al. Densely connected convolutional networks[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu:IEEE,2017:2261-2269.
[11]Xie S N,Girshick R,Dollár P,et al. Aggregated residual transformations for deep neural networks[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu:IEEE,2017:5987-5995.
[12]侯志松,冀金泉,李國厚,等. 集成學習與遷移學習的作物病害圖像識別算法[J]. 中國科技論文,2021,16(7):708-714.
[13]Hou Q B,Zhou D Q,Feng J S.Coordinate attention for efficient mobile network design[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Nashville:IEEE,2021:13708-13717.
[14]Lai S W,Xu L H,Liu K,et al. Recurrent convolutional neural networks for text classification[C]//Proceedings of the Twenty-Ninth AAAI Conference on Artificial Intelligence. New York:ACM,2015:2267-2273.
[15]Berge C. Graphs and hypergraphs[M]. Amsterdam:North-Holland Pub.Co.,1973.
[16]Berge C. Hypergraphs:combinatorics of finite sets[M]. Amsterdam:North-Holland,1989.
[17]黃汝激. 超網絡的有向k超樹分析法[J]. 電子科學學刊,1987,9(3):244-255.
[18]Feng Y F,You H X,Zhang Z Z,et al. Hypergraph neural networks[C]//Proceedings of the AAAI Conference on Artificial Intelligence,2019:3558-3565.
[19]Guo B,Zhang C X,Liu J M,et al. Improving text classification with weighted word embeddings via a multi-channel TextCNN model[J]. Neurocomputing,2019,363:366-374.
[20]Amajd M,Kaimuldenov Z,Voronkov I. Text classification with deep neural networks[C]//International Conference on Actual Problems of System and Software Engineering (APSSE). 2017:364-370.
[21]Yang Z C,Yang D Y,Dyer C,et al. Hierarchical attention networks for document classification[C]//Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics:Human Language Technologies.San Diego:Association for Computational Linguistics,2016:1480-1489.