999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于小樣本的EfficientNet圖像審核系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)

2025-11-15 00:00:00劉后勝徐英武
電腦知識(shí)與技術(shù) 2025年28期

摘要:隨著互聯(lián)網(wǎng)內(nèi)容的不斷增長,自動(dòng)化圖像審核系統(tǒng)的需求日益增加。然而,圖像分類任務(wù)的類別不平衡問題依然存在,尤其是在審核系統(tǒng)中,違規(guī)圖像(如惡意內(nèi)容) 通常僅占少數(shù),這導(dǎo)致傳統(tǒng)的分類模型在應(yīng)對(duì)少數(shù)類樣本時(shí)表現(xiàn)不佳。為此,文章提出了一種基于EfficientNet架構(gòu)的圖像審核系統(tǒng),并引入Focal Loss損失函數(shù),以應(yīng)對(duì)數(shù)據(jù)集中類別不平衡的問題。通過對(duì)圖像進(jìn)行數(shù)據(jù)增強(qiáng),該方法提高了模型的泛化能力,并結(jié)合AdamW優(yōu)化器和ReduceLROnPlateau學(xué)習(xí)率調(diào)度器,增強(qiáng)了模型的訓(xùn)練穩(wěn)定性。實(shí)驗(yàn)表明,該方法在測(cè)試數(shù)據(jù)集上的表現(xiàn)優(yōu)異,相較于使用傳統(tǒng)交叉熵?fù)p失的模型,其分類性能有顯著提升。

關(guān)鍵詞:圖像審核;Focal Loss損失函數(shù);AdamW優(yōu)化器;EfficientNet架構(gòu)

中圖分類號(hào):TP391" " " 文獻(xiàn)標(biāo)識(shí)碼:A

文章編號(hào):1009-3044(2025)28-0001-04

開放科學(xué)(資源服務(wù)) 標(biāo)識(shí)碼(OSID)

0 引言

隨著人工智能技術(shù)的發(fā)展,圖像分類技術(shù)已被廣泛應(yīng)用于各種自動(dòng)化任務(wù)中,例如人臉識(shí)別、交通標(biāo)志識(shí)別、醫(yī)療圖像分析與內(nèi)容審核等。尤其在內(nèi)容審核領(lǐng)域,隨著圖像和視頻等多媒體內(nèi)容的爆發(fā)式增長,人工審核的效率已難以滿足需求,因而自動(dòng)化的圖像審核系統(tǒng)顯得尤為重要。

早期的圖像審核系統(tǒng)依賴于基于規(guī)則和手工特征的提取,其傳統(tǒng)的圖像處理技術(shù)方法包括:

1) 顏色和紋理分析。利用圖像的顏色分布、紋理信息和邊緣檢測(cè)等基本視覺特征來識(shí)別違規(guī)內(nèi)容。例如,色情圖像審核系統(tǒng)可以通過膚色檢測(cè)來識(shí)別大量裸露的皮膚區(qū)域。

2) SIFT、HOG等特征提取。SIFT(尺度不變特征變換) 、HOG(方向梯度直方圖) 等手工設(shè)計(jì)的特征在這一時(shí)期被廣泛使用,通過從圖像中提取出關(guān)鍵點(diǎn)或方向信息來進(jìn)行分類和檢測(cè)。

3) 機(jī)器學(xué)習(xí)分類器。提取特征后,使用支持向量機(jī)(SVM) 、決策樹、隨機(jī)森林等傳統(tǒng)的機(jī)器學(xué)習(xí)分類器來對(duì)圖像進(jìn)行分類。

這些方法的缺點(diǎn)在于依賴人工設(shè)計(jì)的特征,這些特征往往不能很好地適應(yīng)復(fù)雜的圖像場(chǎng)景以及多樣的違規(guī)內(nèi)容。同時(shí),模型在處理大規(guī)模數(shù)據(jù)時(shí)表現(xiàn)不佳,分類性能有限。

隨著互聯(lián)網(wǎng)圖像數(shù)據(jù)的爆發(fā),基于內(nèi)容的圖像審核技術(shù)開始興起。這種技術(shù)通過圖像檢索方法來識(shí)別相似的違規(guī)圖像。它依賴于將圖像轉(zhuǎn)化為特征向量并進(jìn)行相似度匹配,這在內(nèi)容過濾方面起到了一定的作用,但由于特征向量的表達(dá)能力有限,這類技術(shù)難以處理更復(fù)雜的圖像審核任務(wù)。

2012年,AlexNet在ImageNet競(jìng)賽中的成功,標(biāo)志著深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN) 在圖像處理領(lǐng)域的突破。CNN通過逐層學(xué)習(xí)圖像的低級(jí)到高級(jí)特征,極大地提高了圖像分類和檢測(cè)的準(zhǔn)確率。圖像審核系統(tǒng)開始引入CNN架構(gòu),用于處理大規(guī)模圖像數(shù)據(jù)。

從AlexNet(2012)[1]、VGGNet(2014)[2]、GoogLeNet/Inception(2015)[3]、ResNet(2016)[4]、MobileNet(2017)[5]一直到EfficientNet(2019)[6],不斷有新的CNN模型被提出,為圖像審核任務(wù)提供了更多高性能的選擇。

深度學(xué)習(xí)的另一個(gè)重要進(jìn)展是遷移學(xué)習(xí)的應(yīng)用。在圖像審核中,構(gòu)建大規(guī)模的違規(guī)圖像數(shù)據(jù)集較為困難,因此研究人員開始采用遷移學(xué)習(xí),將在大規(guī)模數(shù)據(jù)集(如ImageNet) 上預(yù)訓(xùn)練的CNN模型遷移到圖像審核任務(wù)中進(jìn)行微調(diào)。這一技術(shù)極大地減少了對(duì)數(shù)據(jù)集的需求,并提升了小樣本情況下的分類性能。

文獻(xiàn)[7]的圖像審核方案采用了深度學(xué)習(xí)技術(shù),特別是基于MobileNetV3的特征提取器,以及單階段多框檢測(cè)器(Single Shot MultiBox Detector, SSD) 進(jìn)行目標(biāo)檢測(cè),并用分類器對(duì)檢測(cè)到的目標(biāo)區(qū)域進(jìn)行進(jìn)一步分類。文獻(xiàn)[8]利用預(yù)訓(xùn)練的VGG-16卷積神經(jīng)網(wǎng)絡(luò)提取圖像特征,利用ImageNet數(shù)據(jù)集進(jìn)行訓(xùn)練,利用BERT模型將OCR識(shí)別的文本編碼成特征向量,將視覺和文本特征進(jìn)行拼接,輸入到多層感知器中進(jìn)行分類,以對(duì)仇恨內(nèi)容進(jìn)行檢測(cè)與審核。文獻(xiàn)[9]提出了一種基于壓縮感知和分組測(cè)試的圖像內(nèi)容審核方法,利用ResNeXt-101模型提取圖像特征,并構(gòu)建QMPNN模型預(yù)測(cè)每個(gè)池中不良內(nèi)容的數(shù)量,通過壓縮感知算法或二值分組測(cè)試算法解碼,最終得到每個(gè)圖像是否包含不良內(nèi)容的判斷。文獻(xiàn)[10]提出了一種名為“更快、更輕、更準(zhǔn)確”的深度學(xué)習(xí)集成模型,用于高效、準(zhǔn)確地檢測(cè)圖像和視頻中的爆炸內(nèi)容。該模型由兩個(gè)輕量級(jí)的CNN模型組成:Model C基于RGB顏色特征,用于初步判斷圖像或視頻幀是否包含爆炸;Model L基于灰度特征,用于驗(yàn)證Model C的預(yù)測(cè)結(jié)果,過濾掉誤報(bào)。文獻(xiàn)[11]提出了一種名為“通過自我標(biāo)簽進(jìn)行子任務(wù)插補(bǔ)”的框架,旨在解決圖像審查任務(wù)中數(shù)據(jù)稀疏和標(biāo)簽噪聲的問題。該框架利用基于ResNet-50的特征學(xué)習(xí)器進(jìn)行自我標(biāo)簽和子任務(wù)發(fā)現(xiàn),并訓(xùn)練多個(gè)基于ResNet-50的教師模型分別處理這些子任務(wù)。然后,這些教師模型的知識(shí)被蒸餾到一個(gè)ViT學(xué)生模型中,從而提高樣本效率和模型泛化能力。

然而,盡管現(xiàn)代深度學(xué)習(xí)模型在大規(guī)模數(shù)據(jù)集上的表現(xiàn)十分優(yōu)異,但在類別不平衡的數(shù)據(jù)集上依舊面臨著一些挑戰(zhàn)。

類別不平衡是圖像分類任務(wù)中的常見問題,即數(shù)據(jù)集中某些類別的樣本數(shù)量顯著多于其他類別。這種不平衡可能導(dǎo)致模型在訓(xùn)練時(shí)更傾向于多數(shù)類,而忽略少數(shù)類樣本。這在內(nèi)容審核任務(wù)中特別明顯,因?yàn)閻阂饣蜻`規(guī)內(nèi)容通常只占總數(shù)據(jù)的一小部分,但審核系統(tǒng)需要對(duì)這些少數(shù)樣本進(jìn)行精準(zhǔn)分類。因此,為了解決類別不平衡問題,在傳統(tǒng)的交叉熵?fù)p失基礎(chǔ)上引入了Focal Loss損失函數(shù)。Focal Loss通過對(duì)難分類的樣本賦予更大的權(quán)重,使模型更關(guān)注這些樣本,進(jìn)而提升少數(shù)類的分類精度。

此外,本文選用EfficientNet作為基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)。EfficientNet通過復(fù)合縮放策略,在保證較高準(zhǔn)確率的同時(shí),減少了模型參數(shù)和計(jì)算量,非常適合在資源有限的設(shè)備上進(jìn)行部署。通過使用EfficientNet和Focal Loss,結(jié)合數(shù)據(jù)增強(qiáng)技術(shù)和優(yōu)化器、調(diào)度器,本文設(shè)計(jì)了一種有效的圖像審核系統(tǒng),旨在提高系統(tǒng)在不平衡數(shù)據(jù)集上的分類能力。使用Focal Loss后,圖像的分類正確率為96.04%,比Cross Entropy提高了0.99個(gè)百分點(diǎn)。

1 EfficientNet模型

近年來,隨著深度學(xué)習(xí)技術(shù)的飛速進(jìn)步,CNN領(lǐng)域迎來了眾多高效且強(qiáng)大的模型架構(gòu)。其中,Google提出的EfficientNet以其獨(dú)特的復(fù)合縮放策略脫穎而出,成為優(yōu)化CNN設(shè)計(jì)的典范。EfficientNet通過精細(xì)地平衡網(wǎng)絡(luò)的寬度(即通道數(shù)) 、深度(層數(shù)) 以及輸入圖像的分辨率,實(shí)現(xiàn)了在保持計(jì)算效率的同時(shí),顯著提升模型精度的壯舉。這一創(chuàng)新不僅彰顯了自動(dòng)搜索與調(diào)優(yōu)技術(shù)的強(qiáng)大潛力,更在ImageNet等基準(zhǔn)數(shù)據(jù)集上樹立了性能的新標(biāo)桿。

在本研究中,精心挑選了EfficientNet的B3版本作為基石,以構(gòu)建圖像審核系統(tǒng)。B3版本以其恰到好處的參數(shù)量與計(jì)算復(fù)雜度平衡,成為在資源受限環(huán)境下部署的理想選擇。為了將這一強(qiáng)大的特征提取器無縫融入特定的任務(wù)中,對(duì)EfficientNet-B3進(jìn)行了定制化調(diào)整,特別是針對(duì)其末端結(jié)構(gòu)進(jìn)行了優(yōu)化,以確保其能夠精準(zhǔn)捕捉并解析圖像審核所需的關(guān)鍵信息。

具體而言,模型架構(gòu)由以下幾個(gè)核心組件構(gòu)成:

1) 輸入層。接收尺寸為224×224的RGB圖像,作為模型處理的起點(diǎn)。

2) 特征提取器。采用EfficientNet-B3作為核心,利用其深度學(xué)習(xí)的能力從圖像中高效提取豐富的特征表示。

3) 全局平均池化層。緊隨特征提取器之后,該層將高維的特征映射壓縮為緊湊的特征向量,有效減少了模型參數(shù),同時(shí)增強(qiáng)了模型的泛化能力,使其對(duì)未見過的數(shù)據(jù)也能做出穩(wěn)健的預(yù)測(cè)。

4) Dropout層(比率0.5) 。作為一種正則化技術(shù),Dropout層通過隨機(jī)丟棄網(wǎng)絡(luò)中的部分神經(jīng)元連接,有效防止了模型在訓(xùn)練過程中的過擬合現(xiàn)象,提升了模型的泛化性能。

5) 全連接層。作為模型的輸出層,其維度精確匹配數(shù)據(jù)集的類別數(shù),負(fù)責(zé)將提取的特征向量映射為最終的分類結(jié)果。

通過巧妙融合EfficientNet-B3的復(fù)合縮放策略與定制化設(shè)計(jì),圖像審核系統(tǒng)不僅繼承了EfficientNet在精度與效率方面的卓越優(yōu)勢(shì),還針對(duì)特定任務(wù)進(jìn)行了優(yōu)化,展現(xiàn)出了強(qiáng)大的實(shí)際應(yīng)用潛力。

2 Focal Loss[12]

在圖像分類的廣闊領(lǐng)域中,交叉熵?fù)p失函數(shù)無疑占據(jù)著舉足輕重的地位,它作為衡量模型預(yù)測(cè)與真實(shí)標(biāo)簽之間差異的標(biāo)尺,為評(píng)估分類性能提供了堅(jiān)實(shí)的基礎(chǔ)。然而,當(dāng)面對(duì)類別分布極不均衡的數(shù)據(jù)集時(shí),交叉熵?fù)p失函數(shù)的局限性便逐漸顯露——它往往難以給予少數(shù)類樣本足夠的關(guān)注,導(dǎo)致模型偏向多數(shù)類樣本,從而影響了整體的分類效果。

為了攻克這一難題,Lin等匠心獨(dú)運(yùn)地提出了Focal Loss這一創(chuàng)新性的損失函數(shù)。Focal Loss的精髓在于其獨(dú)特的樣本權(quán)重調(diào)整機(jī)制,它巧妙地通過減少易分類樣本的權(quán)重,同時(shí)增加難分類樣本的權(quán)重,迫使模型在訓(xùn)練過程中將更多的注意力聚焦于那些更具挑戰(zhàn)性、對(duì)分類性能提升更為關(guān)鍵的樣本上。這一設(shè)計(jì)不僅有效緩解了類別不平衡問題對(duì)模型性能的不利影響,還顯著提升了模型在復(fù)雜場(chǎng)景下的分類精度與魯棒性,為圖像分類任務(wù)開辟了新的路徑。

Focal Loss的核心精髓在于對(duì)傳統(tǒng)交叉熵?fù)p失函數(shù)的深刻改造與升華。它不僅僅是對(duì)損失計(jì)算方式的一種簡(jiǎn)單調(diào)整,更是對(duì)模型學(xué)習(xí)焦點(diǎn)的一次精準(zhǔn)重塑。具體而言,F(xiàn)ocal Loss通過引入一個(gè)調(diào)制因子,巧妙地實(shí)現(xiàn)了對(duì)樣本權(quán)重的動(dòng)態(tài)調(diào)整:對(duì)于模型已經(jīng)能夠輕松分類的“易樣本”,其權(quán)重被有意識(shí)地降低,從而減少了這些樣本對(duì)模型訓(xùn)練的過度影響;而對(duì)于那些當(dāng)前難以準(zhǔn)確區(qū)分的“難樣本”,則賦予其更高的權(quán)重,迫使模型在訓(xùn)練過程中將更多的注意力與資源聚焦于這些更具挑戰(zhàn)性的樣本上。

這一設(shè)計(jì)不僅有效緩解了類別不平衡問題對(duì)模型性能的潛在威脅,還促進(jìn)了模型對(duì)復(fù)雜數(shù)據(jù)分布的深入理解與學(xué)習(xí)。通過不斷優(yōu)化對(duì)“難樣本”的識(shí)別能力,F(xiàn)ocal Loss助力模型在保持高效訓(xùn)練的同時(shí),實(shí)現(xiàn)了分類精度的顯著提升,為處理各類復(fù)雜圖像分類任務(wù)提供了強(qiáng)有力的支持。Focal Loss的公式如下:

[FL(pt)=-αt(1-pt)γlog(pt)] (1)

式中:[pt]為模型預(yù)測(cè)的正確類別概率,[αt]為平衡不同類別權(quán)重的因子,[γ]為調(diào)節(jié)因子,用于控制模型對(duì)難分類樣本的關(guān)注度。當(dāng) [γ=0]時(shí),F(xiàn)ocal Loss退化為普通的交叉熵?fù)p失;當(dāng) [γgt;0] 時(shí),較大的[γ]值會(huì)加大模型對(duì)難分類樣本的懲罰力度。

在本文的實(shí)驗(yàn)中,將 [γ] 設(shè)置為2.0,并將[α]設(shè)置為0.25。這一設(shè)置在處理不平衡數(shù)據(jù)時(shí)表現(xiàn)良好,能夠有效提升模型在少數(shù)類樣本上的分類性能。

3 訓(xùn)練方法

3.1 數(shù)據(jù)增強(qiáng)

為了顯著提升模型的泛化能力,并有效抵御訓(xùn)練過程中的過擬合現(xiàn)象,本文深入應(yīng)用了多種圖像數(shù)據(jù)增強(qiáng)技術(shù)。數(shù)據(jù)增強(qiáng)作為一種創(chuàng)造性的策略,通過隨機(jī)變換原始圖像來生成多樣化的新訓(xùn)練樣本,極大地豐富了訓(xùn)練數(shù)據(jù)的維度。在本實(shí)驗(yàn)中,精選了以下幾種高效的數(shù)據(jù)增強(qiáng)方法:

1) 隨機(jī)調(diào)整大小裁剪(Random Resized Crop) 。該策略隨機(jī)選取圖像中的一部分區(qū)域,并動(dòng)態(tài)調(diào)整其尺寸至預(yù)設(shè)大小,這一過程模擬了現(xiàn)實(shí)世界中物體尺寸的自然變化,促使模型學(xué)會(huì)識(shí)別并適應(yīng)不同大小的目標(biāo),從而增強(qiáng)其尺度不變性。

2) 隨機(jī)水平翻轉(zhuǎn)(Random Horizontal Flip) 。通過簡(jiǎn)單地翻轉(zhuǎn)圖像,實(shí)現(xiàn)了數(shù)據(jù)集的鏡像擴(kuò)展,不僅增加了數(shù)據(jù)的多樣性,還幫助模型學(xué)習(xí)到物體在不同左右朝向下的穩(wěn)定特征,增強(qiáng)了其空間理解能力。

3) 隨機(jī)垂直翻轉(zhuǎn)(Random Vertical Flip) 。雖然垂直翻轉(zhuǎn)在某些場(chǎng)景下不如水平翻轉(zhuǎn)常見,但它同樣為模型提供了不同視角下的圖像信息,有助于提升模型在復(fù)雜環(huán)境中的泛化性能。

通過以上這些精心設(shè)計(jì)的數(shù)據(jù)增強(qiáng)操作共同構(gòu)成了一個(gè)強(qiáng)大的防御體系,有效防止了模型對(duì)訓(xùn)練數(shù)據(jù)的過度依賴,顯著提升了其在未知測(cè)試集上的泛化能力,為構(gòu)建高性能、高可靠性的圖像識(shí)別系統(tǒng)提供了有力支持。

3.2 優(yōu)化器與學(xué)習(xí)率調(diào)度器[13]

為了確保模型在訓(xùn)練階段既能維持穩(wěn)定的學(xué)習(xí)進(jìn)程,又能迅速而有效地收斂至最優(yōu)解,本文采用了AdamW優(yōu)化器作為模型的訓(xùn)練引擎。AdamW作為Adam優(yōu)化器的一個(gè)強(qiáng)化版本,通過在其基礎(chǔ)上巧妙地融入權(quán)重衰減(L2正則化) 機(jī)制,實(shí)現(xiàn)了對(duì)模型復(fù)雜度的有效控制,從而有效遏制了過擬合的風(fēng)險(xiǎn)。

AdamW的更新公式在保留Adam優(yōu)化器原有高效性與自適應(yīng)性的同時(shí),進(jìn)一步增強(qiáng)了其對(duì)模型參數(shù)的正則化能力。具體而言,該公式在每次參數(shù)更新時(shí),不僅考慮了梯度的一階矩估計(jì)(即均值) 和二階矩估計(jì)(即未中心化的方差) ,還額外引入了一個(gè)與模型參數(shù)成比例的衰減項(xiàng),這一衰減項(xiàng)直接作用于參數(shù)的更新量上,實(shí)現(xiàn)了對(duì)參數(shù)規(guī)模的顯式約束。這種雙重優(yōu)化的策略,使得AdamW在提升模型訓(xùn)練穩(wěn)定性的同時(shí),也加速了收斂過程,確保了模型能夠在有限的訓(xùn)練周期內(nèi)達(dá)到更佳的泛化性能。AdamW的更新公式如下:

[θt=θt-1-ηmtvt+ε+λθt-1] (2)

式中:[θt]為更新后的參數(shù),[η]為學(xué)習(xí)率, [mt]、[vt]分別為梯度的一階和二階矩估計(jì),[λ] 為權(quán)重衰減因子。為了進(jìn)一步提高模型的訓(xùn)練效果,還引入了學(xué)習(xí)率調(diào)度器ReduceLROnPlateau。當(dāng)驗(yàn)證集損失在若干個(gè)epoch中不再下降時(shí),學(xué)習(xí)率將自動(dòng)減小,從而幫助模型找到更優(yōu)的收斂點(diǎn)。具體參數(shù)設(shè)置如下:初始學(xué)習(xí)率:0.000 1;學(xué)習(xí)率減少因子:0.1;耐心度:5個(gè)epoch;訓(xùn)練輪數(shù):20。

3.3 EarlyStopping[14]

在深度學(xué)習(xí)的訓(xùn)練征程中,存在模型在驗(yàn)證集上性能停滯不前的挑戰(zhàn),持續(xù)訓(xùn)練往往可能導(dǎo)致過擬合。為此,本文巧妙地引入了EarlyStopping策略,作為一道守護(hù)模型性能與效率的堅(jiān)固防線。該機(jī)制的核心在于,在每個(gè)訓(xùn)練周期(epoch) 結(jié)束后,都會(huì)細(xì)致入微地評(píng)估模型在驗(yàn)證集上的損失值。一旦這一關(guān)鍵指標(biāo)在連續(xù)21個(gè)周期內(nèi)未能展現(xiàn)出下降的趨勢(shì),EarlyStopping便啟動(dòng),提前終止訓(xùn)練過程。

這一智能決策不僅巧妙地規(guī)避了模型因過度訓(xùn)練而陷入過擬合的風(fēng)險(xiǎn),更是以一種高效且資源友好的方式,優(yōu)化了訓(xùn)練流程。通過及時(shí)終止不再有益的訓(xùn)練迭代,EarlyStopping機(jī)制顯著減少了不必要的計(jì)算開銷,讓寶貴的計(jì)算資源得以更合理地分配與利用。因此,它不僅是提升模型泛化能力的得力助手,也是優(yōu)化訓(xùn)練效率、促進(jìn)可持續(xù)機(jī)器學(xué)習(xí)實(shí)踐的重要工具。

4 實(shí)驗(yàn)結(jié)果

為了全面驗(yàn)證本文提出的基于EfficientNet與Focal Loss結(jié)合的圖像審核系統(tǒng)的效能與優(yōu)勢(shì),本文精心構(gòu)建了一個(gè)涵蓋5個(gè)關(guān)鍵類別的圖像數(shù)據(jù)集,并在此基礎(chǔ)上開展了一系列實(shí)驗(yàn)。該數(shù)據(jù)集涵蓋了不雅圖像、政治敏感內(nèi)容、暴力與恐怖主義、違法與不良信息及正規(guī)圖像5大類別,且每一類別都經(jīng)過嚴(yán)格篩選與分類,確保了實(shí)驗(yàn)數(shù)據(jù)的高質(zhì)量與代表性。數(shù)據(jù)集的總樣本數(shù)為1 515張圖像,其中正規(guī)圖像1 383張、不雅圖像39張、政治敏感內(nèi)容15張、暴力與恐怖主義30張、違法與不良信息48張。將80%作為訓(xùn)練集,20%作為驗(yàn)證集。

值得注意的是,該數(shù)據(jù)集在構(gòu)成上呈現(xiàn)出一個(gè)顯著的特點(diǎn),即部分類別的樣本數(shù)量相對(duì)稀缺,造成了類別間的不平衡現(xiàn)象。這一挑戰(zhàn)無疑對(duì)模型的泛化能力和魯棒性提出了更高的要求。為了有效應(yīng)對(duì)這一難題,巧妙地融入了前文所述的圖像增強(qiáng)技術(shù),通過隨機(jī)裁剪、旋轉(zhuǎn)、翻轉(zhuǎn)、顏色抖動(dòng)等多種策略,不僅顯著豐富了訓(xùn)練樣本的多樣性,還有效緩解了因數(shù)據(jù)稀少而導(dǎo)致的過擬合風(fēng)險(xiǎn),為模型的精準(zhǔn)識(shí)別與高效學(xué)習(xí)奠定了堅(jiān)實(shí)的基礎(chǔ)。

在具體實(shí)施中,其中采用1 212張圖像作為訓(xùn)練集,303張圖像作為驗(yàn)證集。通過嚴(yán)格的實(shí)驗(yàn)設(shè)計(jì)與執(zhí)行,成功地對(duì)本文提出的圖像審核系統(tǒng)進(jìn)行了全面評(píng)估,驗(yàn)證了其在處理復(fù)雜圖像審核任務(wù)中的優(yōu)越性能。

從表1的數(shù)據(jù)中可以清晰地觀察到,采用Focal Loss的EfficientNet模型在驗(yàn)證集上的表現(xiàn)顯著優(yōu)于采用交叉熵?fù)p失的模型。具體而言,F(xiàn)ocal Loss的引入使得模型在訓(xùn)練集上的準(zhǔn)確率下降了0.42個(gè)百分點(diǎn),而在驗(yàn)證集上的提升達(dá)到了約0.99個(gè)百分點(diǎn)。由于結(jié)果均在94%以上,雖然只有0.99個(gè)百分點(diǎn)的提升,但這也是很難得的,所以這一性能的提高不容忽視。

這一結(jié)果強(qiáng)有力地證明了Focal Loss在處理類別不平衡問題上的獨(dú)特優(yōu)勢(shì)與卓越效果。相較于傳統(tǒng)的交叉熵?fù)p失函數(shù),F(xiàn)ocal Loss通過動(dòng)態(tài)調(diào)整難易樣本的權(quán)重,使得模型在訓(xùn)練過程中更加聚焦于那些難以分類的樣本,從而有效提升了模型對(duì)于少數(shù)類樣本的識(shí)別能力,進(jìn)而增強(qiáng)了模型的整體泛化性能。

因此,可以得出結(jié)論:在處理存在顯著類別不平衡的圖像審核任務(wù)時(shí),F(xiàn)ocal Loss是一種更為高效且有力的損失函數(shù)選擇,它能夠顯著提升模型的分類準(zhǔn)確率和泛化能力,為構(gòu)建高性能的圖像審核系統(tǒng)提供了有力的技術(shù)支持。

此外,還深入追蹤并記錄了不同訓(xùn)練周期(epoch) 下模型的損失值演變情況。圖1以直觀的圖形形式,清晰地展示了采用Focal Loss的EfficientNet模型在訓(xùn)練集與驗(yàn)證集上損失值的動(dòng)態(tài)變化趨勢(shì)。從圖中可以鮮明地觀察到,隨著訓(xùn)練進(jìn)程的深入,無論是訓(xùn)練集還是驗(yàn)證集的損失值均呈現(xiàn)出穩(wěn)步下降的趨勢(shì),這充分印證了模型正逐步且有效地從數(shù)據(jù)集中汲取并學(xué)習(xí)關(guān)鍵特征。

尤為值得一提的是,在訓(xùn)練過程中,巧妙地引入了學(xué)習(xí)率調(diào)度器這一優(yōu)化策略。該調(diào)度器能夠敏銳地捕捉到損失值下降速度放緩的微妙跡象,并據(jù)此動(dòng)態(tài)調(diào)整學(xué)習(xí)率的大小。這一靈活且智能的調(diào)控機(jī)制,有效避免了因?qū)W習(xí)率固定不變而導(dǎo)致的訓(xùn)練停滯或振蕩問題,極大地促進(jìn)了模型的收斂速度與效果,最終助力模型實(shí)現(xiàn)了更為理想的性能表現(xiàn)。

5 結(jié)論

本文提出了一種基于EfficientNet和Focal Loss的圖像審核系統(tǒng),旨在解決類別不平衡問題。通過引入Focal Loss,模型的分類準(zhǔn)確性得到了顯著提升,為處理類別不平衡問題提供了有效解決方案。實(shí)驗(yàn)結(jié)果表明,本文提出的方法在測(cè)試數(shù)據(jù)集上表現(xiàn)優(yōu)異,特別是在存在類別不平衡問題的情況下,F(xiàn)ocal Loss的引入使得模型的分類性能有了明顯提高。未來的研究可以探索更多的數(shù)據(jù)增強(qiáng)方法以及更復(fù)雜的學(xué)習(xí)率調(diào)度機(jī)制,以進(jìn)一步提高模型的性能。

參考文獻(xiàn):

[1] KRIZHEVSKY A,SUTSKEVER I,HINTON G E.ImageNet classification with deep convolutional neural networks[J].Communications of the ACM,2017,60(6):84-90.

[2] SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[C]//Proceedings of the 3rd International Conference on Learning Representations. San Diego, CA, USA, 2015: 1-14.

[3] SZEGEDY C,LIU W,JIA Y Q,et al.Going deeper with convolutions[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).June 7-12,2015,Boston,MA,USA.IEEE,2015:1-9.

[4] HE K M,ZHANG X Y,REN S Q,et al.Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).June 27-30,2016,Las Vegas,NV,USA.IEEE,2016:770-778. (下轉(zhuǎn)第11頁)

(上接第4頁)

[5] HOWARD A G, ZHU M, CHEN B, et al. Mobilenets: Efficient convolutional neural networks for mobile vision applications[EB/OL]. [2025-02-10].arXiv preprint arXiv:1704.04861, 2017.

[6] TAN M, LE Q V. Efficientnet: Rethinking model scaling for convolutional neural networks[C]//Proceedings of the 36th International Conference on Machine Learning. Long Beach, California, USA: PMLR, 2019: 6105-6114.

[7] PANDEY A,MOHARANA S,MOHANTY D P,et al.On-device content moderation[C]//2021 International Joint Conference on Neural Networks (IJCNN).July 18-22,2021,Shenzhen,China.IEEE,2021:1-7.

[8] SABAT B O, FERRER C C, GIRO-I-NIETO X. Hate speech in pixels: Detection of offensive memes towards automatic moderation[J/OL]. arXiv:1910.02334, 2019 [2024-09-14]. https://arxiv.org/abs/1910.02334.

[9] GHOSH S, SAXENA S, RAJWADE A. Efficient neural network based classification and outlier detection for image moderation using compressed sensing and group testing[J/OL].[2025-02-14]. https://arxiv.org/abs/2305.07639.

[10] HOSSEINI M, HASAN M. Faster, lighter, more accurate: A deep learning ensemble for content moderation[J/OL].[2025-02-14]. https://arxiv.org/abs/2309.05150.

[11] PAUL I,NEGI S.Sub-task imputation via self-labelling to train image moderation models on sparse noisy data[C]//Proceedings of the 31st ACM International Conference on Information amp; Knowledge Management.Atlanta GA USA.ACM,2022:3461-3471.

[12] LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[C]//Proceedings of the IEEE International Conference on Computer Vision. Venice, Italy: IEEE, 2017: 2980-2988.

[13] LOSHCHILOV I, HUTTER F. Decoupled weight decay regularization[C]//Proceedings of the 7th International Conference on Learning Representations. New Orleans, LA, USA: [s.n.], 2019.

[14] PRECHELT L. Early stopping—but when [M]//ORR G B, MüLLER K R. Neural networks: tricks of the trade. Berlin, Heidelberg: Springer, 2002: 55-69.

【通聯(lián)編輯:唐一東】

主站蜘蛛池模板: 亚洲av综合网| 欧美国产综合视频| 亚洲国产成人精品青青草原| 免费人成又黄又爽的视频网站| 亚洲视屏在线观看| 成人日韩视频| swag国产精品| 日韩人妻无码制服丝袜视频| 亚洲男人天堂2018| 人妻中文久热无码丝袜| 亚洲国产成人在线| 无码免费视频| 国内丰满少妇猛烈精品播| 99久久免费精品特色大片| 亚洲中文无码h在线观看| 日本精品αv中文字幕| 日本黄色a视频| 久久精品无码国产一区二区三区| 婷婷激情亚洲| 91网红精品在线观看| 亚洲欧美成aⅴ人在线观看| 啊嗯不日本网站| 国产成人精品一区二区免费看京| 亚洲精品无码久久久久苍井空| 欧美性爱精品一区二区三区| 久久精品人人做人人爽97| 波多野结衣一区二区三区AV| 永久免费av网站可以直接看的| 51国产偷自视频区视频手机观看| hezyo加勒比一区二区三区| 亚洲丝袜中文字幕| 91综合色区亚洲熟妇p| 97国内精品久久久久不卡| 国产超碰在线观看| a毛片免费看| 免费观看成人久久网免费观看| 久久国产精品77777| 免费人欧美成又黄又爽的视频| 亚洲人成影视在线观看| 97精品伊人久久大香线蕉| 四虎AV麻豆| 色丁丁毛片在线观看| 中文字幕在线欧美| 777国产精品永久免费观看| 网友自拍视频精品区| 香蕉视频在线观看www| 色九九视频| P尤物久久99国产综合精品| 色国产视频| 色婷婷电影网| 日韩成人在线网站| 青青草原国产av福利网站| 日日拍夜夜操| www.亚洲天堂| 青青操视频免费观看| 国产福利免费在线观看| 国产成人艳妇AA视频在线| 谁有在线观看日韩亚洲最新视频| 高清无码一本到东京热| 亚洲三级片在线看| 精品少妇三级亚洲| 国产三级成人| 九色在线观看视频| 丁香五月婷婷激情基地| 91精品在线视频观看| 国产成人亚洲精品色欲AV| 欧美高清三区| 亚洲欧美极品| 国产精品男人的天堂| 国产美女精品人人做人人爽| 中文字幕免费在线视频| 麻豆精品在线| 欧美日韩国产精品va| 国产青青草视频| 亚洲国产综合自在线另类| 亚洲国产中文欧美在线人成大黄瓜| 国产免费久久精品99re不卡| 91 九色视频丝袜| 97se亚洲综合在线天天| 88av在线播放| 亚洲成a人在线观看| 亚洲大尺码专区影院|