
中圖分類號::TP391.41 文獻標志碼:A
本文引用格式:,.基于實例分割的填埋場滲漏源檢測算法研究[J].華東交通大學學報,2025,42(2):103-109
Research on the Detection Algorithm for Landfill Leakage Based on Instance Segmentation
Chen Qianghua,Li Ming
(SchoolofElectronic Information Engineering,ShanghaiDianjiUniversity,Shanghai 2O3o6,China)
Abstract: Leakage detection is a critical measure to ensure the proper operation of hazardous waste landfils. Traditional manual visual inspections are inefficient,and hazardous waste can afect the health of workers.A method based on instance segmentation is proposed to detect leakage.The method uses a camera mounted on an inspection robot to capture video images,the YOLOSeg-EViT network performs instance segmentation.Experimental results show that the algorithm achieves a mean average precision of 75.7% ,and when detecting with a
pixel resolution video,the detection is 54.4 frames per second. On an edge computing platform, the algorithm reaches mean average precision 75.1% and 33.1 frames per second. The leakage detection algorithm effectively identifies leakage,improves the detection eficiency,and prevents workers from being exposed to hazardous substances, making it highly practical.
Key words: landfilleakage; defect detection; instance segmentation;deep learning; lightweight deployment Citation format: CHENQH,LIM.Research on the detection algorithm for landfillleakage based on instance segmentation[J]. Journal of East China Jiaotong University, 2025,42(2): 103-109.
危險廢物填埋場是處置危險廢物的一種陸地組分向環境和人體遷移的途徑,從而安全處置危險廢物[]。填埋場滲漏檢測對確保設施正常運行、防止事故發生、降低潛在的安全風險具有重要意義。
在填埋場滲漏檢測的應用中,劉景財等[2在填埋場四周布設電極,利用集成開發的邊界定位檢測系統計算獲取的信號,最終給定滲漏源的GPS坐標和數據可視化結果。在滲漏檢測的應用中,Ali等通過對用水量以及耗水量的對比,依據能量守恒的原則判斷是否產生滲漏。Lyu等4提出了一種基于視覺背景提取器(visualbackground extractor,ViBe)和EfficientNetB0的滲漏檢測系統,使用基于Efficient-NetB0的卷積神經網絡(convolutionalneuralnet-works,CNN)模型排除環境干擾、檢測出泄露區域。使用傳感器檢測滲漏的方法多用于管道類檢測,危險廢物填埋場面積較大,傳感器部署較為困難。
隨著計算機計算能力的提升,計算機視覺的檢測方法被廣泛應用于缺陷檢測。常用的計算機視覺檢測方法可以分為圖像分類、目標識別以及實例分割。在圖像分類的方法中,Park等使用由分割和分類模塊組成的卷積神經網絡模型執行分割處理,將道路區域分為裂縫、道路標記和完整區。目標檢測的方法使用邊界框識別圖像中的目標。Ju等使用CNN來提取深度特征的同時使用靈敏度檢測網絡,提出了一種FasterR-CNN[7-8改進版本裂紋檢測方法。Su等設計了MOD-YOLO[]算法,并將其應用于民用基礎設施中的裂紋檢測。Maeda等]采用單次多框檢測(single shotmultiboxdetec-tor,SSD)[1框架在綜合數據集中執行裂紋檢測,他們利用InceptionV2和MobileNet作為SSD框架中的骨干特征提取器模塊。實例分割是自標檢測和語義分割的結合,可以同時輸出滲漏源的種類、位置和形狀。Gao等[]基于U-Net,提出了一種基于U-Net的ARD-Unet用于檢測道路裂縫。Liu等4通過CNN模型改變U-Net的編碼器,提出了一種更準確、高效的裂紋檢測模型,并集成視覺解釋來解釋該模型。
填埋場需要巡檢的面積較大,因此需要檢測速度較快的實例分割網絡提升滲漏源檢測效率。實時實例分割網絡(youonlylookatcoefficients,YOLACT)[15將整體的實例分割任務分為檢測與分割兩個并行任務,完成兩個并行任務后的輸出融合為最終的檢測結果。按位置分割網絡(segmentingobjectsbylocations,SOLO)[通過去除量化步驟,在保持精度不變的情況下,提升網絡的運算速度。
針對填埋場的應用場景,本文提出一種輕量化實例分割網絡YOLOSeg-EViT進行填埋場滲漏源檢測。
1方法
危險廢物填埋場的鳥瞰圖如圖1(a)所示,填埋場滲漏源的檢測位置為填埋場底部,滲漏源包括已經產生的滲漏以及具有滲漏隱患的裂縫。填埋場底部如圖1(b)所示。

1.1整體檢測流程
如圖2所示為方法流程圖。首先,使用巡檢機器人搭載帶有紅外補光的可見光相機進行視頻采集。巡檢機器人搭載兩臺相機,分別采集前向與后向的畫面,相機搭載方式如圖2中紅框放大部分所示。兩臺相機采集視頻的分辨率為
像素,采集視頻的幀率 F 為6幀/s。其次,對待測視頻進行實例分割,獲得具有掩膜標記的滲漏源檢測結果。然后,生成滲漏源檢測報告,報告中包含滲漏源的檢測圖像以及對應坐標信息。一份檢測報告的示例如圖2中檢測報告示例所示,其中:坐標信息圖中的位置信息從巡檢機器人中調出,原點位置是巡檢機器人的出發位置; x,y 表示與出發點之間的方向距離, m ;紅色三角形表示滲漏源位置。
1.2 基于實例分割的YOLOSeg-EViT網絡
巡檢單個填埋池采集的待測視頻時長為 30min 且每次巡檢會檢查多個填埋池。為了提升滲漏源的檢測效率,本研究提出一種基于實例分割的YOLOSeg-EViT網絡用于快速檢測待測視頻。該網絡由骨干網絡,頸部以及檢測頭構成。骨干網絡會對輸人圖像進行特征提取操作,并將提取到的信息進行處理之后傳遞到下一個階段。骨干網絡的特征提取與處理方式會影響網絡的檢測速度,提升檢測速度的一種方式為使用輕量化的骨干網絡。
骨干網絡中添加EfficientViT用于提升信息提取的速度,EfficientViT是一個輕量級多尺度注意力的圖像分割模型,它通過線性注意力代替softmax注意力并通過深度卷積增強局部特征提取能力,從而實現全局感受野和多尺度學習[18]。EfficientViT具有三明治結構,輸入的特征首先經過N個前饋神經網絡(feedforwardneuralnetwork,FFN),其次經過1個級聯組注意力模塊(cascadedgroupattention,CGA),再經過 N 個FFN變換得到輸出特征。在FFN中,EfficientViT采用單個受內存限制的多頭自注意力機制(multi-headself-attention,MHSA),緩解了注意力計算導致的訪存時間消耗問題,實現網絡輕量化。骨干網絡將提取的特征按不同尺度分級輸出,減少計算冗余的同時增加網絡學習特征的多樣性。EfficientViT不僅有效減少了骨干網絡的參數量,也保證了網絡的檢測精度。

YOLOSeg-EViT網絡結構圖如圖3所示。圖3中C1的輸入尺寸為 80×80×256 以及 80×80×512 ,輸出尺寸為 80×80×768 ;C2的輸入尺寸和輸出尺寸都為 40×40×512 ;C3的輸人尺寸為 40×40×256 以及40×40×512 ,輸出尺寸為 40×40×768 ;C4的輸入尺寸和輸出尺寸都為 20×20×512 。網絡中使用3個不同尺寸的檢測頭,用于生成檢測結果以及對特征圖進行分類。ConvBlock為深度學習模塊,SPPF為快速空間金字塔池模塊,Loss為損失模塊。
2 實驗
2.1 實驗數據
數據集中的填埋場滲漏源分為3類。第1類為裂縫(crack),裂縫類別的一個實例如圖4(a)所示。裂縫的幾何特征為狹長的條狀;第2類為破損(breakage),破損的特征為塊狀碎裂,破損的幾何特征不規則,破損類別的一個實例如圖4(b)所示。第3類為滲漏(leakage),滲漏的特征為顏色較深,在混凝土墻體上呈現出在水平墻面擴散滲漏或沿著垂直墻面向下滲漏,滲漏類別的一個實例如圖4(c)所示。
算法的數據集為YOLO數據集格式,數據集的標注方式為使用分割一切模型(segmentanythingmodel,SAM)進行半自動標注。SAM可以對輸入圖像進行零樣本泛化,根據輸人點等輸人提示生成高質量的對象掩膜[19]。在標注時,首先使用SAM對數據集圖像進行特征提取操作,操作完成后會根據圖像的提取結果生成若干個掩膜;其次選中滲漏源的掩膜并保存到標簽文件中;然后采用LabelMe標注工具對SAM生成的實例掩膜進行手動校正。數據集生成過程中主要步驟示意圖如圖5所示。
本研究的訓練集中類別crack,breakage,leak-age分別有4345,705,493個實例。驗證集中類別crack,breakage,leakage分別有1931,328,189個實例,訓練集與驗證集中的實例相互獨立。
2.2 實驗細節
實驗中PC機使用的CPU為Inteli9-11900KF,GPU為NVIDIAA40(48GB),系統為Ubuntu20.04,Python版本為3.8,Cuda版本為11.1,PyTorch版本為1.10.1。邊緣計算平臺為JetsonAGXOrin,系統為Ubuntu20.04,Python版本為3.8,Cuda版本為

Fig.3DiagramofYOLOSeg-EViTnetworkarchitecture


11.4,PyTorch版本為1.12.0。網絡訓練時的訓練輪數設置為300輪。PC機訓練網絡時batchsize默認設置為64,邊緣計算平臺訓練網絡時batchsize默認設置為32,訓練與檢測時網絡輸入圖像的尺寸都為640×640 像素。
2.3 實驗評價指標
實例分割的結果通常可以劃分為4類:真正例Pr ,假正例 PF ,真負例 Nr ,假負例 NF 。準確率 P 和召回率 R 的計算方法如


平均精度 PA 計算方法如

式中: N 為計算插值或積分時需要的不同 R 點數量;文中 N=11 ,該取值參考了PASCALVOC挑戰中 N 的數值,在0\~1中等間隔取值; Ri 為第 i 個召回率;P(Ri) 為在第 i 個召回率下的準確率。 PmA 為所有類別 PA 的平均值,用于反映整個模型的準確率,實驗使用各類別的 PA 與整體的 PmA 指標衡量網絡檢測精度。
2.4 實驗結果
為了評價YOLOSeg-EViT網絡對滲漏源檢測的有效性,使用訓練集對網絡進行訓練,網絡完成訓練后會生成一個預訓練模型。使用預訓練模型在驗證集中檢測,驗證過程為預訓練模型檢測結果與標簽文件的真值進行對比。
2.4.1 YOLOSeg-EViT實驗結果
本論文中PC機實驗環境下YOLOSeg-EViT網絡使用自建數據集的最終迭代結果如表1所示。

由表1可知,YOLOSeg-EViT網絡對crack類別實例以及leakage類別實例的檢測準確度較高,而對breakage類別實例的檢測準確度較低,這與三類滲漏源的特征相符合。crack類別實例與leakage類別實例的形狀較為單一,網絡在訓練時可以較為容易地學習這類滲漏源的特征。breakage類別實例的形狀與大小沒有特定規律,網絡在學習breakage類別實例的特征時較為困難。一些breakage類別實例位于尺寸較大的裂縫中,算法在檢測時會把整個滲漏源區域歸類為crack類別。網絡的 F 值為54.4幀/s,具有較快的推理速度。一張的網絡分割效果圖如圖6所示。
由圖6可知,YOLOSeg-EViT實例分割算法可以有效地分割出圖中滲漏源,并使用不同顏色的掩膜區分不同的滲漏源,具有良好的檢測效果。同時,滲漏源檢測的過程中未受到混凝土墻體污漬(圖6中紅色方框區域)以及修補模頭(圖6中黃色方框區域)的干擾,具有較好的抗干擾能力。

2.4.2 對比實驗
為了進一步驗證網絡的效果,使用MASKR-CNN網絡,YOLOv8-seg網絡進行對比實驗,實驗時的實驗環境與數據集完全相同。為了直觀展示YOLOSeg-EViT網絡與YOLOv8-seg網絡的對比效果,對比實驗中將YOLOSeg-EViT與YOLOv8-seg網絡的小尺寸s、中尺寸m、大尺寸1超大尺寸x進行對比,并在對比時調整YOLOSeg-EViT網絡的深度因子(deepenfactor)、寬度因子(widen factor)和比例(ratio)與對應的YOLOv8網絡相同。例如,表2中本文網絡(s)表示網絡的深度因子、寬度因子和比例與YOLOv8s-seg相同。YOLOv8-seg使用對應尺寸的預訓練權重進行初始化,對比實驗結果如表2所示。
由表2可知,YOLOSeg-EViT的 PmA 以及 F 高于MASKR-CNN。對比YOLOv8-seg各尺寸時,YO-LOSeg-EViT網絡的訓練效果要優于對應尺寸的YOLOv8-seg網絡。雖然使用較小尺寸的網絡可以提升 F ,但是較小尺寸網絡的檢測精確度較低,可能會造成漏檢從而使滲漏源進一步擴大。YOLOSeg-EViT網絡參數小于MASKR-CNN以及對應尺寸的YOLOv8-seg網絡參數,說明網絡輕量化的有效性。
2.4.3邊緣計算平臺部署結果
為了驗證YOLOSeg-EViT在邊緣計算平臺上的效果,使用YOLOv8l-seg進行對比實驗,實驗結果如表3所示。
由表3可知,YOLOSeg-EViT在邊緣計算平臺上平均準確率高于YOLOv8l-seg。雖然PC機的F較高,但是邊緣計算平臺成本更低,且邊緣計算平臺可以直接部署于巡檢機器人,無需調出待測視頻便可完成檢測,提高填埋場滲漏源的檢測效率。
2.4.4 實驗誤差分析
在實驗結果中,breakage類別的檢測精度較低,該類別的邊緣并不固定,算法在檢測時賦予的掩膜邊緣與真值會存在一定差異,從而造成數值降低。一張實例圖如圖7所示,網絡雖然成功檢測出breakage實例,但是檢測邊緣與真值存在一些差異。
在檢測crack類別時,一些crack類別較為細長。此時算法可能會將一條細長的裂縫檢測為兩條裂縫,一張實例圖如圖8所示,圖8在原始圖像與檢測結果中放大了細長裂縫中較為細小的部分。
在leakage類別的檢測中,由于leakage在水平墻面擴散滲漏或沿著垂直墻面向下滲漏的特征較為相似,且與混凝土墻體具有高對比度,網絡對leakage類別的滲漏源具有很好的檢測效果。




雖然實驗中檢測breakage類別與crack類別時生成的掩膜與真實結果存在一些差異,但是并沒有產生漏檢。同時,這些掩膜的差異不會對后續的養護方式產生影響。
3結論
本文使用一種YOLOSeg-EViT實例分割網絡算法進行填埋場滲漏源檢測,該算法的骨干網絡中添加了輕量級多尺度注意力的圖像分割模塊Effi-cientViT,實驗中獲得以下結論。1)使用自建的填埋場滲漏源數據集進行訓練時,YOLOSeg-EViT的 PmA 為 75.7% ,檢測 1280×720 像素分辨率視頻的 F 為54.4幀/s,可以實現高效率的填埋場滲漏源檢測。2)該算法可以部署到便攜性更好的邊緣計算平臺上, PmA 為 75.1%,F 為33.1幀/s。3)該算法可以有效檢測滲漏源,具有一定的實用價值;同時,該算法可以為其他領域的特征分割問題提供參考和啟發。
參考文獻:
[1]鄭偉,金晶,王清森,等.生活垃圾填埋場滲濾液全量化 處理工藝設計及應用[J].綠色科技,2024,26(6):181- 185. ZHENG W,JINJ,WANG Q S,etal.Designand case analysisoffullyquantitativetreatmentprocessforleachatefroma domestic waste landfill[J]Journal of Green Science and Technology,2024,26(6):181-185.
[2]劉景財,孫曉晨,鄭開達,等.基于邊界定位法的固體廢 物填埋場滲漏應急檢測技術及應用[J].環境工程技術 學報,2022,12(6):1978-1984. LIUJC,SUNXC,ZHENGKD,etal.Emergencydetec tiontechnology and application of solid waste landfill leakage basedon boundary positioningmethod[J] Journal ofEnvironmental Engineering Technology,2022,12(6): 1978-1984.
[3]ALI A S,ABDELMOEZ MN,HESHMAT M, et al. A solution for water management and leakage detection problems using IoTs based approach[J]. Internet of Things, 2022,18:100504.
[4] LYU C, LIU Y, WANG X, et al. Visual early leakage detection for industrial surveillance environments[J]. IEEE Transactions on Industrial Informatics,2021,18(6): 3670- 3680.
[5]PARK S, BANG S, KIMH, et al. Patch-based crack detection in black box images using convolutional neural networks[J].Journal of Computing in Civil Engineering, 2019,33(3): 04019017.
[6] JU H Y,LI W, TIGHE S, et al. Detection of sealed and unsealed cracks with complex backgrounds using deep convolutional neural network[J]. Automation in Construction,2019,107: 102946.
[7]REN S,HE K, GIRSHICKR,etal.Fasterr-Cnn:towards real-time object detection with region proposal networks [J]. Advances in neural information processing systems, 2015, 28: 1137-1149.
[8]BHARATI P, PRAMANIK A. Deep learning techniques: R-CNN to mask R-CNN: a survey[J].Computational Intelligence in Pattern Recognition,2019,999: 657-668.
[9]SUP,HANH,LIUM,et al.MOD-YOLO:Rethinking the YOLO architecture at the level of feature information and applying it to crack detection[J]. Expert Systems with Applications,2024,237: 121346.
[10] BADGUJAR C M, POULOSE A, GAN H. Agricultural object detection with you only look once(YOLO)algorithm:a bibliometric and systematic literature review[J]. Computers and Electronics in Agriculture, 2024,223: 109090.
[11] KUMAR A, SRIVASTAVA S. Object detection system based on convolution neural networks using single shot multi-box detector[J]. Procedia Computer Science,2020, 171: 2610-2617.
[12] MAEDA H, SEKIMOTO Y, SETO T, et al. Road damage detection and classification using deep neural networks with smartphone images[J]. Computer Aided Civil and Infrastructure Engineering,2018,33(12): 1127-1141.
[13] GAO Y, CAO H, CAI W, et al. Pixel-level road crack detection in UAV remote sensing images based on ARD-Unet[J].Measurement,2023:219.
[14]LIUF,WANGL.UNet-based model for crack detection integrating visual explanations[J].Construction and BuildingMaterials,2022,322:126265.
[15]ZENGJ,OUYANGH,LIUM,etal.Multi-scale YOLACT forinstancesegmentation[J].JournalofKing Saud University-Computer and Information Sciences,2022,34(10): 9419-9427.
[16]WANG X,ZHANG R,KONGT, etal. SOLOv2: dynamic andfastinstance segmentation[J].Advancesin Neural information processing systems,2020,33:17721-17732.
[17]董華軍,王宇棲.基于改進YOLOv5s的無人機小目標檢 測算法研究[J].華東交通大學學報,2024,41(4):118- 126. DONG HJ,WANG YQ. Research on UAV small target detectionalgorithmbased on improved YOLOv5s[J] Journal of East China JiaotongUniversity,2024,41(4):118- 126.
[18] GUO Y,LI Z,LIUF, etal. Fast and lightweight automatic lithology recognition based on efficient vision transformernetwork[J].Solid Earth Sciences,2025,10(1):100179.
[19] KE L,YE M, DANELLJAN M, et al. Segment anything inhigh quality[J].Advances in Neural Information ProcessingSystems,2024,36:29914-29934.

第一作者:陳強華(1997一),男,碩士研究生,研究方向為計算機視覺與人工智能。E-mail:226003010201@st.sdju.edu.cn。

通信作者:黎明(1979一),男,副教授,博士,碩士生導師。研究方向為工業機器視覺,人工智能和模式識別。E-mail:mingli@sdju.edu.cn。
(責任編輯:姜紅貴)