






摘 要 為實現化工反應分液面快速、高精度的目標檢測和提取,設計基于機器視覺的化工反應分液面檢測系統,系統由人機交互模塊、圖像采集裝置(光源、工業相機、光學鏡頭)、電源模塊、傳輸模塊、4G模塊組成,利用YOLOv7tiny輕量級目標檢測算法進行分液面目標檢測識別。在相同實驗條件下,選用同一物料數據集進行訓練,實驗結果表明:YOLOv7tiny算法的mAP值相對最高,相較于常用的輕量級YOLOv3tiny和YOLOv5s算法分別高出9.5%和5.1%;YOLOv7tiny的檢測速度較YOLOv3tiny和YOLOv5s算法分別低5 FPS/s和高10 FPS/s;YOLOv7tiny算法的內存占用量較YOLOv3tiny和YOLOv5s算法分別低4.92 MB和低2.07 MB,說明YOLOv7tiny算法的分類精度和運行速度更具優勢。
關鍵詞 分液面 輕量級目標檢測算法 分類精度 運行速度
中圖分類號 TH816" "文獻標志碼 A" "文章編號 10003932(2025)02020507
在精細化工生產過程中,兩種及以上反應原料在反應釜中發生反應后,出現了大密度產品在下、小密度產品在上的分液面,可通過分層將反應釜里的兩種產品輸出到兩個不同儲料池中。反應釜下方管道上設置有視鏡,技術人員通過觀察視鏡識別分液面的出現。如某化工廠的水洗反應,當閥門打開,放出反應釜下層物料時,伴隨著小漩渦出現;當分液面來臨時,小漩渦會突然增大,變成大漩渦,這時將分液面識別信號遠程傳輸到工廠控制室,再結合DCS,實現反應釜閥門的切換,以保證液體分離。為了快速且高精度地檢測并提取反應分液面,筆者提出基于機器視覺的化工反應分液面檢測系統設計方案。
1 化工反應工藝流程簡介
某化工廠的化工反應工藝流程如圖1所示。
2 分液面檢測簡介
2.1 人工檢測
目前,國內對分液面的檢測大都采用人工方式,首先在視鏡窗中觀察分層液體情況,進而由人工控制釜底閥。這種方法簡單,但由人工觀察
分液情況并控制閥門的開關,對于分液面的識別穩定性差、調控精度低、調控重復性差、成本高,甚至可能影響人身安全。
2.2 接觸式測量
2.2.1 電導率法
電導率表示的是溶液傳導電流的能力[1]。所有水溶液都具有一定的導電性,其電導率與水中的無機酸、堿、鹽的濃度有關,根據溶液的電導率就可以判斷分液面的位置。文獻[2]在基于電導率差異實現液-液兩相體系自動分離的工程方法探索中,實現了水相與有機相的分離,采用感應式電導率檢測儀測量萃取管道內的各物料電導率,通過電導率變化情況判斷出水相與有機相的界面,將信號傳遞給DCS,由DCS聯鎖控制相應閥門的開關動作,實現兩相自動分離。
電感式電導傳感器類似于一對變壓器線圈的工作原理。在這種傳感器中,被測溶液充當變壓器的磁芯,兩個并聯的線圈結構緊湊且相互絕緣,一個線圈通入交流電,另一個線圈則感應出電流信號,該電流信號的大小與溶液的電導率成正比。電感式電導傳感器與溶液接觸的部分通常涂有聚醚醚酮(PEEK)或可溶性聚四氟乙烯(PFA)等聚合物,這些聚合物具有卓越的耐腐蝕性,有助于避免極化或結垢問題的發生。然而,由于測量的感應電場環繞測量環的內外兩側并穿過流動間隙,傳感器周圍需要足夠的空間,以確保電極常數的完整性。因此,感應式電導率傳感器通常安裝在大口徑管道內或浸沒在開放的料罐內部,以確保傳感器能夠正常運行,存在安裝局限性問題。感應式傳感器是浸入式傳感器,存在使用壽命短、維護成本高等問題。這些問題在我國感應式電導率傳感器的發展中也較為突出,我國在該領域的研究起步較晚,技術水平較為落后,導致目前該市場被Mettler Toledo、Endress+Hauser等壟斷,產品成本居高不下,給用戶帶來較大的經濟負擔。
2.2.2 密度計法
密度計法是根據溶液密度判斷分液面的,通過安裝密度傳感器監測溶液密度變化,進而判斷分液面的出現,如美國高準公司的7826/7828系列音叉密度計[3],其工作溫度范圍處于-50~120 ℃,受環境影響小。國內恩普儀器有限公司生產的EP6100音叉密度計精度0.002 g/mL,被廣泛應用于石油、食品等行業。
音叉密度計需要與液體直接接觸測量,對于大型罐或管道來說,維護起來很麻煩。
2.3 非接觸式測量
分液面的非接觸式測量方法主要有一種,即機器視覺檢測系統,利用機器視覺技術從溶液圖像中提取相關特征并進行分析與處理,以判斷圖像中是否出現了分液面,進而控制閥門的關閉,實現混合液體的分離。中國計量大學的張碭碭等設計了一款基于SSIM(結構相似性)的萃取液體檢測分離系統,利用工業相機對視鏡窗溶液進行監控,采用溶液的SSIM結構相似性和灰度數據方法取得特征閾值,通過設定閾值判斷出分層[4],同時上位機將分層信息傳遞給單片機,由單片機控制電磁閥的關閉,實現液體分離。鐘先鵬等設計了一款基于Zynq(Zynq7000 All Programmable SoC)的智能液體分離系統,利用不同液體在紅外成像下灰度值的不同,使用短波紅外相機完成圖像采集,檢測算法在Zynq開發板上實現[5],自動判斷液體分界面的位置信息,并對下降的液體分界面進行目標檢測與追蹤,PS(處理系統)端的處理器通過IO口控制識別信號的輸出,實現自動控制電磁閥,保證混合液體分離的目的。
上述利用溶液結構相似性、灰度值及透光度等取得閾值,再根據設定閾值判斷分液面的方法,雖然具有一定的優勢和精度,但當有漩渦出現時,會造成取值誤差并降低判斷精度。
由于化工反應情況復雜,接觸式測量方法針對設備維護的難度高,而非接觸式測量易受反應中漩渦、雜質等因素的影響,降低了檢測精度。為了解決上述問題,可以采用基于深度學習的目標檢測,運用目標檢測算法提取物料圖像中的顏色、漩渦、雜質等特征,根據相關特征,判斷分液面來臨。同時,由于大多數化工生產廠區大,需敷設光纖且敷設點位很多,敷設麻煩且成本高,因而可以采用邊緣計算技術,但設備邊緣計算運行內存小,算力不足以支持標準模型快速檢測。因此,筆者對YOLOv7tiny輕量級目標檢測算法進行研究,設計基于機器視覺的化工反應分液面檢測系統,以提高識別分液面的精度。
3 檢測系統設計
3.1 檢測系統整體構成
如圖2所示,基于YOLOv7tiny的化工反應分液面檢測系統由人機交互模塊、圖像采集裝置(光源、工業相機、光學鏡頭)、電源模塊、傳輸模塊、4G模塊和防爆裝置等部分組成。
本系統采用PyQt設計人機交互界面,人機交互界面是軟件系統與用戶交流的平臺,實現圖像顯示、檢測結果顯示與保存、系統設置等功能。
圖像采集裝置負責拍攝高質量的化工反應物料圖像、圖像檢測和輸出檢測數據任務,其中相機尤為重要,內置PC端Windows10系統,不需要連接額外的處理器和處理設備,將編好的檢測軟件植入相機中運行,軟件將調用相機攝像頭,并對連接的相機進行相關參數調節,來提高圖像采集精度與數據傳輸的便攜性,調節每200 ms采集一幀,參數調節完畢后開始自動采集物料圖像,并以jpg格式保存在本地文件,同時將物料圖像傳遞給圖像預處理模塊,隨之處理好的物料圖片傳遞給以多線程形式封裝到軟件的YOLOv7tiny模型中,實現分液面自動檢測功能,并輸出分液面信號傳遞給PCB板和4G模塊。
由傳輸模塊(PCB板)處理上述分液面信號,將其轉換成電信號并輸出電流信號,實現與DCS連接的通、斷路;4G模塊將檢測數據上傳至云端系統,可實時查看檢測數據。
電源模塊實現電源功率轉換,為光源、工業相機和4G模塊提供12 V(AC)電源。
需要注意的是,化工場景屬易燃易爆環境,相關硬件都需要固定在防爆外殼里面。
3.2 圖像預處理
工業相機采集的物料圖像會受環境的影響,從而影響識別的準確性,需要對采集的監控畫面進行圖像預處理。圖像預處理包括伽馬矯正和濾波去噪步驟。原始圖像如圖3a所示,該圖像上存在亮度不均勻問題,并且圖像漩渦特征部分不是很明顯。為了解決這些問題,首先對圖像進行伽馬矯正(圖3b),再進行濾波處理,針對實際存在的噪聲,采用3×3模板的中值濾波法去除噪聲(圖3c)。
3.3 基于YOLOv7tiny檢測算法設計
在整個分液面檢測系統中,各部分的協同工作至關重要。圖像采集裝置是核心設備,負責從實際化工反應環境中獲取物料圖像數據,將這些數據先經過圖像預處理模塊,再送入YOLOv7tiny目標檢測算法中進行處理,提高系統識別分液面的效率,實現更精準的檢測功能。
3.3.1 YOLOv7tiny原理
YOLOv7tiny是YOLOv7[6]最輕量級的網絡模型,模型由輸入、骨干網絡、頸部和頭部4部分組成,其網絡結構如圖4所示。
輸入物料圖像先進行Mosaic數據增強策略,再由簡化的CBL模塊、ELAN模塊和MP模塊組成的骨干網絡提取特征,通過卷積、線性變換及池化等操作,逐步提取和轉換輸入圖像中的特征信息。接著將不同深度特征層所獲特征信息輸入頸部模塊,進行SPPCSPC池化和FPN+PAN[7,8]特征融合提取過程。SPPCSPC結構是一種特殊的卷積神經網絡,由空間金字塔池化模塊SPP和跨階段部分通道連接模塊CSPC構成,通過SPP部分的3條尺度(5、9、13)的最大池化和殘差邊并行分支操作,得到4種不同尺度的感受野特征輸出,將不同尺寸的輸入圖像轉換為固定尺寸的特征表示,保留了各尺度圖像的特征信息,使得模型能夠更好地區分不同大小的目標類別,而CSPC部分則對輸入圖像特征進行雙分支操作,其中一分支只采用CBL卷積以保持上下層信息的數據共享,另一分支則在SPP多尺度特征融合的基礎上采用CBL卷積提取更深層的特征,然后通過通道拼接實現特征融合。FPN+PAN架構如圖5所示,特征金字塔網絡FPN對SPPCSPC池化特征輸出進行兩次上采樣操作,增大輸入特征尺寸,并與主干網絡相同的尺寸進行融合拼接,而PAN則會針對大維度尺寸特征進行兩次下采樣操作,并與來自FPN中不同尺寸的目標特征進行融合拼接,隨后輸入到頭部部分進行分液面的識別。YOLOv7tiny算法在頭部檢測選用了3種不同尺寸目標檢測結果,并提出一種輔助訓練方法,其主要目的是在不影響推理時間的前提下,通過增加訓練成本來提高分液面檢測精度。
3.3.2 損失函數的改進
在YOLOv7tiny網絡中,目標置信度損失和目標類別損失采用BCE With Logits Loss函數計算,用于處理目標的置信度和類別分類信息,邊界框定位損失則采用CIoU(Complete Intersection over Union)損失函數。由于化工反應情況復雜,針對YOLOv7tiny模型采用的CIoU損失函數不能較好地反映漩渦框選定位問題,為解決這問題,筆者選用WIoU v3代替CIoU作為YOLOv7tiny模型的損失函數。
4 實驗與結果分析
4.1 訓練平臺和數據集
本次實驗在集成開發環境PyCharm2024中運行,并且使用GPU 對深度神經網絡模型進行加速訓練,訓練時設置迭代次數Epochs為200輪,批量大小batchsize為16,學習率為 0.01,權重衰減為 0.000 5,圖像大小imgsize為640。其他實驗環境配置為:操作系統Windows10,CPU Intel(R) Core(TM) i58300H,GPU NVIDIA GeForce GTX 1050 Ti,Python版本3.8.13,CUDA 11.6,Pytorch版本1.12.1。
實驗數據集來自某化工生產現場,通過設備采集到物料圖像1 500張,將物料圖像采用標注工具Labelme進行標注,按實際情況分為小漩渦物料圖像和大漩渦物料圖像,如圖7所示。
在深度學習訓練過程中,為了防止檢測模型過擬合,需要訓練大量樣本,樣本數量會直接影響最終的分液面檢測結果。1 500張圖像屬于小樣本,遠不足以支撐深度學習模型的訓練要求,因此采取圖像增強方法擴充了樣本數量,圖像增強方式有旋轉、鏡像、裁剪、噪聲、縮放和色調飽和度變換。
將實驗中所使用的物料圖像數據集劃分出訓練集、測試集和驗證集,劃分比例為8:1:1。
4.2 評價指標
根據實際的物料分液面檢測需求確定選用IOU閾值為0.5的平均精度均值mAP和每秒幀檢測速率FPS作為評價模型檢測性能的指標,其中mAP是基于精確率P(Precision)和召回率R(Recall)計算得到的,反映了模型對分液面的識別精度;FPS則衡量了模型的檢測速度,反映了模型的實時性。精確率是指所有被預測為正樣本中實際為正樣本的比例,召回率是指所有實際為正樣本中被預測為正樣本的比例。精確率、召回率和平均精度均值計算式為:
4.3 結果分析
4.3.1 損失函數對比結果
為了驗證WIoU v3損失函數在分液面檢測任務中的有效性,采用CIoU和WIoU v3作為YOLOv7tiny模型的損失函數,在實驗數據集上進行訓練并做對比實驗,結果見表1,可以看出,WIoU v3損失函數可以在內存占用量不變的前提下,mAP@0.5有了1.8%的提升,模型的邊界框損失能夠更好地收斂,并且提升了模型泛化能力。下文統一將YOLOv7tiny(WIoU v3)稱為 YOLOv7tiny。
4.3.2 不同算法結果的對比
在相同實驗條件下,選用同一物料數據集進行訓練,結果見表2,可以看出,YOLOv7tiny算法的mAP值相對最高,為86.3%,相較于常用的輕量級YOLOv3tiny和YOLOv5s算法分別高出9.5%和5.1%。在檢測速度方面,YOLOv7tiny較YOLOv3tiny和YOLOv5s算法分別低5 FPS/s和高10 FPS/s。在內存占用量方面,YOLOv7tiny算法較YOLOv3tiny和YOLOv5s算法分別低4.92 MB和低2.07 MB,內存占用較少。綜合來看,YOLOv7tiny性能較優。
5 結束語
筆者基于機器視覺技術對化工反應分液面的檢測進行了研究,采用YOLOv7tiny深度學習算法構建了化工反應分液面檢測系統并進行了實驗,結果表明采用筆者算法的檢測系統較采用YOLOv3tiny算法和YOLOv5s算法的檢測系統平均精度均值高、檢測速度快,能夠實現化工分液面的快速檢測,具有良好的應用前景。
參 考 文 獻
[1]" nbsp;季浩宇,謝南,唐毅,等.觀音巖水庫建成前后下游金沙江段濁度及電導率變化分析[J].環境科學導刊,2022,41(4):7-12.
[2]" "姜波,張平,尹傳祥,等.電導率在自動分液系統中的應用[J].山東化工,2019,48(18):123-125.
[3]" "楊昌群,徐宸.在線式液體密度測量技術簡述[J].自動化技術與應用,2022,41(9):1-4.
[4]" "張碭碭,胡劍虹,萬延見,等.基于SSIM的萃取液體檢測分離系統設計[J].儀表技術與傳感器,2021(9):54-57;62.
[5]" "鐘先鵬,沈夢,朱志國,等.基于Zynq的智能液體分離系統設計與實現[J].工業控制計算機,2024,37(1):50-52;88.
[6] WANG C Y,BOCHKOVSKIY A,LIAO H Y M.YOLOv7:Trainable bagoffreebies sets new stateoftheart for realtime object detectors[C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).Piscataway,NJ:IEEE,2023:7464-7475.
[7]" "LIN T Y, DOLLR P, GIRSHICK R,et al.Feature pyramid networks for object detection[C]//Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE,2017:2117-2125.
[8]" "LIU S,QI L,QIN H,et al.Path aggregation network for instance segmentation[C]//Proceedings of the IEEE 2018 Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE,2018:8759-8768.
(收稿日期:2024-08-16,修回日期:2025-02-11)