999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于機器視覺的復(fù)雜環(huán)境下細紗落紗機的紗錠和管紗識別

2024-12-31 00:00:00閆小鵬楊雅寧
現(xiàn)代紡織技術(shù) 2024年7期
關(guān)鍵詞:機器視覺

摘 要:為了解決傳統(tǒng)自動細紗落紗機在拔管和插管操作中存在的漏拔、漏插問題,將機器視覺技術(shù)引入自動細紗落紗機中,提出了一種兩次識別分割的方法,以準(zhǔn)確識別管紗和紗錠,降低漏拔和漏插發(fā)生的概率。針對復(fù)雜環(huán)境對原始圖像造成的嚴(yán)重干擾,首先在圖像預(yù)處理時調(diào)整目標(biāo)與背景之間的對比度,突出紗錠和管紗的圖像特征;然后在目標(biāo)識別過程中進行初始識別和二次識別。為進一步提高識別的準(zhǔn)確率,分別在圖像預(yù)處理和目標(biāo)識別階段進行改進,在預(yù)處理中通過圖像乘法融合的方式進一步增強對比度,在目標(biāo)篩選決策中引入目標(biāo)數(shù)量特征以提高識別準(zhǔn)確率。結(jié)果表明,該方法對不同場景下的紗錠和管紗的識別準(zhǔn)確率超過98.40%,實現(xiàn)了在復(fù)雜背景下紗錠和管紗的精確識別。

關(guān)鍵詞:機器視覺;落紗機;紗錠識別;管紗識別

中圖分類號:TP391

文獻標(biāo)志碼:A

文章編號:1009-265X(2024)07-0022-11

在紡織織造中,細紗落紗機的落紗操作至關(guān)重要,直接影響到紗線質(zhì)量、產(chǎn)量以及整個工廠的運營[1-2]。細紗落紗機的落紗操作主要涉及滿管紗的拔管操作和空紗錠的插管操作。傳統(tǒng)的自動落紗機雖然能夠自動執(zhí)行這些操作,但由于操作精度不足等問題,在拔管和插管操作中,漏拔和漏插的問題時有發(fā)生。為了解決上述問題,吳叢俊等[3]采用集體落紗裝置對細紗機進行改造,以提高落紗效率。高紅河[4]提出了一種環(huán)錠紡細紗機集體落紗的自動化升級改造方案。陳祖英等[5]研究了新一代高端智能毛紡集聚紡自動落紗細紗機,機電一體化水平大幅提升,并提高了毛紡紗線和織物的質(zhì)量。林如忠等[6]研究的FX510型智能集落亞麻細紗機具有良好的性能,但是制造成本高、單錠檢測故障率高,對紗管要求更高。

機器視覺在紡織織造領(lǐng)域已廣泛應(yīng)用于各種檢測。李樂樂等[7]提出一種管紗抓取系統(tǒng),該系統(tǒng)通過Yolov4-Tiny模型進行管紗識別,通過RANSAC算法進行點云配準(zhǔn),成功抓取率約為64%。李靖宇等[8]提出了一種基于參數(shù)可調(diào)的均值遷移濾波算法,可以滿足對筒子紗的精確識別檢測。張文昌等[9]提出一種離線檢測與在線檢測相結(jié)合的視覺定位方法,通過紗桿的位置信息引導(dǎo)機器人完成相應(yīng)的取放作業(yè)。王文勝等[10]提出了一種改進的頻率調(diào)諧顯著性檢測算法,對筒子紗紗籠和紗桿進行定位檢測。

在細紗車間的復(fù)雜環(huán)境中,傳統(tǒng)的圖像處理技術(shù)在管紗和紗錠的準(zhǔn)確識別方面面臨多重挑戰(zhàn),包括目標(biāo)背景的復(fù)雜性、光線亮度的變化、無關(guān)物體的遮擋以及拍攝角度等。此外,在紗錠和管紗的目標(biāo)識別過程中還需要根據(jù)經(jīng)驗來設(shè)置參數(shù),進一步增加了目標(biāo)的識別難度。因此,在復(fù)雜的車間環(huán)境中準(zhǔn)確識別管紗和紗錠成為基于機器視覺技術(shù)的自動落紗機設(shè)計的關(guān)鍵。本文將機器視覺引入獨立式自動細紗落紗機中,通過準(zhǔn)確識別管紗和紗錠,降低拔管和插管過程中漏拔和漏插情況發(fā)生的概率。本文在圖像預(yù)處理階段調(diào)整目標(biāo)與背景之間的對比度,在目標(biāo)識別階段進行初始識別和二次識別,實現(xiàn)對不同場景下紗錠和管紗的準(zhǔn)確識別,并計算輸出其頂點、中心點的像素坐標(biāo),從而提高目標(biāo)識別的準(zhǔn)確度,為后續(xù)機械臂的操作提供基礎(chǔ)。

1 紗錠、管紗的分割與識別

傳統(tǒng)自動落紗機漏拔、漏插現(xiàn)象的檢測依賴于對紗錠、管紗狀態(tài)及數(shù)量的識別判斷。在拔管后檢測落紗機上紗錠、管紗的狀態(tài)及數(shù)量,如出現(xiàn)管紗即有漏拔現(xiàn)象發(fā)生,如出現(xiàn)紗錠則有漏插現(xiàn)象發(fā)生。細紗落紗機裝載視覺傳感器獲取紗錠、管紗的原始圖像如圖1和圖2所示。圖1(a)為原始圖像中紗錠的排列情況,從圖中可以看出,細紗落紗機的結(jié)構(gòu)復(fù)雜,細紗落紗機的支撐桿和無關(guān)紗錠與目標(biāo)紗錠混合,給紗錠的分割識別帶來了挑戰(zhàn)。圖1(b)為單獨的紗錠圖像,其主體呈細長柱體,垂直方向線性度較高,除中間小部分磨損部位亮度較低外,主體呈亮白狀態(tài),其體積特征與背景存在明顯差異。因此,可以依據(jù)紗錠的高度、豎直方向線性度、灰度及面積特征來分割目標(biāo)主體,實現(xiàn)紗錠的識別與定位。圖2(a)為原始圖像中管紗的排列情況,雖然背景中存在無關(guān)管紗,但管紗的面積特征明顯,因此,管紗的識別難度偏低。圖2(b)為單獨的管紗圖像,管紗套于紗錠之上,主體豎直且較粗,在滿紗后主體呈白色,顏色分布均勻且無斷層現(xiàn)象,特征突出。因此,可以依據(jù)管紗豎直方向的高度、線性度、顏色及面積特征分割目標(biāo)主體,實現(xiàn)管紗的識別與定位。

識別紗錠、管紗的處理流程包括圖像預(yù)處理和目標(biāo)識別兩個階段,整體識別處理流程如圖3所示。在圖像預(yù)處理階段,首先進行圖像裁切去除原始圖像與目標(biāo)識別無關(guān)的區(qū)域,再通過增強處理提高圖像清晰度,突出目標(biāo)的邊緣輪廓;然后經(jīng)灰度化、中值濾波和灰度線性變換,進一步強化目標(biāo)與背景之間的差異,為后續(xù)目標(biāo)的分割識別提供條件。在目標(biāo)識別階段,首先二值化預(yù)處理圖像,然后進行初次分割識別。根據(jù)目標(biāo)的相關(guān)特征范圍,從初次分割的圖像區(qū)域中篩選目標(biāo)區(qū)域,剔除無關(guān)區(qū)域,其次依次執(zhí)行腐蝕和填充操作以進一步精確分割目標(biāo)區(qū)域的形狀。由于腐蝕操作會向圖像引入新的干擾區(qū)域,通過二次執(zhí)行分割、篩選、膨脹和填充操作,克服干擾,精確分割目標(biāo)區(qū)域。最后計算和分析目標(biāo)區(qū)域的特征,實現(xiàn)紗錠和管紗的識別與定位。

1.1 圖像預(yù)處理

1.1.1 圖像裁切與增強處理

為避免原始圖像中無關(guān)區(qū)域的干擾,同時降低

后續(xù)處理的數(shù)據(jù)量以提高處理的實時性,首先對原始圖像進行裁切處理,即保持原始圖像行序不變,截取像素列序460~1630范圍內(nèi)的圖像。裁切后的圖像如圖4(a)和圖5(a)所示,與原始圖像相比,裁切后的圖像僅包含與主體目標(biāo)相關(guān)的圖像區(qū)域。受光線影響,裁切后的圖像中紗錠輪廓邊緣模糊,管紗主體區(qū)域內(nèi)存在較多暗紋。采用emphasize函數(shù)進行增強處理[11-12],提高圖像清晰度。在增強處理中,取計算內(nèi)核大小為(10,10),對比度增強系數(shù)為6。通過圖像增強處理,突出了紗錠和管紗的輪廓邊緣,增加了紗錠和管紗與背景間的對比度,降低目標(biāo)區(qū)域內(nèi)的暗紋。對紗錠和管紗進行增強處理后的圖像分別如圖4(b)和圖5(b)所示。

1.1.2 灰度化、中值濾波和灰度線性變換

基于加權(quán)平均原理對增強處理后的圖像進行灰度化處理。因圖像光線變化、拍攝角度、反光亮點及灰塵影響,灰度圖中仍存在較多噪聲。為降低噪聲干擾,保持圖像整體的均一性,同時保證目標(biāo)邊緣不受影響,避免主體模糊化,采用中值濾波[13]對灰度化后的圖像進行降噪處理?;叶然椭兄禐V波處理后的圖像主體目標(biāo)與背景的對比度進一步增強,效果分別如圖4(c)和圖5(c)所示。

為進一步凸顯管紗與紗錠的輪廓邊緣,增大其與圖像背景的對比度,執(zhí)行灰度線性變換[14-15]以縮放中值濾波后圖像灰度值。對紗錠和管紗執(zhí)行灰度線性變換后的結(jié)果分別如圖4(d)和圖5(d)所示,由圖可知,圖像中低灰度值區(qū)域趨向于更暗,高灰度值區(qū)域趨向于更亮,目標(biāo)主體與圖像背景間的灰度差值進一步增大,保證后續(xù)目標(biāo)分割的準(zhǔn)確性及完整性。

1.2 紗錠及管紗識別

在圖像預(yù)處理階段,通過圖像裁切、增強、灰度化、中值濾波及灰度線性變換等處理,使目標(biāo)主體區(qū)域與背景間的對比度進一步增大,濾除目標(biāo)區(qū)域內(nèi)的斑點及細紋,減少對后續(xù)識別操作的干擾,突出紗錠、管紗的輪廓邊緣與背景間的灰度差值,保證分割的完整性,同時避免產(chǎn)生對無關(guān)區(qū)域的誤分割[16]。在目標(biāo)識別階段,首先對預(yù)處理圖像進行二值化處理,然后執(zhí)行初次分割與識別。由于分割后目標(biāo)區(qū)域仍然存在分割不完整或分割黏連無關(guān)區(qū)域的現(xiàn)象,經(jīng)二次分割與識別可以獲得更準(zhǔn)確的目標(biāo)區(qū)域,提高紗錠、管紗的識別準(zhǔn)確率。

1.2.1 二值化處理

經(jīng)預(yù)處理后的圖像背景大部分呈灰暗狀態(tài),灰度值較低,小部分呈高亮斑點,但并不與紗錠或管紗主體相連通,同時,紗錠和管紗主體呈白亮狀態(tài),灰度值較高,因此,采用二值化[17]分割圖像中的高亮灰度區(qū)域。為確保對紗錠和管紗主體完全分割的同時保留適當(dāng)冗余,設(shè)定灰度閾值區(qū)間為[220,255]。獲取的目標(biāo)區(qū)域如圖6所示。經(jīng)二值化的圖像中,除紗錠、管紗主體區(qū)域外,還存較多的無關(guān)區(qū)域。相較于目標(biāo)區(qū)域,無關(guān)區(qū)域呈現(xiàn)出零散、形狀無規(guī)則、面積較小的特征,與目標(biāo)區(qū)域差異較大。因此,可以根據(jù)面積和高度特征剔除圖像中的無關(guān)區(qū)域。

1.2.2 初始分割與識別

初始分割與識別旨在濾除二值化的圖像中無關(guān)區(qū)域,并優(yōu)化目標(biāo)區(qū)域的輪廓邊緣,填充目標(biāo)區(qū)域內(nèi)的空洞和縫隙。具體操作如下:

a)圖像分割與目標(biāo)篩選。采用圖像鄰域分析法[18-19]將二值化的圖像中不相連的區(qū)域分割成獨立區(qū)域。紗錠和管紗的分割效果分別如圖7(a)和圖8(a)所示。計算分割后的紗錠和管紗的高度和面積特征,并分別統(tǒng)計分析20個紗錠、管紗的特征。結(jié)果顯示,紗錠的高度最小值為1141個像素單位值,面積最小值為62894個像素單位值,管紗的高度最小值為1080個像素單位值,面積最小值為187097個像素單位值??紤]適當(dāng)冗余,設(shè)定目標(biāo)的高度和面積特征下限分別為980和60000個像素單位值。根據(jù)以上特征閾值篩選目標(biāo),獲得的紗錠和管紗目標(biāo)區(qū)域圖像分別如圖7(b)和圖8(b)所示。通過篩選,保留了所有目標(biāo),濾除了無關(guān)區(qū)域噪聲。

b)腐蝕和填充操作。觀察圖7(b)和8(b)可知,由于紗錠頂端卡珠的影響,篩選獲取的目標(biāo)區(qū)域頂端存在凸點,輪廓邊緣存在毛刺;管紗區(qū)域邊緣存在凸點、毛刺,并黏連無關(guān)細小區(qū)域??赏ㄟ^執(zhí)行腐蝕操作[20]去除凸點和毛刺,斷開黏連的細小無關(guān)區(qū)域。由于紗錠高亮區(qū)域狹長,不恰當(dāng)?shù)馗g操作內(nèi)核值,會導(dǎo)致區(qū)域斷裂甚至消失。為避免過度腐蝕,設(shè)定腐蝕操作內(nèi)核值上限為6;通過循環(huán)尋找的策略,循環(huán)判斷腐蝕內(nèi)核數(shù)值由1-6的過程中,如腐蝕后出現(xiàn)高度特征數(shù)值小于900個像素單位的目標(biāo)區(qū)域,則前序數(shù)值為最佳腐蝕內(nèi)核值,如無,則6為最佳腐蝕內(nèi)核值。紗錠和管紗目標(biāo)區(qū)域的腐蝕處理效果分別如圖7(c)和圖8(c)所示。

盡管腐蝕操作可有效消除凸點、毛刺、斷開黏連的細小無關(guān)區(qū)域,但同時也使管紗區(qū)域出現(xiàn)空洞,紗錠區(qū)域內(nèi)的空洞也進一步增大,經(jīng)腐蝕斷開的黏連區(qū)域成為新的無關(guān)區(qū)域。為消除目標(biāo)區(qū)域內(nèi)空洞和縫隙干擾,采用填充操作將目標(biāo)區(qū)域的空隙、島嶼填充為一體,形成新的輪廓區(qū)域。執(zhí)行填充操作后的紗錠和管紗目標(biāo)區(qū)域效果分別如圖7(d)和圖8(d)所示,填充后的目標(biāo)區(qū)域空洞和縫隙明顯減少,存在空洞的目標(biāo)區(qū)域大多形成了新的連通輪廓區(qū)域。

1.2.3 二次分割與識別

二次分割與識別旨在濾除初始分割與識別中產(chǎn)生的新的細小無關(guān)區(qū)域,平滑輪廓邊緣,并使目標(biāo)區(qū)域大小恢復(fù)至紗錠、管紗實際大小狀態(tài)。具體操作如下:

a)二次分割與篩選處理。分析圖7(c)和圖8(c)可知,經(jīng)腐蝕操作的圖像會產(chǎn)生新的細小無關(guān)區(qū)域,導(dǎo)致目標(biāo)區(qū)域的特征計算錯誤。因此,需再次分割不相連的無關(guān)細小區(qū)域,重新計算分割后的各個區(qū)域的高度、面積等特征信息,并通過新的目標(biāo)區(qū)域與無關(guān)區(qū)域特征的差異濾除細小無關(guān)區(qū)域。采用與1.2.2小節(jié)相同的二次分割處理流程及閾值參數(shù)。對紗錠和管紗進行二次分割與篩選,處理效果分別如圖9(a)和圖10(a)所示。

b)膨脹與二次填充操作。分析圖7(d)和圖8(d)可知,在新獲取的目標(biāo)區(qū)域中,因受紗錠頂端卡珠的影響,導(dǎo)致紗錠分割輪廓邊緣產(chǎn)生凹坑,個別紗錠區(qū)域中仍有縫隙未被填充;管紗區(qū)域下端因受光線影響,獲取的目標(biāo)區(qū)域比實際目標(biāo)更窄,同時輪廓邊緣呈鋸齒狀。采用膨脹操作處理以上情況,使紗錠區(qū)域中部縫隙相連,管紗區(qū)域輪廓過渡平緩。執(zhí)行膨脹操作后的紗錠和管紗目標(biāo)區(qū)域效果分別如圖9(b)和圖10(b)所示。當(dāng)目標(biāo)紗錠和管紗大小與實際紗錠和管紗大小相同時,停止膨脹操作,此時在少數(shù)情況下,紗錠區(qū)域仍存在空洞。通過二次填充操作消除空洞,減少縫隙,實現(xiàn)對紗錠、管紗目標(biāo)區(qū)域的完全分割。紗錠和管紗經(jīng)二次填充處理后的效果分別如圖9(c)和圖10(c)所示。

1.2.4 目標(biāo)識別

圖9(d)和圖10(d)分別展示了紗錠和管紗的目標(biāo)區(qū)域分割識別效果。除個別特殊部位受光照及干擾因素影響未能完全分割外,通過二值化、腐蝕膨脹、填充、特征信息篩選等操作實現(xiàn)了對紗錠、管紗目標(biāo)區(qū)域的精確識別分割。通過遍歷計算每個目標(biāo)區(qū)域的面積、中心點、高度、寬度、最小外接矩形等特征值,得到紗錠、管紗在圖像內(nèi)中心點、頂點的像素坐標(biāo)值,完成了目標(biāo)檢測與定位。同時,管紗纏滿細紗時,其面積、最大寬度及最小外接矩形等特征信息與紗錠存在明顯差異。經(jīng)計算與統(tǒng)計分析可得,紗錠面積最大值為71869個像素單位,管紗面積最小值為187097個像素單位;紗錠寬度最大值為139個像素單位,管紗寬度最小值為248個像素單位。由面積、寬度兩個特征信息的限定閾值,可實現(xiàn)紗錠、管紗類型的區(qū)分。紗錠、管紗識別結(jié)果如圖11所示。

1.3 方法改進

由于細紗落紗機結(jié)構(gòu)的特殊性,獲取原始圖像背景復(fù)雜,對紗錠和管紗的識別存在嚴(yán)重干擾。盡管已經(jīng)通過圖像預(yù)處理進行降噪處理,但是在某些情況下,仍然無法獲得預(yù)期效果。例如,在圖12(a)中,個別紗錠與支撐桿位置交疊,且特征極為相似,易將兩者判定為一體,造成分割紗錠區(qū)域面積增大,將交疊了支撐桿的紗錠誤判為管紗;在圖12(b)中,細紗落紗機的支撐桿與紗錠外觀、色澤及高度等特征相似,導(dǎo)致將支撐桿誤判為紗錠。在圖14(a)中,部分細紗落紗機背板與管紗顏色相近,二值化分割時背板與管紗易連為一體,造成分割區(qū)域形狀畸形,致使目標(biāo)區(qū)域面積增大;另外反光因素也會導(dǎo)致管紗面積增大,形狀不規(guī)則,致使管紗區(qū)域的中心點、頂點坐標(biāo)位置計算錯誤。上述干擾因素會嚴(yán)重影響紗錠和管紗的識別準(zhǔn)確率,必須在現(xiàn)有方法基礎(chǔ)上進行優(yōu)化改進。為便于區(qū)分,稱現(xiàn)有方法為基本方法,優(yōu)化解決干擾因素后的方法稱為改進方法。

分析圖12、圖14中的典型干擾示例。圖12(a)中紗錠與支撐桿位置存在細微交疊,且支撐桿位置相對紗錠位置靠后,整體色澤比紗錠更灰暗,同時高度特征小于紗錠約120個像素;圖12(b)中紗錠與支撐桿輪廓分明,但兩者在整體色澤和高度特征上的差別與圖12(a)中一致。因此,可從預(yù)處理階段、目標(biāo)識別階段兩方面進行改進優(yōu)化。分析圖13(a)可知,紗錠及支撐桿邊緣比中部區(qū)域更灰暗,因此在預(yù)處理階段,采用圖像乘法融合的方式,將濾波輸出圖像與灰度線性變換輸出圖像相乘,得到高對比度圖像。如圖13(b)所示,此時目標(biāo)主體區(qū)域呈高亮狀態(tài),且輪廓邊緣鮮明,易于分割。在目標(biāo)識別過程中,基于支撐桿的高度特征信息,當(dāng)出現(xiàn)識別的紗錠或管紗數(shù)目異常增多

時,遍歷尋找目標(biāo)區(qū)域內(nèi)水平方向距離最近的兩個輪廓體,剔除兩者中高度較小的輪廓體,直至剩余的識別數(shù)目與設(shè)定識別數(shù)目一致為止。改進后的紗錠識別如圖13(c)所示。對于圖14(a)中干擾因素導(dǎo)致的分割錯誤,同樣可采用增大圖像對比度、放大輪廓邊緣差異、提高二值化閾值來解決。在預(yù)處理階段,將濾波輸出圖像與灰度線性變換輸出圖像相乘,得到高對比度圖像。如圖14(b)所示,管紗主體呈高亮狀態(tài),輪廓邊緣鮮明,背景干擾被消除。改進后設(shè)備背板干擾下的管紗識別如圖14(c)所示。

2 驗證與分析

為了驗證基本方法和改進方法的有效性,測試目標(biāo)識別的準(zhǔn)確率,從細紗車間現(xiàn)場采集了1000張原始圖像,進行了4組驗證實驗。第1組實驗中原始圖像包含的目標(biāo)全部為紗錠或者全部為管紗,其中全部為紗錠和全部為管紗的原始圖像各500張,測試對單純管紗和單純紗錠的識別準(zhǔn)確率。第2組實驗中原始圖像中管紗和紗錠混合出現(xiàn),共測試圖像500張,測試在管紗和紗錠的混合場景中的目標(biāo)識別準(zhǔn)確率。第3組實驗中原始圖像包含整排紗錠,測試圖像500張,測試對整排紗錠的識別能力及準(zhǔn)確率。第4組實驗中原始圖像包含整排管紗,測

試圖像500張,測試對整排管紗的識別能力及準(zhǔn)確率。

利用1.2節(jié)的基本方法分別進行4組實驗,實驗結(jié)果如表1所示。從表1中可知,單獨管紗和紗錠的識別準(zhǔn)確率分別為98.00%和97.40%,紗錠、管紗混合情況下識別準(zhǔn)確率為97.20%,整排紗錠和管紗的識別準(zhǔn)確率分別為97.60%和97.80%。紗錠、管紗混合測試實驗組識別準(zhǔn)確率為97.20%,在所有實驗組中的識別準(zhǔn)確率最低;單獨管紗測試實驗組準(zhǔn)確率為98.00%,在所有實驗組中的識別準(zhǔn)確率最高。

基于表1的實驗結(jié)果和原因分析,結(jié)合1.3節(jié)的優(yōu)化改進措施得到改進方法,重新進行實驗,結(jié)果如表2所示。單獨管紗和紗錠的識別準(zhǔn)確率分別提高到99.20%和98.80%,紗錠、管紗混合情況下識別準(zhǔn)確率提高到98.40%,整排紗錠和管紗的識別準(zhǔn)確率分別提高到98.40%和98.60%。所有實驗組的目標(biāo)識別準(zhǔn)確度均有提高,驗證了改進方法的有效性。

表1和表2表明,基本方法對紗錠、管紗的識別準(zhǔn)確率均可達97.00%以上。針對原始圖像中存在細紗落紗機設(shè)備支撐桿與紗錠高度相似、紗錠和管紗輪廓邊緣與背景像素對比度小、設(shè)備背板與管紗顏色差異較小等干擾因素,從預(yù)處理和目標(biāo)識別兩方面對基本方法進行改進優(yōu)化。在預(yù)處理階段,采用圖像乘法融合的方式,進一步增強圖像的高頻區(qū)域(邊緣和拐角),放大輪廓邊緣與周圍像素的差異;將濾波輸出圖像與灰度線性變換輸出圖像相乘,得到高對比度圖像,突出目標(biāo)主體輪廓邊緣與周圍像素間的差異。在目標(biāo)識別階段,一是通過增加腐蝕操作環(huán)節(jié)腐蝕保護操作,尋找設(shè)定上限內(nèi)的最佳腐蝕內(nèi)核值,減少過度腐蝕造成識別誤差;二是目標(biāo)篩選環(huán)節(jié),對識別目標(biāo)數(shù)目異常增多現(xiàn)象,依據(jù)水平距離特征及高度特征遍歷剔除無關(guān)目標(biāo)區(qū)域。上述三項優(yōu)化,解決了對支撐桿的誤判,有效提升了對紗錠、管紗區(qū)域分割的準(zhǔn)確性,識別準(zhǔn)確率可提升至98.40%以上。結(jié)合一些解決不利環(huán)境因素的方法,例如,對支撐桿噴涂深色油漆、提供均勻光照等,可進一步提升識別準(zhǔn)確率。

3 結(jié)論

對于現(xiàn)有細紗落紗機在拔管和插管操作中出現(xiàn)的漏拔和漏插現(xiàn)象,本文將機器視覺引入自動細紗落紗機中,提高識別管紗和紗錠準(zhǔn)確率,降低落紗操作中漏拔和漏插情況發(fā)生的概率。首先,針對細紗車間復(fù)雜的環(huán)境干擾原始圖像的問題,設(shè)計了一種二次識別的方法,在圖像預(yù)處理階段增強目標(biāo)與背景之間的對比度,突出紗錠和管紗的特征,同時在目標(biāo)識別中設(shè)計了初始識別和二次識別,以更準(zhǔn)確地獲取目標(biāo)區(qū)域。其次,為進一步提高紗錠和管紗識別準(zhǔn)確率,分別從預(yù)處理階段、目標(biāo)識別階段對基本方法進行改進。經(jīng)驗證測試,本文的方法對不同場景下紗錠和管紗的識別準(zhǔn)確率超過98.40%,實現(xiàn)了在復(fù)雜背景下對紗錠和管紗的精確識別,但仍未充分解決光線變化、目標(biāo)位置交疊帶來的干擾因素。在未來的工作中,可引入機器學(xué)習(xí)方法,解決強光、反光等特殊場景時個別參數(shù)設(shè)置無法適應(yīng)的情況,進一步提高紗錠和管紗的識別準(zhǔn)確率。

參考文獻:

[1]鄭小虎,劉正好,陳峰,等.紡織工業(yè)智能發(fā)展現(xiàn)狀與展望[J].紡織學(xué)報,2023,44(8): 205-216.

ZHENG Xiaohu, LIU Zhenghao, CHEN Feng, et al. Current status and prospect of intelligent development in textile industry [J]. Journal of Textile Research,2023,44(8): 205-216.

[2]廉繼紅, 王炳炎, 王延年, 等. 改進自抗擾下的細紗機卷繞系統(tǒng)控制策略[J]. 西安工程大學(xué)學(xué)報, 2023, 37(4): 40-47.

LIAN Jihong, WANG Bingyan, WANG Yannian, et al. Control strategy of winding system of spinning frame based on improved active disturbance rejection[J]. Journal of Xi'an Polytechnic University, 2023, 37(4): 40-47.

[3]吳叢俊,卞克玉.FA506型細紗機集體落紗改造關(guān)鍵技術(shù)分析[J].棉紡織技術(shù),2021,49(9): 64-67.

WU Congjun, BIAN Keyu. Analysis of FA506 spinning frame collective doffing modification key technology[J]. Cotton Textile Technology, 2021,49(9): 64-67.

[4]高紅河.環(huán)錠紡細紗機集體落紗的自動化升級改造實踐[J].現(xiàn)代紡織技術(shù),2019,27(2):88-92.

GAO Honghe. Practice of automation upgrading and transformation of ring spinning frame with collective doffing [J]. Advanced Textile Technology, 2019,27 (2): 88-92.

[5]陳祖英,吳奕宏,高勇,等.高端智能毛紡集聚紡自動落紗細紗機的開發(fā)與研究[J].紡織機械,2023,(1): 62-66.

CHEN Zuying, WU Yihong, GAO Yong, et al. Development and research of high-end intelligent woolen agglomeration spinning automatic doffing frame [J]. Textile Machinery, 2023, (1): 62-66.

[6]林如忠,楊飛.FX510型智能集落亞麻細紗機的技術(shù)特點[J].中原工學(xué)院學(xué)報,2022,33(5): 48-51.

LIN Ruzhong, YANG Fei. Research on the technical features of FX510 intelligent collective doffing flax spinning frame [J]. Journal of Zhongyuan University of Technology, 2022,33 (5): 48-51.

[7]李樂樂,張團善,馬浩然,等.基于Yolov4-Tiny與RANSAC算法的管紗識別抓取系統(tǒng)[J].輕工機械,2021,39(4): 68-73.

LI Lele, ZHANG Tuanshan, MA Haoran, et al. Yarn recognition and grasping system based on Yolov4-Tiny and Ransac algorithm[J]. Light Industry Machinery, 2021,39 (4): 68-73.

[8]李靖宇,沈丹峰,王玉,等.基于參數(shù)可調(diào)均值遷移濾波實現(xiàn)筒子紗的識別檢測[J].輕工機械,2021,39(3): 63-68.

LI Jingyu, SHEN Danfeng, WANG Yu, et al. Recognition and detection of cheese based on edge preserving filtering algorithm [J]. Light Industry Machinery, 2021,39 (3): 63-68.

[9]張文昌,單忠德,盧影.基于機器視覺的紗籠紗桿快速定位方法[J].紡織學(xué)報,2020,41(12): 137-143.

ZHANG Wenchang, SHAN Zhongde, LU Ying. Fast location of yarn-bars on yarn-cage based on machine vision [J]. Journal of Textile Research, 2020,41 (12): 137-143.

[10]王文勝,李天劍,冉宇辰,等.筒子紗紗籠紗桿的定位檢測方法[J].紡織學(xué)報,2020,41(3): 160-167.

WANG Wensheng, LI Tianjian, RAN Yuchen, et al. Method for position detection of cheese yarn rod [J]. Journal of Textile Research, 2020,41 (3): 160-167.

[11]LF, LI Y, LU F. Attention guided low-light image enhancement with a large scale low-light simulation dataset[J].International Journal of Computer Vision,2021,129(7): 2175-2193.

[12]LI C Y, GUO C L, LOY C C. Learning to enhance low-light image via zero-reference deep curve estimation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2022,44(8):4225-4238.

[13]陳初俠,丁勇.基于中值濾波的激光雷達圖像邊緣特征提取方法[J].激光雜志,2023,44(8):94-98.

CHEN Chuxia, DING Yong. Lidar image edge feature extraction method based on median filter[J]. Laser Journal,2023,44(8): 94-98.

[14]游達章,陶加濤,張業(yè)鵬,等.基于灰度變換及改進Retinex的低照度圖像增強[J].紅外技術(shù),2023,45(2):161-170.

YOU Dazhang, TAO Jiatao, ZHANG Yepeng, et al. Low-light image enhancement based on gray scale transformation and improved Retinex [J]. Infrared Technology,2023,45(2):161-170.

[15]陳龍,趙巍.一種改進的自適應(yīng)分段線性變換算法[J].激光與紅外,2020,50(8):1020-1024.

CHEN Long,ZHAO Wei. An improved adaptive piecewise linear transformation algorithm [J]. Laser amp; Infrared,2020,50(8):1020-1024.

[16]WANG X, XUE H. An improved Canny edge detection algorithm based on predisposal method for image corrupted by Gaussian noise[J]. IEEE, 2010: 113-116.

[17]王紅霞,武甲禮,陳德山.分離復(fù)雜背景下的文檔圖像二值化方法[J].中國圖象圖形學(xué)報,2023,28(7):2011-2025.

WANG Hongxia, WU Jiali, CHEN Deshan. A complex background-related binarization method for document-contextual information processing [J]. Journal of Image and Graphics, 2023,28(7):2011-2025.

[18]羅鈞,劉建強,龐亞男.基于鄰域搜索JADE的二維Otsu多閾值圖像分割[J].系統(tǒng)工程與電子技術(shù),2020,42(10):2164-2171.

LUO Jun, LIU Jianqiang, PANG Yanan. Multi-threshold image segmentation of 2D Otsu based on neighborhood search JADE[J]. Systems Engineering and Electronics,2020,42(10):2164-2171.

[19]董躍華,張先光.二值形態(tài)學(xué)邊緣檢測算法的量子實現(xiàn)及仿真[J].量子電子學(xué)報,2023,40(5): 654-665.

DONG Yuehua, ZHANG Xianguang. Quantum realization and simulation of edge detection algorithm based on binary morphology [J]. Chinese Journal of Quantum Electronics,2023,40(5): 654-665.

[20]徐成桂,徐廣順.基于數(shù)學(xué)形態(tài)學(xué)的非規(guī)則缺失圖像修復(fù)仿真[J].現(xiàn)代電子技術(shù),2023,46(1):59-63.

XU Chenggui, XU Guangshun. Simulation of irregular missing image repair based on mathematical morphology[J]. Modern Electronics Technique,2023,46(1):59-63.

Recognition of spindles and tube yarns of spinning frames under complex

environment based on machine vision

YAN" Xiaopeng1," YANG" Yaning2

(1.Scraper Research Branch, Ningxia Tiandi Benniu Industrial Group Co., Ltd., Shizuishan 753001, China;

2.School of Physics and Electronic Information Engineering, Ningxia Normal University, Guyuan 756500, China)

Abstract:

In the textile manufacturing industry, the process of yarn dropping in spinning frames is critical as it directly impacts yarn quality, production output, and factory operations. Traditional automatic doffers, while capable of performing operations automatically, often suffer from imprecise of operations, resulting in missed of empty tube insertion or tube yarn extraction during the doffing process. The current approach is to assign dedicated personnel to track, inspect, and address the issue, which increases labor costs and restricts the level of automation and intelligence in the workshop.

This paper aimed to address the issues of yarn tube extraction missing and empty tube insertion missing in traditional automatic fine yarn doffers by introducing machine vision technology to accurately recognize tube yarns and yarn spindles, so as to reduce the probability of missed extractions and insertions in subsequent operations. However, traditional image processing techniques face challenges in complex fine yarn workshop environments, such as complex target backgrounds, lighting variations, obstructions, and shooting angles. In addition, it is necessary to set parameters and thresholds based on experience during the recognition process of spindles and tube yarns, which increases the difficulty of recognition. Therefore, accurate recognition of tube yarns and spindles is crucial for automatic doffers based on machine vision technology. To solve the interference problem of images gathered by visual sensors in workshop environments, this paper proposed a basic image processing method. By adjusting the contrast between the targets and the background, the characteristics of spindles and tube yarns could be highlighted. This method also performed initial and secondary recognition in the targets recognition process to obtain the target areas more accurately. In order to further improve the recognition accuracy of yarn spindles and tube yarns, the basic image processing method was improved in image preprocessing phase and object recognition phase, respectively. In the preprocessing phase, image multiplication fusion was used to obtain high-contrast images to reduce the difficulty of subsequent image segmentation. For the interference introduced by the support rod of the spinning machine in the original image, the study found the nearest two horizontal contour bodies in the target region, and eliminated the smaller contour body in the target selection decision, until the remaining recognition quantity was consistent with the set number.

The experimental results demonstrate that the recognition accuracy of yarn spindles and tube yarns in different scenarios exceeds 98.40%, realizing the accurate recognition of spindles and tube yarns in complex background. In future work, machine learning methods can be introduced to solve the problem that individual parameter setting cannot adapt to special scenes such as strong light and reflection, and further improve the recognition accuracy of spindles and pipe yarns.

Keywords:

machine vision; doffer; spindle recognition; tube yarn recognition

猜你喜歡
機器視覺
基于芯片點膠系統(tǒng)的視覺檢測技術(shù)研究
全自動模擬目標(biāo)搜救系統(tǒng)的設(shè)計與實現(xiàn)
基于機器視覺的自動澆注機控制系統(tǒng)的研究
科技視界(2016年26期)2016-12-17 17:31:58
機器視覺技術(shù)的發(fā)展及其應(yīng)用
科技視界(2016年25期)2016-11-25 19:53:52
視覺拉線檢測器的設(shè)計與實現(xiàn)
科技視界(2016年25期)2016-11-25 09:27:34
大場景三維激光掃描儀在研究生實踐教學(xué)培養(yǎng)中的應(yīng)用
基于機器視覺的工件鋸片缺陷檢測系統(tǒng)設(shè)計
軟件工程(2016年8期)2016-10-25 15:55:22
基于機器視覺技術(shù)的動態(tài)“白帶”常規(guī)檢測系統(tǒng)的開發(fā)
科技視界(2016年20期)2016-09-29 11:11:40
對激光切割機的改進
科技視界(2016年6期)2016-07-12 09:12:40
人工智能在高校圖書館的預(yù)期
科技視界(2016年15期)2016-06-30 19:03:30
主站蜘蛛池模板: 中文国产成人精品久久| 国产视频自拍一区| 四虎成人免费毛片| 天天爽免费视频| 欧美精品在线免费| 丁香六月综合网| 亚洲高清国产拍精品26u| 99这里只有精品6| 亚洲天堂自拍| 日韩毛片视频| 2021天堂在线亚洲精品专区| 国内精品一区二区在线观看| 欧美成人a∨视频免费观看| 久久九九热视频| 午夜福利视频一区| 色综合五月| 亚洲精品你懂的| 欧美va亚洲va香蕉在线| 精品1区2区3区| 欧美一级专区免费大片| a级毛片网| 亚洲精品少妇熟女| 免费国产好深啊好涨好硬视频| 激情综合网址| 午夜影院a级片| 国产又黄又硬又粗| 亚洲第一区欧美国产综合| 国产精品成人不卡在线观看 | 国产手机在线小视频免费观看| 香蕉久久永久视频| julia中文字幕久久亚洲| 91在线免费公开视频| 欧美另类精品一区二区三区| 五月婷婷激情四射| 亚洲日韩高清在线亚洲专区| 欧美在线中文字幕| 久久久精品无码一二三区| 不卡无码网| 国产美女一级毛片| 欧美在线黄| 人妻一区二区三区无码精品一区| 国产精品视频久| 日韩av无码DVD| 亚洲精品你懂的| 呦视频在线一区二区三区| 青草午夜精品视频在线观看| 亚洲系列中文字幕一区二区| 国产剧情国内精品原创| 国产色婷婷| 成人午夜天| 精品国产免费观看| 日韩欧美色综合| 精品三级在线| 尤物精品国产福利网站| 国产一区亚洲一区| 尤物精品国产福利网站| 国产69精品久久| 69综合网| 青青青视频91在线 | 久久国产香蕉| 免费人成黄页在线观看国产| 无码aaa视频| 日韩欧美中文| 国产一级特黄aa级特黄裸毛片 | 亚洲欧美自拍中文| 久久久久久午夜精品| 国产乱人免费视频| 久久无码av三级| 伊人中文网| 一区二区三区在线不卡免费| 国产成人一区免费观看 | 免费啪啪网址| 亚洲国产系列| 国产第一页屁屁影院| 老熟妇喷水一区二区三区| 久久精品亚洲中文字幕乱码| 一级一级一片免费| 亚洲成人在线播放 | 国产精品福利一区二区久久| 亚洲精品国产精品乱码不卞| 高清无码一本到东京热| 自拍偷拍欧美|