999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于機器視覺的目標識別方法的研究進展

2023-11-22 08:35:46朱亞軍陳砆興
科技資訊 2023年21期
關鍵詞:深度檢測方法

朱亞軍 陳砆興

(蘭州石化職業技術大學 甘肅 蘭州 730060)

機器視覺技術是利用計算機模擬人眼的視覺功能,從目標圖像中提取信息,然后對圖片中的信息進行處理和分析理解,最后用于實際的識別、測量、監督等用途的一種技術,具有速度快、精準率高和高重復性等特點。用機器視覺代替人眼已經成為提高工業、農業自動化程度的必然途徑。視覺傳感器技術、光源照明技術、光學成像技術、數字圖像處理技術、模擬與數字視頻技術、計算機軟硬件技術以及自動控制技術都屬于機器視覺技術。

1 機器視覺系統概述

機器視覺系統一般包括光源系統、圖像捕捉系統、圖像數字化模塊、圖像處理系統和控制執行模塊。機器視覺系統組成結構具體見圖1。首先被測物體的1的圖像由攝像機2獲取,圖中4是一種產生觸發信號的光電傳感器,被測物體需要合適的標準或定制光源3照明,攝像機通過與計算機的接口6 如圖像采集卡將采集到的圖像傳至計算機5,接口設備驅動程序將圖像7在計算機內存中,圖像收集是通過圖像卡進行的,如果計算機攝像頭的圖像接口不是圖像收集卡,而是USB 2.0或網絡接口,那么照明就由圖像卡控制。計算機可以在標準處理器、數字信號處理器、機器視覺軟件、門模塊編程的組合中使用。圖中8 表示檢測被測物并給出檢測結果,檢測結果與可編程控制器(PLC)或分布式控制系統(DCS)等控制器11 通信,通常情況下,這種通信由數字I/O 接口10 完成。而PLC 一般是通過通信接口12如現場總線或串口控制執行機構13,執行機構做出反應將被測物體從生產線上進行剔除。

圖1 典型機器視覺系統組成

機器視覺系統集成了計算機、光學、機械、電氣等多學科的技術研究。人工智能、模式識別和圖像處理技術的深入研究,為機器視覺系統的發展提供了更廣闊的發展空間[1]。

2 機器學習技術概述

機器視覺的目標識別方法的研究進展,包括基于尺度模型的檢測方法,基于深度學習的檢測方法以及深度學習與其他技術融合的檢測方法?;诔叨饶P偷臋z測方法是目標識別領域的早期方法,包括SIFT、SURF、HOG 等。它們通常采用滑動窗口算法,從原始圖像中搜索感興趣的目標,以及通過檢測特征點并使用這些特征點生成描述符來識別檢測到的目標[2]。雖然這些方法已經被證明是有效的,但是它們的準確率有限,因為它們無法處理復雜的背景,如遮擋和遮擋物。

隨著深度學習技術的發展,機器視覺的目標識別領域的主流方法是深度學習的檢測方法。這些方法通常將圖像輸入到一個深度神經網絡,并使用回歸模型或分類模型來預測檢測到目標的位置和類別。這些方法可以處理更復雜的背景,并且在很多任務中取得了比基于尺度模型的檢測方法更高的準確率。最近,隨著深度學習技術的不斷發展,深度學習技術已經被廣泛應用于與機器視覺有關的其他技術,并融合到機器視覺的目標識別方法中。一些研究者將多模型技術,如譜聚類算法與深度學習技術融合,以提高復雜圖像的檢測精度。此外,一些研究者還將深度學習技術與弱監督學習技術,如無監督預測和多任務學習,融合到機器視覺的目標識別方法中,以提高識別效果。

隨著機器學習、深度學習的發展,很多肉眼很難直接量化的特征,深度學習可以自動學習這些特征,特別是在圖像分類、目標識別這些問題上有顯著的提升[3]。尤其是卷積神經網絡模型(Convolutional Neural Networks,CNN)是專門用于視覺領域的學習方法,極大地推動了機器視覺技術的發展。

3 機器視覺目標識別方法分類

目標識別是計算機視覺領域的一個重要研究方向,盡管機器視覺的目標識別方法研究已經取得了顯著的進展,但仍有很多挑戰需要解決,包括如何在不同光照條件下識別目標、如何識別動態目標等。因此,目標識別仍將是計算機視覺領域的研究熱點,在過去的幾十年中,已經有大量的研究工作致力于提高目標識別的準確性和效率。

3.1 模板匹配法

基于特征提取的方法是一種結合了傳統方法和深度學習方法的目標識別方法。它通過提取圖像中的特征,然后使用這些特征來識別目標。這種方法可以克服模板匹配方法存在的問題,在保證識別精度的同時也能夠提高效率,模式是最原始和最基本的模式識別方法,它研究特定對象的模式在哪里,從而識別對象,這是一個匹配問題。這是圖像處理中最簡單、最常用的匹配方法。換句話說,有小圖片應該匹配,在大圖片中可以找到,這些圖片的大小、方向和元素與統計表達式中計算的模板特征可以在圖中找到目標,確定其坐標位置。

張盼盼[4]利用模板匹配法與八鄰域分析法進行數字識別,將模板匹配法應用于數字識別的細化預處理中,對包含數字的圖片進行一系列預處理操作:分割—去噪—二值化。在數字識別處理時,對于沒有雙邊緣的二值化圖像,采用該算法后細化結果良好,未出現斷裂現象,結果良好。李小利等人[5]利用模板匹配法基于灰度直方圖的攝像機標定中,加權模板匹配方法不僅降低了單一模板匹配的風險,而且充分利用了具有相似紋理這一有利信息,提出的方法可以達到工程要求的亞像素級別誤差,由此說明該方法在攝像機標定的應用中是行之有效的。

這就說明,要找的模板是圖像里標準存在的。一旦圖像或者模板發生變化,如旋轉、修改某幾個像素、圖像翻轉等操作后,就無法進行匹配,這也是這個算法的弊端。所以,這種匹配算法,就是在待檢測圖像上,從左到右、從上向下對模板圖像與小東西的圖像進行比對。

3.2 Blob分析法(Blob Analysis)

圖像顏色紋理等特征相似所組成的一塊連通區域叫作Blob。Blob 分析(Blob Analysis)是對圖像中相同像素的連通域進行分析(該連通域稱為Blob)。該過程是對圖像進行二值化,分割前景和背景,然后檢測連通區域,從而得到Blob塊的過程。

Blob 分析工具可以將物體從背景中分離出來,計算出物體的數量、位置、形狀、方向和大小,并提供相關點的拓撲結構。在處理過程中,不是逐個分析單個像素,而是對圖像的線條進行操作,很大程度上提高了處理效率。

3.3 深度學習法

深度學習方法,特別是卷積神經網絡(Convolutional Neural Networks,CNN),是通過將已經成模板圖像進行匹配來識別目標。這種方法在處理簡單圖像時表現良好,但在處理復雜圖像時可能出現誤識別問題,2014年R-CNN的提出如圖2所示,使基于CNN的目標檢測算法逐漸成為主流。深度學習的應用,使檢測精度和檢測速度都獲得了改善。

圖2 卷積神經網絡

Faster R-CNN 是先用CNN 骨干網提取圖像特征,特征圖進入RPN 網絡后,為每個特征點預設9 個不同大小形狀的錨盒。通過計算錨盒與真實目標盒的交點比和偏移量,判斷該位置是否存在目標。將預定義的錨盒分為前景錨盒和背景錨盒,然后根據偏差損失訓練RPN 網絡進行位置回歸。校正后的ROI 的位置,最后將校正后的ROI傳遞到后續網絡中。但在檢測過程中,RPN網絡需要對目標進行回歸篩選,區分前景和背景目標,后續檢測網絡再次對RPN 輸出的ROI 進行精細分類和位置回歸,由于兩次計算導致模型參數大量。

Faster R-CNN是一種基于卷積神經網絡的目標識別方法,它通過使用區域建議網絡(RPN)來生成可能的目標區域,再使用卷積神經網絡來對這些區域進行識別。Faster R-CNN的優點是在保證識別精度的同時也具有較高的效率。

董蘭芳等人[6]基于Faster R-CNN 的人臉檢測,分別使用ZF 和VGG16 卷積神經網絡,在WIDER 人臉數據集上訓練Faster R-CNN 模型,并在FDDB 人臉數據庫上測試。實驗結果表明:該方法對復雜光照、部分遮擋、人臉姿態變化具有魯棒性,在非限制性條件下具有出色的人臉檢測效果。

3.4 基于YOLO的目標檢測法

YOLO(You Only Look Once)是一種高效的目標識別方法,YOLO是一種基于深度學習的物體檢測算法,它的主要思想是將檢測問題轉化為一個多目標檢測問題,通過深度學習網絡單次計算即可完成物體檢測任務,不需要多次計算,從而提高了檢測速度。YOLO方法的主要思想是將輸入圖像分割成一個個格子,每個格子都預測出圖像中的物體類別與位置。YOLO算法的核心結構包括三部分,即物體檢測網絡、特征提取器和損失函數。通過在圖像上進行一次卷積,實現了對目標的實時識別。YOLO的主要優點是速度快和能夠同時識別多個目標。

YOLO 模型的改進也得到了持續的研究。2016年,REDMON J等人[7]提出了YOLO2模型,并將其用于目標檢測任務,在PASCAL VOC 數據集的實驗中,YOLO2 模型的準確率和速度都獲得了顯著提升。YOLO3 模型利用深度可分離卷積和其他技術提升了檢測精度和速度,最新的YOLO4模型也采用了更多高級技術。例如:混合預測和多通道特征融合,提升了檢測性能。YOLO模型的算法在計算機視覺領域得到了廣泛的應用,如自動駕駛、機器人、行人檢測、人臉檢測等。在自動駕駛領域,YOLO模型可以用來檢測車輛、行人和障礙物,從而提高自動駕駛系統的安全性。在機器人領域,YOLO模型可以用來檢測環境中的物體,從而幫助機器人理解周圍環境。在行人檢測領域,YOLO 模型可以用來檢測行人的位置,從而提高行人跟蹤系統的效率。在人臉檢測領域,YOLO 模型可以用來檢測人臉位置,從而提高人臉識別系統的準確性。

李慶中等人[8]基于水下魚類目標快速檢測,提出了改進的YOLO 和遷移學習的進行水下目標檢測,對YOLO 網絡的精簡化,克服水下有限樣本集的限制。實驗結果表明:在水下魚類檢測中,Underwater YOLO可以實現較少的卷積層數的目標檢測,不僅具有更好的精度和召回率,而且大大提高了目標檢測的計算速度。特征融合、多尺度檢測和使用錨幀編碼可以有效提高網絡性能。

薛雅麗等人[9]為了提高在遙感信號中小目標的檢測精度,在YOLO算法的前提下,加入加權融合特征網絡;并引入注意力機制提高模型對目標信息的感知能力,降低了RSOD 數據集中小目標的虛警率。王勃凡等人[10]采用CenterNet 目標檢測框架進行光譜維的特征篩選,設計了RBOON和基于RBAF激活函數的注意力機制對模糊、微弱的小目標的分類,使其能在小目標高光譜數據集上正確篩選特定光譜。

4 總結與展望

機器視覺的目標識別方法的研究仍在不斷發展,并將帶來更多的技術創新,從而在實際應用中發揮更大的作用。隨著自動駕駛技術的發展,機器視覺的目標識別在汽車行業中也有著廣泛的應用,例如:通過機器視覺識別道路標志、行人、其他車輛等,以確保自動駕駛汽車的安全。此外,機器視覺目標識別在醫學影像診斷、安防監控、商業分析等領域也有著廣泛的應用。

隨著技術的不斷提高和發展,機器視覺目標識別技術將取得更多的成果,為人類的生活提供更多的便利。機器視覺目標識別技術在機器人領域也有著廣泛的應用。例如:通過機器視覺識別環境,使機器人能夠在家居、工業生產等環境中更加靈活、高效地進行操作。同時,機器視覺目標識別技術在軍事領域也有著重要的應用。機器視覺目標識別技術已經成為當今科技領域中一項重要的技術,其廣泛的應用使人類生活得到了顯著的改善。在未來,機器視覺物體識別技術將繼續發展并在更多領域得到廣泛應用。

近年來,機器視覺的目標識別方法取得了長足的進展。從最初基于比例模型的檢測方法,到新興的深度學習方法,再到深度學習與其他技術的集成,機器視覺的目標識別方法已經取得了重大的突破。深度學習技術的發展為機器視覺的目標識別方法提供了新的機遇和挑戰。

猜你喜歡
深度檢測方法
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
深度理解一元一次方程
深度觀察
深度觀察
深度觀察
小波變換在PCB缺陷檢測中的應用
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
主站蜘蛛池模板: www.国产福利| 亚洲伦理一区二区| 国产极品嫩模在线观看91| 国产va在线| 欧美亚洲欧美| 自拍中文字幕| 国产丝袜91| 亚洲高清无在码在线无弹窗| 内射人妻无码色AV天堂| 一级成人欧美一区在线观看| 思思热在线视频精品| 色丁丁毛片在线观看| 日韩av高清无码一区二区三区| 99re在线免费视频| 免费一级α片在线观看| h网址在线观看| 中文字幕啪啪| 亚洲国产精品无码AV| 久久精品免费国产大片| 亚洲最新地址| 亚洲综合久久一本伊一区| 亚洲天堂久久久| 色窝窝免费一区二区三区| 亚洲色欲色欲www网| 亚洲三级色| 亚洲一级毛片在线观播放| 成人无码一区二区三区视频在线观看 | 青青青国产精品国产精品美女| 亚洲人精品亚洲人成在线| 亚洲丝袜中文字幕| 亚洲国产精品日韩av专区| 老司国产精品视频91| 国产91无码福利在线 | av午夜福利一片免费看| 国产伦片中文免费观看| 国产成人福利在线视老湿机| 久久久久亚洲精品无码网站| www亚洲天堂| 99伊人精品| 毛片免费在线视频| 71pao成人国产永久免费视频 | 四虎国产永久在线观看| 国产成人高清精品免费软件| 精品人妻无码区在线视频| 亚洲三级色| 无码久看视频| 欧美日韩v| 日韩天堂网| 久久成人18免费| 五月综合色婷婷| 成年人国产网站| 精品人妻一区无码视频| 亚洲精品少妇熟女| 亚洲成人精品| 久久精品国产精品青草app| 欧美区一区| 亚洲嫩模喷白浆| 国产av无码日韩av无码网站| 久久综合色视频| 久久精品一品道久久精品| 午夜电影在线观看国产1区| 国产精品视频观看裸模| 亚洲天堂自拍| 成人午夜视频免费看欧美| 青草精品视频| 色135综合网| 毛片免费网址| 国产精品成人观看视频国产 | 91破解版在线亚洲| 精品無碼一區在線觀看 | 亚洲日韩久久综合中文字幕| 免费看久久精品99| 国产精品天干天干在线观看| 狠狠综合久久久久综| 国产三级韩国三级理| 欧美在线一级片| 婷五月综合| 日韩精品无码不卡无码| 精品一区二区三区波多野结衣 | 伊人久久大香线蕉aⅴ色| 欧美一级99在线观看国产| 九九九国产|