999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

機器視覺技術在現代農業生產中的研究進展*

2021-04-09 01:46:00楊濤李曉曉
中國農機化學報 2021年3期
關鍵詞:農業系統

楊濤,李曉曉

(1.成都農業科技職業學院機電信息學院,成都市,611130;2.成都大學機械工程學院,成都市,610106)

0 引言

隨著人工智能(Artificial Intelligence,AI)在現代農業裝備中的逐步應用,使得融合各種現代化智能技術的農業裝備推動農業生產方式從機械化向自動化、智能化方向邁進。由此,涌現出依賴高新信息技術的精準農業、數字農業、智慧農業、無人農場等先進農業生產形式[1]。中國也將依托智能農機、生物技術、信息技術,能夠實現信息感知、定量決策、智能控制、精準投入以及個性化服務五大功能的智慧農業列入國家智慧經濟的重要組成部分,并且處于現代農業發展的高級階段[2]。羅錫文院士也明確表示智慧農業是中國農業未來的發展方向。那么,運用現代信息技術加快智慧農業建設,助力中國從傳統農業到智慧農業過渡就尤為重要。

機器視覺(Machine Vision,MV)是人工智能的重要分支,為農業裝備裝上了一雙“眼睛”,在農業生產領域的應用研究已經有50年的歷史。美國、日本、德國等發達國家集成機器視覺技術的農業裝備在農業生產中的應用涉及產前、產中、產后全過程。中國機器視覺技術在農業領域的相關研究多數還處于實驗室研究階段,但在水果無損檢測與分級方面已經有一定的應用[3]。此外,隨著智能駕駛技術的發展,農業場景車輛視覺導航也成為了當前研究人員的研究熱點,搭載視覺系統的智能農業裝備在農業生產中的應用越來越多,并且,中國的農機無人駕駛系統已經能夠與國外發達國家并駕齊驅[4-5]。機器視覺技術提高了現代農業裝備自動化、智能化、精細化程度,為實現作物生產全程無人自主作業、作業環節自主完成、作物生產信息全程自動監測的無人農場提供了有力的技術保障。在帶動產業升級、推動農業智能化發展等方面有重要意義。

本文采用文獻調研、實地走訪、咨詢專家等方法詳細闡述機器視覺技術的概念、組成、工作原理,梳理機器視覺技術在農業生產產前、產中、產后各個環節的應用情況與國內外最新研究成果,對比機器視覺技術相對人類視覺的優缺點,分析機器視覺技術亟待突破的關鍵瓶頸,預測未來發展的重點方向,這對于促進機器視覺技術進一步在農業生產領域的應用與產業的健康發展有著積極意義。

1 機器視覺概述

機器視覺顧名思義就是機器的視覺系統,賦予其類似人類眼睛一樣的視覺功能,涉及到機械、計算機科學、圖像處理技術、信號分析與檢測、統計學、模式識別等諸多領域的交叉學科,是計算機視覺(Computer Vision,CV)的具體應用。圖1所示的是典型的機器視覺系統,由圖像采集、圖像分析、智能決策與執行3個模塊組成,包含硬件與軟件兩個部分。工作時,由圖像采集模塊獲取三維世界目標對象的二維圖像,再運用圖像處理與分析系統對其進行特征量分析并輸出結果,最后根據圖像分析結果做出決策或執行相應的機構。

圖1 典型機器視覺系統

1.1 硬件部分

機器視覺系統硬件部分指的是光源、鏡頭、相機、圖像采集卡、處理器或PC、執行機構等。其中,相機是核心感光元件,其本質是借助CCD(Charge Coupled Device)或CMOS(Complementary Metal Oxide Semiconductor)圖像傳感器將光電信號轉變為電信號,獲取目標二維圖像。2009年,微軟將3D結構光技術應用在Kinect上獲得了目標的三維結構,提升了Xbox用戶體驗。此后,開始興起一種通過紅外結構光或TOF(Time of Flight)原理測定圖像中各像素與相機距離的深度相機(RGB Deeply,RGB-D)。該相機在獲取傳統的RGB二維圖像的同時還能夠生成一張與之一一對應的深度圖像,以實現目標對象的三維重建。并在增強現實(Augmented Reality,AR)、智能制造、農業機器人等領域已得到應用。

1.2 軟件部分

軟件部分指的是圖像處理與分析算法,是視覺系統的靈魂,也是研究人員研究的重點內容。包括圖像處理算法、模式識別算法、深度學習算法等,在單目視覺系統的基礎上逐步發展出了基于視差原理的雙目立體視覺,利用成像設備從不同的位置獲取目標兩幅圖像,再通過計算圖像對應點之間的位置偏差獲取目標三維幾何信息的方法。該方法融合了“兩只眼睛”的圖像,模擬了人類雙眼的視覺原理,已成為了國內外研究人員的研究熱點之一。此外,為便于軟件工程師快速開發具有特定功能的視覺系統,封裝了圖像處理、模式識別、機器學習等各類函數的視覺開發包流行了起來,“軟件平臺+視覺開發包”成為當前主流的開發模式。并且,OpenCV開源視覺庫,美國Vision Pro、MATLAB、LabVIEW以及德國Halcon等開發包是當前使用最廣泛的視覺開發包。

機器視覺識別、檢測過程見圖2。首先,針對應用目標構建合適的圖像成像系統采集目標圖像;然后,是運用圖像處理技術對采集到的樣本圖像進行預處理,以增強圖像質量;接著,將目標對象從圖像背景中分割出來并運用相關特征計算方法提取特征信息,得到目標對象顏色、形態、紋理等表征能力較強的特征參數組成的特征向量;最后,為避免過多的冗余信息給系統帶來較大計算量,影響系統識別精度與效率,對得到的特征向量進行篩選與優化后,再選擇合適的分類器進行訓練并給出識別結果。

圖2 機器視覺識別、檢測技術路線

該過程中圖像處理效果、選取的特征、分類器的設計直接決定了系統識別效果,是機器視覺技術的核心。圖像處理技術相對較成熟,常見的圖像預處理過程為灰度化→幾何變換(裁剪、平移、旋轉等)→圖像增強(濾波、平滑、銳化等);目標分割方法有閾值分割法(全局閾值、局部閾值、Otsu)、區域分割法、分水嶺分割法以及K-means聚類分割等;特征提取方法有顏色(顏色矩、顏色集、顏色直方圖、顏色聚合向量等)、紋理(灰度共生矩陣法、幾何法、模型法、小波變換等)、形狀(傅里葉變換、Hough變換、面積、周長、矩形度、似圓度、最小外接矩形長寬比、Hu不變矩等)、空間關系等;特征選擇與優化方法有主成分分析(Principal Component Analysis,PCA)、線性判別分析法(Linear Discriminant Analysis,LDA)、多維尺度法(Multi-Dimensional Scaling,MDS)、流型學習法等;識別與分類方法是研究者們研究的熱點,傳統的統計模式識別方法有支持向量機(Support Vector Machine,SVM)、貝葉斯、判別函數等,隨著機器學習(Machine Learning,ML)技術的發展,人工神經網絡(Artificial Neural Network,ANN)、遺傳算法、聚類算法、遷移學習等方法的應用,大幅提高了機器視覺系統的識別準確率、穩定性、魯棒性。并且,國內外研究人員關于機器視覺的研究也集中在分類算法方面。

2 應用領域與研究進展

機器視覺技術在智能制造領域應用集中在定位導航、檢測、測量、識別四個方面,在農業生產環節中應用更為廣泛。美國、日本、德國等發達國家圍繞農業生產的應用幾乎涉及全過程[6]。在產前種子篩選與質量檢驗、產中作物病蟲草害與生長信息監測、產后農產品性狀測量與分級以及現代農業裝備定位導航等領域均有一定程度的應用。而中國的研究多數還處于實驗室研究階段。

2.1 病蟲草害識別與監測

作物病蟲草害視覺識別從早期簡單的性狀特征邏輯判斷發展到基于特征向量的模式識別,后又隨著深度學習(Deep Learning,DL)的發展,使得卷積神經網絡(Convolutional Neural Networks,CNN)及其改進算法得到有效應用,大幅提高了視覺系統的識別率與穩定性。

劉翠翠等[7]運用PCA與SVM開發了麥冬葉部黑斑病、葉枯病以及炭疽病3種病害識別系統并對其進行了有效監測與防治;王艷玲等[8]運用ImageNet圖像數據集上訓練成熟的Alex Net模型來識別番茄葉片病害,不但縮短了訓練時間,還將平均準確率提高了5.6%;彭明霞等[9]提出了基于Faster R-CNN模型的棉花雜草識別算法,適應復雜背景下棉田雜草的識別;趙立新等[10]、Kim等[11]、Hasan等[12]分別對棉花葉部病蟲害、馬鈴薯晚疫病、水稻病害識別展開了研究,均取得了不錯的效果;Tetila等[13]使用小型無人機在植物上方2 m處采集大豆葉部病害圖像,再運用簡單線性迭代聚類(Simple Linear Iterative Clustering,SLIC)算法生成超像素,以分割植物葉片,并對比了Inception-v3、Resnet-50、VGG-19以及Xception4種不同參數訓練的深度神經網絡(Deep Neural Networks,DNN),與其他訓練策略相比,基于深度學習的模型識別率達99.04%,滿足農民監測大豆病害的需要。

張紅濤等[14]利用單鏡頭反光(Single Lens Reflex,SLR)相機采集了煙草主要害蟲(煙青蟲、棉鈴蟲)蟲蛹圖像并提取其腹部末節有效區域紋理特征,再運用SVM分類器進行識別分類,完成了煙青蟲、棉鈴蟲蟲蛹雌雄的有效分類;Partel等[15]運用機器視覺技術與CNN開發了一套全自動亞洲柑橘木虱(Asian Citrus Psyllid,ACP)監測系統,準確率達80%;Thenmozhi等[16]使用國家農業昆蟲資源局數據集提出了一個深度卷積神經網絡與遷移學習的農作物害蟲分類方法,并與AlexNet、ResNet、GoogLeNet和VGGNet等預訓練的深層學習結構比較,表現出了絕對的優勢,能夠有效地對大田作物各類昆蟲進行分類。

苗榮慧等[17]運用圖像分塊及重構技術在菠菜重疊葉片的情況下實現了雜草識別,為智能除草裝備的研制提供了理論依據;廣西某公司開發的智能識別引擎——“耘眼”,能夠自動識別農作物病蟲害并可依據已知病蟲害自動推薦配藥方案以及評估農藥混用風險。此外,精細化物體分類技術也得到應用,微軟亞洲研究院提出了一種基于遞歸注意力模型的卷積神經網絡(Recurrent Attention Convolutional Neural Network,RA-CNN),并聯合中國科學院植物研究所共同打造“微軟識花”APP,收錄400余種園藝花卉,識別精度達90%[18];德國某公司一直在積極探索數字化技術在農業領域的各類應用,于2017年發布XARVIO數字農業解決方案,并依托于其全球農藝植保大數據資源,建立數字化平臺在中國區推出“WEEDSCOUT”雜草識別APP。未來,拜爾將繼續引入“蟲害監測”“病害識別”“營養評估”等一系列基于智能手機端的數字化農業應用。中國在花草樹木識別方面已取得重大進展,科技公司紛紛運用機器視覺識別技術開發花草樹木識別軟件,涌現出一批出色的花草樹木識別手機APP——“花伴侶”“形色”“識物”等;中國科學院昆明植物研究所與騰訊“識你所見”AI產品團隊聯合研發出了一款能夠識別6 000多種花草的微信小程序——“識花君”;百度AI開放平臺植物識別支持2.4萬種通用植物和花卉,在識別率和線上內容儲備上均超越市場上的同類功能應用。

英國《新科學家》網站報道了丹麥科學家研制出的農田智能除草機器人,使用機器視覺技術識別雜草。并且,在對糖用甜菜農田試驗發現,除草劑用量可減少約70%;美國某公司研發的除草機器人直接放棄了除草劑而使用可伸縮鋤頭快速、準確地在生菜、西蘭花、花椰菜田間自動除草;美國加利福尼亞大學Raja等[19]針對復雜自然條件下萵苣除草機器人開發了一套農作物與行內雜草實時識別系統,并能夠控制搭載的微噴除草劑噴灑系統對雜草進行精準噴灑;瑞士EcoRobotix除草機器人能夠逐一檢查作物生長情況、辨識雜草、精準噴灑農藥,并大幅減少農藥使用量。縱觀全球,運用機器視覺技術在作物病蟲草害識別、監測、防治,甚至是除草機器人等方面已經出現了具備商業應用的產品,正逐步在全球擴散。

2.2 作物生長信息監測與產量估計

實施精準農業的前提需要實時、準確地獲取作物生長與環境信息并及時將其反饋給監控系統,以便系統及時調整環境中的溫度、光照強度、濕度、土壤水分、風速、CO2濃度等條件,進而,實現農業物資的合理利用與作物產量提升。現代農業中常以顏色、長度、葉面積指數(Leaf Area Index,LAI)、歸一化植被指數(Normalized Difference Vegetation Index,NDVI)等信息為監測指標來反映被監測作物長勢或進一步預測作物產量。作物生長信息視覺監測方法與作物病蟲草害識別方法有較大的相似度,通過圖像處理技術獲取目標特征信息構建數學模型,再使用相應的分類或識別方法對該模型進行分析處理給出分類或識別結果。傳統的作物生長信息視覺監測依托于設施農業建設,固定的采集點、采集范圍,使得監測系統穩定性好,檢測的性狀種類較多,但規模化作業成本較大。

付豪等[20]開發了玉米幼苗葉面積視覺檢測裝置,以實現玉米幼苗葉面積的快速、高效、實時、無損檢測,滿足玉米育種研究中幼苗期葉面積檢測的要求;楊斯等[21]基于RGB-D相機融合濾波與聚類分割算法,提出了基于俯視彩色三維點云數據處理方法,實現了溫室育苗盤中黃瓜苗幼苗株高的測量,為苗期作物群體關鍵生長參數的提取提供有效的解決方案;日本學者Genno等[22]連續兩年通過固定點采集了蘋果樹圖像,人工測量了圖像中蘋果的半徑,并基于這些圖像探索出了累計最大GBVI(Green Blue Vegetation Index)葉面積可以預測蘋果的可收獲半徑,是準確評價蘋果生長信息的最有效指標,可進一步開發基于高清晰度現場監控圖像的蘋果生長自動評估系統;加拿大學者Chaudhury等[23]搭建了室內作物自動化信息采集系統,構建作物3D網格并據此計算作物表面積與體積,并獲取了大麥、擬南芥晝夜明暗周期變換條件下營養期到生殖期的生長規律;美國普渡大學Li等[24]使用智能手機采集羅勒、生菜、西紅柿和百日草圖像,再通過本地計算機估算出葉面積并發現了葉面積與莖干重(Shoot Dry Weight,SDW)之間存在的線性關系,實現了準確、無損測量作物生長特性。

此外,基于無人機的作物信息監測技術剛好解決了傳統視覺監測方法難以規模化的問題,并且,融合了無人機駕駛飛行器技術、空間遙感、圖像實時傳輸等多種手段的無人機多光譜成像技術因其能夠快速獲取農田作物實時光譜圖像,再通過圖像分析了解大田作物的生長信息,已成為當下國內外學者研究的熱點之一[25]。與衛星遙感監測平臺相比,多傳感器信息融合的無人機視覺監測技術在成本控制、規模應用等方面有一定的優勢。

戴建國等[26]利用無人機獲取棉花3~4葉期高分辨率遙感圖像,再使用自適應閾值分割算法(Otsu)分割出目標,然后采用網格法去除雜草干擾并提取棉花的形態特征構建基于SVM的棉株計數模型,最后基于此提取棉花出苗率、冠層覆蓋度以及棉花長勢均勻性信息,實現了大面積棉田苗情的快速監測;陶惠林等[27]融合了無人機數字圖像與高光譜數據,通過MLR(Multiple Liner Regression)和RF(Random Forest)構建了冬小麥挑旗期、開花期、灌漿期的產量估計模型,實現了冬小麥產量估計;西班牙塞維利亞大學Apolo-Apolo等[28]利用無人機獲取柑橘園樹木圖像,構建了Faster R-CNN深度學習模型以監測果園中橘子的生長狀態并估計其大小與產量,對比了實際總產量、估計總產量和專家估計總產量發現,該方法的產量估計誤差約7.22%,可應用于柑橘產量估計;伊朗德黑蘭大學Fathipoor等[29]以無人機采集到的玉米12葉期RGB圖像為研究對象,從數字高程模型(Digital Elevation Model,DEM)中減去作物表面模型,從而創建作物高度模型(Crop Height Model,CHM),再利用植物株高與植被指數構建了偏最小二乘回歸模型(Partial Least Squares Regression,PLS)實現了玉米飼草株高建模與產量預測。

2.3 果蔬識別定位與采摘

水果采摘是果園最費勞動力、最難實現機械化作業的環節,準確、可靠的水果檢測是實現機器人采摘作業的前提[30]。然而,在自然光照條件下還存在著樹葉遮擋、相鄰水果重疊等不利因素,無疑為果蔬的自動采摘增加了難度。研究人員基于機器視覺圍繞蘋果、獼猴桃、葡萄、柑橘、草莓、荔枝、西紅柿、圣女果、黃瓜、茄子等果蔬展開了自動識別、定位、計數等方面的研究。甚至,開發了相應的自動采摘機器人,但遺憾的是還沒有成熟的商業應用案例。

陳燕等[31]設計了YOLOv3-DenseNet34荔枝串檢測網絡,提出了同行順序一致性約束的荔枝串配對方法,基于雙目立體視覺的三角測量原理計算荔枝串空間坐標,實現了在3 m檢測距離下預定位的平均絕對誤差23.007 mm,滿足大視場條件下荔枝采摘機器人的視覺定位需求;澳大利亞Kang等[32]借助視覺傳感器對果園環境中的蘋果、樹枝進行實時檢測,提出了基于剩余網絡架構的輕量級骨干網絡,分割蘋果與樹枝正確率分別達86.5%、75.7%,可有效地進行果園蘋果與樹枝的實時檢測與分割;華南農業大學Tu等[33]使用RGB-D相機獲取可變光照條件和遮擋條件下百香果RGB圖像與深度圖像,再運用多尺度特征提取器提取其特征,然后利用改進的多尺度快速區域卷積神經網絡(Multiple Scale Faster Region-Based Convolutional Neural Networks,MS-FRCNN)分別訓練RGB檢測器與深度檢測器,融合了RGB彩色與深度信息,檢測精確度達92.2%,有效地改善了小百香果的檢測;英國普利茅斯大學研發的樹莓采摘機器人Robocrop采用RGB-D相機與機器學習算法識別果實并在10 s內摘下果實放入托盤中并能夠根據成熟度分類,正規模化推廣中;斯坦福國際研究院推出的新創公司——Abundant Robotics研制的蘋果采摘機器人使用機器視覺技術準確識別果樹上成熟的蘋果并確定其空間位置再使用類似真空吸塵器的機械前端摘取蘋果,避免了傳統機械臂易對水果表面造成的劃痕、壓傷等缺陷。

2.4 種子產前檢測與果蔬分級

種子產前與農產品產后無損檢測技術是其分選、分級裝置的核心技術,主要有近紅外光譜技術、機器視覺技術、高光譜成像檢測技術、聲學分析技術、電子鼻技術、核磁共振技術等[3]。機器視覺在農產品無損檢測領域相對較成熟,已從早期以單一顏色、大小、形狀為分類指標逐步發展出基于果實表面缺陷(機械損傷、病蟲害等)、成熟度、含糖量等外觀與內在品質為分級指標的分類方法,已經應用于蘋果、柑橘、獼猴桃等水果自動化分級裝備以及玉米、棉花等種子分選裝置中。

李頎等[34]采用HSV和CLBP提取玉米種穗顏色、紋理特征,再運用匹配得分融合算法構建分類模型,借助SVM實現了玉米種穗雜色、缺粒、蟲蛀、籽粒雜亂4種異常種穗;印度Bhargava等[35]使用模糊C-均值(Fuzzy C-Means)分割蘋果表面缺陷區域,并考慮了統計紋理、幾何、Gabor小波和離散余弦變換特征的組和特征提取,應用了K-最近鄰(k-Nearest Neighbor,K-NN)、稀疏表示分類(Sparse Representation Classifier,SRC)、SVM三種不同的分類方法,對4個不同蘋果數據集試驗表明多種技術融合的分類算法具有更高的準確性,表現出巨大的潛能;荷蘭Greefa果蔬分選設備公司將果蔬大小、顏色、重量、糖分含量等檢測指標模塊化,開發成獨立的檢測系統可安裝在分選線上實現果蔬多指標快速分選,可針對不同水果快速構建視覺檢測、分級系統。

2.5 農業機器人定位導航

隨著機器人操作系統(Robot Operating System,ROS)向著農林業、生態種植方向拓展,農業機器人也迎來了快速發展機會[36]。現代農業機器人自動導航系統包含環境感知單元、控制單元與執行單元三部分,見圖3。環境感知定位技術指的是借助各類傳感器對農機周邊環境進行探測以及自身實時定位;控制單元是跟蹤導航路徑并輸出對應的控制信號;執行單元則根據接收到控制信號控制農機轉向,從而是其始終沿著導航路徑行走。也就是說,導航位姿信息的準確、可靠獲取是路徑規劃、農機控制的前提[5]。那么,農機感知周圍環境、自身位置、姿態就顯得尤為重要。

圖3 農機自動導航系統典型結構

機器視覺技術因感知周圍環境信息豐富、成本低等優勢在農機定位導航中占有一席之地。視覺導航系統是通過對農業場景圖像中的參考目標進行檢測識別,提取導航數據并將其應用于農機的路徑規劃。李亞軍等[37]運用改進的超綠灰度化(2G-R-B)算法分割菜地綠色植物圖像并基于Huber損失函數進行邊界曲線擬合,實現了自然光照條件下葉菜類蔬菜圖像的菜壟識別與導航基準線提取,識別率達97.5%;王僑等[38]運用機器視覺技術獲得農機在地頭處安全掉頭轉向的邊界線,檢測正確率大于92%,為農機在地頭處的信息感知提供了準確、可靠的技術支持;關卓懷等[39]基于超紅(2R-G-B)特征模型的綜合閾值法進行圖像分割,水平掃描獲取作物線擬合關鍵點,再使用多段三次B樣條曲線擬合法提取水稻待收獲區域邊界線,平均誤差為9.9 mm;曾宏偉等[40]提出了基于區域生長算法的聯合收割機導航線精確提取方法以適應強光條件下小麥已收割區域與未收割區域對比度低、難以獲取邊界線的問題,并且不易受作物生長密度和麥茬的干擾。

近年來,隨著多目立體視覺、RGB-D深度相機與同步定位與地圖構建技術(Simultaneous Localization and Mapping,SLAM)的發展,使得視覺SLAM(Visual SLAM,VSLAM)在缺乏環境先驗信息與可靠外界輔助信息源的農業場景中得到應用并成為無人系統領域的研究焦點[41]。并且,深度學習與圖像處理技術的融合為VSLAM發展帶來了機會。然而,VSLAM也存在著占有計算資源大、數據更新慢、光照環境敏感等問題,難以適應農機高速運動下實時性等情況,而慣性測量單元(Inertial Measurement Unit,IMU)具有數據更新快、動態響應好、可分離角運動與線運動等優勢,剛好可以彌補VSLAM的不足。因此,將IMU與視覺傳感器結合構建慣性視覺SLAM(Visual Inertial SLAM,VI-SLAM)以提高動態環境下系統魯棒性的技術成為當前VSLAM重點研究方向[42]。同時,也促進了多傳感器融合的高精度導航技術在農機導航領域的應用。紅外線、超聲波、激光雷達等傳感器與視覺傳感器組合使用的導航定位技術已經廣泛應用于農業機器人、農業無人機(Unmanned Aerial Vehicle,UAV)自主定位導航與避障等領域。

Sanchez-Rodriguez等[43]運用RGB-D相機獲取周圍環境圖像,再通過超像素分割、平面提取、實時映射以及RRT(Rapidly Exploring Random Tree)路徑規劃算法構建3D地圖,在微型飛行器(Micro Aerial Vehicles,MAVs)未知環境測試中成功地感知并避免其路徑上的潛在障礙;北京某公司聯合北航、清華、浙大、哈工大等多所著名高校飛行控制實驗室建立了高校無人機教學實驗室并基于機器視覺開發了無人平臺自主SLAM導航避障系統,具有立體視覺、運動估計、路徑規劃、自主避障等功能,讓科研團隊專注于SLAM導航算法的研究;廣州某公司開發的“天目”無人機視覺系統(XAIRCRAFT “XCope” UAV Vision System)融合了雙目避障與地形視覺模塊,不但具有了感知環境位置的能力,還能夠脫離GPS信號獲取位置與飛行信息,實現無人機全自主飛行控制,徹底解放用戶雙手,大幅提升操作體驗;大疆農業植保無人機T20搭載360°全向數字雷達與實時圖像監控系統及夜間探照燈,能夠全天候感知農田環境。

此外,以中國北斗衛星導航系統(BeiDou Navigation Satellite System,BDS)、美國GPS、俄羅斯GLONASS、歐盟Galileo為代表的全球導航衛星系統(Global Navigation Satellite System,GNSS)為現代農業裝備實時定位、路徑規劃提供了有力的保障[44]。并且,實時動態載波相位差分(Real-Time Kinematic,RTK)技術由基準站通過數據鏈將載波觀測值與基站坐標及時傳送到流動站,而流動站同時接收衛星與基站的載波相位,經過差分處理消除了接收機誤差與衛星信號延遲誤差的影響,使得基于RTK的定位系統精度可達厘米級,在與視覺傳感器融合的農機導航系統中應用廣泛[45]。

王東等[46]設計了GNSS與視覺導航融合的山地果園無人機植保航跡控制系統,采用線性組合算法提取目標行作業區域,再運用最小二乘法對作業區域中心點進行擬合,得到果樹行趨勢線,進而獲取視覺導航偏航角以實現無人機作業航跡控制,在山地蘋果園試驗表明系統誤差約9 cm,滿足山地果園植保作業要求;李云伍等[47]運用RTK-GNSS采集路網信息并對路口區域實時定位,利用機器視覺識別、提取田間道路路徑跟蹤線,為非路口區域導航,在直線路徑、多曲率復雜路徑以及地形起伏路徑測試中自主行駛軌跡與實際道路中線的平均偏差分別為3.1 cm、6.9 cm、9.2 cm,滿足丘陵山區轉運車自主行駛的安全要求。

3 機器視覺技術亟待突破的關鍵瓶頸

與人類視覺相比,機器視覺具有較寬的光譜響應范圍,還能夠長時間穩定作測量、分析、識別等任務。在精確度、速度、適應性、客觀性、重復性、可靠性、效率等方面均具有一定的優勢,見表1。

表1 人類視覺與機器視覺優劣對比

然而,機器視覺也受到硬件設備性能、圖像分析算法準確度與效率以及網絡傳輸速率的限制使得系統實時性、穩定性難以保證。同時,還面臨著應用對象復雜多樣,難以開發通用視覺系統使得每一類目標都需要單獨開發視覺系統,造成成本居高不下等問題。此外,農業場景視覺系統在穩定性、魯棒性、計算能力、理論創新等方面還存在較大的局限性,已成為阻礙機器視覺在農業生產中應用的關鍵瓶頸。

3.1 視覺系統準確性、實時性、魯棒性、穩定性、可靠性亟待提高

農業場景光照不均、風速變化大、自然光照強度隨時間變化大且色溫不可控與道路坑洼帶來的機械振動等因素都將導致視覺系統成像質量下降,進而影響了視覺系統的準確性、魯棒性、穩定性。此外,視覺系統通常要求實時反饋識別、檢測結果,以便執行機構及時做出相應的執行動作。然而,當前視覺檢測設備的采集速度、處理速度較慢,加之深度學習類算法增大了計算量,使得系統難以勝任復雜場景對系統實時性的要求。總而言之,視覺系統在準確性、實時性、魯棒性、穩定性、可靠性等方面還難以適應復雜多變的農業戶外場景。

3.2 計算能力與算法仍未取得根本性突破

支持機器視覺發展的核心基礎是硬件設備的計算能力與軟件的關鍵算法。計算能力方面,當前嵌入式視覺系統存在芯片計算能力不足、運行速度較慢、存儲空間有限等問題,并不能滿足大規模矩陣運算、神經網絡迭代運算等較大運算量的算法。雖然,國際機器視覺市場已經形成了以基恩士、康耐視、海克斯康、達爾薩等為代表的核心部件制造商,以基恩士、歐姆龍、松下、NI等為代表的核心部件與系統集成商的全產業鏈格局。但是,要突破硬件設備性能限制,涉及到材料、半導體、集成電路、傳感器等行業的創新突破,短期內難以有較大的研究進展。

算法方面,得益于深度學習的出現,進一步推動了機器視覺快速發展。但是,深度學習是建立在大數據、大規模計算資源驅動下的基礎理論技術突破,而不是理論方法上的突破。并且,深度學習過度依賴大量的標注數據,耗費了研究人員大量的時間,自身也遇到了發展瓶頸。并且,計算機視覺奠基人Alan L.Yuille認為深度學習在打破機器視覺的發展面臨瓶頸中起到的作用有限,需要找到新的突破口。

由此可見,不論是硬件設備計算能力方面,還是在軟件核心算法方面,機器視覺或均已經面臨發展的瓶頸。

3.3 中國企業技術同質化現象嚴重,行業創新能力不足

機器視覺項目相較于其他AI領域的項目更容易落地,曾掀起一場創業熱潮。國際機器視覺品牌已經超過200個,產業鏈也可以清楚的分為元器件生產商、底層開發商、二次開發商、產品代理商以及應用客戶5個部分。而中國機器視覺企業多集中在產業中下游,且體量偏小。雖然在細分領域已經涌現出中國“CV四小龍”,同時,國產視覺核心部件正在快速崛起;中游系統集成與整機裝備商也有100多家,能夠為各行業提供視覺方案。但是,從整體表現來看,在產業鏈上游國內企業競爭力較弱,工業相機以歐美進口為主;高端工業鏡頭主要依賴于德國、日本、美國等企業;中游系統集成與裝備制造企業多直接采購視覺軟件、傳感器、驅動控制系統等核心零件再進行二次開發與組裝;核心底層系統開發基本被歐美、日本等企業壟斷。

此外,與美國、日本、德國等發達國家相比,中國在技術掌握能力、產品應用程度、專業人才儲備以及高水平學者集中的研究機構數量等方面還存在較大的差距。中國企業大多數是從高校實驗室發展起來的,核心技術集中在幾個熱門研究領域,進而導致創業后業務線也有很大一部分的重合。加之,機器視覺技術的人才流動,導致了各公司核心技術同質化現象嚴重、創新能力不足。并且,AI龍頭企業“CV四小龍”“海大宇”等傳統巨頭以及百度、阿里巴巴、騰訊等互聯網巨頭紛紛布局安防、汽車、金融、手機、新零售、無人工廠、智慧農業等場景,使得各公司業務高度重疊,核心技術同質化現象嚴重,視覺系統市場已成為一片紅海。

3.4 高水平研究機構與高端工程應用人才嚴重匱乏

據清華—中國工程院知識智能聯合研究中心與清華大學人工智能研究院調研人工智能學科20個子領域(計算機視覺、機器人、自然語言處理、語音識別、知識工程、機器學習等)全球最具影響力學者與高被引學者數量集中的研究機構發現:中國在高水平學者數量上僅次于美國,但是在高水平學者集中的研究機構方面僅清華大學上榜,其余均為美國機構(Google、Microsoft、MIT、Facebook、Carnegie Mellon University、University of California Berkeley、University of Washington、Stanford University、Intel),這在一定程度上也限制了機器視覺在中國的發展。

4 未來研究方向

機器視覺市場還在不斷擴大,新標準、新技術也正在以前所未有的速度發布,智慧農業、無人農場、跨行業協作、高光譜應用都將促進機器視覺技術的進一步應用。未來,在農業生產領域還是將集中在關鍵技術突破、多傳感器融合、3D視覺應用以及與5G移動通信技術深度融合方面。

4.1 3D視覺技術助力農業生產轉型升級、創新、革命

3D視覺技術指的是獲取或重構目標三維圖像的方法,通常分為基于RGB-D深度相機(結構光或TOF)與基于三角定位原理的雙目立體視覺兩類。將傳統的二維圖像升級到了具有更多信息的三維圖像或許是機器視覺突破發展瓶頸的重要方向。3D圖像帶來的信息顛覆了2D圖像感知世界的方式,使得獲取的圖像具備更豐富的信息,且消除了外交環境與復雜光線的影響。不但穩定性較好,還能提升用戶體驗與系統安全性。在智能安防、工業測量、汽車電子、新零售、智慧農業等領域發揮著重要作用,堪稱賦能產業創新的最大推力。2D到3D的轉變或將成為繼黑白到彩色、低分辨率到高分辨率、靜態圖像到動態影像后的第四次革命。

中國3D視覺獨角獸奧比中光是國內唯一實現量產的結構光3D傳感器攝像頭企業,與蘋果、微軟等全球巨頭并駕齊驅。其3D視覺模組、算法、配套的解決方案可廣泛適配于多品牌、多形態的智能終端,正逐步發展開拓農業機器人自主導航、無人機、AR/VR、植物生長信息監測、農產品檢測等領域,勢必會助力農業生產方式的轉型升級,為農業生產帶來一場以3D視覺為核心技術的農業生產革命。

4.2 與5G通信技術深度融合,助力智慧農業建設全面提速

5G移動通信技術解決了機器視覺實時性問題,使得高清圖像實時傳輸、多機協同集群作業、高清視頻處理成為了可能。2019年9月,海爾聯合華為、中國移動、薈萃視覺共同發布全球首個5G+機器視覺解決方案并在海爾冰箱互聯工廠率先落地應用。搶先實現5G機器視覺云化、5G智能設備管控、5G+AR遠程運維指導等創新應用。2020年3月,華為發布了視覺計劃,將“華為安防”更名為“華為機器視覺”,布局了5G在機器視覺領域的應用。5G與機器視覺深度融合解決了視覺系統海量數據實時傳輸,滿足多相機、多場地協同作業的要求。賦能智能制造、智能物流、無人超市、無人農場等行業,同時也賦予了我們更多的想象力。

在智慧農業方面,融合5G移動通信技術的視覺系統具備實時通信、實時數據傳輸的功能,使得農業裝備遠程作業、協同作業、實時監測等現代農業作業方式得到進一步應用,為實現現代農業裝備高度自動化、智能化甚至無人化提供了技術支撐。進而,加速無人農場的建設,使其有望5~10年內大面積推廣,促進智慧農業項目落地。

4.3 多傳感器融合的視覺系統將得到進一步應用

農業場景視覺系統雖然已經涉及農業生產全過程,但是,單一的視覺算法難以滿足復雜多變的農業戶外場景對視覺系統的要求。多傳感器融合的視覺系統正好解決了單一視覺系統難以適應變化場景的要求,在農業場景中已經有一定程度的應用。在農作物病蟲草害與生長信息監測方面,融合高光譜信息的視覺系統得到廣泛應用;在作物生長信息監測與產量估計方面,融合空間遙感、無人機多光譜成像技術以及基于RGB-D深度相機的3D視覺系統正在逐步應用;在果蔬識別定位與采摘方面,基于果蔬成熟度、表面缺陷檢測技術的視覺系統也正在崛起;在種子產前檢測與果蔬分級方面,融合近紅外光譜、機器嗅覺、聲學以及核磁共振等先進信息技術的視覺系統在區分水果成熟度、含糖量、表面缺陷等外觀與內在品質方面正逐步替代傳統機械篩選、分級方法;在農業機器人或無人機定位導航方面,基于RTK技術的視覺系統得到廣泛應用。此外,融合光譜信息的視覺系統以及視覺SLAM系統已經成為了學術界研究的熱點,并且,圍繞農業場景的應用研究已經取得了一定的成果。未來,多傳感器融合的視覺系統勢必會得到進一步應用,進而推動機器視覺行業的發展。

5 結論

機器視覺技術在農業生產中的應用涉及到農業生產的各個環節,在農業裝備定位導航、農作物種子質量檢測與篩選、植物病蟲害監測、作物生長信息監測、果蔬品質檢測與分級等方面發揮著“眼睛”的功能與作用,推動了農業自動化、智能化發展。當前,中國不論是基于機器視覺技術的智能農業裝備,還是應用于農業生產的視覺系統在自動化水平、作業精度、可靠性等方面還與美、日、德等發達國家存在一些差距,說明中國的農業智能化之路還有很大的晉升空間。同時,中國也成為繼美國、日本之后的全球第三大應用市場,相信隨著計算機科學、機器學習等信息技術的發展,機器視覺技術也將不斷完善,在農業生產中的應用也將進一步延伸。

猜你喜歡
農業系統
國內農業
今日農業(2022年1期)2022-11-16 21:20:05
國內農業
今日農業(2022年3期)2022-11-16 13:13:50
國內農業
今日農業(2022年2期)2022-11-16 12:29:47
Smartflower POP 一體式光伏系統
工業設計(2022年8期)2022-09-09 07:43:20
擦亮“國”字招牌 發揮農業領跑作用
今日農業(2021年14期)2021-11-25 23:57:29
新農業 從“看天吃飯”到“看數吃飯”
今日農業(2021年13期)2021-08-14 01:38:18
WJ-700無人機系統
ZC系列無人機遙感系統
北京測繪(2020年12期)2020-12-29 01:33:58
歐盟發布短期農業展望
今日農業(2020年15期)2020-12-15 10:16:11
基于PowerPC+FPGA顯示系統
主站蜘蛛池模板: 亚洲免费黄色网| 97狠狠操| 成人日韩视频| 国产精品思思热在线| 国产成人三级在线观看视频| 三级视频中文字幕| 国产精品欧美在线观看| 精品少妇人妻无码久久| 亚洲中文字幕无码爆乳| 亚洲 日韩 激情 无码 中出| 久久综合色天堂av| 精品免费在线视频| 国产男女免费视频| 婷婷午夜影院| 丰满人妻久久中文字幕| 久久伊人久久亚洲综合| 日韩精品毛片人妻AV不卡| 欧美日本激情| 中文字幕伦视频| 亚洲AⅤ永久无码精品毛片| 热99精品视频| 免费不卡在线观看av| 99视频精品全国免费品| 色悠久久久| 久久黄色一级视频| 91蝌蚪视频在线观看| 久久精品无码一区二区日韩免费| 午夜性刺激在线观看免费| 国产成人h在线观看网站站| 亚洲欧美日韩另类在线一| 亚洲精品无码AⅤ片青青在线观看| 日韩欧美国产精品| 国产特级毛片| 91网红精品在线观看| 国产H片无码不卡在线视频| 亚洲天堂视频在线观看| 国产成人久久综合777777麻豆| 久久人午夜亚洲精品无码区| 91麻豆精品国产高清在线| 国产欧美在线视频免费| 国产一区成人| 国产成年无码AⅤ片在线| 亚洲黄网视频| 国产综合色在线视频播放线视| 国产网站黄| 亚洲欧美日韩色图| 日韩视频免费| 亚洲精品综合一二三区在线| 午夜不卡视频| 亚洲国产综合自在线另类| 国产美女一级毛片| 国产欧美亚洲精品第3页在线| 日本黄色不卡视频| 欧美精品在线视频观看| 五月激激激综合网色播免费| 青青草91视频| 亚洲日韩久久综合中文字幕| 欧美日韩va| 2020亚洲精品无码| 91在线视频福利| 一级毛片基地| 亚洲精品va| 国产欧美视频一区二区三区| 国产一级二级在线观看| 国产精品jizz在线观看软件| 麻豆国产精品一二三在线观看| 91小视频在线| 欧美色综合久久| 国产精品精品视频| 国产精品福利一区二区久久| 欧美日韩一区二区三区四区在线观看 | 中国一级毛片免费观看| 国产精品偷伦在线观看| 中国一级毛片免费观看| 婷婷综合缴情亚洲五月伊| 欧美影院久久| 欧美国产在线看| 精品午夜国产福利观看| 22sihu国产精品视频影视资讯| 伊人久久久久久久久久| 国产AV无码专区亚洲A∨毛片| 日韩在线影院|