中圖分類號:E917 文獻標志碼:A DOI:10.3969/j. issn.1673-3819.2025.05.007
Abstract:During theapplication of unmanned surface vehicles (USVs)innatural sea areas,issuessuch as low-quality opticalimageimaging,localizedtargetfeaturesanddepth-directionaldistortioncausedbyside-viewingangles,lensdeforation duetosaltwaterdroplets,andthecoexistenceofextremelylargeandsmalltargetsocur.Thesephenomenaleadtoadecline intheperformanceofdeeplearning-basedimage targetdetectionalgorithms,resulting inhighratesofmisseddetectiosand 1alarms.Consequently,thiscauses thecolisionavoidancedecision-makingalgorithms todivergeortriggerfrequentemergencyalarms.To enhanceobjectdetection acuracyfor USVoptical images,,this paper proposes anoptimizedframework basedontheYOLOv8 model.First,theCopy-Pastealgorithmandunpaired image style transferalgorithmare introduced to generate multi-viewtargetimagesandlow-qualityimagescausedbyadverseenvironmentalconditions,addressing theimbalanceintheproportionoflow-qualityimagesinthedataset.Second,adedicateddetectionheadforsmalltargetsisadedto thedetectionnetwork,andthelossfunctionisoptimizedtoenhancethedetectioncapabilityforsmalltargetswhilepreserving theoriginal model’sperformanceonlargerobjects.Thenewlydevelopedobjectdetection model,trainedontheaugmented dataset,achieves an average precision of 96.2% on the test set.
Keywords:USV;YOLOv8;data augmentation;target detection
隨著人工智能、傳感器技術等飛速發展和深度應用,自主無人艇得以蓬勃發展,成為海洋開發與利用的新質平臺。在復雜多變的自然海洋環境下,無人艇自主航行能力發展的關鍵因素是環境感知及處理能力。通常情況下,無人艇配置多種傳感器在不同的感知域對無人艇周邊進行聯合感知測量,以彌補單個傳感器的能力不足,如光學傳感器、激光雷達、毫米波雷達、導航雷達等設備[1],其中,光學傳感器具備模塊化程度高、技術成熟,經濟性好,無固有盲區,成像細節特征豐富等優點,是無人艇標配設備,在無人艇近區環境感知中扮演著至關重要的角色。
光學傳感器對環境干擾尤為敏感,在無人艇應用場景中,在側視視角下,目標呈現特征局部化和輪廓深度方向形變(見圖1);雨、雪、霧、強光、逆光、弱光等光照條件影響,導致成像質量不高,波浪及浪花形成形狀各異的亮塊、陰影、光暈等影響目標檢測效果(見圖2);鏡頭水滴和鹽漬污染導致圖像局部透鏡效應或椒鹽噪聲(見圖3)等。上述因素使圖像目標檢測算法在無人艇應用場景下性能不穩定,自主任務過程中,頻繁造成停船或緊迫局面,對無人艇自主執行任務的安全性和連續性造成影響。本文主要針對無人艇在自然海域中光學傳感器成像質量不高、側視視角圖像的特點,開展目標檢測算法研究,以提升目標檢測效果。
圖1同一目標在側視視角下特征變化顯著

圖2環境因素對目標成像的影響(逆光、光暈、大霧) Fig.2The influence of environmental factors on target imaging (backlight,halo,fog)

圖3鏡頭因素對成像質量的影響(航行沖擊的浪花、鏡頭水滴)
Fig.3The influence of lens factors on imaging quality (waves impact,water droplets)

1圖像目標檢測算法應用
隨著計算機算力的增長,圖像處理在無人駕駛、安全監控、交通監控和機器人視覺等領域得到廣泛應用,面向光學圖像目標檢測的新算法、新框架層出不窮,應用場景不斷拓展。傳統圖像目標檢測通?;谌斯つ繕颂卣鳂嫿ǎ▍^域選擇、特征提取和目標分類3步,依賴專用的特征設計與特定場景,如Adaboost算法[2]、方向梯度直方圖(HOG)[3]、尺度不變特征變換(SIFT)[4]等。2012年,基于深度卷積神經網絡(CNN)的 AlexNet[5] 以顯著優勢奪得ImageNet圖像識別比賽冠軍,從此圖像目標檢測進入深度學習時代。
基于深度學習的目標檢測依據檢測方式主要分為兩類:兩級檢測(two-stagedetection)和單級檢測(one-stagedetection)[6]。兩級檢測以Faster-RCNN為典型代表,目標定位和識別精度較高,實時性一般,適用于時間不敏感的場景;單級檢測以YOLO為典型代表,2015年,JosephRedmon等[7]提出YOLOv1算法,其核心思想是將目標檢測任務看作回歸問題,通過基于網格的方法,在單次前向傳遞中同時預測邊界框和類別概率,使用多尺度的錨框來改進對不同大小目標的檢測,最終通過非極大值抑制(NMS)過濾掉冗余和低置信度的預測,使YOLO成為一種高效可靠的目標檢測方法。此后十年,YOLO系列算法持續迭代,不斷在架構、訓練策略上推陳出新,力求在速度與精度上達到平衡,2025年2月已發布v12版本[8]。受益于學術界和工程界的深度應用和龐大的社區支持,算法的實時性和準確性不斷提升,YOLO算法已被廣泛用于需快速實時檢測目標的場景,尤其在實時性要求高于精度要求的場景。
在無人艇自主航行的環境感知領域,需要近乎實時的檢測近區目標以支撐艇端控制進行航行決策和控制,因此YOLO算法在無人系統的目標檢測領域應用被廣泛研究。程亮等[9針對無人艇應用場景提出了一種增強型輕量級目標檢測網絡WT-YOLO,FPS提升至30,檢測平均精度達 79.3% ;徐海彬等[10]在 Tiny-YOLOv3的基礎上,基于細節特征的需求增加小尺度預測分支,提出一種定位增強輕量級檢測網絡,檢測精度分別提升 4.97%AP?6.17%AP ,二級海況下自主對接成功率達到 90.9% ;朱旭芳等[]通過量化網絡和剪枝技術優化 YOLOv4 模型,使得圖像目標檢測精度超80.7% ,FPS達到72,目標數據與導航雷達目標進行關聯融合,可有效實現對船舶類目標跟蹤;郭海艷等[12]依托YOLOv51實現面向水面無人艇的目標檢測與船舶分類,引入ASPP-pool模塊,將目標檢測網絡和級聯網絡精度分別提高 1.06% 和 0.76% ;S.Tang等[13]基于YOLOv5模型增加小目標檢測頭和卷積特征增強等改進構建HIC-YOLOv5模型,將
和mAP@0.5 分別提升 6.42% 和 9.38% ;左震等[14]基于YOLOv8檢測網絡,設計了基于多尺度坐標注意力的目標區域提取方法,對艦船目標實現較高的檢測精度,真實海面場景下平均精度均值 mAP@0.5 提升了 1.1% ,FPS達27,滿足了海面無人艇魯棒、實時檢測需求;張發枝等[15]采用YOLOv8模型檢測海面目標,設計基于類別先驗劃分的雙模型測距算法,實現單目視覺的無人艇海面目標實時測距方法;SMShaqib等[]將YOLOv8應用于實時車輛檢測,車輛檢測準確率達96.58% ,車速估計精度達 87.28% ;潘瑋等[7]針對YOLOv8s模型,通過引入雙層路由注意力機制(BiFomer)和上下文聚合模塊(CAM),在復雜背景下(如雨天、夜間)的無人機視角下的檢測性能提升 15% 以上。
YOLO算法在交通監控、無人機視角下的目標檢測、無人艇的海上常見目標檢測方面已經開展了大量的應用研究,并取得了豐富的成果。然而,針對無人艇的常態化自然海域自主航行光學圖像目標檢測中存在的問題有目標特征局部性、圖像質量不高、超大極小尺度目標并存對載體平臺運動劇烈的情況研究則較少。基于文獻并結合無人艇目標檢測需求,權衡算法的先進性、工程化應用的便捷性和社區支持,本文選擇YOLOv8作為基礎算法,從數據集增廣、算法架構改進和損失函數優化3個方面進行優化改進。
2基于YOLOv8的海面目標檢測算法改進
無人艇長時航行過程中,天氣變化、光照變化、鏡頭污染、劇烈搖擺、觀測角度變化等是影響海面目標檢測模型性能的主要因素,由于模型的訓練集中包含此類情況的有價值數據獲取困難且占比較少,導致模型應對此類情況的經驗不足。面對無人值守的嚴苛環境,需通過算法設計優化解決成像質量低、側視視角導致的目標特征局部化、鹽漬水滴造成的目標變形、小目標等問題。
2.1專用數據集增強
經過多年實裝試驗數據的人工評判收集,作者已構建由21309張典型實景圖像及標注數據組成的原始數據集,數據主要由艇載全景相機和光電設備在不同的試驗場地采集。然而針對無人艇側視視角造成的目標局部特征,觀測設備受水滴和鹽漬干擾,非正常光照條件等場景,上述數據量遠遠不能滿足YOLO模型訓練要求,擬進行增廣處理。
2.1.1 Copy-Paste 數據增強
由于無人艇對周邊觀測采用側視角度導致圖像目標特征局部化,若通過試驗采集同一個目標不同角度的圖像樣本根本不現實且很難達到訓練基本的樣本量需求。Copy-Paste算法[18]核心是通過動態或規則化的復制-粘貼操作實現數據增強,用于實例分割任務。本文選用Copy-Paste對樣本數據進行擴充,生成目標不同角度的樣本數據,算法對圖像的操作前后對比見圖4。設計策略如下:
策略1:選擇目標特征紋理較為清晰的圖像,目標粘貼的位置在圖像中已有目標的附近,被粘貼的目標大小隨機縮放到 32×32 到 64×64 范圍之內,原有目標的被遮擋部分不能超過本身檢測框面積的 30% :
策略2:新生成的圖像大小不超過原有圖像,為保證生成圖像具有一定的現實合理性,進行Copy-Paste操作時,限制每張圖像上最多容納6個目標;
策略3:根據自然海洋環境中目標特性,Copy-Paste操作過程中,目標旋轉角度不得大于45度。
2.1.2基于CycleGAN的非配對圖像風格遷移
出于安全和成本因素考慮,出航前研究人員會對光學鏡頭進行清理,氣象條件不好時極少組織航行,從而累積的樣本也存在不均衡性,如雨霧、鏡頭水滴和鹽漬等非正常環境的圖像樣本較少,異常場景得不到充分訓練,導致在遭遇惡劣海洋環境時,模型目標檢測性能下降明顯。
圖4Copy-Paste算法操作前后對比圖
Fig.4ComparisondiagrambeforeandafterCopy-Pastealgorithmoperation

非配對風格遷移[19無須內容圖與風格圖成對對齊,無須數據對齊標注,直接學習兩個圖像域(如干凈-水漬)之間的映射關系,且支持差異巨大的域間遷移。本文引人CycleGAN對現有樣本進行低光照、逆光、鏡頭鹽漬、水滴等風格變換,以生成新的病態樣本,解決惡劣環境數據樣本不足的問題,提高目標檢測網絡對光照變化、圖像質量變化的魯棒性。
CycleGAN算法原理架構如圖5所示,由2個生成器( G 和 F )和2個判別器( Dx 和 Dr )組成,其中生成器
負責將圖像從域 X 轉換到域 1,F 則相反,稱之為G 的反向生成器,而判別器的任務則是盡可能地區分各自對應數據域的轉換后的生成圖像與真實圖像。
圖5CycleGAN原理圖
Fig.5SchematicdiagramofCycleGAN

由于CycleGAN兩個GAN網絡互相嵌套的特殊網絡架構,需分別設置對應的對抗損失來約束 X 和 Y 兩個數據域的生成器和判別器。
其中,
的訓練損失函數為
L?GAN(G,D?Y,X,Y)=Ey-pdata(y)[logD?Y(y)]+
Ex~pdata(x)[log(1-Dγ(G(x)))]
其中, Ey~pdata(y)[?] 表示在數據 y 的概率分布(204號 pdata(y) 下對后續表達式求期望; pdata(y) 表示 y 的概率分布 ??y 從該分布中采樣得到。 E?y~pdata(y)[logD?Y(y)] 是從真實數據分布 pdata(y) 中采樣真實數據 y ,然后計算判別器 DY 對真實數據 y 的對數概率。判別器希望正確識別出真實數據,從而希望該項值最大化,即
越接近1,logDY(Y) 的值越大 :Exx~pdata(x)[log(1-DY(G(x)))] 從分布 pdata(x) 中采樣 x ,通過生成器 G 得到生成數據G(x) ,然后計算判別器
對生成數據 G(x) 判斷為假的對數概率。判別器希望最大化該值,即希望1-DY(G(x))) 越接近1,從而 log(1-Dγ(G(x))) )的值越大;而生成器則希望最小化這個值,讓判別器誤判生成數據為真實數據,即讓 DY(G(x)) )接近1。
同理, YX 的訓練損失函數為
L?GAN(F,Dx,X,Y)=E?x~pdata(x)[logDx(x)]+
Ey-pdata(y)[log(1-Dx(F(y)))]
此外,模型需保證生成的圖像保留原始圖像的語義特征,使用 XY 生成器將 X 數據域的圖像 x 遷移成Y 數據域的假圖像,該假圖像還需要能夠通過另一個YX 生成器來盡可能恢復成 X 數據域的原始圖像,即該過程需滿足循環一致性原則以實現2個不同域之間的循環轉換,因此引入循環一致性損失評價:
(204(20
其中, ∥Ω?Ω∥Ω1 表示 L1 范數,用于衡量兩個數據之間的差異程度。
表示從數據分布 pdata(x) 中采樣數據 x ,先通過生成器 G 將 x 轉換到域 Y ,再用 F 轉換回原域得到 F(G(x)) 。然后計算F(G(x)) )與原始數據 x 之間的 L1 距離,并對這個距離在分布 pdata(x) 下求期望。該轉換期望 F(G(x) )盡可能接近 x ,即經過 G 和 F 的轉換后能還原原始數據。$E _ { y \sim p _ { d a t a } ( y ) } \left[ \begin{array} { l } \Vert \textbf { \em G } ( F ( y ) ) - y \Vert _ { \mathrm { ~ 1 ~ } } \right] \end{array}$ 同理,即期望 y 經過 F 和G 的轉換后能還原原始 y 。
綜上,CycleGAN模型的訓練損失為
L(G,F,D?X,D?Y)=L?GAN(G,D?Y,X,Y)+
L?GAN(F,D?X,X,Y)+L?cyc(G,F)
在訓練過程中,當生成數據的分布與目標數據域的分布相同時完成訓練,此時生成器和判別器之間達到納什均衡。
2.2小目標檢測頭設計
YOLOv8[20]檢測網絡設計有3個檢測頭,分別在(80,80),(40,40),(20,20)特征圖尺度上進行目標檢測。P3/8對應(80,80)的檢測特征圖,用于檢測像素大小在 8×8 以上的目標;P4/16對應(40,40)的檢測特征圖,用于檢測像素大小在 16×16 以上的目標;P5/32對應(20,20)的檢測特征圖,用于檢測像素大小在 32× 32以上的目標。特征圖分辨率越大,檢測小目標的能力越強。
針對無人艇海上航行場景的小目標檢測需求,模型在第15層后對特征圖進行采樣等處理,將特征圖放大至(160,160),同時將獲取到的特征圖與骨干網絡中第2層特征圖進行concat融合,獲取更大的特征圖用于檢測像素大小在 4×4 以上的目標。將YOLOv8模型改進為帶特征圖,其大小為(160,160)、(80,80)(40,40)(20,20)的4個檢測頭的模型。算法架構如圖6所示,紅色虛線框為新增小目標檢測頭。
圖6YOLOv8算法改進架構圖
Fig.6ImprovedarchitecturediagramofYOLOv8algorithm

2.3 損失函數優化
YOLOv8的損失函數由以下3部分組成:分類損失,用于計算類別預測的誤差;目標框損失,用于計算預測框與真實框的誤差,使用CIoU進行優化;置信度損失,計算目標框的置信度誤差,衡量某個預測框是否包含目標。
(1)分類損失

其中, Lcls 表示分類損失, N 為樣本數量,
為由Sigmoid歸一化處理的模型預測的類別概率, pi 為采用One-hot
編碼的真實類別標簽。YOLOv8為支持多標簽分類,采用Sigmoid替代Softmax,通過動態權重分配策略,減少背景區域對分類損失的影響。
(2)目標框損失

其中, IoU 為交并比
為預測框中心點與真實框中心點的歐幾里得距離, c2 為最小包圍盒的對角線距離, v 為長寬比損失, α 為權重因子。
(3)置信度損失

其中,
為置信度損失,
為預測的目標置信度。如果有目標, pi=1 ;如果無目標, Δpi=0 。
總損失函數為上述3部分損失按照一定的權重組合,即:
L=λ?boxLCIoU+λclsLcls+λobjLobj
CIoU損失較IoU改善了重疊面積的計算方式,在訓練中對不同重疊方式的檢測框都有較好的效果,但對平臺大幅搖擺導致目標尺度劇烈變化的情況的適應性較差; LctoU 未特別針對極大或極小的目標進行設計,因此對于小目標或超大目標的學習效果不穩定;由于無人艇樣本數據的不均衡(如長尾分布)、小目標、密集目標場景等,導致目標漏檢多,分類難。由于模型無法獲得足夠的病態樣本支持訓練,導致在模型異常環境下檢測性能惡化。
FocalLoss[21]主要用于解決目標檢測中正負樣本不平衡的問題,通過對容易分類的樣本降低權重,對難分類的樣本增加權重,使得模型更加關注難分類的樣本。通過構建CIoU-FocalLoss聯合損失函數,同時優化了邊界框回歸和分類置信度,增強復雜背景下的小目標檢測,同時提升小目標檢測精度而不降低對大目標的整體檢測性能。

其中,
是模型預測樣本屬于某一類別的概率, γ 是一個調節因子。
則總損失函數設計為
L=λboxLCIoU+λclsFL+λobjLobj
3 測試和試驗結果
3.1數據集增廣
模型從采集的數據圖像中篩選數據集,并將數據分為TestA:5919張正常圖片;TestB:5619張病態圖片;TrainA:5922張正常圖片;TrainB:5619張病態圖片。按照風格遷移對抗算法,對圖像進行低光照、逆光和水滴、鹽漬等風格遷移,效果見圖7所示。
圖7風格遷移效果對比圖
Fig.7Comparisondiagramof stylemigrationeffects

通過Copy-Paste算法、CycleGAN算法,我們將21309張實景樣本進行增廣,擴充至41497張,數據集中各類目標數量統計如表1所示。在使用過程中,我們按照8:1:1的比例將數據集分為訓練集、驗證集和測試集。
3.2改進模型訓練與實驗結果
模型訓練使用的硬件為NvidiaRTX4090,軟件環境為Windows10,Pytorch2.1框架,CUDA11.2加速度,訓練所用參數采用默認值。選用YOLOv5、YOLOv7、YOLOv83種目標檢測算法與本文改進的算法分別在原始數據集和增廣數據集上進行對比測試,主要對比目標檢測的平均精度
、召回率(R)和幀率(FPS),算法在原始數據集和增廣數據集上的測試結果如表2和表3所示。
表1目標數量統計表
Tab.1 Statisticaltableoftargetquantities

表2原始數據集測試結果表

表3增廣數據集測試結果表

從表2和表3可以看出,無論在原始數據集或增廣數據集,本文設計的算法效果較好。經增廣數據集訓練,本文設計的算法平均精度和召回率分別提高6.9% 和 6.7% ,可見Copy-Paste算法、CycleGAN算法對數據集增廣處理,可有效提高算法的性能。較YOLOv8算法,在增廣數據集上,本文算法平均精度和召回率分別提高 2.5% 和 3.5% ,且優于其他對比算法,可見增加小目標檢測頭和損失函數策略有效。
召回率主要反映檢測到的目標占所有真實目標的比例,在小目標檢測性能方面,測試各算法在漂浮物、航標、落水人3個類別上的召回率,結果見表4和表5。
表4原始數據集小目標召回率結果表
Tab.4Table ofsmall targetRresults intheoriginaldataset

從表4和表5可以看出,本文算法在小目標檢測方面表現較好,通過數據增廣,小目標檢測召回率指標平均提升了 2.14% 。在增廣數據集上,較 YOLOv8,3 類小目標召回率分別提升了 2.3%.1.4% 和 2.4% ,可見,本文設計的方法對小目標的檢測效果有提升。
表5增廣數據集小目標召回率結果表Tab.5Tableof small targetRresultsin theaugmenteddataset

YOLOv8和本文算法部署在實裝無人艇上,檢測直觀效果對比如圖8所示。
從對比圖可以看出,本文改進的算法保留了YOLOv8算法對常規目標的檢測性能,同時對小目標較為敏感,可檢測出遠處小目標,可有效提升目標的發現距離。
4結束語
本文針對無人艇側視視角導致的數據特征局部化和深度方向形變,引入Copy-Paste算法生成目標不同角度的樣本數據;針對雨霧、鏡頭水滴和鹽漬等非正常環境下圖像樣本較少的情況,引入基于CycleGAN的非配對圖像風格遷移算法,有效擴充了數據集中低光照、逆光、鏡頭鹽漬、水滴等情況的數據。本文通過不同算法在增廣前后數據集上的對比測試,算法平均精度平均提升 7.5% ,召回率平均提高 6.8% 。針對海上目標尺度變化跨度大,極大極小目標并存的情況,基于YOLOv8算法模型增加小目標專用檢測頭和優化損失函數,優化模型較YOLOv8,對漂浮物、航標和落水人員測試,召回率分別提升了 2.3%.1.4% 和 2.4% 。本文改進的算法對小目標較為敏感,有效提升了目標發現距離。
參考文獻:
[1] 朱健楠,虞夢苓,楊益新.無人水面艇感知技術發展綜述[J].哈爾濱工程大學學報,2020,41(10):1486-1 492.ZHUJN,YU ML,YANGYX.Overview of develop-ment of unmanned-surface-vehicle sensing technology[J].Journal ofHarbin EngineeringUniversity,,2O2O,41(10):1 486-1 492.
[2] Freund,Yoav,RobertES.Adecision-theoreticgenerali-zation of on-line learning and an application to boosting[J].Journal of Computer and System Sciences,1997,55(1):119-139.
圖8YOLOv8與改進算法測試結果對比圖

Fig.8Comparison diagram of test results between YOLOv8 and the improved algorithm
[3]N. Dalal,B.Triggs.Histograms of oriented gradients for humandetection[C]//In Proceedings of the IEEEComputerSociety Conferenceon Computer Visionand Pattern Recognition(CVPR2005),Shanghai,2005:886-893.
[4] Lowe,David G.Distinctive image features from scale-invariantkeypoints[J].International journal ofcomputervision,2004,60(2):91-110.
[5] A.Krizhevsky,I.Sutskever,G.E.Hinton.Imagenet classificationwithdeepconvolutional neural networks[J]. Advances in Neural Information Processing Systems,2012 (5):1097-1105.
[6] 李耀琦,宗富強,楊利斌.基于深度學習的目標檢測 算法概述[J].兵器裝備工程學報,2023,44(S1): 414-421. LIYQ,ZONGFQ,YANGLB.Anoverviewofobject detectionalgorithmsbased on deep learning[J].Journal ofOrdnance Equipment Engineering,2023,44(S1): 414-421.
[7]J.Redmon,S.Divvala,R.Girshick,et al. You only look once:unified,real-time object detection[C]//In Proceedings of the IEEE Conference on Computer Vision andPattern Recognition(CVPR),Beijing,2016: 779-788.
[8] Y.Tian,Q.Ye,D.Doermann.YOLOv12:attentioncentric real-time object detectors[J/OL].arXiv preprint, arXiv:2502.12524,2025.
[9] 程亮,楊淵,張云飛,等.面向無人艇智能感知的水 上目標識別算法研究[J].電子測量與儀器學報, 2021,35(9):99-104. CHENGL,YANGY,ZHANGYF,etal.Researchon water target recognition algorithm for unmanned surface vessel[J].Journal ofElectronic Measurementand Instrumentation,2021,35(9):99-104.
[10]徐海彬,劉暢,田建東,等.基于視覺和定位系統的無 人艇自主對接系統[J].計算機工程與設計,2021,42 (9):2606-2613. XU HB,LIU C,TIANJD,et al.Autonomous docking system for USV based on vision and position system[J]. Computer Engineering and Design,2021,42(9): 2 606- 2 613.
[11]朱旭芳,黎奧豐,夏家偉.基于信息融合的無人艇船 舶檢測與跟蹤[J].海軍工程大學學報,2022,34(5): 20-26. ZHUXF,LIAF,XIAJW.Detectionandtrackingalgorithm of shipsbased on information fusion for unmanned surfacevessel[J].Journal ofNaval Universityof Engineering,2022,34(5):20-26.
[12]郭海艷,程亮,楊春利,等.面向水面無人艇的目標檢 測與船舶分類系統研究[J].中國測試,2023,49(6): 114-121. GUOHY,CHENGL,YANGCL,etal.Researchon target detection and ship classification system for unmanned surface vessels[J].China Measurement amp; Test, 2023,49(6):114-121.
[13]S. Tang,S.Zhang,Y. Fang.HIC-YOLOv5:improved YOLOv5 forsmall object detection[C]//InProceedings of the IEEE International Conference on Roboticsand Automation(ICRA),Shenzhen,2024:6614-6619.
[14]左震,郭潤澤,孫備,等.海面無人艇對艦船目標的細 粒度檢測方法[J].儀器儀表學報,2024,45(12): 221-233. ZUOZ,GUORZ,SUNB,etal.Fine-grained detection of ship objects by unmanned surface vehicles[J]. Chinese Journal ofScientific Instrument,2024,45(12): 221-233.
[15]張發枝,何佳洲,胡劍秋,等.基于單目視覺的無人艇 海面目標實時測距方法[J].艦船科學技術,2024,46 (13):126-131. ZHANG F Z,HE JZ,HU JQ, et al. A real-time ranging method for USV sea surface targets based on monocular vision[J].Ship Science and Technology,2024,46(13): 126-131.
[16]S.M.Shaqib,A.P.Alo,S.S.Ramit,etal.Vehicle speed detection system utilizing YOLOv8:enhancing road safetyand traffic management for metropolitan areas[J/ OL].arXiv preprint,arXiv:2406. 07710,2024.
[17]潘瑋,韋超,錢春雨,等.面向無人機視角下小目標檢 測的YOLOv8s改進模型[J].計算機工程與應用, 2024,60(9):142-150. PAN W,WEI C,QIANCY,et al.Improved YOLOv8s model for small object detection from perspective of drones [J].Computer Engineering and Applications,2O24,60 (9):142-150.
[18]Y.Bai,D.CHEN,Q.Li,et al.Bidirectional copy-paste forsemi-supervised medical image segmentation[C]//In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition,Nanjing,2003.
[19]劉航,李明,李莉,等.基于生成對抗網絡的圖像風格 遷移[J].南京信息工程大學學報(自然科學版), 2023,15(5):514-523. LIUH,LIM,LIL,et al.Image style transfer based on generative adversarial network[J]. Journal of Nanjing University of Information Science amp; Technology(Natural Science Edition),2023,15(5):514-523.
[20]M. Yaseen.What is yolov 8:an in-depth exploration of the internal features of the next-generation object detector [J/OL].arxiv preprint,arXiv:2 408.15 857,2 024.
[21]T.,Y.Lin,P.Goyal,Ross.Girshick,etal.Focalloss fordense object detection[C]//In Proceedings of the IEEEInternational Conference on Computer Vision(ICCV),Beijing,2017:2 999-3 007.
(責任編輯:胡前進)