999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于自動駕駛道路場景的語義分割方法研究*

2024-01-03 07:38:44張佳琪惠永科
機械工程與自動化 2023年6期
關鍵詞:語義特征實驗

張佳琪,袁 駿,惠永科,胡 勇,張 睿

(1.太原科技大學 計算機科學與技術學院,山西 太原 030024;2.中國機械科學研究總院集團有限公司,北京 100044)

0 引言

自動駕駛領域中利用語義分割技術對路況進行分類有助于系統了解路況,進而做出更為精確的路徑規劃以及更為及時地規避障礙物,確保行車的安全,因此關于道路場景的分割對自動駕駛系統來說有著重要的現實意義。

現有的基于語義的圖像分割方法已難以適用于多個目標的分割任務,而基于深度學習的方法為計算機視覺領域的研究帶來了新的突破。與經典的體系結構相比,卷積神經網絡(Convolutional Neural Networks,CNN)圖像語義分割技術[1]能顯示出更好的效率和準確性。陳先昌[2]和Farabet等[3]提出了一種使用從原始像素訓練的多尺度卷積網絡對密集特征向量進行提取,以圖像中每個像素為中心,為多個大小的區域進行編碼的方法;Long等[4]提出的全卷積神經網絡(Fully Convolutional Networks,FCN)的流水線雖然擴展了卷積神經網絡,并且可以預測任意尺寸的輸入圖像,但是FCN預測結果分辨率比較低;Ronneberger等[5]提出的UNet在上采樣部分中具有大量特征通道,使得較高分辨率層能夠接收到上下文信息,通過“U”字網絡形狀獲得深度特征和淺層信息,達到了預測的目的。

隨著大規模公共數據集和進化的高性能圖形處理器(Graphic Process Unit,GPU)技術的發展,出現了一種高效的語義分割網絡CPNet[6],能夠捕捉到類與類之間的語義關系,進而提高了該網絡對道路場景的理解分析能力。而基于像素的縱向位置且有選擇性的突出信息屬性的網絡HANet[7]則可以更好地實現城市街道場景圖像的語義分割。

1 道路場景語義分割的優化算法設計

圖1 改進后的DeepLab 網絡結構

圖2 通道注意力結構

FCA(vh,WC)=σ1{fc2{δ[fc1(vh,WC1)],WC2}}.

(1)

其中:FCA(vh,WC)為進行完激活函數后的輸出;WC、WC1、WC2均為通道注意力模塊中的參數;σ1為Sigmoid操作;fc1、fc2分別為第一個全連接層和第二個全連接層;δ為ReLU函數。

(2)

CA將對響應較高的通道給予較大的加權,為了進一步提高融合性能,將之前輸入圖像中的不同通道進行拼接融合,然后使用1×1卷積來進行維度的降低,與此同時使用CA注意力模塊融合從主干網絡提取出的特征圖,并提取豐富的上下文信息,得到有效的高階特征。

在解碼器端輸入圖像并通過ResNet50模型的輸入層后,首先將兩個特征圖同時提取出來作為解碼器的特征輸入信息,根據遷移殘差連接的思想,將所提取出的兩個特征圖分為兩條路徑,一路經過注意力機制SE(Squeeze-and-Excitation)模塊,在SE模塊中對高階特征進行處理,產生有效的特征圖,從而提高分割結果,另一路不通過SE模塊;接著再將兩路提取出的低級特征分別經過1×1的卷積操作降維后再疊加,之后融合編碼器中四倍上采樣獲取的高級特征,最后經過3×3的卷積和上采樣的方法將其還原到與輸入圖像相同的分辨率,并對特征進行進一步的精細化,進而恢復空間信息。

本文采用了信息論中的重要函數——交叉熵損失函數,交叉熵損失函數計算公式定義為:

L=-yilog2pi-(1-yi)log2(1-pi).

(3)

其中:yi為輸出的真實值,yi=0或yi=1;pi為樣本的預測概率。

2 實驗驗證與結果分析

2.1 數據集

本文采用Cityscapes這一大型的數據集來對實例語義標簽[11]進行訓練和測試。Cityscapes是從50個城市中春、夏、秋季的街頭采集到的各式各樣的三維圖像,其中5 000張圖像是具有高品質的像素級注釋,而另外20 000張圖像則進行了粗略的注釋,這樣就可以更好地使用這些標注過的數據。

2.2 實驗平臺

本實驗是在Windows10操作系統下使用Pycharm平臺以及Python3.9語言開發的,CPU為Intel(R)Core(TM)i9-10900K CPU @ 3.70 GHz;GPU采用NVIDIA RTX 3090。

2.3 實驗評價指標

本實驗使用的評價指標為平均交并比(Mean Intersection over Union,MIoU)和總體精度(Over Accuracy,OA)。MIoU計算公式為:

(4)

其中:n為標簽標記的類別數;n+1為包含空類或者背景的總類別數;pii為模型預測與實際均為i類的像素個數;pij為預測為j類但實際為i類的像素個數;pji為預測為i類但實際為j類的像素個數。

MIoU的取值范圍為[0,1],1表示準確的預測,0表示完全錯誤的預測,MIoU值越高表示模型性能越好。

2.4 改進模型消融實驗

表1 不同模型結構的消融實驗結果

2.5 性能對比實驗

表2 不同網絡模型Cityscapes數據集分割效果對比

圖3 原始模型分割結果和改進后DeepLab 模型分割結果對比

3 結論

猜你喜歡
語義特征實驗
記一次有趣的實驗
語言與語義
如何表達“特征”
做個怪怪長實驗
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
“上”與“下”語義的不對稱性及其認知闡釋
現代語文(2016年21期)2016-05-25 13:13:44
認知范疇模糊與語義模糊
主站蜘蛛池模板: 中文字幕乱妇无码AV在线| 免费在线国产一区二区三区精品| 毛片在线播放网址| 久久网欧美| 精品久久综合1区2区3区激情| 欧美日本视频在线观看| 91美女在线| 日本道中文字幕久久一区| 亚洲色精品国产一区二区三区| 免费大黄网站在线观看| a欧美在线| 亚洲性日韩精品一区二区| 久久这里只有精品国产99| 任我操在线视频| 综合亚洲网| 国产一区二区免费播放| 久久综合亚洲鲁鲁九月天| 国产激情第一页| 四虎影院国产| 沈阳少妇高潮在线| 波多野结衣一级毛片| 欧美中文字幕一区二区三区| 成人免费黄色小视频| 国产成人超碰无码| 5555国产在线观看| 最新国产高清在线| 成人午夜视频免费看欧美| 欧美不卡在线视频| 她的性爱视频| 国产人人乐人人爱| 日本午夜精品一本在线观看| a天堂视频在线| 国产福利小视频在线播放观看| 亚洲综合九九| 日本黄色不卡视频| 天天综合亚洲| 午夜免费小视频| 男女精品视频| 人妻丰满熟妇av五码区| 国产精品蜜芽在线观看| AV网站中文| 亚洲高清在线天堂精品| 中文字幕永久视频| 在线中文字幕网| 色窝窝免费一区二区三区 | 国产在线专区| 91亚洲免费视频| 成人a免费α片在线视频网站| 成人福利视频网| 欧美午夜视频在线| 成人国内精品久久久久影院| 日a本亚洲中文在线观看| 国产成人91精品| 国产一区二区人大臿蕉香蕉| 免费一级成人毛片| 久久99国产综合精品1| 69视频国产| 2021最新国产精品网站| 毛片一级在线| 色偷偷一区二区三区| 久久久久久久久亚洲精品| 国产一区二区网站| 亚洲浓毛av| 粉嫩国产白浆在线观看| 97免费在线观看视频| 中文无码日韩精品| 免费a级毛片18以上观看精品| A级全黄试看30分钟小视频| 91外围女在线观看| 国产乱人免费视频| 免费一级α片在线观看| 被公侵犯人妻少妇一区二区三区| 超碰91免费人妻| 久久国产精品电影| 亚国产欧美在线人成| 亚洲成人高清无码| 91精品情国产情侣高潮对白蜜| 免费无遮挡AV| 久久这里只有精品免费| 日本免费福利视频| 高潮毛片免费观看| 国产成人免费视频精品一区二区|