999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合顯著信息的白色污染圖像自動標注算法

2021-11-17 07:34:10李光輝陳吹信
計算機仿真 2021年7期
關鍵詞:信息方法

汪 理,李光輝,陳吹信*

(1. 廣州理工學院電氣與電子工程學院,廣東 廣州 510540;2. 三峽大學電氣與新能源學院,湖北 宜昌 443002)

1 引言

在大數據時代,用戶能夠訪問獲取的信息資源量巨大,圖像能夠反映出的信息更加易懂,更受人們青睞,因而被廣泛應用。互聯網平臺中每天會產生大量的圖像和視頻信息,為了更加高效地對大規模圖像信息資源進行提取并應用,圖像檢測變得尤為重要。

柯逍等人[1]提出一種基于數據集學習機的圖像自動標注模型。首先,對公共圖像庫的訓練集數據進行圖像自動分割,選擇分割后相應的標注詞,并根據綜合距離的圖像特征匹配算法進行自動匹配以形成不同類別的訓練集。通過蒙特卡羅數據集均衡算法使得各個標注詞間的數據規模大體一致。然后引入多尺度特征融合算法,對不同標注詞圖像進行有效的特征提取。最后,運用魯棒性增量極限學習,提高了判別模型的準確性。實驗結果表明:該模型能夠對圖像實施自動標注,具有較高準確性。張鵬飛等人[2]提出一種基于集成GMM聚類的少標記樣本圖像分類方法,通過一定的規則給未標記數據賦予標簽,將未標記數據轉換成已標記數據用于模型的訓練。在手寫數字識別數據集上進行實驗,最終獲得標記圖像。實驗結果表明:該算法在少標記樣本的情況下,結合集成GMM聚類的方法比只采用有標記樣本訓練得到的模型分類準確率具有較大提高。

由于白色污染圖像邊緣較為模糊,又容易受到外界環境影響,導致特征提取困難,上述方法需要耗費大量時間才能標注目標,并且精準度較低,很難被廣泛應用。因此,提出融合顯著信息的白色污染圖像自動標注算法。該算法先對顯著性信息進行提取并實施修正,然后對白色污染圖像進行正則化處理,使白色污染圖像中的顯著目標一致性得到了增強,從而有效解決了傳統方法不能精準獲取目標信息的問題。再將FCM算法和遺傳算法相結合,消除聚類中心收斂至極值的現象,從而改善傳統方法標注結果不精準的問題。依據SimMSVM代入損失函數進行優化,從而實現圖像的自動標注。實驗結果表明:所提算法具有更好的標注效果,更加節省時間。

2 融合顯著信息檢測

2.1 全局顯著性信息提取

為了使計算機自動分析出圖像中區域的顯著性和重要性,根據RC算法提取到顯著性信息,顯著圖作為輸入圖像內像素顯著值高低的灰度圖,灰度值越大說明相對應像素的顯著性越高[3,4]。

采用RC算法對圖像進行分割,然后對各個區域實施特征提取并運算出顯著值。任意區域ri的顯著性是根據整體區域加權距離總和進行判斷的,其表達式如下

(1)

式中,ω(rj)為區域rj的權重值,其是根據區域rj的像素數取決的,Dr(ri,rj)為ri和rj兩者間的間距。

2.2 物體級別先驗信息的融合

在融合顯著性信息的過程中,由于圖像具有復雜性,單一級別的檢測方法很難獲得明確的顯著圖,需要運用分層分割對圖像具體信息進行識別[5]。

運用譜聚類算法將中級別超像素聚類成物體級別的區域分割,即O={O1,O2,…,Om}。依據K個特征向量,形成K個系列,運用聚類算法對圖像進行分割。

根據分層分割定理,運用物體級別信息先驗方法,當背景區域被合理劃分為多個部分,那么中級別背景先驗將很難對顯著物體進行區分,當目標與物體兩者間的流形間距較短,需要調節原始顯著圖,設定出一個邊界先驗[6]。將物體級別劃分的四周與圖像邊界設置為L0與Lb。依據兩者間的相交比例,描繪物體背景區域的概率,其表達式為

(2)

式中,LOi為邊界集合內像素的個數。若中級碎片R處于相同物體級別O內含有同樣的先驗值,故Pp(Ri)=Pp(Oi),則物體級先驗信息能夠有效地增強顯著性目標的一致性。

運用物體級的先驗信息對超像素級別下的顯著性實施進一步修正,得出公式為

M(Ri)=(Ri)Pp(Oi)

(3)

融合顯著信息能夠有效地抑制噪聲對顯著信息的影響。

3 白色污染圖像自動標注算法

3.1 白色污染圖像正則化約束

大多數圖像的退化是通過線性退化系統K進行的,輸入圖像經過系統對應輸出圖像,得出圖像退化的連續線性系統表達式為

y=x·h+n·M(Ri)

(4)

式中,y為模糊噪聲圖像,h為不確定的點擴散函數,x為原始圖像。

充分考慮圖像的特性,合理運用邊緣檢測濾波器組dθ獲得圖像邊緣的具體信息,其表達式為

(5)

式中,Θ為濾波器整體方向集合;dθ作為濾波器組中一項權重的差分手段,合理運用大量相近點之間的細節信息,能夠獲得大量的邊緣具體信息[7]。為了能夠更好地保持圖像邊緣的具體信息,采用權重全變差范數對圖像進行正則化約束,得出公式如下

(6)

針對連續平滑性,需要確保支持域的連續性與平滑性,從而使正則化約束時的連續平滑性得到保障,模糊退化函數的表達式為

(7)

將Φ2(h)轉變成高斯模糊正則化約束性,然后把參數λ2與λ3進行適當調節,能夠獲取模糊退化函數的稀疏性與連續平滑性;兩者間的平衡可對后續圖像的自動標注作鋪墊,在迭代的過程中,運用函數對原始圖像實施正則化約束處理[8]。

3.2 基于遺傳算法和FCM的圖像自動標注

為了能夠對圖像自動標注,更快速地實現聚類,需要采取具有較高性能的圖像底層視覺特征信息,分別為HSV非均勻量化直方圖具有16維,RGB顏色矩具有72維,以及SIFT特征具有128維。

FCM聚類算法主要是把圖像特征數據X=(x1,x2,…,xn)分割成c個模糊組,再通過合理運算獲得各組的聚類中心V=(υ1,υ2,…,υc),從而使所得準則函數呈現出最小化,故J的表達式為

(8)

式中,i,j為圖像x內像素點的坐標;υi為模糊組i的聚類中心;dij(υi,xj)為i個聚類中心υi至j個數據點xj的歐式距離;m為常數,其取值為2。通過式(8)可得出U的取值范圍為

(9)

通過Lagrange乘數法,使準則函數J(U,υ1,…,υc)的值達至最小化,其表達式為

(10)

通過上述公式能夠得出,FCM聚類算法作為局部動態優化算法,擁有簡單的迭代過程,并且對初始值選擇要求較高[9]。若初始值選取時存在誤差,那么很容易導致所得聚類正確率較低的情況發生,因此,運用遺傳算法對提取的特征向量進一步實施聚類分析。

遺傳算法是通過模擬進化進行運算的方法,具有廣泛的應用性。將遺傳算法與FCM算法兩者相結合,利用遺傳算法的全局優化性能,在很大程度上改善FCM算法收斂性能較差的問題。兩種算法結合主要是通過FCM算法快速將數據集X內c個模糊組導向其極值點,然后根據遺傳算子去除聚類中心收斂過度的現象,進一步實施反復搜索,最終獲得最優解的過程。算法的具體流程如圖1所示。

圖1 算法流程圖

按照c個ω維聚類中心的取值區間,將其實施二進制編碼成基因串B={β1,β2,…,βn}(n=c×ω)。設置D代表聚類中心任意維數的十進制數,即D∈(-B,B),那么把D編碼成16位的二進制數,其表達式為

(11)

然后運用生成隨機數的機制,隨機生成chr個個體代表初始群體P(0)。

再運算出c類內每個個體的適應度,表達式如下

(12)

實施選擇算子,運用蒙特卡羅方法,獲取選擇概率Pi,其表達式為

(13)

實施交叉算子,當交叉概率Pc的值較大,會導致新個體生產速度變得較快,且過大容易破壞染色體結構,過小會造成搜索緩慢。因此,交叉算子根據自適應選擇,則交叉概率Pc的表達式為

(14)

式中,Pc1為最大交叉概率,其取值為0.9。Pc2為最小交叉概率,其取值為0.6。faυg為平均適應度,fmax為最大適應度。

實施變異算子,當變異概率Pm的值較大,會呈現出隨機搜索現象。當變異概率Pm較小,則很難生成新的染色體結構。因此,變異算子需根據自適應選擇,變異概率Pm的表達式如下

(15)

式中,Pm1為最大變異概率,其取值為0.1。Pm2為最小變異概率,其取值為0.001。faυg為群體平均適應度,fmax為群體最大適應度。

3.3 圖像自動標注

在結合FCM算法與遺傳算子的基礎上,獲得了各個模糊組的聚類中心,并消除了聚類中心收斂至極值的現象,從而得到了最優解。以此為基礎,通過SimMSVM建立多類支持向量機,引入損失函數實施優化,經過逐步運算,實現白色污染圖像的自動標注。

SimMSVM作為能夠達到多類支持向量機的分類模型,被廣泛地適用于圖像處理當中。其具體定義如下:

首先,代入新的損失函數,其表達式為

(16)

然后,通過損失函數,對SimMSVM實施優化

(17)

再運用Lagrange算子運算出二次優化式,獲得對偶形式的表達式為

(18)

最后,獲得SimMSVM的類判別函數,其公式如下

(19)

通過上述公式的推理運算,能夠快速獲得白色污染圖像自動標注。

4 實驗結果分析

為了驗證所提方法的高效性,在多維網絡平臺上進行研究分析。通過為Windows10的操作系統運用Matlab2010軟件進行實驗,選用Corel圖像庫內300組不同形態的圖像,每幅圖像與1~5個標準詞相關聯。將所提算法與文獻[1]和文獻[2]方法的性能進行比較分析,結果如表1所示。

表1 圖像自動標注性能對比

分析表1中數據可以得出,相比之下,所提算法具有更高的標注精度。這是由于所提算法通過具有較高性能的圖像底層視覺特征信息實現快速聚類,從而實現了對圖像的自動標注,提高了標注效果。

由于圖像生成概率等于區域生成概率的面積,而且每一幅圖像中所包含的區域個數是固定的,因此,需要將所提算法與其它兩種方法進行對比分析,進一步驗證所提算法的效率。具體對比內容如圖2所示。

圖2 標注時間對比圖

從圖2中可知,采用所提算法進行圖像自動標注的運算時間更短,其最長運算時間為4.8s,而文獻1方法的最長運算時間為10.0s,文獻1方法的最長運算時間為8.7s。相比其它兩種方法,所提算法更加節省時間和成本,具有顯著優越性。

為了驗證所提算法的圖像標注效果,對比所提算法與文獻[1]方法的對比結果,如圖3所示。

圖3 圖像標注效果對比

分析圖3(c)可知,所提算法能夠標注出原始圖像中的牛、房子、樹木、繩子等物體,而文獻[1]方法僅能標注出牛、樹木與部分房子,標注的物體不夠全面。通過對比結果可知,所提算法能夠有效識別出圖像中的目標信息。由于白色污染圖像特征較為淺顯、邊緣具有模糊性,所提算法通過RC算法提取出了圖像中的顯著性信息,并增強了顯著性的目標一致性,從而精準獲取到了目標信息,提升了標注結果的精準性。

5 結論

為了解決傳統方法對白色污染圖像標注效果不佳的問題,提出一種融合顯著信息的白色污染圖像自動標注算法,本文的主要研究內容如下:

1)通過RC算法提取顯著性信息,對物體先驗信息進行融合,增強顯著性。

2)對白色污染圖像進行正則化處理,為自動標注打下基礎。

3)通過遺傳算法和FCM算法的結合,實現消除聚類中心收斂至極值現象的目的。

4)在SimMSVM自動標注中引入損失函數,進行合理運算,實現對白色污染圖像的快速標注。

5)分析實驗結果可知,所提算法在進行圖像標注時,最長運算時間僅為4.8s,遠低于傳統方法,并且該方法的標注效果優于傳統方法,說明所提算法具有較高的準確性,并且標注效果較好。

猜你喜歡
信息方法
學習方法
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
信息
建筑創作(2001年3期)2001-08-22 18:48:14
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
健康信息(九則)
祝您健康(1987年2期)1987-12-30 09:52:28
主站蜘蛛池模板: 97无码免费人妻超级碰碰碰| 日韩天堂视频| 亚洲第一成人在线| 亚洲无码四虎黄色网站| 波多野一区| 日本一区高清| 欧美三级视频网站| 综合色区亚洲熟妇在线| 香蕉eeww99国产在线观看| 成人中文在线| 国内99精品激情视频精品| 国产福利小视频在线播放观看| 91福利一区二区三区| 美女毛片在线| 欧美一级视频免费| 国产成人综合在线视频| 国产无码在线调教| 91精品专区| 黑色丝袜高跟国产在线91| 国产精品亚洲片在线va| 欧美激情首页| 久久伊人操| 国产欧美另类| 国产鲁鲁视频在线观看| WWW丫丫国产成人精品| 中国国产高清免费AV片| 国产成人AV大片大片在线播放 | 欧洲极品无码一区二区三区| 波多野结衣久久高清免费| 在线欧美国产| 国产精品私拍99pans大尺度| 国产99在线观看| 一区二区午夜| 国产精品久久久久久搜索| 青青青视频91在线 | 久久特级毛片| 久久夜色精品| 无码网站免费观看| 国产午夜人做人免费视频中文| 欧美在线一二区| 久久久久人妻一区精品色奶水| 91精品国产一区| 国产亚洲视频中文字幕视频| 大乳丰满人妻中文字幕日本| 国产电话自拍伊人| 国产在线自乱拍播放| 国产精品嫩草影院视频| 网友自拍视频精品区| 国产欧美成人不卡视频| 久久熟女AV| 国产在线视频福利资源站| 国产SUV精品一区二区6| 毛片网站在线看| 国产亚洲精| 国产女人在线| 久久伊人操| 一级毛片基地| 亚洲欧美人成人让影院| 99视频免费观看| 国产精品一区二区国产主播| 亚洲AV无码久久天堂| 国产精品片在线观看手机版| 在线观看国产精品第一区免费| 成年A级毛片| 免费看美女毛片| 中文字幕天无码久久精品视频免费| 国产精品九九视频| 国产浮力第一页永久地址 | 国产老女人精品免费视频| 国产激情无码一区二区APP| 91日本在线观看亚洲精品| 99re精彩视频| 久久久久久久久亚洲精品| 四虎永久在线| 97se亚洲综合| 久久精品国产免费观看频道| 无码中字出轨中文人妻中文中| 亚洲色无码专线精品观看| 亚洲第一香蕉视频| 国产人成网线在线播放va| 伊人91视频| 色综合中文|