999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于Vision Transformer Hashing的民族布藝圖案哈希檢索算法研究

2023-07-13 09:12:06韓雨萌段曉東
大連民族大學學報 2023年3期
關鍵詞:模型

韓雨萌,寧 濤 ,段曉東,高 原

(大連民族大學 a.計算機科學與工程學院 b.大數據應用技術國家民委重點實驗室,遼寧 大連 116650)

中國是一個擁有五十六個民族的統一多民族國家,在長期歷史發展過程中,多民族文化共同組成了中華文化。在眾多民族文化的燦爛結晶中,民族圖案是不可或缺的寶貴非物質文化財富,它承載了一個民族發展的歷史,是一個民族思想、歷史、藝術和美學的綜合體現。因此,認識和保護民族圖案具有重要意義。許多學者進行了相關研究:如劉戰東等,引進克隆算子對民族圖案基元進行操作,并提出一種民族圖案生成算法[1]。劉菲朵提出了一種改進的圖案分割算法SGB,實現了交互式民族圖案分割系統[2]。張志宇提出了一種基于深度學習的民族圖案識別算法,能夠提取較為高級的語義特征,且運算時間和運算精度都得到了提升[3]。

民族圖案種類繁多、樣式復雜,且其中往往蘊含著大量的深層語義,機器獲取這些深層語義也往往是十分困難的,再加上相關數據集難以收集,相關研究較少,使得進行這項研究具有重要意義。苗族蠟染圖案如圖1,侗族織錦圖案如圖2。

圖1 苗族蠟染·鳥頭蝴蝶 圖2 侗族織錦·八角花

圖像檢索研究自上世紀七十年代開始,已經經歷了數十年的發展過程,其發展階段從文本檢索、內容檢索、反饋檢索一直到最近的特征檢索。傳統的圖像檢索即基于文本的檢索存在很多問題,最主要的就是人工標注的成本太大,以及不能充分表達圖像。隨著基于內容的圖像檢索CBIR的提出與發展,文本檢索的缺陷不斷被避免,檢索的效率和精度也不斷得到提高。深度神經網絡模型的提出和不斷迭代更新,計算機視覺領域里,各種視覺技術都得到了滋潤與發展。圖像檢索作為計算機視覺領域里的一個重要課題,也因此得以飛速發展。

1 相關工作

VIT(Vision Transformer)是一種將transformer運用在計算機視覺領域的模型,最初被應用在圖像分類領域,這雖然不是transformer第一個被應用在計算機視覺領域所提出的模型,但因為其模型簡單且效果好,可擴展性極佳,成為了transformer在計算機視覺領域的里程碑式模型。自從神經網絡模型問世以來,計算機視覺領域的重點任務得到了飛速發展。

在傳統的圖像檢索面臨不夠輕量級、抓取特征效率低、算法不夠簡單以及面對大型數據集檢索效果不好等問題時,開始有人將神經網絡運用在圖像檢索任務中,如鄒凱提出了一種基于改進AlexNet的布料色卡圖像檢索方法,能夠滿足用戶通過所構建模型快速和準確地檢索所需布料色卡信息的要求[4]。王佳婧、金壯等提出了一種基于面部特征增強和CNN網絡結構的民族人臉圖像檢索方法,并實現了多種圖像檢索模式結果的可視化[5]。而隨著CNN網絡結構的提出,各種其他不同的網絡結構也在幾年之內被接連提出,也接連地被應用到圖像檢索的領域,提出了一種基于CBAM-ResNet50的民國紙幣圖像檢索方法,所提取的民國紙幣圖像特征具有更強的辨識度[6]。

VIT網絡模型的提出,將圖像檢索研究又推向了新的高潮,Nouby等人提出的以VIT為主干網絡的圖像檢索方法[7],將圖像檢索的精度進一步提升。

在圖像檢索技術蓬勃發展的大背景下,民族圖案檢索也作為圖像檢索領域的一個細分專業領域,逐漸被國內的學者關注,例如,閆龍泉提出了一種基于深度哈希的唐卡圖像檢索研究方法,利用ResNet50和SKNet結合了藏族特色藝術瑰寶唐卡的圖案特征,將唐卡圖像特征進行提取與聚合,經過多尺度對數變換和網絡自主相關參數學習,使得唐卡圖像效果得到了增強[8]。溫雅利用EGBIS圖像分割法和SURF算法設計了一種民族圖案檢索系統,能夠實現對民族圖案內容的檢索功能[9]。鄒悅利用ResNet50網絡、字典學習與語義分析對苗族蠟染圖案進行了研究,提出了一種基于內容的民族紋樣圖案識別檢索方法[10]。但是綜合來看,國外的諸多學者雖然也有研究民族圖案,但其只集中在本國的民族圖案,中國的民族圖案具有鮮明的特點,所以其方法多不具有借鑒性。反觀國內,由于民族圖案數據集獲取困難、特色性較強、圖案內容復雜多樣,只針對于民族圖案的圖像檢索方法研究還比缺乏,現有的圖案檢索,多只專注于單民族單一種類圖案進行檢索,內容不夠充實。

為了解決以上所述存在的問題,本文基于Vision Transformer網絡結構,以哈希圖像檢索為檢索框架,提出了針對于民族布藝圖案的VTDSH哈希民族布藝圖案檢索方法。

2 數據集

由于題材特殊,以及涉及到非物質文化遺產保護和版權問題,網絡上民族布藝圖案數量較少,而實驗所需要的關于這些民族布藝圖案的語義和背景解釋則更少,沒有公開的大型民族布藝圖案數據集。為了進行相關實驗研究,我們自行進行了數據集的構建。

通過各種渠道獲取民族布藝圖案內容,并學習民族背景文化以求專業地解釋各個圖像的含義、進行標注。我們獲得原始圖像約一千五百張,由于民族布藝圖案本身多被加工在布料和各種裝飾物上,且一張圖片內,往往雜糅了很多不同種類的數據,不符合直接作為數據集的要求,所以我們將這一千五百張圖片進行了數據清洗、歸一化處理以及圖案內容分析,將圖像進行了切割、填充等處理,將所有圖案全部轉換為256×256大小,并全部轉換為RGB圖像,最終得到了包含六類2 785張圖片數據集如圖3。這2 785張圖片中,包含來自苗族、侗族、瑤族三個民族的蠟染、織錦圖案,其中蠟染圖像分為魚類蠟染圖像、鳥類蠟染圖像和蝴蝶蠟染圖像,織錦圖案分為菱形織錦圖像、人形織錦圖像和八角花織錦圖像,其中魚類蠟染796張,鳥類蠟染607張,蝴蝶蠟染547張,菱形織錦477張,人形織錦60張,八角花織錦298張。

圖3 民族圖案數據集(部分)

3 VTDSH模型的提出

3.1 VIT模型結構

簡單來說,Vision Transformer模型由Embedding層、Transformer Encoder和MLP Head三個模塊。

Embedding層輸入的是一個二維矩陣,即token序列[num_token,token_dim], token0-9都是向量,以VIT_B-16為例,每個token的向量長度為768,在輸入Transformer Encoder之前構成。需要加上[class]token和Position Embedding,專門用于分類,與之前從圖片中生成的tokens拼接在一起。

而Transformer Encoder則是將如圖4所示的block堆疊多次,這之中包括Layer Norm、Multi-Head Attention、Dropout和MLP。

圖4 Transformer 模組

3.2 深度監督哈希DSH

深度監督哈希,即Deep Supervised Hashing,是一種通過學習緊湊的二進制代碼,以求在大規模數據集上高效進行圖像檢索的哈希方法,它以CNN架構為基礎,將成對的圖像(相似、不相似)作為訓練輸入,并鼓勵每個圖像的輸出接近離散值(如±1),通過編碼圖像對的監督信息,并同時將輸出進行正則化處理以近似所需要的離散值,新出現的查詢圖像將被輸出量化為二進制碼,可通過網絡傳播。

3.3 VTDSH模型的提出

VIT網絡具有優良的性能,其體量小,運行速度快,而DSH中所運用的網絡為簡單的卷積神經網絡,所以將DSH中的卷積神經網絡替換成VIT網絡,去掉VIT網絡的頭部,并對DSH算法進行參數調整。

整個模型的流程圖如圖5。

圖5 VTDSH模型流程圖

用VIT網絡對圖像的特征進行提取,利用DSH算法生成每一張圖像的哈希碼,哈希碼長度各有不同,分為16、32、64,每一張圖片的哈希碼都是不同的,用此來分辨不同的圖片,計算每一張圖片哈希碼之間的距離,距離越大說明圖片越不相似,距離約小則越相似。

本方法中采用的損失函數為改進的對比損失函數,根據DSH圖像檢索方法的要求,要求相似圖像的編碼盡可能接近,而不同圖像的編碼盡可能遠。所以,設一對圖像I1,I2∈Ω,對應的網絡輸出為b1,b2∈{+1,-1}k,如果圖像相似,則定義y=0,y=1。將圖像的損失函數定義如下:

(1)

s.t.bj∈{+1,-1}k,j∈{1,2},α=0.1。

式中,Dh表示兩個向量之間的漢明距離,m>0為邊界閾值函數,當它們的漢明距離低于邊界閾值m時,前項懲罰映射到不同二進制碼的相似圖像,后項懲罰映射到相似二進制碼的不同圖像。使用對比損失函數是為了符合本方法樣本成對的特點,并且這種損失函數在降維中時,經過特征提取后,在特征空間中,兩個樣本仍然相似,原本不相似的樣本,經過特征提取之后,兩個樣本仍然不相似。

4 實 驗

實驗中,本文在自建的民族布藝圖案數據集minzudataset上劃分訓練集和測試集,訓練集2 400張,測試集385張,每張圖片重置大小為256×256,cropsize大小設置為224×224,訓練中,網絡的學習速率設置為0.000 1,迭代訓練150個周期,每30個周期為一批次,每一個周期迭代訓練2 400次,每一個batch設置大小為32,每30次訓練計算一下平均精度,alpha值設置為0.1,將數據集在不同的網絡模型。

首先使用不同的哈希算法對圖像進行對比檢索,將VIT的頭部去掉,換成其它的哈希算法,并進行對比實驗,實驗結果見表1。其中16、32、64為散列碼長度,DSH、CSQ、DPN、GreedyHash、HashNet、IDHN為深度哈希檢索框架。

表1 不同檢索方法下的平均mAP

從表1可以看出DSH在與VIT搭配時表現效果最好,mAP可以達到0.953。

將DSH放在不同的網絡結構下繼續進行檢索實驗,結果展示見表2。其中16、32、64為散列碼長度。

從表2可以看出,在使用VIT網絡為特征提取網絡時效果最好,且在VIT16和VIT32模型時效果都為0.953,VTDSH模型的mAP在散列碼位數為64時最高,比其他網絡模型的平均mAP值要高,可以得出該模型有效且針對于民族布藝圖案數據集有良好的圖像檢索性能。

5 結 語

提出了一種新的面向多民族多種圖案的深度學習哈希圖像檢索方法,與傳統的深度哈希圖像檢索方法相比,本文所提出的VIT-DSH方法使用VIT網絡結構作為主干網絡、DSH深度哈希為檢索框架,通過實驗證明本文的方法更快,針對于民族布藝圖案數據集檢索精度更高。

猜你喜歡
模型
一半模型
一種去中心化的域名服務本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數模型及應用
p150Glued在帕金森病模型中的表達及分布
函數模型及應用
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 亚洲成人在线免费| 最近最新中文字幕在线第一页| 欧美激情首页| 国产日韩欧美精品区性色| 免费毛片a| 毛片免费视频| 亚洲精品成人福利在线电影| 国产打屁股免费区网站| 国产又黄又硬又粗| 2048国产精品原创综合在线| 国产午夜无码专区喷水| 国产一级做美女做受视频| 99偷拍视频精品一区二区| 欧美精品亚洲二区| 日韩AV无码免费一二三区| 韩日午夜在线资源一区二区| 色综合五月婷婷| 亚亚洲乱码一二三四区| 青草精品视频| 欧美亚洲激情| 久夜色精品国产噜噜| 国产在线高清一级毛片| 国产高清不卡视频| 国产美女精品在线| www.精品国产| 九色视频线上播放| a级毛片免费看| 久草国产在线观看| 亚洲国产午夜精华无码福利| 国语少妇高潮| 久青草网站| 久久公开视频| 国产精品不卡永久免费| 亚洲欧美日韩动漫| 久久精品亚洲专区| 福利国产微拍广场一区视频在线| 国产激爽爽爽大片在线观看| 九九久久精品免费观看| 福利小视频在线播放| 自拍中文字幕| 日韩专区第一页| 91久久精品日日躁夜夜躁欧美| 国产成人成人一区二区| 成年网址网站在线观看| 2021天堂在线亚洲精品专区| 久精品色妇丰满人妻| 久久一日本道色综合久久| 99手机在线视频| 国产精品久久久久鬼色| 国产精品午夜福利麻豆| 狠狠干综合| AV天堂资源福利在线观看| 国产精品福利尤物youwu| 天堂va亚洲va欧美va国产| 成人国产小视频| 成人福利在线观看| 午夜天堂视频| 久久永久视频| 精品人妻AV区| 久久国产高清视频| 超清无码熟妇人妻AV在线绿巨人| 一本一道波多野结衣av黑人在线| 亚洲人成网18禁| 露脸国产精品自产在线播| 日韩色图在线观看| 欧美日韩在线第一页| 99热国产在线精品99| 四虎影视国产精品| 在线国产综合一区二区三区| 欧美色视频在线| 久久精品视频一| 日本在线亚洲| 欧美亚洲日韩不卡在线在线观看| 亚洲国产无码有码| 欧美午夜在线观看| 国产你懂得| 亚洲国产AV无码综合原创| 国产91丝袜在线播放动漫| www中文字幕在线观看| 超清无码一区二区三区| 日韩不卡高清视频| 日韩 欧美 国产 精品 综合|