999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能目標檢測技術在書畫文物病害調查中的應用

2025-02-07 00:00:00鄧旭帥李子璇張云春沐蕊
西北大學學報(自然科學版) 2025年1期

摘要 針對書畫文物保護工作中人工病害調查和病害圖繪制效率低的問題,探索了基于深度神經網絡的目標檢測技術識別書畫病害的可行性。選擇YOLOv5系列模型并根據本研究任務特點對其結構做了優化,包括FGSM算法、CmBN策略、Dropblock正則化和CIOU-Loss損失函數。利用博物館館藏書畫文物素材,融合Mosaic數據增強方法進行書畫文物圖片的增強,設計了滑動窗口檢測技術、圖像逐層分析和定位裁剪技術,初步訓練出了2個具備病害識別功能的模型,根據模型性能檢驗指標最終選擇了YOLOv5x6作為本研究任務的模型。測試結果表明,該模型以較高的準確率和查全率識別出了待檢測病害,用時僅為人工的千分之一。該技術的引入可極大提高文物病害識別效率,并且在病害識別過程中保持客觀、穩定的標準。

關鍵詞 病害識別;目標檢測;圖像處理;YOLOv5;深度神經網絡

中圖分類號:K854.3" DOI:10.16152/j.cnki.xdxbzr.2025-01-008

Application of artificial intelligence object detection technology in disease identification of calligraphy and painting cultural relics

DENG Xushuai1, LI Zixuan2, ZHANG Yunchun2, MU Rui3

(1.School of History and Archives, Yunnan University, Kunming 650091, China;

2.School of Software, Yunnan University, Kunming 650504, China;

3.Yunnan Provincial Museum, Kunming 650214, China)

Abstract Targeting the low-efficiency problem of manual disease identification and disease mapping in the protection of calligraphy and painting cultural relics, this paper explores the feasibility of deep neural network-based object detection technology to identify calligraphy and painting diseases. We design a series of YOLOv5 models with some architecture optimizations based on the special requirements of disease identification. The optimizations include FGSM algorithm, CmBN strategy, Dropblock normalization, and CIOU-Loss loss function. Using the materials of calligraphy and painting of cultural relics in the museum as inputs, we enhance the images by combining Mosaic data enhancement method. Two disease identification deep learning models are trained based on some improvements, including sliding-window detection, image clipping based on layer-by-layer image analysis and positioning, etc. By evaluating the models with bench-mark performance metrics, this paper chooses YOLOv5x6 for our task. The experimental results show that YOLOv5x6 outperforms the other models with the best precision and recall. This model takes one-thousandth time" compared with manual work. The introduction of deep learning techniques in disease identification not only helps to improve the efficiency of disease identification of cultural relics, but also provides objective and stable standards in the processes of disease identification.

Keywords diseases identification; object detection; image processing; YOLOv5; deep neural networks

書畫文物是指人類在歷史上創造或遺留的,并且經過文物普查確定為文物的書法和繪畫實物遺存,是在紙和絹上用毛筆、墨汁、顏料等工具材料創作的書法、繪畫作品[1]。從化學本質來看,書畫文物的載體以紙和絹為主,都是天然高分子化合物,因此書畫文物較容易受外界因素的影響而產生折痕、斷裂、蟲蛀、糟朽等病害,故對其進行科學的保護與修復尤為重要。在書畫修復中,觀察和分析作品的病害情況是制定修復計劃的前提[2],但文物病害的識別、病害圖的繪制是個非常耗費人力、時間的工作步驟[3]。雖然在書畫文物病害的分類與圖示方面已經有了行業標準[4],但是受從業經驗、觀察角度、病害理解等因素的影響,在一些實際工作中文物保護人員對于病害的識別存在一定程度的主觀性。

為提高文物保護工作效率、緩解文物保護修復人員緊缺的現狀,不少學者嘗試利用計算機技術代替人工來完成文物保護工作中的部分步驟。研究內容涉及病害提取[5-7]、標記[8-10]、虛擬修復[11-13]等方面。在上述有關文物病害識別的研究中,總體存在2個問題:①研究范圍主要集中在壁畫、青銅器等領域,針對書畫文物病害的自動化識別研究較少;②研究角度大多從技術應用的供給側出發,與文物保護工作的需求存在一定偏差。

目標檢測是計算機視覺領域的一個基本問題, 其任務是判別圖片中的目標類別, 同時使用矩形邊界來確定目標所在的位置[14]。 得益于人工智能領域相關技術的發展, 目前目標檢測的物體識別準確率和人臉識別率已經達到或者超過了人類水平[15], 并且該技術在經濟作物[16]、 公路橋梁[17]、 醫療[18]等領域的病害識別取得了成功應用。

鑒于目前人工智能在計算機視覺領域成熟且優異的技術基礎,以及書畫文物保護領域的病害識別需求,本文探索了基于深度神經網絡的目標檢測技術用于書畫病害識別與分類應用的可行性。通過利用該技術提高書畫文物的病害識別效率,將書畫文物保護修復工作者從簡單、重復的文物病害識別工作中解放出來,使其能夠將精力放在文物保護修復實踐中。

1 研究對象

1.1 書畫文物簡介

以昆明市晉寧區博物館部分館藏書畫為研究對象,該批書畫60件(套),共計106幅。文物等級:21件(套)為三級文物,39件(套)為一般文物。質地:52件(套)為紙制品,8件(套)為絹制品。裝裱形式:立軸24件(套)、對聯23件(套)、條屏7件(套)、橫幅6件(套)。

1.2 保存環境與病害情況

昆明市晉寧區博物館位于云南省昆明市晉寧區鄭和公園內。博物館共4層,設有1個臨時展廳和3個常設展廳,庫房位于博物館4樓,室內有1臺抽濕機用于除濕。非展出的書畫一般卷起存放于文物囊匣中,囊匣存放在文物柜中,文物柜中放有樟腦和麝香草酚用作防蟲、防霉。

該批書畫文物的病害類型有:折痕、動物損害、污漬、斷裂、殘缺等,但只有折痕和動物損害(蟲蛀)(見圖1)能夠滿足模型訓練所需的樣本數量要求,因此本文僅以這2種病害為例進行研究。在這2種病害中,折痕大多橫向分布,長度從1~25 cm不等;動物損害(蟲蛀)分布不規律,面積大多小于1 cm2。

2 模型選擇及訓練

2.1 YOLO模型

相比于汽車、行人、路障等主流檢測對象,書畫文物病害的體量小,檢測難度相對較高。因此,選擇在小目標檢測領域表現優異的YOLO系列模型完成書畫文物病害的自動化識別任務。目前,最新的YOLOv5包含YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x 4個基礎模型,它們的性能依次增強,但檢測速度依次降低。為平衡書畫文物病害的檢測效果和速度,訓練了以YOLOv5s、YOLOv5x6為基礎的2個模型,最終根據模型性能指標篩選出更適合本研究任務的模型。

2.2 模型訓練流程

2.2.1 書畫文物病害影像采集與預處理

將書畫文物懸掛于裱畫墻上,旁邊放置標準比色卡。利用相機拍攝文物整體、局部的正射影像(相機為佳能5D Mark Ⅱ,鏡頭為佳能24~105 mm F4 IS USM變焦全畫幅鏡頭)。 共采集2 500余張影像,影像尺寸為5 616×3 744像素。

由于數據影像分辨率較高,如果采用直接輸入原圖的方式,很多微小的病害并不能有效地識別出來,而如果進行簡單的下采樣,就會導致下采樣的倍數過大,數據丟失。倍數太小,網絡前向傳播需要在內存中保存大量的特征圖,極大耗盡GPU資源。為有效解決上述問題,需要將大分辨率的文物圖像分割成小分辨率的圖像。為避免2張小圖之間正好有一些目標被分割截斷,YOLOv5在2張小圖之間設置overlap(式中簡記Sol)重疊區域為

Sol=n×20%(1)

式中:n×n表示分割小圖的像素大小,本文n選用正整數3和4。由于文物病害大小不一,此操作可保證文物圖像中的微小病害也可被模型識別。

2.2.2 人工病害標記

在行業專家的協助下,利用杭州快憶科技有限公司開發的精靈標注助手(v2.0.4版本),對采集到的60件(套),106幅,共計2 500余幅照片進行病害標記。在標注中,利用邊界框框選影像中出現的所有蟲蛀、折痕病害,并給定每處病害的具體類別(見圖2)。

2.2.3 模型優化及訓練

鑒于書畫文物病害形狀各異、大小不同、邊界模糊等特點,為更好地適應本研究的目標檢測任務,建立了基于FGSM算法、CmBN策略、Dropblock正則化和CIOU-Loss損失函數的模型。

2.2.3.1 FGSM算法

本文引入FGSM對抗攻擊算法增強對病害的檢測效果,定義其損失函數為

J~(θ,x,y)=αJ(θ,x,y)+"(1-α)J(θ,x+εsign(xJ(θ,x,y)))(2)

式中:J(·)表示損失函數;θ表示模型訓練的參數;x表示輸入;y表示真實的標簽;α表示加權系數;ε表示擾動的幅度。FGSM算法的作用是通過對抗攻擊制造圖像上沒有目標的假象以利于后續的病害區域定位和檢測。

2.2.3.2 CmBN策略

為提高小批量訓練數據所得模型的性能,本文實現CmBN層的前向傳播和反向傳播操作,使用跨多個批次的數據計算均值和方差,通過縮放和偏移操作保留模型的表達能力。CmBN策略對神經網絡卷積層的輸出特征lt,i(θt)進行迭代更新的公式為

lt,i (θt)=xlt,i (θt)-μlt,k (θt)[]σlt,k (θt)2+ε(3)

式中:lt,i (θt)表示第i個樣本在第t個mini-batch中某神經網絡卷積層的輸出特征;μlt,k (x)和σlt,k (x)表示第t個mini-batch在第k時刻的均值和方差服從正態分布的平滑激活;ε為用于保證數值穩定的較小整數。批量歸一化CmBN的作用是降低圖像噪聲的影響,保證最終書畫病害區域識別的效果。

2.2.3.3 Dropblock正則化

在每個訓練迭代中,Dropblock會按照概率隨機選擇一些特征圖塊,并將它們的激活值設置為零。這將強制模型在訓練過程中使用更多的局部特征信息,有助于提高模型的泛化性能。Dropblock正則化的公式為

γ=1-Pkeep[]Sblock×" S2feat[](Sfeat-Sblock+1)2(4)

式中:Pkeep是傳統dropout中單元被保留的概率;(Sfeat-Sblock+1)2表示有效種子區域大小;Sfeat表示特征圖的大小;Sblock為常數。Dropblock正則化的作用是避免神經網絡學習書畫文物圖像特征時發生過擬合問題。

2.2.3.4 CIoU_Loss函數

定義卷積神經網絡的損失函數為CIoU(complete intersection over union)函數[19],綜合計算目標框和預測框的重合面積、中心點距離和縱橫比。CIOU-Loss根據改進的IoU計算方法計算損失。作為被添加到目標檢測的損失函數,該函數用于懲罰邊界框預測的不準確性,從而鼓勵模型更精確地預測邊界框。通過計算,可以保證對書畫文物病害區域的識別能夠綜合考慮重疊面積、中心點距離、長寬比等重要幾何要素,從而提高病害區域識別的精度和可靠性。

通過上述操作對原始的YOLO模型進行改進,得到結構優化后的YOLOv5s、YOLOv5x6兩種模型,以書畫文物病害素材對其進行訓練,具體訓練參數見表1。

3 模型性能測試

3.1 測試數據集及檢驗方法

在模型訓練階段設置訓練率為0.9,即采集到的圖像中90%用于模型訓練,10%用于檢驗。測試集中的所有圖像均經過了病害標記,但未被用于模型訓練。完成模型訓練后,系統將模型識別出來的結果與人工標記進行對比,得出檢驗數據。因為樣本量受限,在測試過程中使用了k-折交叉驗證(k-fold cross validation)。

3.2 模型檢驗指標

在文物保護的實際工作中,對病害識別效果的評價,業界主要關注3個指標:準確性、全面性以及效率。結合目標檢測領域常用的評價標準,本文選擇了準確率(Precision)、查全率(Recall)和識別速度這3個指標評價模型。

準確率(Precision)在本研究中的實際含義為在識別出來的病害當中,正確病害數量所占的百分比。查全率(Recall)表示識別出來的病害數量占實際病害數量的百分比。識別速度通過每幅書畫文物影像的平均識別時間來反映。各評價指標的計算公式為

Precison=TP(TP+FP)(5)

Recall=TP(TP+FN)(6)

式中:TP(true positive)、FP(1 positive)和FN(1 negative)的含義如表2混淆矩陣所示。P和N分別代表正樣本和負樣本,T和F分別代表模型識別結果的準確與否。具體來講,TP表示將病害正確判定為病害;FP表示將無關背景誤判為病害;FN表示將病害誤判為無關背景;TN表示將無關背景判定為背景。

3.3 檢驗結果與分析

3.3.1 準確率

經過大量實驗驗證,YOLOv5s和YOLOv5x6兩種模型的準確率如圖3所示。

從圖3所示實驗結果可以看出,①隨著置信度的提高,模型的識別準確率整體呈現上升趨勢。但置信度為0.9左右時,YOLOv5s模型的折痕病害曲線有較大波動,YOLOv5x6的準確率則平穩上升,且在置信度超過0.8后急速上升,這表明YOLOv5s模型的穩定性稍遜于YOLOv5x6。②對比2個模型的測試結果可以發現在同等置信度條件下,蟲蛀病害的識別準確率要高于折痕病害。這主要是由于蟲蛀病害的訓練樣本數量高于折痕病害,且蟲蛀的病害特征相對穩定,區域大小和形狀差異較小,因而模型對蟲蛀病害的識別效果更佳。因此,通過增加訓練樣本數量,可以提高模型的病害識別準確率,而且這種提升針對的是模型的整體性能,對于其他病害的識別效果也有作用。③在置信度大于0.915時,2個模型的病害識別準確率都能達到理論最高值100%。

綜合來看,基于圖像處理領域的目標檢測深度神經網絡模型能夠應用于解決書畫文物的病害識別問題。當圖像采集質量提高、訓練數據量增大時,模型的性能可以滿足當前行業的實際應用需求。

3.3.2 查全率

YOLOv5s、YOLOv5x6兩種模型的查全率如圖4所示。

圖4中的結果表明,①隨著置信度的提高,模型的查全率總體呈現下降趨勢。這是因為當置信度提高時,系統只會輸出擁有較高可能性的潛在目標,一些可能性較低的潛在目標被放棄,因而查全率會隨之下降。②從圖4可以看出,相同置信度條件下,蟲蛀病害的查全率基本均高于折痕病害。同樣地,這主要是因為蟲蛀病害的訓練樣本數量高于折痕病害,因而模型對蟲蛀病害的識別效果更佳。這也說明通過提高訓練樣本的數量,可以提高模型的查全率。③YOLOv5s的理論最高查全率為0.61,這一數值相對較低,難以滿足實際工作中的書畫文物病害識別需求。而YOLOv5x6的理論最高查全率為0.68,能夠解決實際工作中的一些基本問題。此外,YOLOv5x6的理論最高查全率高于YOLOv5s,這一現象也符合模型的實際情況,YOLOv5x6的模型結構更復雜,其性能也優于YOLOv5s。

基于對不同模型查全率的分析,我們認為提高查全率的方法應該從書畫文物圖像的質量上進行改進,尤其是以高光譜成像技術采集的影像的補充,將有利于提高學習模型的查全率。

3.3.3 識別速度

為了比較本模型識別的速度與傳統人工識別方式的性能差異,使用和素材采集同樣的相機和鏡頭拍攝了5張書畫文物影像(影像尺寸為3 744×5 616像素),分別用YOLOv5s和YOLOv5x6進行病害識別,所用識別時間如表3所示。需要說明的是,YOLOv5x6模型在進行病害識別前,有一個影像分析過程,該過程有助于提高檢測效果,但也會耗費更多的時間。

從表3中的結果可以發現,YOLOv5s模型檢測一張影像的平均用時為0.044 s,YOLOv5x6模型檢測一張影像的平均用時為37.167 s,前者的檢測速度顯著優于后者。與以工作日計時的人工病害識別、病害圖繪制所耗費的時間相比[3],YOLO模型的耗時具有顯著優勢。

綜上,YOLO模型能夠完成書畫病害識別的任務。相比較而言,YOLOv5x6模型在準確率、查全率以及穩定性上總體優于YOLOv5s模型,雖然YOLOv5x6的識別速度相對較低,但遠超人工的工作速度。因此,未來將以YOLOv5x6為基礎,開展后續研究。

4 病害檢測應用

4.1 病害檢測方式

在進行文物病害識別時,系統支持圖片和視頻2種類型文件的識別(見圖5)。利用圖像文件進行識別時,將待識別的書畫文物圖像導入模型,系統就能自動開展病害識別過程。利用視頻文件進行識別時,一共有2種方式:一種方式類似于圖像文件的識別,將待識別的文物書畫視頻導入模型,系統自動進行病害識別工作;另一種方式是實時檢測,即利用視頻捕捉設備拍攝書畫文物,另一端的顯示器實時顯示所識別出來的病害信息。

4.2 識別結果輸出形式

4.2.1 文本信息

文本信息里面以文字符號的形式記錄了每處病害的類別及位置信息。該類型的文件可以為文物保護修復工作的開展提供詳細的病害數據信息支持(經簡單地處理就能得到各病害數量、面積、密度等信息)。

以本文所研究的動物損害(蟲蛀)、折痕病害為例,在書畫文物保護修復中,對于動物損害(蟲蛀)的處理,一般需要在托心前,對畫面殘損部位進行修補〔見圖6(a)〕,使畫心成為一個完整的整體[20];對折痕的處理,一般需要在畫心產生折痕部位的背面貼上折條〔見圖6(b)〕,以起到加固的作用。無論是補紙還是折條都需要與病害尺寸相對應,可以利用上述統計信息,根據每處病害的尺寸大小,提前準備所需尺寸的修復材料。

4.2.2 病害截圖

病害截圖以圖片的形式保存了每處病害的單獨圖像(見圖7)。由于該類型的文件以單幅形式保存了病害的圖像,因此降低了其他無關信息對文物保護工作者觀察該處病害時的干擾。在視覺效果上更清晰,有利于增強對具體病害的了解。同時,這種病害截圖也有利于文物保護修復后對具體病害的跟蹤。

4.2.3 病害分布圖

以圖片的形式記錄了在整張書畫文物中每處病害的位置及類別(見圖8)。這種類型的圖片有助于人們形象地觀察病害的整體分布情況。對比文物病害圖的一般要求,按照規范的圖示,將文物影像上的病害標識出來。這種可視化的圖片經過簡單處理,就可以作為病害圖的替代者發揮一定作用。如若可行,這種可視化圖片的出圖效率要遠超人工病害圖繪制效率,將極大地促進國內外文物保護工作的智能化、自動化發展。

5 結語

針對目前文物保護領域內出現的人工文物病害調查效率低的問題,引入基于卷積神經網絡的目標檢測技術,初步訓練出了一個具備書畫文物折痕、蟲蛀病害識別功能的模型。檢驗結果表明,該模型以較高的查準率和查全率識別出了折痕、動物損害(蟲蛀)這2種病害。模型的輸出成果可以為文物保護前、中、后期的工作提供詳實且直觀的參考。

本研究也存在一定的局限性,模型在病害識別效果和識別范圍方面仍有很大提高空間。作為一種典型的深度學習網絡模型,卷積神經網絡具有從數據中獲得知識、從學習中提高能力的特性。利用模型這一特性,我們在未來會尋找更多數量、更多種類的訓練素材以提高模型識別效果,擴充模型識別范圍,最終訓練出一個能以高準確率和查全率識別所有書畫文物病害類型的模型。

參考文獻

[1] 南京博物院. 中國書畫文物修復導則[M]. 南京: 譯林出版社, 2017: 12.

[2] 田朋, 尚小臨, 王若蘇. 古書畫保護修復中的二次脫色現象及預防[J]. 文物保護與考古科學, 2022,34(1): 35-41.

TIAN P,SHANG X L,WANG R S.Research on the secondary shedding of pigment in the restoration of ancient paintings and calligraphy and its prevention[J]. Sciences of Conservation and Archaeology,2022,34(1): 35-41.

[3] 王婕, 巨建偉, 王天鳳, 等. 唐卡病害圖繪制的規范化研究:以《威羅瓦金剛畫像軸》病害圖的繪制為例[J]. 中國文物科學研究, 2020(4): 81-88.

WANG J, JU J W, WANG T F,et al. A study on the drawing Tangka disease maps: Taking the drawing of disease maps in the \"Verois Vajra Thangka \" as an example [J]. China Cultural Heritage Scientific Research,2020(4): 81-88.

[4] 國家文物局. 館藏紙質文物病害分類與圖示:WWT 0026-2010 [S]. 北京: 中國標準出版社, 2010.

[5] 谷明巖. 基于改進U-Net的壁畫顏料層脫落病害提取研究[D].北京: 北京建筑大學, 2020.

[6] 劉曉琴, 侯妙樂, 董友強, 等. 基于高光譜影像的瞿曇寺壁畫顏料層脫落病害評估[J].地理信息世界, 2019,26(5): 22-28.

LIU X Q, HOU M L, DONG Y Q, et al. Extraction and evaluation of the disease of the mural paint Loss[J].Geomatics World, 2019,26(5): 22-28.

[7] 胡春梅, 王瑜, 黃浩雯, 等. 基于紋理的文物病害高精度自動提取方法: CN110796181B[P]. 2022-05-03.

[8] 曹建芳, 李艷飛, 崔紅艷, 等. 改進的區域生長算法在寺觀壁畫脫落病害標定中的應用[J]. 新疆大學學報(自然科學版), 2018,35(4): 429-436.

CAO J F, LI Y F, CUI H Y, et al. The application of improved region growing algorithm for the automatic calibration of shedding disease on temple murals[J]. Journal of Xinjiang University(Natural Science Edition), 2018,35(4): 429-436.

[9] 張楠, 張乾, 馮偉, 等. 古代壁畫病害標識系統及其在敦煌莫高窟的應用[J]. 敦煌研究, 2017(2): 135-140.

ZHANG N, ZHANG Q, FENG W, et al. The deterioration identification system of ancient murals and its application in the Dunhuang Mogao Grottoes[J].Dunhuang Research, 2017(2): 135-140.

[10]王珺, 孫進越, 俞凱, 等. 基于分組LSTM與CNN的青銅器銹蝕類別智能標識方法[J]. 西北大學學報(自然科學版), 2021,51(5): 778-786.

WANG J, SUN J Y, YU K,et al. Intelligent identification method of bronze rust category based on grouping LSTM and CNN[J]. Journal of Northwest University (Natural Science Edition), 2021,51(5): 778-786.

[11]耿國華, 馮龍, 李康, 等. 秦陵文物數字化及虛擬復原研究綜述[J]. 西北大學學報(自然科學版), 2021,51(5): 710-721.

GENG G H, FENG L, LI K, et al. A literature review on the digitization and virtual restoration of cultural relics in the Emperor Qinshihuang’s Mausoleum [J]. Journal of Northwest University (Natural Science Edition), 2021,51(5): 710-721.

[12]李彩艷, 王慧琴, 吳萌, 等. 唐墓室壁畫泥斑病害自動標定及虛擬修復[J]. 計算機工程與應用, 2016,52(15): 233-236.

LI C Y, WANG H Q, WU M, et al. Automatic recognition and virtual restoration of mud spot disease of Tang dynasty tomb murals image[J]. Computer Engineering and Applications, 2016, 52(15):233-236.

[13]姜軍, 卓嘎, 王朝霞. 西藏數字壁畫泥斑病害自動標定修復方法仿真[J]. 計算機仿真, 2018,35(11): 215-219.

JIANG J, ZHUO G, WANG Z X. Digital curtain diameter mould disease auto calibration and restoration method simulation[J].Computer Simulation, 2018,35(11): 215-219.

[14]謝富, 朱定局. 深度學習目標檢測方法綜述[J]. 計算機系統應用, 2022,31(2): 1-12.

XIE F, ZHU D J. Survey on deep learning object detection[J]. Computer Systems & Applications, 2022,31(2): 1-12.

[15]譚營. 人工智能知識講座[M]. 北京: 人民出版社, 2018.

[16]NARESH K, SATISH G N, RAM K B, et al. Machine learning based recognition of crops diseases by CNN[J].International Journal of Innovative Technology and Exploring Engineering, 2019, 8(9): 1264-1268.

[17]劉學增, 桑運龍, 蘇云帆. 基于數字圖像處理的隧道滲漏水病害檢測技術[J]. 巖石力學與工程學報, 2012,31(S2): 3779-3786.

LIU X Z, SANG Y L, SU Y F. Detection technology of tunnel leakage disaster based on digital image processing[J]. Chinese Journal of Rock Mechanics and Engineering, 2012,31(S2): 3779-3786.

[18]XIANG K, PENG L L, YANG H Q, et al. A novel weight pruning strategy for light weight neural networks with application to the diagnosis of skin disease[J]. Applied Soft Computing, 2021,111:107707.

[19]ZHENG Z H, WANG P,LIU J W, et al. Distance-IoU loss: Faster and better learning for bounding box regression[J].Proceedings of the AAAI Conference on Artificial Intelligence,2020,34(7):12993-13000.

[20]馮增木. 中國書畫裝裱[M].3版. 濟南: 山東科學技術出版社, 2002: 207.

(編 輯 李 靜)

基金項目:國家檔案局科技項目計劃(2021-B-03、2022-B-002)

第一作者:鄧旭帥,男,從事文物保護研究,2829860757@qq.com。

通信作者:張云春,男,博士,副教授,從事人工智能應用研究,yczhang@ynu.edu.cn。

主站蜘蛛池模板: 国产尤物在线播放| 国产精品原创不卡在线| 高清无码不卡视频| 最新无码专区超级碰碰碰| 国产chinese男男gay视频网| 在线观看的黄网| 久久精品国产999大香线焦| 久久五月视频| 99热这里只有免费国产精品| 国产亚洲视频播放9000| 青青国产成人免费精品视频| 中文字幕乱码二三区免费| 国产精欧美一区二区三区| 国产精品香蕉在线| 72种姿势欧美久久久大黄蕉| 一级成人a做片免费| a级高清毛片| 国产99精品久久| 999国内精品久久免费视频| 亚洲欧美成人在线视频| 亚洲黄色片免费看| 日本高清免费一本在线观看| 国产一级裸网站| 亚洲成人免费看| 国产成人成人一区二区| 99精品这里只有精品高清视频| 亚洲经典在线中文字幕| 91久久国产热精品免费| 国产欧美日韩另类精彩视频| 色成人综合| 色135综合网| 久久亚洲日本不卡一区二区| 亚洲欧美成人网| 国产成人高清精品免费软件| 在线观看国产精美视频| 自拍欧美亚洲| 国产精品99在线观看| 国产美女主播一级成人毛片| 日韩欧美国产中文| 欧美日韩国产在线人成app| 色AV色 综合网站| 久久国产精品嫖妓| 91精品伊人久久大香线蕉| 亚洲精品自拍区在线观看| 欧美一级夜夜爽www| 亚洲视频在线观看免费视频| 国产综合无码一区二区色蜜蜜| 青青草一区二区免费精品| 亚洲不卡影院| 亚洲视频色图| 国产在线一区视频| Aⅴ无码专区在线观看| 亚洲一区二区在线无码| 国产一区亚洲一区| 福利片91| 永久免费精品视频| 日韩东京热无码人妻| 国产精品永久不卡免费视频| 国产成人综合日韩精品无码首页| 丁香五月激情图片| 国产另类视频| 成人毛片免费观看| 欧美成人精品一级在线观看| 青青网在线国产| 波多野结衣国产精品| 国产精品男人的天堂| 亚洲男女天堂| 成人在线天堂| 88国产经典欧美一区二区三区| 中文字幕一区二区人妻电影| 91九色最新地址| 一本久道热中字伊人| 亚洲av无码人妻| 国产福利在线免费观看| 久久久久久久久久国产精品| 色综合五月| 国产幂在线无码精品| 国产成人亚洲欧美激情| 日本国产精品| 国模私拍一区二区| 91口爆吞精国产对白第三集| 亚洲男人的天堂久久香蕉网|