









摘" 要: 隨著數字圖像處理技術的進步,鉗剪痕跡的同一認定成為了一個關鍵的研究領域。文中提出一種基于尺度不變特征變換(SIFT)的方法對鉗剪痕跡進行同一認定。首先,利用SIFT算法從鋼絲鉗剪切的斷頭痕跡圖像中提取關鍵點,將已知剪切痕跡檢材與待識別痕跡樣本進行匹配;然后,根據匹配點的數量和距離信息,評估痕跡圖像之間的相似性和一致性;最后,通過RANSAC算法進行一致性驗證和錯誤匹配剔除,得到最終的匹配結果。實驗結果表明,該方法能夠在較多的實驗樣本中進行初步的同一認定,為鉗剪痕跡的識別提供了一種新的有效途徑。
關鍵詞: 尺度不變特征變換; RANSAC算法; 鉗剪痕跡; 特征匹配; 同一認定; 一致性驗證
中圖分類號: TN911.73?34; TP399" " " " " " " " " " 文獻標識碼: A" " " " " " " " "文章編號: 1004?373X(2024)19?0062?05
Research on identification of SIFT algorithm in clipper marks
JIANG Xiaolong, WANG Zhen, LI Desheng
(Criminal Investigation Police University of China, Shenyang 110035, China)
Abstract: With the development of digital image processing technology, identification of clipper marks has become a key research area. In this paper, a scale?invariant feature transform (SIFT) based method is proposed for the identity identification of" the clipper marks. The SIFT algorithm is used to extract the key points from the image with severed head marks generated by cutting of wire cutters, and then the known material with cut marks is matched with the sample of the marks to be identified. The similarity and consistency between the images of the marks are evaluated on the basis of the number of the points to be matched and the distance information. The RANSAC (random sample consensus) algorithm is used for consistency verification and error matching elimination, and the final matched result is obtained. The experimental results show that the proposed method can be used for the preliminary identification of more experimental samples, and is a new and effective way for the recognition of clipper marks.
Keywords: SIFT; RANSAC algorithm; clipper mark; feature matching; identity identification; consistency verification
0" 引" 言
鉗剪痕跡是犯罪現場出現率較高的一類工具痕跡,該類痕跡是案件中鉗剪工具破壞客體時,在接觸部位因受力而引起的形變,案發現場往往會留下兩個剪切斷頭,辦案人員通過對案發現場的鉗剪痕跡做同一認定,可以為案件的偵破提供重要線索以及在之后的法庭判決提供證據[1?2]。鋼絲鉗作為一種常見的工具,其留下的痕跡具有獨特性,傳統的識別方法往往依賴于人工判斷或簡單的圖像處理技術,這些方法在樣本數據量大或模糊的情況下不但會耗費大量時間而且可能會失效。為了克服上述挑戰,計算機視覺領域的研究者引入了各種先進的圖像處理和特征提取技術。在這些技術中,尺度不變特征變換(Scale?Invariant Feature Transform, SIFT)因其獨特的優勢在多個應用領域中受到廣泛關注。SIFT算法具有尺度不變性、旋轉不變性和局部描述能力等優點,這使得它在復雜環境下的物體識別和配準任務中表現出色。本文旨在探索并驗證SIFT算法在鉗剪痕跡同一認定中的潛力和效果。本文將詳細介紹SIFT算法的基本原理及其在鉗剪痕跡識別中的應用方法。通過準確和可靠的鉗剪痕跡識別,可以為刑事案件的偵破和定罪提供重要的技術支持。
1" 數據收集與準備
1.1" 工具與儀器設備
選取10把同一品牌的鋼絲鉗、直徑3 mm銅絲若干、橡皮泥若干、立體顯微鏡一臺、計算機一臺。
1.2" 樣本制作
剪切客體時采用垂直于線材長軸的方式。首先,使用其中一把鋼絲鉗鉗剪銅絲的斷頭痕跡作為檢材;接著,使用同一把鋼絲鉗鉗剪銅絲斷頭痕跡作為樣本A,后使用剩余鋼絲鉗在同一部位鉗剪銅絲,并采集產生的同一斷頭痕跡作為剩下的樣本,剪切形成的兩個斷頭做好與剪切刃口里外側的對應記錄,方便后續比較同一斷頭和刃側。利用顯微鏡對每個剪切斷頭痕跡采集其痕跡圖像,一共采集了11張斷頭痕跡圖像,并為其分配唯一標識符。
1.3" 圖像預處理
由于在采集過程中可能會受到環境條件等因素的影響,需要對采集到的痕跡圖像進行預處理工作。首先,利用Python中的高斯濾波技術降低圖像中的噪聲;接著,通過直方圖均衡化方法增強圖像的對比度,以確保后續的特征提取工作能夠更準確的進行。
2" 特征匹配算法
特征匹配是匹配兩個輸入圖像中的元素,為了給圖像提供更好的特征匹配,采用角點匹配進行定量測量。在視角變化時,角點特征是穩定的。其中角點檢測算法有Harris角點檢測算法、SIFT特征點檢測算法、FAST角點檢測算法、SURF特征點檢測算法。與之相比,SIFT算法具有更強的穩定性,表現在視角變換和噪聲方面,并且在亮度、旋轉、尺度變換上具有不變性,所以本文實驗選用SIFT算法對預處理后的圖像進行特征點檢測。對于每個檢測到的特征點,計算其特征描述符,該描述符包含了關鍵點周圍區域的局部特征信息,能夠表達特征點的尺度、方向和紋理等特性。
3" SIFT算法實現步驟
SIFT算法主要包含兩個部分:特征檢測和特征描述。如圖1所示是本文研究特征匹配的流程。整個SIFT算法可包括四個步驟:尺度空間極值檢測、關鍵點定位、關鍵點方向確定和關鍵點描述[3]。
3.1" 尺度空間極值檢測
SIFT算法通過使用高斯差分金字塔來尋找圖像中的潛在關鍵點。這些關鍵點位于圖像的不同尺度空間,并且對于尺度變化具有不變性。為了檢測關鍵點,SIFT算法從初始圖像開始,通過應用一系列高斯模糊操作生成多層圖像金字塔。然后,利用高斯差分金字塔計算圖像中每個像素的DOG(高斯差分)響應,以便在不同尺度下捕獲特征點。將兩幅圖像在不同參數下的高斯濾波結果相減,得到高斯差分圖,然后進行極值檢測。由于在平滑區域,臨近像素的變化較小,而在包含邊緣、角落和點等豐富特征的區域,變化較大。因此,通過比較高斯差分圖像中臨近像素的差異性,可以檢測出候選關鍵點。SIFT算法中鋼絲鉗鉗剪痕跡的高斯金字塔第三層的圖像和高斯差分金字塔第三層的圖像如圖2、圖3所示,這個差分就是同一組內前一幅圖像灰度減去后一幅圖像灰度的值。原先是一組六幅圖像,經過差分之后,就變成了一組五幅圖像。
3.2" 關鍵點定位
檢測出候選關鍵點之后,下一步就是通過擬合適當的模型來確定位置和尺度。2002年Brown提出了一種用3D二次函數擬合局部樣本點來確定最大值的插值位置,實驗表明,這使得匹配和穩定性得到了實質的改進[4]。主要是通過擬合二次曲線的方法對尺度空間極值點進行處理,以精確確定關鍵點的位置。在擬合過程中排除低對比度和邊緣響應較弱的點,為后續的特征描述子生成和圖像匹配提供了可靠的特征基礎。
3.3" 關鍵點方向確定
確定關鍵點方向是基于圖像特征的,為每個關鍵點分配一個主導方向,該方向可以用來描述關鍵點的特征,從而實現圖像的旋轉不變性。關鍵點的尺度用于選擇最接近的高斯平滑圖像尺度,從而確保計算以尺度不變的方式進行。對于每個圖像,分別計算其梯度幅值和梯度方向,通過使用方向直方圖統計關鍵點領域內的梯度幅值和梯度方向[5?6]。將0°~360°劃分成36個區間,每個區間為10°,統計得出的直方圖峰值代表關鍵點的主方向。
3.4" 關鍵點描述
通過前三節內容,找到了所有特征點的位置,并且每個特征點都有方向、尺度信息。接下來就是計算在局部區域內這些特征點的描述符。如圖4所示,圖4a)是圖像梯度的圖像,圖4b)是關鍵點描述符。描述符與特征點所在的尺度圖像有關,因此在某個高斯尺度圖像上,以特征點為圓心,將附近鄰域劃分為4×4個子區域,然后將梯度方向劃分成8個區間,這樣在每個子區域內會得到一個4×4×8=128維的特征向量,向量元素大小為每個梯度方向的權值[7?8]。對于得到的特征向量,首先需要對鄰域的特征向量進行歸一化。歸一化包括計算鄰域關鍵點的主方向,將鄰域旋轉至此主方向,以確保特征具有旋轉不變性。然后,根據鄰域內各像素的大小將鄰域縮放到指定尺度,以進一步確保特征描述子具有尺度不變性。
4" SIFT配準實現
對于SIFT特征點的描述向量,本文使用歐氏距離來度量它們之間的相似性。當檢測圖像中的某一特征點時,會尋找在待配準樣本中距離該特征點最接近的兩個特征點,如果這兩個特征點的最近距離與次近距離的比值小于特定比例閾值,就可以認為這對匹配點是有效的。通過降低這一比例閾值,可以減少SIFT匹配點的數量,同時提高匹配的穩定性[9]。在大量對比實驗中發現,將該比例閾值設置為0.7時,其匹配點數量相對較多、匹配點準確性更為準確,因此在本實驗中將比例閾值設置為0.7更為合適。
圖5為檢材痕跡圖像與樣本A痕跡圖像經過SIFT算法初始配準結果。從圖中可以看到匹配特征點對為88對,匹配距離為14 914.73。然而,由于圖像噪聲和其他干擾因素的存在,結果也同樣顯示了較多的錯誤匹配點對,甚至在其他痕跡圖片特征匹配中,一些空值點也參與了匹配。這樣的錯誤主要是因為特征空間的高維性(128維),相似的距離會存在大量其他的錯誤匹配,由此證明,僅采用歐氏距離法難以實現特征點對的準確匹配[10?12]。所以為了提高匹配結果的準確性,引入了RANSAC算法進行提純。
5" 一致性驗證和錯誤匹配剔除
隨機樣本一致性(Random Sample Consensus, RANSAC)算法是根據一組包含異常數據的樣本數據集計算出數據的數學模型參數從而得到有效樣本數據的算法,于1981年由Fischler和Bolles最先提出[13]。RANSAC算法經常用于計算機視覺中。
RANSAC算法通過隨機選擇少量的匹配點子集來估計出最佳的模型參數,并根據該模型對剩余的匹配點進行驗證。只有在驗證過程中符合預定閾值條件的匹配點才被認為是可靠的內點,而不符合條件的匹配點則被排除。對兩幅已知匹配的鋼絲鉗鉗剪痕跡圖像使用SIFT算法進行特征匹配,并用RANSAC算法進行特征點提純,提純效果如圖6所示。
由圖6可以看到,錯誤匹配點對基本上被剔除,匹配點也由88對降到了12對,這12對匹配點連線基本平行,匹配準確性明顯提高。
6" 實驗與結果分析
把檢材痕跡圖像與每個樣本痕跡圖像進行SIFT算法特征匹配和RANSAC算法提純,所得到的匹配點數量和匹配距離總和如表1所示。其中匹配點數量越多表明SIFT算法在匹配任務中表現越好,能夠準確地找到相應的特征點對,說明兩者出于同一把鋼絲鉗的概率更大,較小的匹配距離總和則表示特征點之間的相似性更高,說明匹配結果更準確和可靠。
通過分析表1中數據可知,不同的樣本圖像與檢材圖像在原始匹配點數量、提純后匹配點數量以及匹配距離總和上都存在顯著的差異。這些數據揭示了不同鉗剪痕跡之間的相似性和差異性。樣本A在原始匹配點數量、提純后的匹配點數量和匹配距離總和上都表現得非常顯著,與其他樣本有明顯的差異。為更好地評估檢材與樣本的關聯性,構建了一個加權評分系統,給匹配點數量和匹配距離總和分別分配權重,并將它們結合起來得到一個總體評分。首先,對每個特征進行歸一化處理。這一步確保了不同范圍的特征值在后續計算中對結果的影響是平衡的。歸一化公式如下:
[歸一化值=v-min(v)max(v)-min(v)] (1)
式中[v]代表每個特征的原始值。
在得到歸一化的特征值后,定義了三個權重因子:原始匹配點數量([v1])和提純后的匹配點數量([v2])分別被賦予更高的權重,而提純后的匹配距離總和([v3])具有較低的權重。加權評分的計算公式為:
[i=w1×v1normalized+w2×v2normalized+w3×(1-v3normalized)] (2)
式中:[i]代表評分;[w]代表權重,[w1]、[w2]、[w3]分別設置為0.45、0.45 和0.1。
最后再將評分轉化為概率,使用了softmax函數。這確保了所有概率的總和為1,并為每個樣本提供了一個在[0,1]范圍內的概率值。
[P=eii=110ei] (3)
式中:[P]代表概率;[i]代表評分。
為了便于評估,將計算得到的概率值轉化為百分比形式,如表2所示。
最終結果顯示,樣本A與檢材相似的概率更高,達到了16.54%,而樣本C的概率最低,僅為7.58%。這意味著樣本A與檢材之間的相似性最高,與樣本J的相似性較低??梢猿醪綌喽颖続與檢材出自同一把工具比其他樣本的概率更大,為后續進一步的同一認定提供了檢驗基礎。為確保結論的可信性,進一步的驗證和分析是必要的,包括考慮其他可能的影響因素、進行更深入的實驗研究,以及與其他技術或方法進行對比驗證。后續研究仍需進一步擴大樣本量,引入其他可能的分析手段和技術,以增強研究結果的可靠性和普適性。
7" 結" 論
針對鋼絲鉗鉗剪痕跡的同一認定,存在的痕跡數量龐大、人工識別較困難等問題,本文提出了SIFT算法實現檢材與樣本之間的匹配點數量檢測,并構建了一個加權評分系統預測其同一概率,結果表明,在較多的實驗樣本面前,通過SIFT算法對10把鋼絲鉗的痕跡可有效地進行初步的同一認定。
盡管本文研究在鉗剪痕跡的同一認定中,通過最終匹配點的分析對比可以得到具體哪個樣本與檢材最為相似,但還是可以看出SIFT算法在鉗剪痕跡圖像的配準中匹配點的數量太少,各個樣本之間的差異不明顯,為了結果的準確性,還需進一步的評估。當前,深度學習在圖像處理領域取得了顯著的成果,后續可以引入深度學習方法,如卷積神經網絡(CNN)或基于Transformer的模型,探索其在鉗剪痕跡同一認定中的效果。深度學習模型可以從更大規模的數據中學到更豐富、更高階的特征,提高同一認定的準確性。
總體而言,本文研究為鉗剪痕跡的同一認定領域提供了有力的實證支持,但這一方法仍有改進空間。通過不斷地探索和創新,有望為犯罪現場分析提供更可靠、高效的技術手段,為司法機關提供更有力的支持。
注:本文通訊作者為王震。
參考文獻
[1] 趙俊.面向刑事科學的鉗剪痕跡質量評價與識別方法研究[D].哈爾濱:哈爾濱工業大學,2021.
[2] 李世鋒.刑事案件事實認定過程研究[D].長沙:湘潭大學,2019.
[3] 楊國俊,齊亞輝,石秀名.基于數字圖像技術的橋梁裂縫檢測綜述[J].吉林大學學報(工學版),2024,54(2):313?332.
[4] 胡秀秀.高光譜數據的光譜配準和全色銳化技術研究[D].北京:北京化工大學,2020.
[5] 陸瑋.基于全局視覺與自主視覺的復雜場景重建與目標跟蹤[D].上海:上海工程技術大學,2020.
[6] 徐進.基于傾斜攝影的瀝青混合料三維建模及空隙特征提取分析[D].西安:長安大學,2022.
[7] 李趙春,顧嘉梁,張浩,等.基于SIFT特征的彈底窩痕自動識別方法[J].傳感器與微系統,2019,38(9):60?63.
[8] 趙光遠.基于改進APAP的圖像配準和最佳縫合線融合的圖像拼接研究[D].西安:西安理工大學,2023.
[9] 張磊,張若凌,肖世德,等.燃燒室結構高溫變形非接觸測量試驗研究[J].實驗流體力學,2021,35(1):53?59.
[10] 顧嘉梁.基于SIFT特征的槍彈痕跡自動識別方法的研究[D].南京:南京林業大學,2019.
[11] 陳建新,唐麗玉.一種SIFT?FREAK圖像匹配算法[J].測繪與空間地理信息,2023,46(6):32?35.
[12] 楊光熙.SIFT圖像配準算法在油田無人機技術中的應用[J].信息系統工程,2023(6):60?63.
[13] 孫常浩.基于深度學習的舌面裂紋提取技術研究[D].北京:北方工業大學,2022.
作者簡介:蔣小龍(1998—),男,重慶墊江人,碩士研究生,研究方向為痕跡檢驗。
王" 震(1976—),男,山東曲阜人,教授,碩士生導師,研究方向為痕跡檢驗。
李德盛(1999—),男,廣西桂林人,碩士研究生,研究方向為痕跡檢驗。
收稿日期:2024?04?07" " " " " "修回日期:2024?04?23
基金項目:公安部科技基礎工作專項項目(2023JC07)