999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于機器閱讀理解的案件要素識別方法

2023-09-13 03:14:38竇文琦陳艷平秦永彬黃瑞章劉麗娟
計算機工程與設計 2023年8期
關鍵詞:信息方法模型

竇文琦,陳艷平,秦永彬+,黃瑞章,劉麗娟

(1.貴州大學 計算機科學與技術學院 公共大數據國家重點實驗室,貴州 貴陽 550025;2.貴州師范學院 麗瓊工作室,貴州 貴陽 550018)

0 引 言

在大數據和人工智能發展的背景下,智慧司法研究領域興起并日趨火熱,類案推薦、刑期預測、信息抽取等自動化研究成為了該領域的熱點研究方向。隨著我國司法機關不斷推進案件信息公開,海量的裁判文書得以出現在互聯網上,這些裁判文書蘊含了豐富的信息,對其進行挖掘將產生巨大的價值。案件要素識別作為司法信息抽取任務中一部分,為量刑、罪名預測等任務提供信息支撐。

以盜竊案為例,從“外衣口袋內”這一關鍵信息可以推斷出被告存在扒竊的盜竊行為;“如實供述”表示被告認罪態度好;“曾因犯盜竊罪”說明被告屬于累犯。這些包含重要信息的案件要素可以決定案件性質、左右被告人量刑。案件要素在裁判文書中有多種不同的表現形式,使用人工查找的方式耗時耗力。因此,使用深度學習模型輔助司法工作顯得尤為重要。

針對案件要素識別的研究存在以下幾個難點:傳統的案件要素識別方法主要通過裁判文書中的文本特征預測案件要素的標簽類別,忽略了案件要素標簽的司法語義信息;在裁判文書中,某些案件要素在裁判文書中的出現次數相對較少,導致模型無法充分學習到小樣本的特征,很難從中提取規律。針對以上問題,本文提出了一種基于機器閱讀理解的案件要素識別方法,主要研究工作如下:

(1)本文方法將案件要素標簽信息作為先驗知識輔助模型進行案件要素的識別。針對每類案件要素進行案件要素標簽信息與上下文的語義交互,使模型充分學習到小樣本中的語義特征,提高了模型的整體性能。

(2)本文針對裁判文書中文字書寫歧義問題,使用對抗訓練策略。在模型的詞嵌入部分應用對抗擾動,提升了模型應對噪聲樣本的魯棒性。

1 相關工作

近年來,隨著神經網絡和深度學習的發展,越來越多的學者開始將其用于相關要素的識別任務中。如鄧文超[1]使用深度學習方法對單人單罪的刑事案件識別時間、地點、影響、行為等基本案件要素,并應用于自動量刑、相關法律條文預測和相似案件推薦等司法任務中。劉等[2]提出多任務學習模型,對案情描述部分采用BiLSTM神經網絡和注意力機制進行編碼,識別法條和罪名要素。使用文本分類方法進行案件要素識別的模型有Att-BiLSTM、TextCNN、FastText、DPCNN[3]等。為了進一步提升要素識別的效果,Liu等[4]采用基于BERT[5]的預訓練語言模型將案件要素識別問題轉化為多標簽分類任務,加入Layer-attentive策略微調,提升了案件要素識別的性能。Huang等[6]提出了SS-ABL框架,充分利用領域知識和未標記數據改進分類器。與以前僅用單一信息的方法相比,實現了顯著的性能改進。

近年來,基于深度學習的機器閱讀理解方法受到了廣泛的關注。機器閱讀理解是指根據給定的問題,從文本中找到答案。Wan等[7]提出了一種新的基于Transformer的方法,能夠識別段落的相關性并通過具有級聯推理的聯合訓練模型找到答案范圍,可以有效地處理長文檔。Li等[8]提出了一種多任務聯合訓練方案,通過增強預訓練語言模型的表示來優化閱讀理解模塊,并通過膠囊網絡優化答案類型分類模塊,設計了一個多任務聯合訓練模型,同時獲取答案文本和答案類型。越來越多的學者將信息抽取任務轉化為機器閱讀理解方法,例如實體關系抽取[9,10]、事件抽取[11]、命名實體識別[12,13]等。Li等[9]使用機器閱讀理解方法處理命名實體識別任務,在嵌套和非嵌套的NER上都表現出了良好的性能。Gupta等[14]提出了一種新穎的名詞短語生成方法構造輸入問句,使用機器閱讀理解模型從句子中識別實體,并證實了模型的有效性。劉等[15]借助機器閱讀理解方法,引入先驗知識,充分挖掘上下文的語義信息,提高了中文命名實體識別的精確性。

注意力機制在機器閱讀理解模型中的運用比較廣泛,許多模型都是針對這一部分進行改進的。Shen等[16]在注意力機制層將問題和上下文匯總為單個特征向量。Yu等[17]發現BiDAF注意力考慮了文本到問題以及問題到文本的雙向注意力,它比簡單地使用從文本到問題的單向注意力效果更好。受此啟發,本文方法采用BiDAF注意力策略,以便更好地進行案件要素標簽信息與上下文之間的語義交互。

2 模 型

本文方法中案件要素識別模型主要分為3個部分,如圖1所示,從左到右依次為嵌入層、交互層和預測層。①在嵌入層,使用FGM算法在word embedding部分添加對抗擾動,將對抗樣本和原始樣本混合一起訓練模型以提升模型應對噪聲樣本的魯棒性。案件要素標簽信息構建的問題與文本以拼接的形式進行輸入。②在交互層,使用RoBERTa預訓練語言模型以增強問題和文本的語義表征。通過雙向注意力從兩個方向出發為上下文和案件要素標簽信息的交互提供補充信息。③在預測層,通過一層全連接網絡和softmax函數最終識別案件要素。

2.1 數據預處理

此節通過數據預處理構建符合閱讀理解的輸入形式。給定一篇裁判文書

P={P1,P2,…,Pn}

(1)

其中,n表示文本P的長度。給P中所有的案件要素分配一個標簽y∈Y,Y是所有標簽種類(如案件要素標簽again累犯,surrender自首等)的預定義列表。

首先將帶標簽的數據集轉換為三元組(問題,答案,上下文)的形式。每個案件要素標簽y∈Y都與一個問題相對應,問題表示為

Qy={Q1,Q2,…,Qm}

(2)

其中m表示問題Qy的長度。三元組(問題,答案,上下文)中每個“問題”與案件要素標簽y∈Y相對應,“答案”即是案件要素存在與否,記為A,“上下文”代表一篇裁判文書P。最終表示為三元組 (Qy,A,P) 的形式,向模型輸入Qy、P,期望輸出A。

使用案件要素標簽信息進行問題的構造,案件要素標簽信息根據量刑規則制定。問題統一設為表1的形式。

表1 問題構建

2.2 嵌入層

模型的輸入包括問題Qy、裁判文書P、特殊符號[CLS]和[SEP],它們組成輸入序列

{[CLS],Q1,Q2,…,Qm,[SEP],P1,P2,…,Pn,[SEP]}

(3)

如圖2所示,對于序列中的每一個token,其輸入表示是詞嵌入(token embeddings)、段嵌入(segment embeddings)和位置嵌入(position embeddings)三者的相加[5]。詞嵌入層將各個token轉換為768維的向量表示;段嵌入層用兩種向量表示,輔助區分Qy和P兩部分,第一個向量中各個token用0表示,第二個向量中各個token用1表示;位置嵌入層通過在每個位置上學習一個向量表示進行序列順序信息的編碼。

圖2 模型輸入表示

2.3 交互層

本層使用RoBERTa[18]模型作為編碼器,結構與BERT[5]一致。RoBERTa[18]是一種經過預訓練的深度雙向Transformer模型,可在各種任務中實現先進的性能,結構如圖3所示。

圖3 RoBERTa結構

圖3中的TN代表第N個字符經過RoBERTa網絡輸出的語義字符向量,Trm代表Transformer。每一層的輸入都是基于上一層的輸出,第i層的輸出可以表示為

Hi=TransformerBlock(Hi-1),1

(4)

其中,Hi∈Rt×d,t為序列長度,d為隱層維度,L表示Transformer層數。

在注意力交互部分,使用Q∈Rm×d和P∈Rn×d來分別表示編碼的問題和上下文。首先計算每對Q和P的相似性,相似矩陣表示為S∈Rn×m。其中Snm表示第n個上下文詞和第m個問題詞的相似性,此處使用的相似度函數為[17]

α(p,q)=W0[p;q;p⊙q]

(5)

(6)

其次計算從上下文到問題(P2Q)以及問題到上下文(Q2P)兩個方向的注意力。

P2Q注意力表示哪些問題詞與每個上下文詞最相關。P2Q注意力如圖4所示,構造如下:

圖4 P2Q注意力

通過應用softmax函數對相似矩陣S的每一行進行歸一化,第n個上下文詞對問題詞的注意力權重an計算為

(7)

對于所有n,Σanm=1。 每個上下文關注的問題向量為

=∑manmQ

(8)

Q2P注意力表示哪些上下文詞與每個問題詞最相關。Q2P注意力構造如下:

通過函數maxcol找出相似矩陣S每一列的最大值并進行歸一化。問題詞對上下文詞的注意力權重b計算為

b=softmax(maxcol(S))∈Rn

(9)

問題關注的上下文向量為

=∑nbnP∈Rd

(10)

(11)

β(p,,)=[p;;p⊙;p⊙]∈Rn×3d

(12)

上一層通過雙向注意力交互生成的表示矩陣E經過解析層得到最終的語義表征E’,輸入到預測層進行預測。

2.4 預測層

在預測層,通過預測答案類型來判斷案件要素是否存在。將特殊符號[CLS]表示hCLS作為序列的整體表示,被傳遞到一個全連接層以計算概率分布,進而表示答案類型

Ptype=softmax(FFN(hCLS))

(13)

其中,hCLS為特征向量,FFN表示全連接層,softmax表示層歸一化。

使用Focal Loss作為損失函數,答案類型損失定義如下

L=FocalLoss(ptype,Y)

(14)

其中,Y為答案類型標簽。

2.5 對抗訓練

GAN之父Goodfellow首先提出對抗訓練概念,其基本原理為在原始輸入樣本上添加擾動radv,得到一些對抗樣本,然后將對抗樣本放在模型中進行訓練。這樣不僅可以提高對抗樣本的魯棒性,還可以提高原始樣本的泛化性能。起初的對抗訓練是針對CV任務的,為了將對抗訓練遷移到NLP任務中,Goodfellow提出了FGM算法,FGM算法可以在連續的embedding上做擾動。本文方法使用FGM算法進行對抗訓練,將對抗擾動應用于詞嵌入(word embedding)。設詞嵌入向量為S,模型參數為θ,給定模型的條件概率為p(y|S;θ)。 則S上的對抗性擾動radv定義為

radv=-∈g/g2

(15)

(16)

3 實驗及結果分析

3.1 數據集

本文的數據集來自裁判文書網,包含某省的脫敏裁判文書數據。在所有案件中盜竊案占了相當大的比例,因此選用917篇盜竊案裁判文書作為實驗數據集,表2詳細描述了相關案件要素的統計信息。

表2 數據集相關信息

3.2 評價指標

評價指標準確率(Precision)、召回率(Recall)、F1值(F1-score)的計算方式如下

precision=TPTP+FP

(17)

recall=TPTP+FN

(18)

F1=2*recall*precisionrecall+precision

(19)

其中,TP表示正確預測為正例,FP表示錯誤預測為正例,FN表示錯誤預測為負例。

3.3 實驗設置

本文模型采用Python平臺,PyTorch 框架實現,在NVIDIA Tesla P40 GPU平臺上進行實驗。批處理大小batch_size=16,訓練輪數epoch=10,學習率learning_rate=2e-5,權重衰減指數weight_decay=0.01,最大總輸入序列長度max_seq_length設為512,問題最大長度max_question_length設為64,答案最大長度max_answer_length設為55,優化器使用AdamW優化器。

3.4 實驗結果及分析

3.4.1 對比實驗

將本文模型與案件要素識別常用的多標簽分類模型作對比,模型分為無預訓練和有預訓練兩類,實驗結果選取3次實驗的平均值。

(1)無預訓練模型選擇Att-BiLSTM、TextCNN、FastText、DPCNN[3]。其中,Att-BiLSTM是基于attention機制的雙向LSTM神經網絡模型;TextCNN是用來做文本分類的卷積神經網絡;FastText能取得與深度網絡相媲美的精度,卻在訓練時間上比深度網絡快許多數量級;DPCNN用來解決TextCNN在捕獲長距離特征時不理想的問題;

(2)有預訓練模型選擇BERT[5]、ERNIE[19]、RoBERTa[18]、SS-ABL[6]。其中,BERT是Google提出的基于Transformer的預訓練模型,下游多標簽分類任務采用微調方法;ERNIE在BERT的基礎上采用短語和實體級別的mask;RoBERTa在BERT的基礎上使用更大的數據再次訓練,改進優化函數,采用動態mask方式訓練模型;RoBERT+Seq2Seq_Attention是指用RoBERTa提取文本特征,用Seq2Seq_Attention框架進行標簽的識別;SS-ABL使用反繹學習方法實現基于BERT模型的案件要素識別。

本文的模型和其它模型在同一數據集下識別效果見表3,從實驗結果可以看出,使用預訓練模型比不使用預訓練模型的效果要好,其中RoBERTa預訓練模型表現最為出色,因為預訓練方法可以讓模型基于一個更好的初始狀態進行學習,從而達到更好的性能。相比無預訓練的多標簽分類方法,本文方法提升了12.2%,相比有預訓練的多標簽分類方法,本文方法提升了3.2%。與對比方法相比較,本文方法在預訓練模型RoBERTa的基礎上使用了機器閱讀理解方法,通過案件要素標簽信息構造的問題為模型的識別提供了輔助作用;通過雙向注意力機制進行問題與上下文語義的進一步交互,使模型更加關注于問題指示的上下文信息;通過對抗訓練進一步提高了模型的魯棒性,使模型在案件要素識別任務上有更好的效果。

表3 模型性能對比/%

3.4.2 消融實驗

為了驗證本文方法各模塊的有效性,我們對模型進行了消融實驗,實驗結果見表4。MRC表示使用機器閱讀理解方法,Attention表示加入雙向注意力機制,AT表示對模型使用對抗訓練,FLoss表示使用Focal Loss損失函數。

表4 模型消融實驗/%

RoBERTa預訓練模型為消融實驗的基準模型。

RoBERTa+MRC在基準模型RoBERTa的基礎上使用了機器閱讀理解方法,F1值提升了3.3%。因為本文使用的機器閱讀理解模型在輸入文本前加入了案件要素標簽信息即案件要素類型的描述信息,這些案件要素類型的描述作為先驗知識提升了模型的識別效果。

RoBERTa+MRC+Attention在RoBERTa+MRC的基礎上增加了雙向注意力機制,F1值提升了0.2%。經過RoBERTa模型之后使用雙向注意力機制進一步融合上下文和問題之間的交互信息,使模型更加關注于與問題有關的上下文語義表征,進而提升識別效果。

RoBERTa+MRC+Attention+AT在RoBERTa+MRC+Attention的基礎上對模型加入了對抗訓練,F1值提升了1.1%。使用對抗訓練中的FGM算法在word embedding部分應用對抗擾動,可以提高模型在應對噪聲樣本的魯棒性。

RoBERTa+MRC+Attention+AT+Focal Loss在RoBERTa+MRC+Attention+AT的基礎上使用Focal Loss損失函數,F1值提升了0.2%。Focal Loss損失函數降低了大量簡單負樣本在訓練中所占的權重,可以更好地挖掘困難樣本。

3.4.3 細粒度實驗

為了驗證本文方法在應對小樣本案件要素情況下的表現,用本文方法與對比實驗中的RoBERTa基線模型進行細粒度對比,進一步輸出每種案件要素的細粒度結果。實驗結果見表5,本文方法在屬于案件要素類別young、surrender的小樣本數據上分別提升了5.5%和10.3%。例如,屬于surrender類別的案件要素在裁判文書中表現形式多樣,在數據樣本量較少的情況下僅通過學習裁判文書的文本特征很難進行有效識別。本文使用的機器閱讀理解方法通過在輸入文本前拼接案件要素標簽信息,獲得了一定的先驗知識,使得模型充分學習到所要識別的案件要素特征。因此,本文使用的機器閱讀理解方法對小樣本案件要素的識別效果有所提高,可以有效改善樣本不均衡問題。

表5 細粒度實驗F1/%

3.4.4 對抗訓練對模型魯棒性的影響

為了驗證對抗訓練對模型魯棒性的影響,本小節將擾動參數∈設1.0,對比了模型在加入對抗訓練和不加對抗訓練的效果,實驗結果見表6。

表6 對抗訓練對模型的影響/%

實驗結果表明,對抗訓練在對大部分的案件要素類別的識別上都有一定的提升。與不加對抗訓練時的模型相比,加入對抗訓練后的F1值整體提升了1.1%。這說明在原有模型訓練過程中注入對抗樣本,可以提升模型對微小擾動的魯棒性,進而提升模型的整體性能。

3.4.5 Focal Loss對模型的影響

為了驗證Focal Loss對模型性能的影響,在本文方法的基礎上分別選用CE Loss和Focal Loss兩種損失函數進行比較。實驗結果見表7,可以看出使用Focal Loss的效果更好。

表7 Focal Loss對模型的影響/%

雖然CE Loss可以平衡正負樣本的重要性,但是不能區分難易樣本,Focal Loss可以降低易區分樣本的權重,并關注難區分樣本的訓練。Focal Loss在CE Loss的基礎上添加了調制因子,其中的參數γ∈[1,5] 取值對模型的影響見表8。從實驗結果可以看出,γ取值為2時效果最好,我們選擇γ取值為2時的Focal Loss作為本文模型的損失函數,使模型達到最佳表現。

表8 選取Focal Loss中不同γ值的影響/%

4 結束語

本文提出了一種基于機器閱讀理解的案件要素識別方法,利用案件要素標簽信息構造問題輔助模型識別。使用RoBERTa預訓練語言模型增強問題和上下文的語義表征,通過雙向注意力機制更好地融合問題到上下文以及上下文到問題的語義信息。實驗結果表明,本文方法可以有效改善小樣本案件要素的識別性能。同時,本文采用的對抗訓練FGM算法進一步提升了模型的魯棒性。

在未來工作中,我們將進一步識別更多類別的案件要素,并將其應用到法律判決預測的真實場景中。

猜你喜歡
信息方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: 国产黄色爱视频| 激情综合婷婷丁香五月尤物| 成人一区专区在线观看| 91视频区| 婷婷六月天激情| 又猛又黄又爽无遮挡的视频网站| 五月婷婷综合网| 欧美日韩成人| 91国内视频在线观看| 日本在线免费网站| 国产清纯在线一区二区WWW| 一本一道波多野结衣av黑人在线| 国产91av在线| 日韩高清中文字幕| 日韩av高清无码一区二区三区| 久久黄色视频影| 国产第一页免费浮力影院| 999精品在线视频| 免费国产不卡午夜福在线观看| 亚洲成人黄色在线| 国产视频一区二区在线观看| 午夜限制老子影院888| 久久网欧美| 欧美激情第一欧美在线| 都市激情亚洲综合久久| 精品人妻一区无码视频| 一级毛片高清| 久久99国产综合精品女同| 免费观看亚洲人成网站| 中国一级特黄大片在线观看| 成人第一页| 欧美一级在线看| 无码中文字幕精品推荐| 午夜三级在线| 青青青亚洲精品国产| 久久大香香蕉国产免费网站| 国产福利2021最新在线观看| 亚洲无码四虎黄色网站| 日韩福利视频导航| 视频一本大道香蕉久在线播放| 国产一级特黄aa级特黄裸毛片| 欧美午夜在线观看| 美女啪啪无遮挡| 爽爽影院十八禁在线观看| 久久人妻xunleige无码| 日本91视频| 99精品在线视频观看| 在线观看无码av免费不卡网站| 免费观看无遮挡www的小视频| 亚洲第一区在线| 亚洲无码免费黄色网址| 免费看的一级毛片| 亚洲成人动漫在线| 国产精品美女网站| 婷婷午夜影院| 国产鲁鲁视频在线观看| 青青国产视频| 国产成人夜色91| 麻豆精品国产自产在线| 亚洲精品图区| 伊人色天堂| 国产精品免费露脸视频| 91日本在线观看亚洲精品| 午夜成人在线视频| 日本不卡在线视频| 欧美特黄一级大黄录像| 欧美色图第一页| 日韩精品资源| 久久久久人妻一区精品色奶水| 国产亚洲日韩av在线| 亚洲天堂伊人| 动漫精品啪啪一区二区三区| 97视频在线精品国自产拍| 日韩不卡高清视频| 亚洲成在线观看| 在线观看国产网址你懂的| 久久频这里精品99香蕉久网址| 91精品网站| 99视频在线免费看| 黑色丝袜高跟国产在线91| 国产精品视频导航| 久久久久无码精品|