999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

采用BERT-BiLSTM-CRF 模型的中文位置語義解析

2022-03-07 06:57:52鄧慶康李曉林
軟件導刊 2022年2期
關鍵詞:語義實驗信息

鄧慶康,李曉林

(1.武漢工程大學計算機科學與工程學院;2.智能機器人湖北省重點實驗室,湖北武漢 430205)

0 引言

中文位置語義解析是指將非結構化的中文位置信息拆分成若干最小位置要素,是中文分詞在地理信息領域的應用。隨著互聯網相關技術的迅速發展與普及,位置信息已被廣泛應用于各種網頁端和移動應用端,如北斗衛星導航系統、地圖類軟件、外賣軟件、打車軟件等。隨著互聯網越來越開放化,網絡上大量位置信息數據來源于用戶上傳與共享的文本位置信息,這些信息很大程度上是用戶根據個人理解上傳的信息,缺乏統一標準及格式,存在語義模糊、表意不清、結構混亂等問題。因此,有效的中文位置語義解析算法顯得尤為重要,已成為地理信息領域應用需要解決的核心問題之一。

傳統中文位置語義解析主要是通過規則和統計兩種方法進行的。基于規則的中文位置語義解析主要依靠中文位置信息字典,如馬照亭等利用地理編碼庫編制地址字典對地名∕地址進行分詞;張雪英等通過構建地址特征庫提高對中文位置的解析準確率;趙陽陽等通過測試證明FMM算法能夠實現對地名地址串的拆分,有效解決了對未登錄地址名稱的識別問題。基于統計的中文位置語義解析主要依靠傳統的機器學習方法,如應申等利用統計決策樹對城市地址進行集中分詞;謝婷婷等先利用統計規則統計詞頻,經過預處理后再對地址串進行切分;王勇等利用隱馬爾可夫模型(Hidden Markov Model,HMM)對地名語義進行解析。傳統的中文位置語義解析方法雖已十分成熟,但忽略了位置詞與位置詞之間的聯系,對中文位置解析的效果與泛化能力都較差。

近年來,隨著神經網絡模型被廣泛應用于中文分詞領域,如Switch-LSTM模型、CNN-BiLSTM模型、BERT模型等,中文位置信息也利用神經網絡模型進行語義解析。如張文豪等對比長短記憶(Long Short-term Memory,LSTM)網 絡和雙向長短記憶(Bi-directional Long Short-term Memory,BiLSTM)網絡在中文位置語義解析中的效果,證明利用這兩種模型進行位置語義解析都能得到很高的準確率;程博等根據中文位置信息具有行政區劃的層級規范,提出中文位置信息的層級標注策略,將BiLSTM 與CRF(ConditionalRandomField)相結合進行位置語義解析,能得到更好的分詞效果。

上述方法雖然都具有可行性,但仍存在許多問題有待解決。傳統的中文位置語義解析方法忽略了位置詞之間的聯系,致使解析效果與泛化能力很差。當前神經網絡模型應用于中文位置語義解析,雖然分詞準確率較高,但是存在多義詞解析效果差、泛化能力差等問題。

針對上述問題,本文提出一種基于BERT-BiLSTMCRF 模型的中文位置語義解析算法。首先利用BERT(Bidirectional Encoder Representation from Transformers)預訓練模型對中文位置信息進行預訓練,獲取所有層中的上下文信息,增強中文位置信息的語義表征能力,然后通過BiLSTM 模型提取向量特征信息,最后通過CRF 模型的轉移概率矩陣得到全局得分最高的標注序列作為最終結果。利用該模型進行中文位置語義解析,得到的整體解析準確率和多義詞解析準確率都較高,并且針對不同區域的位置信息數據集具有很好的泛化能力。

1 模型設計

1.1 BERT-BiLSTM-CRF 模型

BERT-BiLSTM-CRF 模型的系統結構如圖1 所示。首先,利用BERT 預訓練模型將位置信息轉化為特征向量,并將特征向量作為BiLSTM 網絡的輸入;然后,特征向量在前向LSTM 與后向LSTM 的作用下獲得隱藏向量,將隱藏向量轉化為定長的文本向量,再將此向量輸送到CRF 層,即將BiLSTM 層中的So-ftMax 層替換成CRF 層;最后,將BiLSTM網絡輸出的向量與CRF 層中的參數相結合,以獲得整個句子的標簽分數,并找到位置信息的最佳標簽。

Fig.1 Structure of BERT-BiLSTM-CRF model圖1 BERT-BiLSTM-CRF 模型結構

1.2 BERT 預訓練模型

在自然語言處理領域,通常使用Word2Vec 方法進行詞嵌入操作,但這種操作文本序列的解析是靜態的。2018 年由Devlin 等提出的BERT 模型通過無監督方式學習,能保存深層的特征信息,具有更好的泛化能力,其結構如圖2所示。Bert 模型主要由雙向Transformer 的encoder 結構組成,利用Mask 預訓練任務學習token 的上下文語義信息,并利用下一句預測任務學習句子的順序特征信息。在掩碼語言模型任務中,會隨機選擇15%的位置信息進行遮掩,之后將80%的被遮掩位置信息用maskedtoken 取代,10%的被遮掩位置信息用隨機產生的詞語取代,余下被遮掩的位置信息保持原狀。

Fig.2 Structure of BERT圖2 BERT 結構

雙向Transformer 是一個完全基于注意力機制的模塊,其編碼單元如圖3 所示。Transformer 由多個重疊的單元組成,每個單元又由兩部分組成,第一部分是自注意力機制(self-attention),第二部分是前饋神經網絡(FeedForward-Network)。單元內部的子層之間設計了殘差連接,如圖3中虛線所示,該連接可保證把上一層信息完整地傳到下一層。當輸入部分進入Transformer 特征抽取器時,在第一個子層中首先經過自注意力層,然后進行殘差處理與標準化;在第二個子層中把從自注意力層得到的輸出傳遞到前饋神經網絡中,然后同樣進行殘差處理與歸一化。因為單一自注意力機制無法獲取更多子空間信息,而多頭注意力機制可獲取句子級別的語義信息。該機制采用多個自注意力機制進行并行計算,將多組輸出乘以隨機初始化的矩陣,最后通過線性變換輸出最終結果。

Fig.3 Transformer coding unit structure圖3 Transformer 編碼單元結構

1.3 BiLSTM 模型

循環神經網絡(RNN)是一種典型的深度學習模型,在理論上可處理序列數據并學習任意長度的上下文信息。但當數據長度過長,會出現梯度消失問題,致使其無法繼續優化。因此,RNN 是長度相關的。由于RNN 的這一缺陷,在文獻[17]中提出長短期記憶網絡模型,這是一種改進的RNN 模型。LSTM 網絡單元如圖4 所示。

LSTM 單元內部計算公式可定義如下:

其中,

σ

是Sigmoid 函數,

f

i

o

分別代表遺忘門、輸入門與輸出門,

W

W

W

W

代表權重矩陣,

b

b

b

b

代表誤差,

h

代表隱藏狀態,

x

h

C

代表輸入,

h

C

代表輸出。最后,當有n個LSTM 單元時,可獲得輸出向量(

h

,

h

,

h

,…,

h

)。

Fig.4 Structure of LSTM cell圖4 LSTM 單元架構

1.4 CRF 模型

相鄰標簽通常在標簽任務中具有很強的依賴性。考慮到該問題,本文利用條件隨機場(CRF)共同解碼給定輸入句子的標簽信息。CRF 是一種序列標記模型,其在序列標記任務中具有優勢,因其考慮了標記之間的順序與相關性。因此,在給定帶有句子

X

的預測序列

y

=(

y

,

y

,

y

,…,

y

)情況下,本文使用CRF 模型獲得標簽最佳序列。設

A

表示CRF 層中的過渡矩陣,其中

A

表示從標簽

y

到標簽

y

的過渡分數。

P

是BiLSTM 的輸出得分矩陣,其中

P

代表屬于標簽

y

的單詞

i

的置信度得分,將得分

s

(

X

,

y

)定義為式(7)。

顯然,

s

(

X

,

y

)越高,預測越準確。因此,可利用式(8)獲得最可靠的輸出。

2 實驗結果與分析

2.1 實驗數據

中文位置信息沒有現成的數據集,本文從網上獲取到25 萬條關于武漢市的原始中文位置信息數據集,以及3 萬條關于孝感市的原始中文位置信息數據集。原始中文位置信息存在數據重復、缺失及結構混亂等情況,故需要對數據進行預處理后再使用。剔除不規則的中文位置信息數據后,篩選得到用于本次實驗的20 萬條武漢市標準中文位置信息數據集和2 萬條孝感市標準中文位置信息數據集。數據集格式如表1 所示。

Table 1 Standard Chinese location information format表1 標準中文位置信息格式

將20 萬條武漢市標準中文位置信息數據集分別按照數量2 萬、6 萬和12 萬隨機分成A 組、B 組及C 組,并將全數據集設置為D 組,每組都按照7∶2∶1 的比例分為訓練集、測試集與驗證集,每組數據集規模如表2 所示。將2 萬條孝感市標準中文位置信息數據集設置為E 組,只作為測試集使用。

Table 2 Dataset size表2 數據集規模

2.2 實驗環境

本文實驗環境配置如下:操作系統為Ubuntu18.04,CPU型號為Intel Xeon E5-2665,GPU型號為GTX1080Ti;內存為64G,顯存為11GB;Python 版本為3.7.0,Pytorch 版本為1.7.0。

BERT 模型參數設置如下:版本為BERT-Base;網絡層數為12,隱藏層為768;多頭數量為12,總參數量為110M,序列最大長度為128;train_epochs 為20,train_batch_size 為16;學習率為5e-5,dropout 率為0.5;BiLSTM_size 為128。

2.3 標注與評價指標

目前,常用的序列標注策略有很多,本文在中文位置語義解析實驗中選擇使用BMES 4 位序列標注策略,其中B表示位置詞詞首,M 表示位置詞詞中,E 表示位置詞詞尾,S表示位置單字詞。例如位置信息“湖北省∕武漢市∕東西湖區∕東吳大道∕與∕新城十路∕交叉口”標注后的結果為“湖∕B北∕M省∕E武∕B漢∕M市∕E東∕B西∕M湖∕M區∕E東∕B吳∕M大∕M道∕E與∕S新∕B城∕M十∕M路∕E交∕B叉∕M口∕E”。

本文采用中文分詞任務中常用的準確率(Precision,P)、召回率(Recall,R)與F1 值進行評價,具體為:

其中,TP 指此模型正確劃分中文位置信息的詞數,FP指此模型錯誤劃分中文位置信息的詞數,FN 指模型實際未識別的實體數量。例如,中文位置信息“湖北省∕武漢市∕江夏區∕光谷一路∕武漢工程大學”經過本實驗的中文位置分詞模型被劃分為“湖北省∕武漢市∕江夏區∕光谷一路∕武漢∕工程∕大學”,TP 為4,FN 為3,FN 為1,則P=0.57,R=0.8,F1=0.67。

2.4 實驗結果與分析

本文對比了兩個神經網絡模型LSTM 和BiLSTM-CRF,以證明BERT-BiLSTM-CRF 模型在中文位置語義解析中可獲得更好效果。其中,LSTM 和BiLSTM-CRF 模型都是使用word2vec 模型進行預訓練的。

本文利用3 種網絡模型分別在A、B、C、D 4 組數據集上進行實驗,每組數據集進行實驗時,訓練集、測試集都來自于同組數據集,3 種模型在A、B、C、D 組數據集上的實驗結果分別如表3-表6 所示。

Table 3 Experiment result of three models in A group表3 3 種模型在A 組實驗結果 單位:%

Table 4 Experiment result of three models in B group表4 3 種模型在B 組數據結果 單位:%

Table 5 Experiment result of three models in C group表5 3 種模型在C 組數據結果 單位:%

從3 種模型分別在4 組數據集上的分詞結果可以看出,3 種神經網絡模型隨著中文位置信息訓練集數量的不斷增加,位置分詞的準確率P、召回率R 和F1 值也不斷增加。其中,BERT-BiLSTM-CRF 模型在不同數據集上得到的準確率P、召回率R 和F1 值都是最高的。在表6 中,準確率P 最高達到93.91%,F1 值最高達到93.96。即使在中文位置信息數據集較少的情況下,表3 中BERT-BiLSTMCRF 模型的分詞準確率F1 值也超過了90%,達到90.33%。LSTM 模型的分詞效果相比其他兩種模型較差,主要因為LSTM 模型是隨著時間推移進行順序處理的,不能在未處理特征與已處理特征之間建立聯系。相較于BERT-BiLSTM-CRF 模型,BiLSTM-CRF 模型的預訓練過程是靜態的,沒有考慮到位置信息詞的多層特性。引進BERT 預訓練模型后,模型的準確率P 與F1 值都顯著提高,說明BERT預訓練模型訓練得到的向量具有更多、更好的文本特征,能較好地表征位置信息詞的多義性。由此可見,本文提出的模型不僅能提高中文位置信息的解析準確率,而且還能提高多義詞的解析準確率。

Table 6 Experiment result of three models in D group表6 3 種模型在D 組數據結果 單位:%

因為D 組數據集和E 組數據集來源于不同城市,本文采用D 組數據集作為訓練集與驗證集,采用E 組數據集作為泛化能力實驗中的測試集,分別在4 種模型上進行泛化能力實驗。實驗結果如表7 所示。

Table 7 Generalization ability experiment result表7 泛化能力實驗結果 單位:%

由表7 中不同模型的實驗結果可知,BERT-BiLSTMCRF 模型的準確率P、召回率R 和F1 值明顯高于LSTM 模型與BiLSTM-CRF 模型。與表6 中的實驗結果進行對比,BERT-BiLSTM-CRF 模型在不同測試集上的準確率、F1 值差距很小,僅在2%的范圍內,而BLSTM、BiLSTM-CRF 模型因為測試集的變化,在表7 中的準確率、召回率和F1 值大幅下降。因此,在跨區域中文位置信息數據集上,BERT-BILSTM-CRF 模型具有較好的泛化能力。

3 結語

隨著地圖類軟件在人們生活中的應用越來越廣泛,當前常用于中文位置語義解析的神經網絡模型存在多義詞解析效果差、泛化能力較差等問題。鑒于此,本文提出一種采用BERT-BiLSTM-CRF 模型的中文位置語義解析模型,首先使用BERT 模型對中文位置信息進行預訓練,獲取中文位置信息所有層中的上下文信息,增強位置信息的表征能力,然后通過BiLSTM-CRF 模型進行解密,獲取全局最優結果。實驗結果表明,該模型相比于LSTM 與BiLSTMCRF 神經網絡模型,將其用于中文位置信息解析能取得更好的分詞效果及多義詞解析效果。而且在不同區域中文位置信息數據集作為測試集的情況下,該模型具有更好的泛化能力。

根據中文位置信息的特點,后續可在序列標注中融入更豐富的信息,并進一步增加模型提取位置的特征信息,以提升中文位置信息解析的效果與泛化能力。

猜你喜歡
語義實驗信息
記一次有趣的實驗
語言與語義
做個怪怪長實驗
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
“上”與“下”語義的不對稱性及其認知闡釋
現代語文(2016年21期)2016-05-25 13:13:44
認知范疇模糊與語義模糊
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
語義分析與漢俄副名組合
外語學刊(2011年1期)2011-01-22 03:38:33
主站蜘蛛池模板: 伊人久久大香线蕉综合影视| 午夜老司机永久免费看片| 青青草国产在线视频| 激情午夜婷婷| 国产精品久久久久久久久久98| 亚洲午夜片| 亚洲欧美日韩动漫| 全免费a级毛片免费看不卡| 国产97视频在线观看| av在线人妻熟妇| 国产一区二区三区免费| 日本国产精品一区久久久| 欧美日韩专区| 色男人的天堂久久综合| 99无码熟妇丰满人妻啪啪| 欧美一级片在线| 亚洲色婷婷一区二区| 欧美日韩精品综合在线一区| 米奇精品一区二区三区| 国产无码高清视频不卡| 国产亚洲一区二区三区在线| 国产精品大尺度尺度视频| 国产美女精品一区二区| 欧美特黄一级大黄录像| 色悠久久久| 成人va亚洲va欧美天堂| 91精品久久久无码中文字幕vr| 欧美成人免费一区在线播放| 2022精品国偷自产免费观看| 真人高潮娇喘嗯啊在线观看| 四虎国产永久在线观看| 东京热av无码电影一区二区| 亚洲成人在线免费| 国产欧美专区在线观看| 亚洲国产日韩在线成人蜜芽| 国产91在线|中文| 亚洲国产亚综合在线区| 色噜噜中文网| 久久久久无码精品| 91网红精品在线观看| 国产精品私拍在线爆乳| 高清免费毛片| 亚洲人成网站观看在线观看| 成人福利在线免费观看| 久久青草免费91线频观看不卡| 国产高清在线观看91精品| 欧美色综合久久| 中文字幕第1页在线播| 国产丝袜无码精品| 亚洲男人天堂2020| 999在线免费视频| 国产精品美女免费视频大全| 色哟哟精品无码网站在线播放视频| 美女被操91视频| 国产日本视频91| 毛片一级在线| 91精品国产一区自在线拍| 欧美色亚洲| 日本三级欧美三级| 尤物在线观看乱码| 久久久受www免费人成| 亚洲黄色成人| 色精品视频| 国产亚洲欧美日韩在线一区二区三区| 成年人视频一区二区| 久久国语对白| 国产精品香蕉在线| 88av在线| 制服丝袜 91视频| 欧美国产日韩在线播放| a级毛片一区二区免费视频| 精品久久久久久成人AV| 9啪在线视频| 高清欧美性猛交XXXX黑人猛交| 少妇精品久久久一区二区三区| 国产无遮挡猛进猛出免费软件| 午夜啪啪福利| 国产精品欧美在线观看| 国产国拍精品视频免费看 | 亚洲国产日韩欧美在线| 色网在线视频| 欧美区国产区|