趙 輝,趙 堯,金林林,董蘭芳,肖 瀟
基于YOLOX的小目標煙火檢測技術研究與實現
趙 輝1,趙 堯1,金林林1,董蘭芳2,肖 瀟2
(1. 國網安徽省電力有限公司亳州供電公司,安徽 亳州 236800;2. 中國科學技術大學計算機科學與技術學院,安徽 合肥 230026)
火災是日常生活中最常見的社會災害之一,會對人類的財產、生命安全造成巨大威脅,如何準確而快速地發現小面積的煙火點并實時發出預警,對維護正常的社會生產具有重要意義。傳統的煙火檢測算法通過識別圖像的各種低維視覺特征如顏色、紋理等,進而判斷煙火的位置,方法的實時性和精度較差。近些年深度學習在目標檢測領域的成就顯著,各種基于深度神經網絡的煙火檢測方法層出不窮,但大部分深度學習模型在小目標上的檢測效果遠不及大目標,而煙火檢測任務需要在煙火面積很小時就做出及時地識別和預警,才能避免火勢擴大造成更大的經濟損失。對此,基于YOLOX模型對激活函數和損失函數做出改進并結合數據增強算法和交叉驗證訓練方法,實現了更好的小目標檢測算法,在煙火檢測數據集上獲得了78.36%的mAP值,相比原始模型提升了4.2%,并獲得了更好的小目標檢測效果。
煙火檢測;小目標檢測;深度學習;數據增強;YOLOX
火災事故的發生會造成巨大的經濟損失,還會嚴重威脅人們的生命安全。如在電力系統的發電、輸電、變電過程中,由于設備不穩定很容易導致火災事故的發生。2017年11月18日北京市大興區西紅門鎮新建村發生火災,造成19人死亡,8人受傷,事故原因是埋在聚氨酯保溫材料內的電氣線路發生了故障;2021年4月16日,北京一儲能電站發生火災,導致2名消防員犧牲,1名消防員受傷,電站內1名員工失聯,除了設備本身問題,人為操作失誤也可導致事故發生。由此可見,火災的發生不僅會對人民的生命財產造成巨大的危害,也會嚴重影響社會的經濟發展和安全穩定,因此如何有效地預防火災,對小面積的煙火進行有效精確地監測和預警至關重要。
目前對于火災進行有效預警的方法是通過檢測火災早期產生的煙霧和火焰進行跟蹤、定位來實現的,由于易燃物分布十分廣泛,全部采用人工方法進行巡檢會造成極大的人力消耗。隨著視頻監控技術的普及,一些直接對視頻序列中的圖像信息進行處理的方法也陸續出現,如傳統的圖像處理方法通過識別圖像所具有的一些低維視覺特征(如形狀、顏色和紋理等)進行煙火的檢測,文獻[1]通過識別火災中火焰和煙霧的顏色和運動特征來檢測煙火;文獻[2]采用視覺圖像分割與堆疊技術來判別煙火特征從而檢測煙火。但這些傳統方法易受背景變化的影響,而火災產生處的場景十分復雜,使得傳統圖像處理方法在煙火檢測領域所能達到的精度十分有限。
近年來,隨著深度學習技術在各個領域的蓬勃發展和廣泛應用,尤其是在目標檢測領域,深度學習方法得益于能夠自適應地學習到不同環境背景下的特征差異,在處理圖像信息任務時表現出較傳統方法更高的精度和自學習的能力,煙火識別預警就屬于特定場景下(火災)的目標檢測任務,可基于目標的幾何和特征統計對視頻或圖像中的火焰和煙霧進行準確識別和定位。目前,基于深度學習的目標檢測算法可以分為一階段算法和兩階段算法,其中兩階段算法需要經過兩步完成:①獲得候選區域,②對候選區域進行分類;而一階段算法則不需要獲取候選區域,從圖像中直接預測目標所在的區域。
在圖像分類任務中,卷積神經網絡(convolutional neural networks,CNN)較傳統方法顯現出巨大的優勢,基于CNN進行圖像分類逐漸成為主流。隨后,GIRSHICK等[3]首次將CNN運用到了目標檢測領域,提出了基于候選框選取的R-CNN目標檢測算法,其以圖像像素為單位根據紋理特征的相似性逐漸向上融合,獲得若干候選區域,再將候選區域送入CNN進行分類,并校正目標檢測的邊界框。該算法需要獲得大量的候選區域以獲得更高的精度,且很多區域間是彼此重疊的,模型對于不同的候選區域進行了大量的重復計算,降低了模型的速度。之后,Fast R-CNN[4]做出了改進,使用CNN先提取整個圖像的特征,而不是對每個圖像塊多次提取,然后將創建候選區域的方法直接應用于提取到的特征圖上,因此大大減少了提取特征所花的時間,但其速度則依賴于外部選擇性搜索算法。于是Faster R-CNN[5]算法用區域生成網絡代替了候選區域方法,區域生成網絡將前面CNN的輸出特征圖作為輸入,在特征圖上滑動一個3×3的卷積核,通過CNN構建出與類別無關的候選區域再送入分類網絡。上述算法均為兩階段算法,而一階段算法中具有代表性的主要有:①LIU等[6]提出的SSD算法,其不通過事先選取候選框,而是在多尺度特征圖上的每個點生成一個預選框,然后將所有的預選框集合進行極大值抑制,最后輸出預測結果;②REDMON等[7]提出的YOLO算法,將目標檢測當作一個回歸問題,通過單一的神經網絡同時預測邊界框的坐標和各個類別的概率,檢測速度也能達到45 FPS以上。除了基于CNN的一階段算法之外,還有LIU等[8]提出的基于自注意力機制的swin transformer算法,該算法能取得更高的精度,但計算速度較慢。
上述目標檢測算法中,兩階段算法由候選區域選取再對候選區域進行分類,往往需要花費較多的時間,而煙火檢測是一個對實時性要求很高的任務,因此本文將采用一階段算法識別煙火,相比于兩階段算法而言能夠在保證預測精度不降低的同時,大大減少煙火檢測的時間,提高了檢測的效率。得益于YOLO算法,在確保目標檢測任務能獲得較高精度的同時,處理速度也接近實時應用的要求。
因此,本文以YOLOX[9]算法作為基礎的網絡模型,并結合火災場景下煙火檢測任務的要求進行調整,從而實現了構建煙火小目標檢測效果足夠好的模型。
YOLO系列算法經過了3次改進,并以此為基礎,衍生出了各種不同的版本。將目標檢測問題當作回歸問題進行處理,將整張圖片作為網絡輸入,然后在輸出層對預測框的位置和類別進行預測。算法首先將一張圖片分割成×個網格,如果預測目標的中心點位于某個網格中,則對此目標進行進一步預測,在實際輸出中,每個網格預測個框,并分析每個框中是否包含目標以及目標所屬的類別。這會導致一個目標可能有多個預測框對其進行預測,算法使用非極大值抑制方法,該方法選擇所有預測框中得分最高的那個,然后對該預測框與其他預測框計算交并比(intersection over union,IoU),IoU計算方法如圖1所示,其值為2個矩形框的交集與并集面積之比。

圖1 IoU計算方法
非極大值抑制需要設置一個IoU閾值(一般為0.5),將計算結果小于該閾值的預測框抑制掉,再對剩下的預測框迭代使用該方法,直至沒有能抑制的預測框為止,最終輸出的是不含重疊框的預測結果。
目標檢測模型一般可以抽象成backbone,neck和head網絡。如圖2所示,其中backbone網絡進行特征提取,head網絡進行分類和回歸分析,neck網絡為可選的部分,一般對backbone網絡獲得的特征圖進行多尺度的融合。

圖2 檢測模型總體結構
煙火檢測模型使用CSPDarkNet[9]作為backbone部分,其使用YOLOV3[10]中的DarkNet[10],結合CSP結構而成,如圖3(a)所示;CSPDarkNet主要使用卷積層和CSP結構進行連接,其中CSP結構如圖3(b)所示。CSP結構類似于殘差結構[11],輸入首先通過次的1×1卷積和3×3卷積操作,然后再將得到的結果與原始輸入拼接在一起作為輸出。煙火檢測模型使用GELU[12]激活函數,在訓練時能夠收斂得更快,即

圖3 煙火檢測模型的backbone網絡((a)CSPDarkNet;(b)CSP結構)

其中,erf函數為高斯誤差函數,即

CSPDarkNet的輸入是一張640×640×3的圖片,首先對圖片進行Focus結構的操作。Focus結構如圖4所示,在一張圖片中每隔一個像素獲取一個值,這時可獲得4個獨立的特征層,并對其進行堆疊,此時的寬、高信息就集中于通道信息,輸入通道擴充了4倍,拼接起來的特征層由原3個通道變成12個通道。Focus結構其實就是進行了一個下采樣操作,但該過程與其他方法相比沒有進行任何計算,從而減少了模型進行推理時所需要的計算開銷。

圖4 Focus結構
經過Focus結構后,模型再通過卷積層和CSP結構的堆疊,不斷地提取特征,在進入最后一個CSP結構之前,模型通過了一個SSP結構的處理,SSP結構有點類似于GoogleNet[13]中使用的Inception結構,如圖5所示,通過使用不同的池化核大小的max-pooling進行特征提取,提高網絡的感受野。

圖5 SSP結構
煙火檢測模型neck網絡基于圖像特征金字塔網絡FPN[14]搭建,FPN能融合不同尺度的特征圖,從而得到不同尺度的目標預測結構。煙火檢測任務需要在煙火目標還小時或煙火目標被遮擋時也能準確及時地檢測到,從而減少損失。CNN在進行特征提取時會不斷地進行下采樣,從而使最后獲得的特征圖上的一個點對應原始圖像中的32×32或更多像素,于是一些小于32×32個像素的目標就很難被檢測出來。但之前的卷積層所獲得的特征圖,還存在著較多的細節特征,如果將前面卷積層所保留的細節特征和最后的語義特征進行綜合,就可以獲得小目標的相關特征,從而檢測到原始圖片上所存在的小目標。
圖6為基于FPN而構建的neck網絡,neck網絡將backbone網絡獲得的特征圖進行兩次上采樣,然后與backbone網絡對應大小的特征圖進行拼接,每次拼接后均經過一次CSP結構處理。經過兩次上采樣將細節特征與語義特征融合獲得特征圖1后,再進行兩次下采樣,每次下采樣后的結果在與上采樣之前的對應大小的特征圖進行拼接,拼接后的特征圖分別經過一次CSP結構處理獲得特征圖2和3。1,2和3分別為3個不同大小尺度的特征圖,1檢測小目標,2檢測中目標,3檢測大目標。
Head網絡對neck網絡得到的3個不同尺度的特征圖分別進行回歸分析,其網絡結構如圖7所示。
Head網絡首先通過一個1×1的卷積將每個特征圖的通道數減少到256,然后通過2個平行的分支進行兩次3×3卷積后分別進行分類和回歸,同時在回歸的分支加了一個IoU的分支。于是對于每一個特征層,均可獲得3個預測結果:
(1) Reg_output(,,4)。對目標框的位置信息進行預測,4個參數分別為,,,,其中和為預測框的中心點的坐標;和為預測框的寬和高。
(2) Obj_output(,,1)。用于判斷目標框是前景還是背景,經過Sigmoid函數處理后,即為前景的置信度。
(3) Cls_output(,,)。判斷目標框內屬性,給每類目標一個分數,經過Sigmoid函數處理后可得到每一類目標的置信度。
將3個預測結果進行堆疊,每個特征層獲得的結果為Output(,,4+1+),其中前4個參數判斷每一個目標框的位置信息;第5個參數判斷目標框內是否包含物體;最后個參數判斷目標框內所包含的物體種類。

圖6 煙火檢測模型的neck網絡

圖7 煙火檢測模型head網絡部分[9]
數據增強是計算機視覺中一種擴充數據集的手段,可對圖像進行數據增強,從而彌補訓練圖像數據集不足,達到對訓練數據擴充的目的。在本文的煙火模型中,可使用Mosaic算法和Mixup[15]算法進行數據增強。
Mosaic算法的增強效果如圖8所示,將4張圖像進行隨機的裁剪縮放,然后將其拼接在一起,這樣做的好處有:①縮小圖片中的目標以滿足本文對小目標精度的要求;②增加背景的復雜度。火災發生地的背景往往十分復雜,需要模型對復雜的背景擁有較好的魯棒性。

圖8 Mosaic數據增強算法((a)煙火數據集中的4張隨機圖像;(b)拼接后的圖像)
另一種數據增強算法Mixup源自于圖像分類任務,可將2個不同分類的數據進行混合,以達到混合增強的目的,Mixup算法可以在幾乎不增加任何計算的基礎上,穩定提高一個百分點的分類精度。假如x是一個batch的樣本,而x是另一個batch的樣本,其標簽分別是y和y,選取一個由參數和確定的Beta分布計算得到混合參數,再計算混合batch和標簽。
Mixup算法可以描述為




目標檢測任務是檢測出目標并進行定位,而損失函數的功能則是讓檢測的準確率更高、定位更精確,且需要指出的是,預測框與真實框的接近程度、預測框中是否含有需要檢測的目標以及目標類別是否是真實的類別。損失函數和模型的預測結果相同,主要由3部分組成:①回歸損失,由模型預測出的,,,可以定位預測框的位置,利用真實框和預測框計算IoU損失,作為回歸損失的Loss組成;②目標損失,根據模型預測出的特征點可知是否包含目標,而所有真實框對應的特征點均是正樣本,剩余點均為負樣本,根據正負樣本和特征點是否包含目標的預測結果計算交叉熵損失,作為目標損失的Loss組成;③分類損失,根據模型預測出特征點,從中提取該特征點所預測的種類結果,然后根據真實框的種類和特征點的種類預測結果計算交叉熵損失,作為分類損失的Loss組成。
對于回歸損失,采用DIoU[16]代替IoU來計算損失值,IoU所度量的是預測框與真實框之間的交并比。但如果預測框與真實框之間沒有交集,那IoU的計算結果就會一直為0,而且當2個框中一個在另一個內部時,則框的大小不變,那么計算出的IoU值也不會發生變化,這樣模型將難以進行優化。圖9為DIoU計算回歸損失的原理,相應的計算為

其中,c為預測框與真實框并集的外接矩形對角線距離;d為預測框與真實框的中心點距離,即使2個框沒有交集也不會使損失值為0,且當2個框其中一個在另一個內部時,也可以獲得很好地度量效果。
為了提高模型對小目標的檢測效果,將目標損失中的交叉熵損失改為使用Focal Loss[17]損失函數,即

當分類為正樣本時,損失函數為-log?,反之,損失函數為-log (1-?)。損失函數需對所有的樣本均采用同樣的損失度量方式,然而在實際的預測中,小目標總是比大目標難以預測,因此小目標所獲得的預測概率總是比較低,交叉熵損失函數并提高對小目標的預測精度。而Focal Loss損失函數為

Focal Loss損失函數使用一個超參數來控制模型對小目標的偏向程度,當預測的結果?趨近于1時,在經過1-?的指數運算后,損失函數的結果會比較小,若預測的結果?比較小,則可獲得比較大的損失值。大目標的檢測對于模型來說比較容易,大目標的預測值一般會比較大,而小目標的檢測則不易,所以小目標的預測值一般會偏小,經過Focal Loss損失函數的計算,小目標會獲得相對比較大的損失值,因此模型會偏向于提高自身對小目標的預測能力。
目前尚未見煙火的公開數據集,所以本文收集了2 153張圖像作為煙火檢測的實驗數據集。圖10為數據集中的部分圖像,其中包括面積比較大和面積比較小的火焰目標。使用LabelImg軟件將圖像進行標注后轉換成VOC數據集格式,分別使用“smoke”和“fire”對目標進行標注。

圖10 煙火檢測數據集中的部分圖像
由于煙火數據集的樣本數并不多,模型訓練后的泛化性能不強導致檢測效果不高。因此采用目前比較有效的遷移學習策略來解決數據集匱乏的問題,采用在大型數據集ImageNet上預訓練的參數作為模型的初始化參數。此外,為了充分利用數據集并防止過擬合,采用交叉驗證的方法對模型進行訓練,將訓練集分成6份,逐次選取其中1份作為驗證集,其他5份作為訓練集,一共訓練180個epoch,最后將所有訓練集一起訓練20個epoch。其中,訓練的前180輪使用Mosaic和Mixup數據增強算法,后20輪取消使用數據增強算法。
目標檢測網絡的性能評價指標采用平均精度均值(mean average precision,mAP),計算預測的各個類別目標在查全率和查準率下面積的平均值,即


其中,為真正例,即預測框與真實框的IoU≥0.5的目標個數;為假正例,即預測框與真實框的IoU<0.5的目標個數;為假負例,即未預測出目標個數。
實驗中的超參數設置為:學習率0.001,一個batch的大小為8,迭代次數epoch為200。
表1為本文使用的煙火模型的檢測結果。由表1可知改進后mAP值為78.36%,相比基礎的YOLOX模型提高了4.2%,其中煙霧和火焰的P-R曲線分別如圖11和圖12所示,圖中,P-R曲線與坐標軸圍成的面積為AP值,可以得出煙霧和火焰的AP值分別為81.42%和75.30%。

表1 在煙火數據集上檢測網絡的實驗結果對比(%)

圖11 煙霧P-R曲線

圖12 火焰P-R曲線
對模型進行訓練后,本文使用實際場景中的火焰圖像進行測試。圖13和圖14分別為原始模型和本文改進后模型在消防演練圖像上的檢測結果,可以看出,改進后的模型不僅能檢測出原始模型能檢測出的煙火大目標,還能檢測出原始YOLOX模型未檢測出的,圖像左側面積極小的火焰目標。因此本文使用的煙火檢測模型不僅能準確地識別出大面積火焰,而且對小面積的火焰也具有很好地檢測效果,可以及時發現火災產生的信息,從而做出預警。

圖13 原始模型在消防演練圖像上的檢測結果

圖14 改進模型在消防演練圖像上的檢測結果
本文主要研究的是煙火檢測尤其是對小目標煙火以及被遮擋住的煙火的檢測。通過使用交叉驗證提高模型的泛化能力,通過使用FPN特征金字塔網絡提高模型對小目標的檢測能力,通過使用Focal Loss提高模型對小目標的學習偏好,通過使用Gelu和DIoU提高模型的收斂速度。最終在煙火數據集上獲得了78.36%的mAP值,相比原始模型提高了4.2%。在實際火災的測試中也能精確地檢測出不同面積的火焰,本文使用的煙火檢測模型能夠對煙火進行實時地檢測,并在火災初發時就能檢測出小面積的火焰,能滿足火災預警對實時性和準確性的要求。
[1] 韓美林, 張文文. 基于視頻圖像的多特征融合的森林煙火檢測系統研究[J]. 無線互聯科技, 2021, 18(17): 67-68.
HAN M L, ZHANG W W. Research on forest fireworks detection system of multiple characteristic fusion based on video image[J]. Wireless Internet Technology, 2021, 18(17): 67-68 (in Chinese).
[2] 嚴成, 何寧, 龐維慶, 等. 基于視覺傳感的地面煙火監測系統設計[J]. 廣西大學學報: 自然科學版, 2019, 44(5): 1290-1295.
YAN C, HE N, PANG W Q, et al. Design of ground pyrotechnic monitoring system based on visual sensing[J]. Journal of Guangxi University: Natural Science Edition, 2019, 44(5): 1290-1295 (in Chinese).
[3] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2014: 580-587.
[4] GIRSHICK R . Fast R-CNN [EB/OL]. (2015-9-27) [2022-01- 15]. https://arxiv.org/abs/1504.08083v2.
[5] REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.
[6] LIU W, ANGUELOV D, ERHAN D, et al. Ssd: single shot multibox detector[C]//The 2016 European Conference on Computer Vision. New York: IEEE Press, 2016: 21-37.
[7] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2016: 779-788.
[8] LIU Z, LIN Y T, CAO Y, et al. Swin transformer: hierarchical vision transformer using shifted windows[C]//2021 IEEE/CVF International Conference on Computer Vision. New York: IEEE Press, 2021: 9992-10002.
[9] GE Z, LIU S T, WANG F, et al. YOLOX: exceeding YOLO Series in 2021 [EB/OL]. (2021-08-6) [2022-01-15].https:// arxiv.org/abs/2107.08430,2021.
[10] CHOI J, CHUN D, KIM H, et al. Gaussian YOLOv3: an accurate and fast object detector using localization uncertainty for autonomous driving[C]//2019 IEEE/CVF International Conference on Computer Vision. New York: IEEE Press, 2019: 502-511.
[11] HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2016: 770-778.
[12] HENDRYCKS D, GIMPEL K. Gaussian error linear units (GELUs)[EB/OL]. [2021-10-09]. https://arxiv.org/abs/1606. 08415.
[13] SZEGEDY C, LIU W, JIA Y, et al. Going deeper with convolutions[EB/OL]. [2021-09-10]. https://www.docin.com/p-1257582907.
[14] LIN T Y, DOLLáR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2017: 936-944.
[15] ZHANG H, CISSE M, DAUPHIN Y N, et al. mixup: beyond empirical risk minimization[EB/OL]. (2018-04-27) [2022-01- 15]. https://arxiv.org/abs/1710.09412v2.
[16] ZHENG Z H, WANG P, LIU W, et al. Distance-IoU loss: faster and better learning for bounding box regression[J]. The 2020 AAAI Conference on Artificial Intelligence,2020, 34(7): 12993-13000.
[17] LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[C]//2017 IEEE International Conference on Computer Vision. New York: IEEE Press, 2017: 2999-3007.
Research and realization of small target smoke and fire detection technology based on YOLOX
ZHAO Hui1, ZHAO Yao1, JIN Lin-lin1, DONG Lan-fang2, XIAO Xiao2
(1. Bozhou Electric Power Supply Company, State Grid Anhui Electric Power Company, Bozhou Anhui 236800, China; 2. School of Computer Science and Technology, University of Science and Technology of China, Hefei Anhui 230026, China)
Fire is one of the most common social disasters in daily life, which will pose an enormous threat to human property and life safety. How to accurately and quickly identify small areas of smoke and fire and issue early warnings in real time is important for normal social production significance. The traditional smoke and fire detection algorithm identifies the location of smoke and fire based on various low-dimensional visual features of the images, such as color and texture, so it is of poor real-time performance and low accuracy. In recent years, deep learning has made remarkable achievements in the field of target detection, and various smoke and fire detection methods based on deep neural networks have sprung up one after another. In the case of small areas of smoke and fire, timely identification and early warning should be made to avoid greater economic losses caused by the expansion of the fire. In this regard, based on the YOLOX model, the activation function and loss function were improved, and a superior small target detection algorithm was realized by combining the data augmentation algorithm and cross-validation training method, and the mAP value of 78.36% was obtained on the smoke and fire detection data set. Compared with the original model, it was enhanced by 4.2%, yielding a better effect of small target detection effect.
smoke and fire detection; small target detection; deep learning; data augmentation; YOLOX
TP 391
10.11996/JG.j.2095-302X.2022050783
A
2095-302X(2022)05-0783-08
2022-01-21;
2022-05-17
21 January,2022;
17 May,2022
國網安徽省電力有限公司科技項目(5212T02001CM)
State Grid Anhui Electric Power Co., Ltd. Science and Technology Project (5212T02001CM)
趙 輝(1983-),男,高級工程師,學士。主要研究方向為圖像處理、視頻圖像智能分析。E-mail:5659020@qq.com
ZHAO Hui (1983-), senior engineer, bachelor. His main research interests cover image processing and intelligent analysis of video images. E-mail:5659020@qq.com
金林林(1990-),男,工程師,學士。主要研究方向為電力調度運行、無功電壓電力系統及其自動化。E-mail:jll90315@163.com
JIN Lin-lin (1990-), engineer, bachelor. His main research interests cover power dispatching operation,reactive voltage power system and automation. E-mail:jll90315@163.com