劉 娟,胡 敏,黃 忠1,
1.安慶師范大學 物理與電氣工程學院,安徽 安慶 246052
2.合肥工業大學 計算機與信息學院 情感計算與先進智能機器安徽省重點實驗室,合肥 230009
基于區域NBPR特征及可信度修正的人臉表情識別*
劉 娟1+,胡 敏2,黃 忠1,2
1.安慶師范大學 物理與電氣工程學院,安徽 安慶 246052
2.合肥工業大學 計算機與信息學院 情感計算與先進智能機器安徽省重點實驗室,合肥 230009
為了提取有利于表情分類的區域特征以及實現多區域特征的決策級融合,提出了一種基于鄰近二值模式關系(neighbor binary pattern relation,NBPR)特征描述子和可信度修正證據融合(credibility modification evidence fusion,CMEF)的表情識別框架。首先針對傳統局部二值模式(local binary pattern,LBP)算子僅以中心像素為編碼閾值的局限,提出一種NBPR描述子,它對局部區域多方向相鄰像素之間的二值模式異或關系進行編碼;然后根據提取的眉毛、眼睛和嘴巴區域的NBPR紋理特征進行證據的初始基本概率分配;最后針對D-S(Dempster-Shafer)證據理論在合成沖突證據時的不足,通過一種新的基于證據可信度的合成方法實現3個區域證據的決策融合。該方法在CK(Cohn-Kanade)庫上分別取得了94.67%的平均表情識別率以及752 ms的平均識別時間。實驗結果表明,提出的NBPR描述子和CMEF策略有利于表情區域的紋理描述和決策級融合,從而具有較高的表情識別率。
鄰近二值模式關系;多區域特征融合;D-S證據理論;可信度修正
隨著圖像處理技術的不斷進步以及情感人機交互的迫切需求,人臉表情識別逐步變成情感計算領域最活躍的研究方向。為提高表情分類正確率,人們一方面挖掘維數低、魯棒性強的特征描述方法;一方面探索鑒別能力強、穩定性好的分類融合策略[1]。研究表明,人臉不同區域的表情細節在表情分類中提供的區分信息具有較大差異性,因此,如何提取有利于表情分類的區域特征以及如何實現不同區域特征的決策融合,已經成為表情識別領域噩待處理的關鍵問題。
近幾年,人們已經提出了大量卓有成效的特征提取方法,主要包括基于拓撲關系的幾何特征提取方法和基于像素信息的紋理特征提取方法[2]。幾何特征提取方法主要對人臉顯著區域的特征點進行定位,然后根據特征點位置信息度量形狀偏差或相對位移,但這種方法計算開銷大,且易受特征點定位精確程度的影響。與幾何特征提取方法不同,紋理特征提取方法則利用像素點周圍的灰度分布和對比度等信息來刻畫表情細節,其中最常見的有Gabor小波變換[3]和局部二值模式(local binary pattern,LBP)[4]。由于具有比Gabor特征較低的維數和較高的提取效率,LBP特征在表情識別等實時場景中更受青睞。然而,傳統LBP算法只以局部鄰域中心點的像素灰度值作為閾值,沒有處理周圍近鄰像素點灰度值大小關系。這種空間關系的缺失制約了LBP描述局部豐富表情細節的能力。而在表情分類方面,人們逐漸關注到表情區域特征在類別判別中的重要性,分別提出了區域特征的數據級聯方法[5-6]和決策融合方法。與數據級聯方法不同,區域特征的決策融合方法則是首先將區域特征轉化為類別度量信息,然后在決策層實現不同區域類別度量信息的融合。由于D-S(Dempster-Shafer)證據理論能夠較好地描述表情模糊性和不確定性,基于D-S證據理論的決策融合方法備受人們關注,如Hammal等人[7]將來自不同人臉表情區域的形變特征視為證據,利用D-S證據理論完成這些區域表情類別融合與決策;Shoyaib等人[8]利用k-NN(k-nearest neighbor)方法計算各證據的概率分配函數,并提出kNNDS表情識別框架。然而,傳統D-S合成公式為維持基本概率分配的歸一性,僅利用彼此不沖突的證據信息構建置信區間,因此,當區域表情證據存在沖突時,決策系統將產生與事實相違背的判別結果[9-10]。
鑒于人臉表情特征更多匯集在眉毛、眼睛和嘴巴等顯著區域,以及傳統LBP算法不足以描述局部紋理細節的問題,本文提出了一種基于區域NBPR特征及可信度修正的人臉表情識別方法。首先,針對傳統LBP算子僅以中心像素為閾值編碼方式的局限性,提出一種基于鄰近二值模式關系(neighbor binary pattern relation,NBPR)的紋理特征描述子,通過對局部區域范圍內近鄰像素多方向的二值模式的異或關系編碼,提取表情區域高鑒別能力的紋理信息。然后,考慮人臉表情細節更多集中于眉毛、眼睛和嘴巴等局部區域的特點,以這3個顯著區域NBPR紋理特征為證據,并根據卡方距離建立各證據的基本概率分配。最后,針對傳統D-S合成規則解決沖突表情證據存在的缺陷,提出可信度修正證據融合(credibility modification evidence fusion,CMEF)策略實現3個區域證據的決策融合。
2.1 LBP算法
LBP算子擁有計算不復雜,對光照變化條件不敏感的優點,是一種較好的紋理分析方法,如今在機器視覺領域得到了廣泛應用[4]。其本原理為:選定一個3×3的窗口,以中心像素的灰度值為閾值,周圍8個像素值與其進行比較,若周圍像素值大于中心像素值,則該像素點的位置被標記為1,否則為0。這樣周圍8個鄰域會分別對應8個不同的0或1,再按照一定的順序賦權值,加權求和得到中心像素的LBP值。LBP編碼過程如圖1所示。

Fig.1 LBP operator圖1LBP算子
2.2 NBPR描述子
與LBP僅以局部鄰域中心像素為閾值的編碼方式不同,NBPR分別對某中心點周圍的8個鄰域4個方向近鄰像素之間二值模式異或關系進行編碼,構成4個方向的局部紋理特征。與LBP方法相比,能夠捕獲更加詳細的描述信息和包含更加豐富的空間信息。給定一幅圖像I(x),該圖像0°、45°、90°和135°方向二值模式可以表示成Iθ(x),其中θ=0°,45°,90°, 135°。NBPR編碼流程如下。
步驟1假設x0為圖像中的一點,其周圍8個鄰域為xi(i=1,2,…,8),如圖2所示。x=x0處的4個方向的二值模式可以表示成:


Fig.2 Pixel pointx0and its 8 neighborhoods圖2 像素點x0與其八鄰域
步驟2x=x0處θ方向下的近鄰像素之間二值模式關系NBPRθ(x0)可以表示成:

其中,⊕為異或運算,從而形成二進制編碼比特串。
步驟3將4個方向的近鄰像素二值模式關系串聯在一起:

將點x0處NBPRθ(x0)中的8位二進制數轉換成十進制數,其值位于[0~255],即點x0該方向的NBPR特征值。圖3中(b)、(c)、(d)、(e)分別計算出I0°(x)、I45°(x)、I90°(x)和I135°(x),然后根據公式(3)計算出NBPR0°(x0)、NBPR45°(x0)、NBPR90°(x0)和NBPR135°(x0),最后NBPR(x0)=10111011011110011101011001000110。
從式(1)可以看出:假設對xi(i=0,1,…,8)周圍8個鄰域像素同時加上或者減去某個值,xi的4個方向二值模式不發生改變。由式(3)可知,4個方向的x0與周圍xi(i=1,2,…,8)的二值模式關系沒有發生改變,即表明NBPR對光照不敏感。由于LBP選取的起始位置不同,最后加權得到的數值會不相同,旋轉不變LBP算子[11]就是在此基礎上,在各種不同起始位置選取原始LBP值中最小的那個值作為最終的旋轉不變LBP值。同理,若x0周圍8個鄰域選取的起始位置不同,最后加權得NBPRθ(x0)數值會不相同,從而可以將LBP旋轉不變算子應用于NBPRθ(x0),使NBPR達到對圖像的旋轉不變性。
步驟4 NBPR的直方圖。相對于全局直方圖方法,局部直方圖對光照和姿態的變化更具有魯棒性[12],從而本文利用局部直方圖來建立NBPR的分布。在特征提取過程中,首先將某個方向上NBPR特征圖劃分成L個尺寸一樣且互不重疊的子塊;然后統計每個子塊區域內直方圖分布,將它們按先行后列的順序串聯在一起,獲得分塊直方圖序列;最后將4個方向上NBPR特征圖的分塊直方圖序列聯合起來。
假設方向θ,NBPRθ劃分成L個矩形區域,表示為R1,R2…,RL,HNBPR(i,θ)可以表示為:

其中HNBPRθ(Ri)表示在θ方向上NBPR特征圖中從子塊區域Ri提取的直方圖特征。分塊后4個方向NBPR有4×L×2P個模式,可以通過對NBPR模式進行降維。本文采用Ojala提出的“等價模式”降維[11]。
2.3 區域特征表示
一個完整的臉部圖像提取的所有特征并不都有利于表情分類,如果將這些特征全部進行提取,一方面會增加特征提取和表情識別的時間;另一方面大量的冗余特征將會對分類器判別形成干擾,進而降低表情分類的正確率。因此,合理地選擇表情特征區域,可以去除一些和表情分類無關或者冗余的特征。鑒于眉毛、眼睛和嘴巴區域在表情描述中的重要作用,本文提取這3個區域的NBPR紋理特征。
首先將人臉圖像規范化為128×133像素的區域,并將其均等地劃分成56(8×7)個互不重疊的子塊,其中每個子塊尺寸為16×19像素。然后,定位眉毛、眼睛和嘴巴區域,并且3個區域尺寸分別為128× 19、96×19、64×38像素。最后,在這3個區域內,分別統計其中各個子塊的NBPR特征直方圖,并將其分塊直方圖序列作為區域表情紋理特征描述。其過程如圖4所示。

Fig.3 Example of NBPR code圖3NBPR編碼示例
3.1 基本概率賦值的構建
D-S證據理論[13]中假設Θ為一識別框架,定義集函數m:2Θ→[0,1]為Θ上的基本概率分配(basic probability assignment,BPA)函數,且滿足:


Fig.4 Histogram sequences of NBPR圖4NBPR直方圖序列
其中,?表示空集;若m(A)>0,稱A為信任函數的焦元。設m1和m2為同一識別框架Θ下的兩個證據,則D-S合成公式為:

為構建3個證據的基本概率分配,本文首先計算測試樣本與各類標準特征向量的卡方距離di,j(i為區域,j為表情類別)[14]。由于距離為(0,+∞)上任意一實數,需要對di,j進行歸一化:

在基本概率分配函數的構建中,一方面要求各類別的概率總和為1,一方面要求加大類別概率的區分度。因此,當測試樣本和某類標準特征向量之間距離較大時,測試樣本屬于該類的可能性很小,分配給該類的概率越接近0;反之,分配該類的概率越接近1。鑒如此,本文采用指數函數實現從卡方距離到基本概率分配的映射。設證據i對表情類別cj的基本概率賦值分配為:

其中,λ為擬合系數,通過實驗取13。
3.2 可信度修正的證據融合
構建3個區域證據的基本概率分配后,可以按照D-S合成公式實現多證據的融合。然而,D-S合成公式沒有區分參與合成證據的差異性,在證據合成時沒有考慮證據的可靠性信息,從而將造成不合理的合成結果。此外,當合成證據存在沖突時,沖突程度系數K趨于1,D-S合成公式不能完成證據融合。這種完全不考慮沖突信息的策略也勢必導致判別信息的丟失并影響決策結果。針對傳統D-S合成公式不能處理沖突和體現證據差異性的問題,本文提出可信度修正的證據融合策略。
3.2.1 可信度
設m1,m2,…,mn是同一識別框架Θ下的n個證據,|Θ|=N,2Θ={Ai|i=1,2,…,2N}。定義m1、m2的距離為[15]:

當兩個證據之間的距離較小,說明它們相似度較高,可以認為它們彼此互相信任,否則說明它們存在沖突。因此,可以將證據間的可信度作為證據沖突程度的度量方式。令mi的可信度Crdi為:

式(11)意義在于,某個證據與其他證據的距離越小,說明該證據與其他證據的沖突較小,則其擁有較高的可信度。因此,度量的可信度可以直接體現證據間的沖突程度。
3.2.2 證據融合策略
為了體現各個證據的重要性,表情識別系統所融合的多個證據應賦予有區別的權重。若一個證據擁有較高的可信度,其對應的權重應比較高,從而對融合結論的影響也應較大;反之亦然。因此,本文通過度量的可信度對原始證據進行修正:

在新的證據模型mi′(i=1,2,…,n)中,利用“與”運算合成沒有沖突的證據,并通過可信度對證據的沖突實施分配。新的合成公式定義為:

由計算過程可知,修正的證據模型的合成結果仍然滿足BPA函數的要求。利用新的合成公式對修正后證據進行融合,并依據式(14)決策規則可判別最終的表情類別cresult為:

至此,本文提出的基于區域NBPR特征及可信度修正的人臉表情識別框架可用圖5表示。

Fig.5 Framework of expression recognition圖5 表情識別框架
為了說明本文算法的有效性,采用Matlab 2010在Windows 10環境下搭建系統,計算機的微處理器配置為Intel?CoreTMi3-4150 CPU@3.5 GHz,主存4 GB。測試集為CK(Cohn-Kanade)表情庫,為了減少圖像中人臉位置、大小和旋轉等因素對表情識別的影響,對圖像進行預處理,包括人臉分割、幾何歸一化和光照歸一化。預處理后表情圖像統一大小為128×133像素,如圖6所示。

Fig.6 Preprocessing on CK expression database圖6 CK表情庫的預處理
4.1 本文算法識別率
CK庫由美國CMU機器人研究所和心理系共同建立。本文從CK庫中選取了21個對象的6種表情(悲傷、高興、驚訝、恐懼、憤怒和厭惡)的200幅圖像。每次隨機選擇100幅圖像作為訓練樣本,剩下的圖像作為測試樣本。
基于隨機產生的表情訓練集,提取每幅訓練圖像3個顯著區域的NBPR特征后,各區域同種類型的表情特征求和后取平均得到該區域該類標準表情特征向量。樣本測試階段,提取每幅測試圖像3個顯著區域的NBPR特征后,計算各區域特征與標準表情特征向量的卡方距離,以此構建3個區域證據的基本概率分配。最后按照可信度修正各證據基本概率分配,并實現證據融合和最終決策。實驗計算3次交叉驗證的平均識別率,如表1所示,其平均識別率為94.67%。

Table 1 Experimental result based on Cohn-Kanade database表1 基于Cohn-Kanade庫的實驗結果
4.2 不同表情識別方法比較
為了驗證本文NBPR特征比LBP特征具有更好的表征局部信息的能力,同時證明可信度修正證據融合(CMEF)比D-S具有優越性,針對不同紋理特征和不同分類器進行了實驗,其比較結果如表2所示。表2表明本文NBPR特征和可信度修正證據融合結合可以獲得更高識別率。

Table 2 Comparison of average recognition rates of different features and different classifiers表2 不同特征和不同分類器的平均識別率比較
為了進一步驗證本文方法在表情識別率和識別時間方面的優勢,基于相同數據集,還將本文方法與其他表情識別方法進行了實驗比較。各種方法的相關參數均遵循原文默認設置,其比較結果如表3所示。

Table 3 Performance comparison of different expression recognition methods表3 不同表情識別方法的性能比較
在特征提取時間方面,由于引入多方向的NBPR計算過程,本文方法不及傳統LBP特征提取方法,但優于多尺度多方向的Gabor描述方法。在識別時間方面,SVM在訓練過程中存在計算相當耗時的問題,本文基于可信度修正的多證據決策融合不需要復雜的訓練過程來獲取模型參數,具有較短的識別時間。而在分類性能方面,由于引入了局部細節描述能力強的NBPR描述子,本文基于NBPR特征的分類性能高于基于單一特征的LBP、Gabor的表情識別方法,雖然識別率達不到基于LBP+Gabor[4]混合特征方法,但是在特征提取時間和識別時間上遠低于它。權衡總體分類時間和分類性能,本文方法通過提取顯著區域的NBPR紋理特征并采用可信度證據修正策略,不僅具有較高的識別率,還具有較少的識別時間。因此,其能夠更好地滿足人機交互等實時場景。
本文提出了一種基于區域NBPR特征及可信度修正的人臉表情識別方法。同相關算法進行比較,在保證可接受范圍內的識別率的同時,降低了識別時間,具體表現在:
(1)本文提出的NBPR特征提取方法克服了LBP只考慮鄰域點與中心點閾值關系的缺陷。NBPR是對鄰近像素點多方向的二值模式異或關系進行編碼,因此能夠提取更有鑒別能力的紋理特征。
(2)基于可信度修正的策略,通過權重體現了不同證據的重要性,一方面減少了低可信度證據對決策判斷的影響,另一方面降低了沖突證據引入的不確定性,提高了決策結果的可靠性。同時基于可信度修正的多證據決策融合不需要復雜的訓練過程來獲取模型參數,具有較短的識別時間。
然而,本文提出的表情識別方法僅實現了多區域紋理信息的決策融合,為進一步提高表情識別率,挖掘能夠表達幾何和紋理特征的描述子以及實現多源互補特征的決策級融合將是下一步研究的工作。
[1]Ouyang Yan,Sang Nong,Huang Rui.Accurate and robust facial expressions recognition by fusing multiple sparse representation based classifiers[J].Neurocomputing,2015,149 (A):71-78.
[2]Xue Yuli,Mao Xia,Guo Ye,et al.The research advance of facial expression recognition in human computer interreaction[J].Journal of Image and Graphics,2009,14(5):764-772.
[3]Li Kuan,Yin Jianping,Li Yong,et al.Local statistical analysis of Gabor coefficiens and adaptive feature extraction for face description and recognition[J].Journal of Computer Research and Development,2012,49(4):778-784.
[4]Zavaschi T H H,Britto Jr A S,Oliveira L E S,et al.Fusion of feature sets and classifiers for facial expression recognition[J]. Experts Systems withApplications,2013,40(2):646-655.
[5]Gu Wenfei,Xiang Cheng,Venkatesh Y V,et al.Facial expression recognition using radial encoding of local Gabor features and classifier synthesis[J].Pattern Recognition, 2012,45(1):80-91.
[6]Hu Min,Jiang He,Wang Xiaohua,et al.Precise local feature description for facial expression recognition[J].Journal of Image and Graphics,2014,19(11):1613-1622.
[7]Hammal Z,Couvreur L,Caplier A,et al.Facial expression classification:an approach based on the fusion of facial deformations using the transferable belief model[J].International Journal ofApproximate Reasoning,2007,46(3):542-567.
[8]Shoyaib M,Abdullah-AI-Wadud M,Ishraque S M Z,et al. Facial expression classification based on Dempster-Shafer theory of evidence[J].Belief Functions:Theory and Applications,2012,164(1):213-220.
[9]Li Shifeng,Yang Naiding,Zhang Yunyi.New approaches of distinguishing the evidence importance and allocating the evidences conflict[J].Systems Engineering—Theory& Practice,2013,33(7):1867-1872.
[10]Abellán J,Masegosa A.Requirement for total uncertainty measurements in Dempster-Shafer theory of evidence[J].International Journal of General Systems,2008,37(6):733-747.
[11]Ojala T,Pietik?inen M,M?enp?? T.Multiresolution grayscale and rotation invariant texture classification with local binary patterns[J].Pattern Analysis and Machine Intelligence,2002,24(7):971-986.
[12]Ahonen T,Hadid A,Pietik?inen M.Face description with local binary patterns:application to face recognition[J]. Transactions on Pattern Analysis and Machine Intelligence, 2006,28(12):2037-2041.
[13]Dempster A P.Upper and lower probabilities induced by a multivalued mapping[J].Journal of Annals of Mathematical Statistics,1967,38:325-339.
[14]Tan Xiaoyang,Triggs B.Enhanced local texture feature sets for face recognition under difficult lighting conditions[J]. IEEE Transactions on Image Processing,2010,19(6):1635-1650.
[15]Jousselme A L,Grenier D,Bossé é.A new distance between two bodies of evidence[J].Information Fusion,2001,2(2): 91-101.
[16]Shan Caifeng,Gong Shaogang,McOwan P W.Facial expression recognition based on local binary patterns:a comprehensive study[J].Image and Vision Computing,2009,27 (6):803-816.
[17]Liu Haibin,Zhang Guobao,Huang Yongming,et al.Multiple features extraction and coordination using gabor wavelet transformation and fisherfaces with application to facial expression recognition[C]//Proceedings of the Chinese Conference on Pattern Recognition,Chongqing,China,Oct 21-23,2010.Piscataway,USA:IEEE,2010:1-5.
附中文參考文獻:
[2]薛雨麗,毛峽,郭葉,等.人機交互中的人臉表情識別研究進展[J].中國圖象圖形學報,2009,14(5):764-772.
[3]李寬,殷建平,李永,等.基于Gabor系數分塊統計和自適應特征選擇的人臉描述與識別[J].計算機研究與發展, 2012,49(4):778-784.
[6]胡敏,江河,王曉華,等.精確局部特征描述的表情識別[J].中國圖象圖形學報,2014,19(11):1613-1622.
[9]李仕峰,楊乃丁,張云翌.區分證據重要性及分配證據沖突的新方法[J].系統工程理論與實踐,2013,33(7):1867-1872.

LIU Juan was born in 1984.She received the M.S.degree in computer software and theory from Hefei University of Technology in 2009.Now she is a lecturer at Anqing Normal University.Her research interests include affective computing and machine vision.
劉娟(1984—),女,安徽安慶人,2009年于合肥工業大學獲得碩士學位,現為安慶師范大學講師,主要研究領域為情感計算,機器視覺。

HU Min was born in 1967.She received the Ph.D.degree in computer application technology from Hefei University of Technology in 2004.Now she is a professor at Hefei University of Technology.Her research interests include affective computing,computer graphics and machine learning.
胡敏(1967—),女,安徽淮北人,2004年于合肥工業大學獲得博士學位,合肥工業大學教授,主要研究領域為情感計算,計算機圖形學,機器學習。

HUANG Zhong was born in 1981.He is a Ph.D.candidate at Hefei University of Technology,and lecturer at Anqing Normal University.His research interests include affective computing and machine learning.
黃忠(1981—),男,安徽安慶人,合肥工業大學博士研究生,安慶師范大學講師,主要研究領域為情感計算,機器學習。
Facial Expression Recognition Based on Regional NBPR Feature and Credibility Modification*
LIU Juan1+,HU Min2,HUANG Zhong1,2
1.School of Physics and Electronic Engineering,Anqing Normal University,Anqing,Anhui 246052,China
2.Anhui Province Key Laboratory of Affective Computing and Advanced Intelligent Machine,School of Computer and Information,Hefei University of Technology,Hefei 230009,China
+Corresponding author:E-mail:juanliu3039@163.com
To extract the regional features which are conducive to expression classification and achieve the decisionlevel fusion of multi-regional features,this paper proposes an expression recognition frame based on neighbor binary pattern relation(NBPR)feature descriptor and credibility modification evidence fusion(CMEF).Firstly,for the traditional local binary pattern(LBP)operator only takes the fixed center pixel as threshold,NBPR is proposed,which can encode the XOR relationship of binary pattern between adjacent pixels from multi-orientations in a local region.Then, the extracted NBPR texture features of three salient regions such as eyebrows,eyes and mouth are used to construct the initial probability assignments of evidences.Finally,in view of the deficiency of conflicting evidences combination with Dempster-Shafer(D-S)theory of evidence,a new combination method based on the evidence credibility is used to achieve the decision fusion of the three regional evidences.Experiments of the proposed method are performed onCohn-Kanade(CK),it achieves an average expression recognition rate of 94.67%and an average time of recognition of 752 ms.The experimental results show that the NBPR is conducive to texture descriptor and CMEF strategy is beneficial to decision-level fusion,so the proposed method has higher expression recognition rate.
neighbor binary pattern relation(NBPR);multi-regional feature fusion;Dempster-Shafer theory of evidence;credibility modification
10.3778/j.issn.1673-9418.1610018
A
:TP391
*The National Natural Science Foundation of China under Grant Nos.61672202,61640421(國家自然科學基金);the Open Project of Anhui Province Key Laboratory under Grant No.ACAIM160106(安徽省重點實驗室開放課題);the Natural Science Research Project of Education Department ofAnhui Province under Grant No.AQKJ2015B014(安徽省教育廳自然科學研究項目).
Received 2016-10,Accepted 2016-12.
CNKI網絡優先出版:2016-12-14,http://www.cnki.net/kcms/detail/11.5602.TP.20161214.1122.006.html
LIU Juan,HU Min,HUANG Zhong.Facial expression recognition based on regional NBPR feature and credibility modification.Journal of Frontiers of Computer Science and Technology,2017,11(3):459-467.