賴軍,王博,付全,吳壯志
(1. 總后軍需裝備研究所,北京,100010;2. 首都體育學院 研究生部,北京,100191;3. 北京航空航天大學 計算機學院,北京,100191)
人體測量學是人機工程一個十分重要的研究領域,它通過測量人體各部位的尺寸來確定個體之間和群體之間在人體尺寸上的差異,以研究人的形態(tài)特征,從而為服裝設計、體育運動技術診斷與分析、人機環(huán)境系統(tǒng)工程設計等提供人體測量數(shù)據(jù)[1],在服裝、體育、國防等領域有著廣泛應用。人體測量技術在近幾十年的發(fā)展中,大致經歷了接觸式到非接觸式、二維到三維的發(fā)展過程。傳統(tǒng)手工測量主要采用軟尺、測高計、測距計和滑動計等工具對人體進行接觸式測量,雖然能獲得人體尺寸,卻不能滿足快速、準確和批量測量的需要。非接觸自動測量是現(xiàn)代化人體測量技術的發(fā)展趨勢,它以現(xiàn)代光學為基礎,結合圖像處理和計算機視覺等技術,準確、高效、客觀地獲取人體參數(shù)數(shù)據(jù)。非接觸測量又分為基于圖像的二維非接觸測量[2-3]和基于激光掃描或結構光投影的三維非接觸測量2 類,前者典型的產品有加拿大的Boss-21 系統(tǒng),后者則有德國HumanSolution公司開發(fā)的Vitus三維人體掃描儀。從點云模型中提取人體尺寸的難點在于如何魯棒、準確地提供識別人體測點。國內外學者提出了多種在點云模型提取測點的方法,目前主要有模板網格變形方法[4-7]、判別函數(shù)擬合法[4-7]和幾何形狀分析法[4-7]這3 類方法。模板網格變形方法是計算機圖形學中一種通用的處理方法,Blanz 等[4]進行了基于模板網格處理方面的開創(chuàng)性工作,主要用于人臉建模。受Blanz 等[4]的啟發(fā),Allen 等[5]將模板網格模型變形配準的方法用于人體點云模型,其變形過程依賴于人體標志點,這些標志點在人體數(shù)據(jù)掃描之前手工標定。其變形配準方法采用的是能量優(yōu)化的方法,需要迭代求解,收斂速度慢。Anguelov 等[6]提出了一種不需要提前指定標記點的方法來進行變形配準,采用馬爾科夫網絡的方法首先得到目標點云模型和模板網格模型相對應的200 多個點,然后利用這些點將模板模型變形到目標點云模型上。但是,Anguelov 等[6]提出的對應點計算算法仍然需要初始化4~10 個標記點,需要人工標定,并且難以保證對應結果的準確性。Azouz等[7]改進了Anguelov 等[6]的算法,基于一組標記了測點的人體模型,結合機器學習方法和概率圖模型來進行測點識別。判別函數(shù)擬合法通過為每個測點建立一個具體的判別函數(shù)來識別測點,由Dekker 等[8]首先提出,Leong 等[9]把人體特征用邏輯數(shù)學描述出來,利用圖像處理和計算幾何技術來識別人體點云中的測點。判別函數(shù)擬合法的缺點是函數(shù)擬合的過程十分復雜且耗時,而且在函數(shù)擬合過程中會導致特征丟失。幾何形狀分析法也是人體點云特征提取的主要方法之一。陸國棟等[10]將點云模型進行分割,采用輪廓分析法、最小周長法、灰度檢測法等來提取測點和特征線并計算人體尺寸;陳國安等[11]在進行幾何形狀分析的基礎上,運用模糊規(guī)則來自動提取測點和尺寸。上述方法的缺點是并沒有從三維人體測量方法的角度來對算法進行驗證。2005 年ISO 發(fā)布了一個關于三維人體測量方法的標準ISO 20685[12],國內也對此標準進行了修訂,發(fā)布了相應的兼容標準 GB/T 23698—2009[13],這2 項標準對三維掃描人體測量方法和驗證進行了詳細規(guī)定。陳國安等[11]雖然根據(jù)標準[13]對其方法進行了驗證,但樣本數(shù)只有8 個,并沒有達到標準規(guī)定的40 個以上。針對以上問題,本文作者以體育運動技術診斷與分析、服裝套號[14]需求為背景,基于三維掃描儀輸出的人體點云數(shù)據(jù),研究并實現(xiàn)人體尺寸自動提取方法,并根據(jù)GB/T 23698—2009 的要求對方法進行驗證。
基于人體點云模型數(shù)據(jù),依據(jù)GB/T 16160—2008(《服裝用人體測量的部位與方法》[15]),共提取人體2 種姿勢下的45 個人體尺寸測量項目,完成三維掃描人體尺寸的測量,并通過GB/T 23698—2009[13]對方法進行驗證。
本文采用的2 種測量姿勢分別稱為立姿I 和立姿II,如圖1 所示。立姿I 要求被測者雙腳自然張開站立,雙臂張開,抬頭挺胸,兩眼平視前方;立姿II 要求被測者雙腳并攏、雙臂下垂,兩手緊貼褲縫,抬頭挺胸,兩眼平視前方。立姿I 上體尺寸測量項目為40 個,立姿II 上的人體尺寸測量為5 個。

圖1 測量姿勢Fig.1 Anthropometric postures
人體測量項目是指在相應的測量姿勢上,根據(jù)人體測點給出的人體水平尺寸(包括圍度尺寸)、垂直尺寸或其他尺寸,例如身高、頭圍,腰圍等。人體測點是用于表示測量位置的界點,它通常為肌肉下方的骨骼突出部位或者關節(jié)連接處[15],例如頭頂點、乳頭點、枕后點等。測量項目一般由1 個或多個測點進行定義,例如“身高”通過立姿II 進行測量,相關的測點為“頭頂點”和“地面點”。測點和測量項目的定義參見GB/T 16160—2008[15]。身高和頭圍這2 個測量參數(shù)的示意圖及相關測點如圖2 所示。

圖2 測量項目與測點示意圖Fig.2 Schematic diagram of measurement items and landmarks
為了確切地定位測點和準確地完成測量項目,人體測量學規(guī)定統(tǒng)一的標準姿勢和描述術語。測量基準面和標準測量坐標系如圖3 所示,用于人體測量的3個基準面由3 個互相垂直的軸(鉛垂軸、縱軸和橫軸)來決定。通過鉛垂軸和橫軸的平面稱為冠狀面,它將人體分為前、后2 部分;通過橫軸和縱軸的平面稱為水平面,它將人體分為上、下2 部分;通過鉛垂軸和縱軸的所有平面稱為矢狀面,它將人體分為左、右2部分。特別地,正中矢狀面將人體分為左、右對稱的2 部分。
人體標準測量坐標系定義如下:以人體自然站立時的中心點為坐標原點,豎直向上方向為Y 軸正向(鉛垂軸),人體正前方為Z 軸正向(縱軸),人體的正左方為X 軸正向(橫軸),XYZ 坐標系符合右手定則。
車載掃描儀如圖4 所示。本文所用的人體掃描儀為項目組自主研發(fā)的車載式三維激光人體掃描儀,掃描的長×寬×高為1 200 mm×1 200 mm×2 000 mm,掃描精度為平均圍度誤差小于1 mm,掃描時間小于10 s。掃描儀輸出為人體點云數(shù)據(jù)(point clouds),該數(shù)據(jù)已經轉換到人體標準測量坐標系下,并且呈層狀結構。每一層為1 條掃描線,由1 個或多個環(huán)狀的點集組成。每一層掃描線上的點的y 坐標都相等,相鄰2層掃描線在y 軸方向的間隔為2 mm。

圖3 測量基準面和標準測量坐標系Fig.3 Body planes and coordinate system of standard measurement

圖4 車載掃描儀Fig.4 Car scanner of human body
本文采用的尺寸提取方法流程如圖5 所示。首先讀入人體點云數(shù)據(jù),對其進行預處理,去除噪聲點并建立標準測量坐標系;其次,將人體分割為頭頸、軀干、左臂、右臂、左腿和右腿共6 部分;再次,對人體每一部分上包含的測點進行自動識別。若對識別結果不滿意,則可交互式移動測點;最后計算人體各測量項目的值并輸出測量結果。

圖5 尺寸提取流程圖Fig.5 Flow chart of body size extraction
2.2.1 坐標變換
不同三維人體掃描儀都定義了自己的坐標系統(tǒng),因此,測點識別前首先需要將點云數(shù)據(jù)轉換到人體標準測量坐標系下。建立標準測量坐標系的具體算法如下:對三維點云數(shù)據(jù)進行主成分分析(principal component analysis,PCA)[16],則標準測量坐標系的原點為三維點云的幾何中心,Y 軸為PCA 第一主軸,X軸為第二主軸,Z 軸為PCA 第三主軸,XYZ 的關系滿足右手坐標系的要求。
2.2.2 點云去噪
由于三維激光掃描儀在掃描人體過程中受掃描設備物理特性、掃描環(huán)境、光照以及被測者的測量方式、自身因素等影響,所獲取的人體點云數(shù)據(jù)不可避免地包含噪聲。如果不進行去噪,會影響測量項目的精度,故本文在進行測點識別之前先對點云進行去噪。
一般而言,掃描儀輸出的三維點云數(shù)據(jù)中不存在飛點,但是,多片點云數(shù)據(jù)在配準時可能存在重疊不嚴實的情況。本文采用移動最小二乘法對點云數(shù)據(jù)進行高斯濾波,具體算法如下:首先對點云數(shù)據(jù)建立kd-tree;然后對每個點,在kd-tree 上查找其k 個最鄰近點(k=20),該點的最終位置為k 個最鄰近點的加權平均值。如果一次濾波效果不明顯,上述過程可重復多次。
2.2.3 模型分割
人體尺寸測量的關鍵問題是在點云數(shù)據(jù)上正確地識別測點。由于測點分布在身體的各個部分,識別前進行模型分割,可以將整體點云模型上的測點識別問題轉換為局部測點識別問題。這不僅使得測點的識別更加快速和魯棒,而且對一些無明顯特征的測點進行模型分割后可更加準確地尋找該點在其所在的人體部分上的比例,從而可以借助比例關系獲得較準確的初始點。
一般而言,模型分割包括手動分割和自動分割2類方法。立姿II 上測量項目較少,測點的識別比較簡單,不需要進行模型分割。而立姿I 上的測點和測量項目較多,在識別前進行分割能夠加快識別速度。本文改進了Wang 等[17]給出的基于模糊邏輯的人體分割算法,通過找到立姿I 上各部分的分界點(頸部分割點腋窩點和會陰點)來完成立姿I 的自動分割,將其為頭頸、軀干、左臂、右臂、左腿和右腿共6 部分。分界點的識別算法如下。
(1) 左/右腋窩前點和左/右腋窩后點。腋窩點及其附近的掃描線見圖6。從圖6 可見:從頭頂向下遍歷層狀掃描線,當掃描線上的環(huán)數(shù)首次由1 變?yōu)? 時,腋窩前點和腋窩后點所在的掃描線被定位。而這4 點位于其所在的層狀掃描線上的拐點部分,在拐點處曲率變化較大??紤]到人體體型帶來的影響,本文在腋窩點所在的掃描線上取出曲率最大的6 個頂點為左腋窩前點、左腋窩后點、右腋窩前點和右腋窩后點的候選點。對這6 個點依照x 坐標值排序,則腋窩前點和腋窩后點必定是x 坐標值較大和較小的4 個點;然后再根據(jù)z 坐標確定出每個測點與其候選點的對應關系。

圖6 腋窩點及其附近的掃描線Fig.6 Armpits and scan lines nearby
(2) 頸部分割點。頸部分割點位于人體大致7/8高度的位置[17]。本文搜索了高度在6h/7 和8h/9 之間的掃描線(其中h 為人的身高),取這一區(qū)間內包圍盒最小的掃描線的高度作為頸部分割點的高度。
(3) 會陰點。在立姿I 下,會陰點是位于人體正中矢狀面上最下端的點。在標準測量坐標系下,用x=0的平面與人體點云數(shù)據(jù)相截所得的截面環(huán)中y 坐標最小的點即為會陰點。
分界點識別完成后,遍歷所有的掃描線,根據(jù)掃描線高度以及環(huán)的個數(shù),將每根掃描線中的點歸屬到人體對應的部分以完成立姿I 的分割。
(1) 頸部分割點以上的掃描線上的點都被劃分為頭部。
(2) 對會陰點之下掃描線,若只包含2 個環(huán),則這2 個環(huán)上的點分別屬于左、右腿;若包含3 個環(huán),則中心離x=0 平面最遠的1 個環(huán)上的點屬于左臂或右臂(x<0 則屬于右臂,否則屬于左臂);若包含4 個環(huán),則按x坐標升序排序后的4個環(huán)上的點分別屬于右臂、右腿、左腿和左臂。
(3) 對會陰點以上腋窩點以下的掃描線,若包含3個環(huán),則按x 坐標升序排序后的3 個環(huán)上的點分別屬于右臂、軀干和左臂;若包含2 個環(huán),則中心離x=0平面較遠的1 個環(huán)上的點屬于左臂或右臂(x<0 則屬于右臂,否則屬于左臂)。
應用本文提出的分割算法,對立姿I 進行分割后的結果如圖7 所示。其中,圖7(a)中的圓點是用于人體分割的分界點,頸部的線為分界點所在的掃描線;圖7 (b)所示為分割結果。

圖7 用于分割的分界點及模型分割結果Fig.7 Key points and results of human body segmentation
人體測量所需的測點分布在人體的各個部位,很難對所有測點找到統(tǒng)一的識別算法。根據(jù)測點在識別算法上的差異,將測點劃分為3 類:最值點、局部極限點和一般測點。最值點一般是在某個坐標軸上具有最大或最小值的測點;而局部極限點通常是位于給定輪廓線上的凸點、凹點或者突變點;一般測點是幾何特征不明顯且不屬于前2 類的測點。以下分別介紹這3 類測點的識別方法。
2.4.1 最值點
最值點的識別算法分2 步:首先根據(jù)測點定義判斷出該點所在的人體部分,然后在該部分上搜索x(或y 或z)坐標達到最大值或最小值時對應的點即可。例如,頭頂點是人體頭部上y 坐標最大的點,左手中指指尖點是人體左臂上y 坐標最小的點。
2.4.2 局部極限點
局部極限點又分為2 類:第I 類是位于基準線上的局部極限點;第II 類是位于截面輪廓線上的局部極限點。前者通過定位基準線來識別,而后者采用輪廓分析的方法進行識別。
基準線是對人體圍度測量項目進行測量時的基礎線。本文定義的基準線如表1 所示。

表1 基準線名稱及其定義Table 1 Names of base lines and their definitions
(1) 第I 類局部極限點。第I 類局部極限點識別的關鍵在于獲取測點所在的基準線。定位基準線的方法如下:首先借助人體比例關系,界定基準線所在的高度區(qū)間;然后遍歷區(qū)間內的所有掃描線,計算每一條掃描線上的相應指標(掃描線周長、橫向寬度或者前后寬度),最后根據(jù)指標值確定對應的基準線。
在定位測點所在的基準線之后,測點的識別方法如下:首先獲取測點的候選點集,即由基準線上的最前點、最后點,基準線與冠狀面的交點以及基準線與正中矢狀面的交點組成的集合;然后根據(jù)測點的語義特征從候選集中選擇對應點。
以腰圍前點和腰圍后點為例予以說明。首先根據(jù)腰圍線的高度所在的人體比例,獲得它所在的高度區(qū)間為[0.53h,0.63h];然后,在軀干上遍歷該區(qū)間內每條掃描線,計算掃描線在x 方向的橫向寬度w, w 取最小時的掃描線即為腰圍線;最后計算腰圍線與正中矢狀面的交點即為腰圍前點和腰圍后點。局部極值點和一般點的識別結果如圖8 所示,其中腰圍前點的識別結果如圖8(a)所示,黑色線為腰圍線,線上的圓點即為腰圍前點。

圖8 局部極值點和一般點的識別結果Fig.8 Recognition results of local maximum and general landmarks
(2) 第II 類局部極限點。第II 類局部極限點通常是截面輪廓線上的凹點、凸點或者突變點。對這類測點的識別方法如下:首先計算測點所在的截面輪廓線(截面一般與矢狀面、冠狀面或水平面三者之一平行);然后使用一階Sobel 算子[9]分析截面輪廓線,識別出該曲線上的凹點、凸點和突變點,一般此類點就是待識別的測點。
一階Sobel算子通常用于獲得輪廓線的一階導數(shù),由它形成的曲線稱為Sobel 曲線。Sobel 曲線上的過零點對應輪廓線上的凸點或凹點,由負值過渡到正值的過零點對應凸點,由正值過渡到負值的過零點對應凹點;Sobel 曲線上的最大值點或最小值點對應輪廓線上的突變點。
以頭部輪廓線上的鼻梁點、鼻尖點和頦下點為例:此3 點位于以正中矢狀面作為截面與頭部相交的輪廓線上。人體頭部輪廓對應的Sobel 曲線如圖9 所示。圖9 中,縱軸表示輪廓線上點在Y 軸方向的距離(向下為正,mm),橫軸表示輪廓線上點在Z 坐標值的一階導數(shù)(單位為1 的數(shù))。從圖9 可見,鼻梁點是凹點,鼻尖點是凸點,頦下點是突變點。在人體模型上,鼻梁點、鼻尖點和頦下點的識別結果如圖8(b)所示。

圖9 人體頭部輪廓對應的Sobel 曲線Fig.9 Sobel curves corresponded to head silhouette curve
2.4.3 一般測點
一般測點通常沒有明顯的特征,對于這類測點的識別方法有2 種:一種是直接根據(jù)測點在人體高度上的比例關系獲得測點所在的掃描線,再根據(jù)測點在掃描線上的位置進行識別;另一種是根據(jù)待識別測點與它周圍已識別出來的測點之間的位置關系來進行識別。
以右大腿圍前點的識別為例:右大腿圍掃描線位于會陰點下1 cm 處的掃描線上,右大腿圍前點為該掃描線的最前點(z 最大點)。識別的結果如圖8(c)所示,黑色線為右大腿圍所在的掃描線,圓點即為識別的右大腿圍前點。
人體尺寸測量的最終目的是根據(jù)自動識別的測點獲取人體各測量項目的值,從而方便后續(xù)的運動技術診斷與分析、服裝套號等應用。本文將測量項的計算過程分為2 步:首先獲得測量項的相關測點位置信息;其次,根據(jù)不同測量項目的定義,使用不同的方法進行計算。
根據(jù)GB/T 16160—2008[15]給出測量項目的定義,本文將測量項目的計算方法劃分為如下4 類。
(1) 寬度、高度、厚度。已知測量項目的相關測點為P1(x1,y1,z1)和P2(x2,y2,z2),則高度h =|y2-y1|,寬度w =| x2-x1|,厚度t =| z2-z1|。

(3) 圍長。圍長的計算方法通常是用過相關測點的截面與人體模型求交,得到截面與模型的一系列交點,將平面點集上的最小凸包的周長作為圍長。本文采用Graham 算法求解凸包[18]。
(4) 弧長。弧長的計算方法如下:用過相關測點的截面與人體模型求交,得到截面與模型的一系列交點集合S;根據(jù)弧長的定義,剔除點集S 中與弧長無關的部分;對S 中的點以某種準則進行排序,并將其擬合為B 樣條曲線,將其長度作為弧長。
尺寸提取流程中主要步驟的算法效率分析如下。
(1) 數(shù)據(jù)預處理階段。PCA 分析的主要任務是根據(jù)點云數(shù)據(jù)構造1 個3×3 的矩陣,并求矩陣的特征值和特征向量,算法效率為O(n)(其中,n 為點云模型中點的數(shù)目)。點云去噪時構建kd-tree 的效率為O(nlgn)。
(2) 模型分割階段。分界點識別時需要對點云進行遍歷,效率為O(n)。識別分界點后,遍歷所有的掃描線上的點,將其進行分類的效率為O(n)。
(3) 測點識別階段。由于需要對點進行排序,計算效率為O(nlgn)。
(4) 尺寸計算階段。由于涉及截面求交,需要對點云進行排序,計算效率為O(nlgn)。因此,算法總的效率為O(nlgn)。
根據(jù)文獻[13]規(guī)定,三維掃描測量方法得到的人體尺寸測量值,應該與傳統(tǒng)手工測量值彼此能夠互相替代,這樣才不會影響以這些數(shù)據(jù)為基礎的其他標準的有效性。因此,本文采用傳統(tǒng)手工測量值作為準確值對本文的方法進行驗證。驗證時,采用的樣本數(shù)為40(文獻[13]建議測試樣本量至少為40),所有樣本都為男性;選取對服裝有代表性的身高、胸圍、腰圍、臀圍、頸圍和肩寬共6 個測量項目進行驗證。
表2 所示為其中10 個樣本的自動和手工測量結果,其中“最大誤差”和“平均誤差”是根據(jù)40 個樣本統(tǒng)計得到的,最后1 行給出了由文獻[13]規(guī)定的測量項目的平均誤差最大值。每個測量項目有2 列數(shù)據(jù),其中“自動”列指用本文方法自動提取的尺寸,“手工”列指作為準確值的手工測量值。從表2 可知:6 個測量項目的平均誤差都遠小于文獻[13]中規(guī)定的平均誤差最大值。例如40 個樣本的“身高”最大誤差為1.8 mm,平均誤差為0.5 mm,遠小于文獻[13]中規(guī)定的平均誤差最大值4 mm。驗證結果表明,本文給出的測點識別算法是有效的,根據(jù)測點計算計算出來的人體尺寸滿足文獻[13]的要求。

表2 6 個測量項目的統(tǒng)計結果(樣本數(shù)為40 個)Table 2 Statistical results of six body size measurement items mm
(1) 基于人體測點識別和尺寸自動提取一直是三維人體非接觸測量的難點問題,提出一種基于三維點云數(shù)據(jù)的人體尺寸自動提取方法,并根據(jù)GB/T 23698—2009 對其進行驗證。
(2) 本文提出的測點識別和尺寸計算方法是有效的,在準確率上滿足GB/T 23698—2009 的要求,為后續(xù)的體育運動技術診斷與分析、服裝設計和套號等打下了良好基礎。
(3) 盡管本文給出的測點識別算法是有效的,但基于模板變形的特征識別方法已經引起越來越多的學者的關注,下一步工作可將模板變形方法應用于人體測點識別。
[1] 席煥久, 陳昭. 人體測量方法[M]. 2 版. 北京: 科學出版社,2010: 1-20.XI Huanjiu, CHEN Zhao. Anthropometric methods[M]. 2nd ed.Beijing: Science Press, 2010: 1-20.
[2] 吳壯志, 廖爽爽, 聶磊, 等. 基于圖像的人體參數(shù)測量系統(tǒng)的設計與實現(xiàn)[J]. 湖南大學學報(自然科學版), 2010, 37(9):88-92.WU Zhuangzhi, LIAO Shuangshuang, NIE Lei, et al. Design and implementation of the human size measurement system based on images[J]. Journal of Hunan University(Nature Sciences), 2010,37(9): 88-92.
[3] Lin Y L, Wang M J. Automated body feature extraction from 2D images[J]. Expert Systems with Applications, 2011, 38(3):2585-2591.
[4] Blanz V, Vetter T. A morphable model for the synthesis of 3d faces[C]//Proceedings of the 26th Annual Conference on Computer Graphics and Interactive Techniques.New York: ACM Press, 1999: 187-194.
[5] Allen B, Curless P, PopoviC Z. The space of human body shapes:reconstruction and paramet erization from range scans[C]//Computer Graphics Proceedings, Annual Conference Series, ACM SIGGRAPH. New York: ACM Press, 2003:587-594.
[6] Anguelov D, Srinivasan P, Koller P, et al. Scape: shape completion and animation of people[C]//Computer Graphics Proceedings, Annual Conference Series, ACM SIGGRAPH.New York: ACM Press, 2005: 408-416.
[7] Azouz Z B, Shu C, Mantel A. Automatic locating of anthropometric landmarks on 3D human models[C]//Third International Symposium on 3D Data Processing, Visualization and Transmission (3DPVT 2006). Washington: IEEE Computer Society Press, 2006: 750-757.
[8] Dekker L, Douros I, Buston B F, et al. Building symbolic information for 3D human body modeling from range data[C]//Proceedings of the 2nd International Conference on 3D Digital and Modeling. Los Alamitos: IEEE Computer Society Press, 1999: 388-397.
[9] Leong I F, Fang J J, Tasi M J. Automatic body feature extraction from a markerless scanned human body[J]. Computer-Aided Design, 2007, 39: 568-582.
[10] 陸國棟, 徐鵬, 徐文鵬. 人體掃描模型的特征提取方法研究[J]. 工程設計學報, 2005, 12(4): 247-251.LU Guodong, XU Peng, XU Wenpeng. Research on feature extraction method of scanned body model[J]. Journal of Engineering Design, 2005, 12(4): 247-251.
[11] 陳國安, 劉飛, 李麗. 采用模糊規(guī)則的人體點云特征尺寸識別與提取[J]. 計算機輔助設計與圖形學學報, 2011, 23(8):1394-1400.CHEN Guoan, LIU Fei, LI Li. Recognition and extraction of human body’s feature dimensions using fuzzy rules[J]. Journal of Computer-Aided Design & Computer Graphics, 2011, 23(8):1394-1400.
[12] ISO 20685, 3-D scanning methodologies for internationally compatible antoropometric databases[S].
[13] GB/T 23698—2009, 三維掃描人體測量方法的一般要求[S].GB/T 23698—2009, General requirements for establishing anthropometric databases[S].
[14] GJB 608A—2008, 中國人民解放軍軍服號型[S].GJB 608A—2008, The sizes of military of PLA[S].
[15] GB/T 16160—2008, 服裝用人體測量的部位與方法[S].GB/T 16160—2008, Location and method of anthropometric surveys for garments[S].
[16] Ju X, Werghi N, Siebert J P. Automatic segmentation of 3D human body scans[C]//Proceeding International Conference on Computer Graphics and Imagine. Las Vegas, USA, 2000:239-244.
[17] Wang C C L, Chang T K K, Yuen M M F. From laser-scanned data to feature human models: A system based on fuzzy logic concept[J]. Computer-Aided Design, 2003, 135(3): 241-253.
[18] Andrew A M. Another efficient algorithm for convex hulls in two dimensions[J]. Information Processing Letter, 1979, 9(5):216-219.