999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于機器學習的人工耳蝸植入術后兒童聽覺言語康復效果預測模型研究(附講解視頻

2025-06-06 00:00:00白杰李穎金欣晏美柅劉海紅
機器人外科學 2025年4期
關鍵詞:特征模型研究

中圖分類號 R764.5 文獻標識碼 A 文章編號 2096-7721(2025)04-0655-06

Prediction model based on machine learning for auditory and speech rehabilitation outcomes in children after cochlear implantation (with explanatory video)

BAI Jie,LI Ying, JIN Xin, YAN Meiling, LIU Haihong (DepartmentofOtolaryngogHeadandNeckSurgeryeingCdren’sHospital,CapitalMdicalUiversitNatioalCtefr Children'sHealth,Beijing10oo45,China)

AbstractObjective:To exploretheaplicationof machine learming techniques inpredictingauditoryand speech rehabilitation outcomesforchildrenaftercochlearimplantation.Methods:187childrenwhounderwentcochlearimplantationatBeijingChildren’s HospitalAfiliatedtoCapitalMedicalUniversityfromJanuaryO12toOctober2O24wereselectedDatafromheparents’evaluation ofauraloralpforaeofdenuestoirendcalincatosrecoltedatvicectiatiod1,,6d 36 monthsafteractivation.Machinelearningalgorithms (Support VectorMachine,RandomForest,andArtificialNeuralNetwork) wereused toconstructpredictionmodels,withfeatureselectionmethodsidentifyingkeyfactors influencingrehablitationoutcomes. Results:Theacuracyof predictionmodelsconstructedbyArtificialNeuralNetwork,RandomForest,and Support VectorMachine were 7 4 . 9 1 % 7 1 . 0 2 % ,and 6 8 . 2 0 % ,respectively.Feature selection revealed 7 significant predictors ( P lt;0.05): usage time of CI, age at activation,ucaalveofayiidclaontlaalitydiid Conclusion:Machinelearing techniquescanefectivelypredictauditoryandspeechrehabilitationoutcomesinchildrenaftercochlear implantationhichprovidesanoveltolandtheoreticalsupportforpreciseclincalassessmentandpersonalzedinteetio. KeyWords Cochlear Implant; Machine Learning;Aural and Oral Performance; Children

世界衛(wèi)生組織在《世界聽力報告》中指出,全球超過15億人存在一定程度的聽力損失,其中至少4.3億人需要專業(yè)的聽力康復進行干預。對于聽力障礙兒童而言,缺乏及時有效的干預將會對其言語發(fā)育、認知、社會心理健康、生活質量等產生負面影響[2-4]。人工耳蝸(Cochlear Implant,CI)作為一種成熟的聽力重建手段,已廣泛應用于重度聽力損失兒童5。然而,CI植入術后的康復效果受年齡、家庭環(huán)境、聽力損失程度等多種因素的影響既往CI植人術后聽覺言語康復效果研究主要使用統(tǒng)計學模型進行,難以全面探討影響因素與結果之間的復雜關系,影響個性化干預方案的實施。近年來,AI及其子領域機器學習算法在臨床廣泛應用,尤其在數據預測、特征篩選與個性化醫(yī)療方面[7-9]鑒于低齡兒童言語能力有限,父母評估兒童聽說能力表現(xiàn)(Parents’EvaluationofAural/OralPerformanceofChildren,PEACH)問卷已廣泛用于患兒聽覺語言能力評估[10-11]。本研究應用機器學習算法并結合PEACH問卷數據,建立CI植入術后兒童聽覺言語康復效果的預測模型,并篩選其關鍵影響因素,旨在為個性化臨床干預提供科學支持。

1 資料與方法

1.1一般資料選取2012年1月—2024年10月首都醫(yī)科大學附屬北京兒童醫(yī)院行CI植入術的187例兒童。納入標準: ① 符合《人工耳蝸植入工作指南2013》中的植人標準[12]; ② 在開機時及開機后1、3、6、12、24、36個月完成術后隨訪及PEACH問卷評估。排除標準:存在神經發(fā)育異常、嚴重內耳畸形及其他可能嚴重影響聽覺言語康復效果的疾病。

1.2方法

1.2.1資料收集收集患兒相關臨床指標及PEACH問卷結果,然后利用機器學習算法對問卷調查結果進行建模分析。PEACH問卷[13]是標準化量表,用于評估現(xiàn)實世界環(huán)境中在安靜和嘈雜情況下,聽力損失或聽力正常兒童的功能性聽覺能力和助聽效果。在術后1、3、6、12、24和36個月對所有患兒進行了PEACH問卷評估,并收集問卷結果。臨床相關指標包括:CI使用時間、開機月齡、性別、主要看護人教育程度、居住地、術前聽性腦干反應(AuditoryBrainstemResponse,ABR)值、術前聽性穩(wěn)態(tài)反應(Auditory Steady-state Response,ASSR)閾值、居住地及術前助聽器佩戴史等。

1.2.2數據處理

1.2.2.1數據預處理與特征篩選:采用機器學習算法能夠有效處理缺失值和剔除異常數據。在實際情況下,原始數據具有量綱差異,其數值范圍不一。因此本研究對所有連續(xù)性變量進行了標準化處理。采用Z-score標準化方法,通過計算每個特征的均值( μ )和標準差(g),將原始數據轉換為均值為0、標準差為1的標準正態(tài)分布。計算公式為 。其中,X為原始數值,X為標準化后的數值。為了彌補不同分級出現(xiàn)分布不均衡的情況,本研究采用過采樣技術,對少數類樣本進行人工少數類過采樣法(Synthetic Minority Oversampling Technique,SMOTE)處理。特征篩選是機器學習中的關鍵步驟,旨在從原始特征集合中識別并保留最具預測價值的變量,同時剔除冗余或無關特征。本研究納入的數據特征包括干預方式、性別、開機月齡、術前ABR閾值、術前ASSR閾值、內耳畸形情況、術前助聽器佩戴史、主要看護人受教育程度、居住地、CI使用時間。利用python中SelectKBest函數對其進行特征選取,最終保留了10個最重要的特征,并呈現(xiàn)其F值圖。1.2.2.2預測建模與驗證:由于PEACH問卷第1、2個問題為設備日常使用和聽覺舒適度問題,故不計入總分,其余PEACH問卷題目總分轉化為百分比( % ),最后將PEACH問卷評估等級結果作為預測模型的目標變量。本研究采用人工神經網絡(ArtificialNeuralNetwork,ANN)、隨機森林(RandomForest,RF)和支持向量機(SupportVector Machine,SVM)3種經典機器學習算法構建預測模型。ANN模型采用多層感知器結構,包含輸入層、2個隱藏層和輸出層,采用ReLU激活函數和Softmax輸出層;RF模型采用集成多個決策樹的預測結果;SVM模型則采用徑向基函數(RadialBasisFunction,RBF)作為核函數。模型驗證方法使用了五折交叉驗證,訓練集與測試集按 8 : 2 劃分。本研究的933個數據經采樣技術和數據集劃分后,最終測試集數量為283,呈現(xiàn)在混淆陣中。以上數據預處理、特征篩選、機器學習訓練、模型驗證使用Python3.0JupyterLab 進行。1.3統(tǒng)計學方法所有數據使用SPSS26.0軟件進行統(tǒng)計學分析,計數資料用例數(百分比 ) [ n ( % ) ] 表示,計量資料以均數 ± 標準差 表示,關鍵特征的顯著性采用獨立樣本 檢驗, Plt;0 . 0 5 表示差異具有統(tǒng)計學意義。預測模型性能評價采用準確率、靈敏度、特異度及混淆矩陣。

2 結果

2.1一般資料本研究共納入187例行CI植入術的兒童,在其術后1、3、6、12、24和36個月共收集PEACH問卷933份。PEACH問卷評估結果按百分比分為 0 %~2 5 % 、 2 6 %~5 0 % 、 5 1 % ~ 7 5 % 和 7 6 % ~ 1 0 0 % 四個等級,結果顯示第一級占 3 7 . 8 3 % ,第二級占2 3 . 7 9 % ,第三級占 1 5 . 9 7 % ,第四級占 2 2 . 4 0 % 。患兒相關臨床資料見表1。

2.2預測模型性能評價

2.2.1預測模型性能評價指標準確率、靈敏度和特異度是機器學習模型性能評價中的主要評價指標。

表1患兒一般資料[x±s, n ( % ) 1Table1 General information of children , n ( % ) !表2三種預測模型性能評價

其中,準確率作為總體性能度量指標,其表達式為:( T P + T N )/( T P + T N + F P + F N )。真陽性(TruePositive,TP)表示正確識別第i級樣本的數量;真陰性(TrueNegative,TN)為正確識別非i級樣本的數量;假陽性(FalsePositive,F(xiàn)P)為錯誤地將非i級樣本判為i級的數量;假陰性(FalseNegative,F(xiàn)N)為錯誤地將i級樣本判為其他級別的數量。靈敏度計算公式為:TP/( T P + F N ),衡量模型識別目標級別的能力;特異度計算公式為:TN/( T N + F P ),衡量模型排除非目標級別的能力。

本研究中ANN模型整體準確率最高,為 7 4 . 9 1 % 表現(xiàn)出較強的分類能力。該模型在PEACH問卷各個分級的靈敏度、特異度均較為均衡,尤其是在第三級的靈敏度( 7 8 . 2 6 % )和特異度( 9 0 . 1 9 % )較高,表現(xiàn)出最佳的預測效果。而RF模型整體準確率為7 1 . 0 2 % ,在PEACH問卷第四級表現(xiàn)最佳,具有較高的靈敏度( 7 9 . 4 5 % ),且在該分級特異度最高( 9 3 . 8 1 % )。然而,該模型在PEACH問卷第二級的靈敏度較低,僅為 5 2 . 7 8 % 。SVM模型整體準確率相對較低( 6 8 . 2 0 % )。該模型在PEACH問卷第一級和第四級的靈敏度相對較高,其第四級靈敏度和特異度達到 7 6 . 7 1 % 和 9 2 . 3 8 % 。綜合而言,三種模型在PEACH問卷第二級中的靈敏度均弱于其他級,在第四級的特異度優(yōu)于其他級(見表2)。

2.2.2預測模型混淆矩陣混淆矩陣是評估分類模型性能的重要工具,直觀展示預測結果與真實結果之間的對應關系。其中,對角線元素表示正確分類的樣本數量,而非對角線元素則表示被錯誤分類的樣本數量。

本研究ANN算法所構建的模型表現(xiàn)出較好的分類能力。混淆矩陣(如圖1A)數據計算結果顯示,第一級、第三級和第四級的分類準確率分別為53/69( 7 6 . 8 1 % )、54/69( 7 8 . 2 6 % )和57/73( 7 8 . 0 8 % ),而第二級的準確率為48/72( 6 6 . 6 7 % )。第二級樣本被誤分為第一級的情況較為顯著,第一級與第二級之間存在互誤現(xiàn)象。

Table2Performance evaluationof three predictionmodels

RF模型呈現(xiàn)出良好的分類表現(xiàn)。混淆矩陣(如圖1B)數據計算結果顯示,第一級、第三級和第四級的分類準確率分別為55/69( 7 9 . 7 1 % )、50/69( 7 2 . 4 6 % )和58/73( 7 9 . 4 5 % ),表現(xiàn)較為優(yōu)異;而第二級的準確率為38/72( 5 2 . 7 8 % ),相對偏低。第二級樣本存在較高的誤分率,尤其是被誤分為第一級的情況較多(19例),這表明模型在區(qū)分第一級與第二級樣本時存在一定挑戰(zhàn)。第三級樣本被誤分為第四級(8例)和第四級樣本被誤分為第三級(12例)的情況也較為突出,這顯示這兩個級別之間的邊界特征需要進一步優(yōu)化。

SVM模型展現(xiàn)出較為穩(wěn)定的分類表現(xiàn)。混淆矩陣(如圖1C)數據計算結果證實了其良好的分類能力。第一級、第二級、第三級和第四級的分類準確率分別為52/69( 7 5 . 3 6 % )、43/68( 6 3 . 2 4 % )、42/73( 5 7 . 5 3 % )和56/73( 7 6 . 7 1 % )。值得注意的是,第三級樣本的分類準確率相對較低,主要原因在于有12例第三級樣本被誤分為第四級,同時也有12例第四級樣本被誤分為第三級,表明模型在區(qū)分這兩個級別時存在一定困難。此外,第二級與第三級之間也存在互誤現(xiàn)象,各有11例樣本被錯誤分類。2.3重要特征本研究中納入了CI使用時間、干預方式、性別、開機月齡、術前ABR閾值,術前ASSR閾值、內耳畸形情況(正常發(fā)育和前庭導水管擴大)、術前助聽器佩戴史、主要看護人受教育程度、居住地共10個變量作為模型特征。其中,將開機月齡作為分類變量納入模型,將研究對象分為三組:早期植入組( lt; 1 2 月齡)、中期植入組(12\~24月齡)及晚期植入組( gt; 2 4 月齡)。經過特征篩選后具有顯著性( Plt;0 . 0 5 )的重要特征有7個,分別為CI使用時間、開機月齡分組、性別、主要看護人受教育程度、居住地、干預方式、術前助聽器使用史。其中CI使用時間、開機月齡分組的 F 值極高( Plt;0 . 0 0 1 ),這顯示其對模型具有極大的影響。特征的 F 值與 P 值如圖2。

3 討論

本文基于人工神經網絡、隨機森林和支持向量機三種機器學習方法構建了預測模型,準確率分別達到 7 4 . 9 1 % 、 7 1 . 0 2 % 、 6 8 . 2 0 % 。特征篩選過程發(fā)現(xiàn),有7個因素顯著影響CI植入術后兒童聽覺語言康復效果,包括CI使用時間、開機月齡、性別、主要看護人教育程度、居住地、干預方式、術前助聽器使用史。本研究使用PEACH問卷和機器學習算法預測CI植入術后兒童聽覺語言康復效果,為CI植入術的個性化調試提供了快速無創(chuàng)的新工具和新方法。

目前,國內外已初步探索了CI植人效果預測模型,然而其效果尚待進一步的外部驗證。有研究表明這些預測模型的結局指標存在顯著異質性,包括言語識別率、標準化問卷評分以及研究者自行構建的綜合指標等,其分類預測模型的準確度區(qū)間為 70 % ~ 9 5 % ,與本研究所獲得的準確率水平相當[13-14]。Carlson M L 等人[15]開發(fā)的機器學習模型可依據術前數據預測言語識別得分,準確率可達87%,敏感度和特異度達90%和80%。LUS等人[16]根據70例CI植入患者的術前檢查及術后2年的隨訪數據構建了預測模型,其對聽覺行為分級標準(CategoriesofAuditoryPerformance,CAP)和言語可懂度分級(Speech Intelligibility Rating,SIR)得分的預測準確率達 7 1 % 和 9 3 % 。一項以言語識別評分為主要結局指標的預測模型共納入2489例CI植入者,結果表明機器學習算法較傳統(tǒng)統(tǒng)計模型顯著提升了預測效能( Plt;0 . 0 0 1 )。多項研究通過整合神經解剖學特征或影像學數據,進一步優(yōu)化了模型的預測準確性與臨床適用性。FengG等人[的研究加入神經形態(tài)學數據作為特征,模型準確率達到7 6 % 。TanL等人[18]則利用CI植入前功能性核磁共振數據預測CI植人兩年后患兒的言語技能發(fā)展情況,二分類效果達到了 8 1 . 3 % 。WENGJ等人[]利用耳蝸解剖學參數構建內耳畸形CI植入兒童預測模型,其對CAP問卷和SIR問卷得分的準確率可達9 3 . 3 % 8 6 . 7 % 。本研究未來有望引入功能性核磁共振、腦電圖等神經影像學數據,以進一步提高預測準確度。

圖1混淆矩陣Figure1 Confusionmatrix注:A.人工神經網絡模型;B.隨機森林模型;C.支持向量機模型圖2重要特征(按 F 值排序)Figure2Important featuresarrangedby F-value fromhigh tolow

影響兒童CI植入效果的因素眾多,植人年齡、特殊疾病(如聽神經病、蝸神經發(fā)育不良)、康復訓練情況、術前聽覺語言能力等是研究關注的重點[20]。目前國內外研究[4,20]已經證實,植入年齡和CI使用時間對術后聽覺語言能力評估有顯著影響。多數研究顯示,CI植入年齡越小,康復效果越好。早期植人被認為是促進患兒詞匯表達、言語發(fā)展的關鍵因素[21]。本研究中居住地(鄉(xiāng)村、城鎮(zhèn)、城市)和主要看護人受教育程度也是影響CI植入術后患兒聽覺語言能力的顯著因素,與ChingTY等人的研究類似。值得注意的是,本研究發(fā)現(xiàn)性別是顯著的影響因素,而冀飛等人[22]的研究則認為性別非顯著影響因素,這可能是因為機器學習的數據驅動特性,其不預先對數據做出假設,但能從數據中挖掘出潛在規(guī)律。文中術前助聽器使用史( 1 4 . 4 4 % )和雙模式植入( 4 . 8 1 % )的患兒比例偏低,可能影響了特定特征在模型中的權重估計精確度,從而限制了特征篩選的全面性和穩(wěn)健性。除在術后康復效果預測外,AI在CI領域方面有著廣闊應用前景。AI已應用于CI編碼策略中,提高了CI在復雜聲學環(huán)境中的性能表現(xiàn)[23-24]。CI作為日常使用的設備,可產生大量的個體用戶數據,持續(xù)收集用戶行為、偏好等個體數據用于AI分析,可進一步優(yōu)化CI使用者的日常體驗。此外,AI還可應用于CI調機,有研究[25]表明,與單獨手動調試相比,利用AI作為輔助工具可改善聽力效果。

綜上所述,CI使用時間、開機月齡、性別、主要看護人受教育程度、居住地等對術后聽覺語言能力評估有顯著影響。然而,本研究尚未開展嚴格的外部驗證,模型在不同人群和醫(yī)療環(huán)境中的泛化能力有待進一步評估。未來研究應擴大樣本量,并通過多中心外部驗證強化模型的穩(wěn)健性和可信度,以期為臨床決策提供更為可靠的輔助工具。

利益沖突聲明:本文不存在任何利益沖突。

作者貢獻聲明:白杰負責數據分析,繪制圖表,設計論文框架,起草論文;白杰、李穎、金欣、晏美柅、劉海紅均參與該項目具體操作及研究過程的實施;李穎、金欣、晏美根負責數據收集與整理;劉海紅負責擬定寫作思路,指導撰寫文章并最后定稿。

參考文獻

[1] WorldHealth Organization.World reportonhearing[R/OL].Geneva: WHO,2021[2021-04-30]. https: //www.who.int/publications/i/item/worldreport-on-hearing.

[2]OlusanyaBO,NeumannKJ,SaundersJE.The global burden of disabling hearingimpairment:acall toaction[J].Bull World Health Organ,2014, 92(5): 367-373.

[3]Nordvik O,Laugen Heggdal P O,Br?nnstromJ, et al. Generic quality of life in persons with hearing loss: a systematic literature review[J]. BMC Ear NoseThroatDisord,2018.DOI:10.1186/s12901-018-0051-6.

[4]Shield B.Evaluation of the social and economic costs of hearing impairment[R/OL]. A report for Hear,2006[2021-04-30]. https: //www. hear-it.org/de/multimedia/Hear_It_Report_October_2Oo6.pdf.

[5]Carlyon RP, Goehring T. Cochlear implant research and development in thetwenty-first century:acritical update[J].Journal of the Association for Research in Otolaryngology:JARO,2021,22(5): 481-508.

[6]Cosetti K,Waltzman SB.Outcomes incochlear implantation:variables affectingperformance inadultsand children[J].Otolaryngologic Clinics of North America,2012,45(1):155-171.

[7] Frosolini A,F(xiàn)ranzI,CaragliV,etal.Artificial intelligenceinaudiology: a scoping review of current applicationsand future directions[J]. Sensors (Basel),2024,24(22): 7126.

[8] BeamAL,DrazenJM,KohaneIS,etal.Artificial intelligence inmedicine[J] TheNewEngland JournalofMedicine,2023,388(13):1220-1221.

[9] 魏興梅,薛書錦,高振橙,等.人工智能在人工耳蝸植入中的應用[J]. 首都醫(yī)科大學學報,2024,45(6):931-937.

[10]郭倩倩,陳雪清,孟超,等.常用聽覺能力評估問卷臨床應用比較[J]. 中國耳鼻咽喉頭頸外科,2018,25(9):485-489.

[11]ChingTY,HillM.TheParents’EvaluationofAural/OralPerformance ofChildren(PEACH) scale:normativedata[J].Journalof theAmerican Academy of Audiology,2007,18(3):220-235.

[12]中華耳鼻咽喉頭頸外科雜志編輯委員會,中華醫(yī)學會耳鼻咽喉頭 頸外科學分會,中國殘疾人康復協(xié)會聽力語言康復專業(yè)委員會.人 工耳蝸植入工作指南(2013)[J].中華耳鼻咽喉頭頸外科雜志,2014, 49(2): 89-95.

(下轉666頁)

猜你喜歡
特征模型研究
一半模型
FMS與YBT相關性的實證研究
遼代千人邑研究述論
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
視錯覺在平面設計中的應用與研究
科技傳播(2019年22期)2020-01-14 03:06:54
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
EMA伺服控制系統(tǒng)研究
抓住特征巧觀察
主站蜘蛛池模板: 亚洲精品国偷自产在线91正片| 久久女人网| 91国内外精品自在线播放| 无码中文字幕乱码免费2| 欧美国产精品拍自| 久久精品这里只有国产中文精品| 亚洲欧美日韩另类| 亚洲国产精品国自产拍A| 综合亚洲网| 中文字幕第1页在线播| av色爱 天堂网| 国产男女免费完整版视频| 亚洲香蕉久久| 丁香六月综合网| 精品福利国产| 亚洲一级毛片免费观看| 国产玖玖玖精品视频| 色偷偷一区二区三区| 国产在线视频二区| 久久精品嫩草研究院| 喷潮白浆直流在线播放| 欧美中文字幕一区| 国产精品午夜福利麻豆| 青青久久91| 国产SUV精品一区二区6| 亚洲系列中文字幕一区二区| 国产乱肥老妇精品视频| 国产一级α片| 亚洲精品无码AⅤ片青青在线观看| 成人毛片免费在线观看| 国产成人免费视频精品一区二区| 在线看片中文字幕| 国产尤物jk自慰制服喷水| 久久女人网| 亚洲va欧美va国产综合下载| 亚洲AV成人一区国产精品| 欧美五月婷婷| 国产女人18水真多毛片18精品 | 亚洲第一黄片大全| 欧美怡红院视频一区二区三区| 欧美一级夜夜爽| 欧洲一区二区三区无码| 99热国产在线精品99| 精品99在线观看| 看国产一级毛片| 日韩 欧美 小说 综合网 另类| 亚洲一级色| 2020久久国产综合精品swag| 亚洲成年网站在线观看| 亚洲国产综合精品中文第一| 嫩草国产在线| 久久久91人妻无码精品蜜桃HD| 国产玖玖视频| 国产精品久久久久久久久久久久| 天堂岛国av无码免费无禁网站| 五月天福利视频| 制服丝袜一区| 一本久道热中字伊人| 真人高潮娇喘嗯啊在线观看| 二级特黄绝大片免费视频大片| 在线看片中文字幕| 久久精品66| 国产情侣一区| 亚洲视频免费在线| 久久精品娱乐亚洲领先| 欧美成人一区午夜福利在线| 精品久久高清| 国产H片无码不卡在线视频| 亚洲—日韩aV在线| 国产第三区| 精品一区二区无码av| 国产探花在线视频| 久青草网站| 婷婷伊人久久| 91成人精品视频| 国产一级毛片yw| 人人爽人人爽人人片| 久久国产香蕉| 亚洲欧洲日产国产无码AV| 免费aa毛片| 一级毛片免费观看久| 操国产美女|