李夢薇,徐 峰,晏 奇,李 芳,劉鑫怡
(1.中國科學技術信息研究所,北京 100038;2.北京曠視科技有限公司,北京 100190 )
隨著本輪人口紅利的逐漸消失,我國老齡化程度加深,空巢青年數量增加,護幼與未成年人陪護等壓力日益增大。人工智能技術在服務機器人領域的應用將大大緩解人類的勞動壓力、生活成本,彌補服務業人力的不足,提高社會生產力與生活舒適程度,是應對人口老齡化、空巢青年等社會問題的有力舉措。國際機器人聯合會 (IFR)報告認為,未來幾年服務機器人將出現強勁增長。然而,隨著人類對服務機器人的需求日益旺盛,服務機器人對人類社會的影響也日趨深入,產生的各種問題紛至沓來,對人類主體性威脅的恐慌、對隱私泄露的擔憂等,使得服務機器人的人工智能倫理風險熱議不斷。以歐盟為代表的國家、經濟體與國際組織紛紛制定出臺人工智能倫理風險相關的政策法律、標準規范,力圖通過倫理規制確保人工智能的健康發展,為人工智能的未來應用掃清障礙。2018年10月,習近平總書記在中央政治局集體學習中強調,要加強人工智能發展的潛在風險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控。要整合多學科力量,加強人工智能相關法律、倫理、社會問題研究,建立健全保障人工智能健康發展的法律法規、制度體系、倫理道德。探討服務機器人的人工智能倫理風險點,并采用合適的評價方法對其風險大小進行評估,是亟待解決的問題。
本文聚焦服務機器人這一人工智能的重要應用領域,通過識別服務機器人領域的人工智能倫理風險、分析風險源,梳理風險評價方法,并構建一套通用的人工智能倫理風險評估方法。此外,本文將該評估方法落實到實踐中,對服務機器人領域的五大人工智能倫理風險及其風險源進行評價,驗證了該方法的可操作性。
服務機器人是人工智能技術的重要應用領域,指半自主或全自主工作的機器人能完成有益于人類的、便利人類生活的服務工作[1]。服務機器人的應用場景極其廣泛,既包括以供人觀賞、娛樂為目的的娛樂機器人,如唱歌機器人、足球機器人;又包括用于在家庭生活中承擔家庭事務工作的家庭服務機器人,如烹飪機器人、護理機器人等;還包括在特定場所應用的專業服務機器人,如醫療機器人、導游機器人等[2]。
風險評估是風險管理過程的一部分,旨在為有效的風險應對提供基于證據的信息和分析。風險評估主要包括風險識別、風險分析和風險評價三個步驟。風險識別是發現、列舉和描述風險要素的過程;風險分析是明確風險產生的原因、引發的正面和負面影響以及發生的可能性,主要目標是確定風險等級。風險評價是將風險分析的結果與預先設定的應對準則相比較,對未來的行動進行決策,包括確定某個風險是否需要應對、風險的應對優先次序以及應該采取哪種應對措施。人工智能倫理風險評估是對人工智能在應用過程中可能產生的倫理風險的可能性大小、后果嚴重性輕重進行量化分析的過程。
隨著人工智能技術在服務機器人領域的落地應用,一些由這種新技術引發的倫理挑戰也隨之而來,包括隱私保護、算法歧視、就業替代和責任分擔等一系列風險和問題。例如,醫療機器人領域算法偏見對患者安全造成的潛在風險,家庭機器人的 “不受控”給家庭成員帶來的安全威脅,服務機器人訓練和使用過程中涉及的用戶隱私數據泄露風險,公眾對服務機器人的接受性,事故發生后責任難以界定的風險,技術濫用和倫理審查缺乏導致的潛在風險等。
荷蘭學者魯亞科斯等[3]認為,仿生陪護機器人會破壞社會尤其是兒童的發展,人們甚至不愿意去培養和維護長期的關系,社交能力退化。美國學者福特[4]認為,由于絕大多數工人都來自服務業和零售業,智能服務機器人的應用將對這些行業造成破壞,導致大量工人失業,加劇社會不公。對于自閉癥兒童而言,使用陪護機器人極易導致情感依賴問題,物理輔助機器人則容易侵犯使用者隱私[5]。趙志耘等[6]將人工智能倫理風險劃分為人類決策自主受控、侵犯隱私、偏見和歧視加劇、安全責任劃歸困難與失當、破壞公平、生態失衡六大類風險,并認為人工智能倫理風險源于技術-人-社會-自然之間的復雜交互,主要包括技術內生型倫理風險和技術應用型倫理風險兩大生成路徑。本文基于這種認知,將服務機器人領域的人工智能倫理風險梳理整理,歸類為五大倫理風險,即決策自主受控風險、隱私侵犯風險、偏見或歧視風險、破壞公平風險、責任歸屬不清或失當風險 (責任歸屬不確定風險)。通過前人的研究梳理與場景分析,對服務機器人領域的五大人工智能倫理風險做了論述。
縱觀前人研究,盡管已有不少學者論述了人工智能倫理風險 “是什么” “有哪些”等問題,但對倫理風險進行評估,指出不同風險的 “輕重緩急”,尤其對人工智能某個重要應用領域進行倫理風險評估的研究較為缺失。本文基于場景分析的思維,對服務機器人這一人工智能重要應用領域展開倫理風險的識別與評估,以期彌補該領域研究的空白,為人工智能技術的應用發展,尤其是在服務機器人領域的應用發展提供參考。
人工智能倫理風險的實質是人與機器、人與人以及人與自然之間的控制失衡[6]。由于服務機器人的應用產生了與人類界限模糊、被機器監控、用戶失去對個人數據的控制權以及傷害人類安全等問題[7],也可能沉浸在對機器人的 “被動”或 “依賴”中,從而造成主觀能動性的匱乏[8],對個人隱私、社會公平、安全可控、負責任等倫理價值產生沖擊。因此,該領域主要包含決策自主受控、隱私侵犯、偏見和歧視加劇、破壞公平以及責任歸屬不清這五類倫理風險。
1.2.1 決策自主受控風險
人類一旦接受并開始使用服務機器人,就難以避免對服務機器人產生依賴,且隨著服務機器人智能化水平的不斷提升,人類對其的依賴性也會不斷增強。機器人的道德判斷可能決定人類的利益是否受到保護,甚至會決定人類的生死[9]。服務機器人可能造成社交活動量的減少、家庭關系的不穩定,侵犯被服務者的人身自由,甚至身心健康受損[10]。人類不能長時間與機器人在一起,脫離人際交往而單獨與機器在一起會產生各種各樣的問題,包括依賴機器人、失去自我的主動性等[11]。此外,服務機器人也存在安全隱患,例如手術機器人突然出現手臂關節螺栓松動、突然停電導致機器人操作系統自動復位等,都會對患者直接造成意想不到的傷害[11-12]。
服務機器人的自主問題主要發生在三個情境中,一是出現危險或故障之前,二是出現危險或故障時,三是正常使用 (無危險或故障出現時)。第一種情境是出現危險或故障之前,如果服務機器人系統聯網,則存在被黑客攻擊的危險,包括可能被黑客控制機器人進行有危險性的活動;如果沒有聯網,則服務機器人無法及時更新操作系統,也無法與其他智能家居等智能化設備進行交互,從而導致服務效果不盡如人意。第二種情境是出現危險或故障時,此時服務機器人系統理應將控制權交給人類用戶,甚至由人類用戶終止其使用狀態,但服務機器人危險或故障出現情況的界線難以判斷,且移交控制權的過程中服務是立刻終止或者緩慢停止 (如服務機器人在炒菜過程中火候沒能控制好導致出現火災可能,此時機器人是直接停止工作,抑或是一邊暫停炒菜一邊采取其他措施避免火災發生)?這些判斷的問題是交由政府決定,還是服務機器人的生產廠商決定,抑或直接由使用者決定?使用者是否具備判斷的能力?第三種情境是正常使用時,假設為了避免糖尿病潛在人群患上糖尿病或者病狀加重,服務機器人拒絕了人類用戶想要吃西瓜的要求,但用戶確實是非常想吃甜品,而且一定的甜品危害不深,或者用戶愿意承擔病情加重的后果,此時就出現了人類用戶 “想做卻無法做的事情”,違背了人類用戶的意愿,即其決策自主性受控。
1.2.2 隱私侵犯風險
服務機器人的智能決策依賴于大數據的分析應用,難免會帶來隱私困擾。為了更好的服務體驗,應當鼓勵開發者之間共享相關數據,但為了保護版權、商業機密,這種共享又需要予以限制。同時,為了提升服務體驗,必不可少需要與人類用戶產生交互,并獲得用戶的相關數據,但為了保護用戶隱私權又應盡可能減少用戶信息的搜集,這就使得隱私問題成為一個牽涉其他敏感問題的復雜問題。仍以醫療服務機器人為例,隨著信息技術的發展,遠程診療、智能陪護等涉及的患者信息往往以電子病歷或醫療信息系統方式存儲在云端,使得安全確保個人隱私變得越來越困難——不僅存在黑客入侵盜取信息的可能,還存在醫療機器人未經患者同意讀取患者與診療無關的生活信息的可能 (例如,醫護機器人在照顧患者的過程中難以避免接觸其生活信息,而患者可能并不知情甚至并未授權)。這些隱私信息的被侵犯可能導致一些嚴重后果,例如,醫療從業者可能在獲取患者信息的情況下針對性推銷醫療器材,報銷從業者也可以針對性提升保險費用,企業可以將醫療檔案作為是否聘用員工的重要參考,既往病史的泄露還可能損害患者的尊嚴。如何在確保用戶隱私保護和相關數據共享之間達到最佳平衡,將是服務機器人發展所要面臨的巨大倫理挑戰。
1.2.3 偏見或歧視風險
由于機器人的訓練數據標注、算法的設計等來自人類個體,這些個體自身帶有的偏見歧視可能會被所訓練的服務機器人 “繼承”,使得服務機器人難以做到客觀中立。推薦引擎通過調查用戶的各項特質推出最適合的廣告、換取更高的點擊率,這種推薦本身即含有偏見歧視。例如,男性和女性會在網上看到不一樣的招聘廣告——卡內基·梅隆大學的研究顯示[13],谷歌的高薪職位推薦重男輕女。齊琳琿[14]根據新聞寫作機器人ZXM關于2018年溫網公開賽的報道進行內容分析,發現關于男選手的圖片數量明顯多于女選手,且圖片類型分布上存在明顯的性別差異,說明該機器人存在性別偏見,而此類偏見會對社會產生潛移默化的影響。
1.2.4 破壞公平風險
與人工智能在其他領域的應用一樣,服務機器人也會涉及公平問題,且由于服務機器人應用非常廣泛,理論上可以對幾乎任何社會領域產生影響,因此涉及的公平問題非同小可,可能會導致社會出現系統性分配不公,從而阻礙共同富裕的實現。人類個體的學習與思考能力與人工智能技術相比有一定的局限性,人工智能技術在服務機器人領域的應用將大大提升效率、精度,大幅壓縮成本,從而逐步替代越來越多的服務業工作者。在醫療領域,醫療服務機器人對患者信息具有更加科學體系化的判斷,從而降低診療的錯誤率,這種顯著優勢促使醫療機器人逐步取代醫療人員的工作。但同時,服務機器人畢竟不是人類,缺乏人類的情感與同理心,在醫療診斷等敏感領域的服務過程中,可能會因不能設身處地為患者著想、缺乏同情心等造成醫患矛盾,有礙社會和諧穩定。此外,由于我國地區之間發展的不平衡不充分依然存在,醫療機器人等服務機器人資源的不公平使用及獲得相關信息技術的方法不平衡,可能會加劇地區之間的發展鴻溝,從而加深不公平。
1.2.5 責任歸屬不確定風險
服務機器人的事故規則問題也是輿論的熱點之一,不僅涉及復雜的技術認定問題,也涉及倫理、法律對于服務機器人主體地位認定的爭議。從服務機器人的使用過程來看,人類意愿是服務機器人使用的目的,而服務機器人本身是一種方法,但隨著人工智能技術的快速發展,服務業工作者,尤其是單調勞動者將在相當大的程度上被服務機器人取代,從而失去作為參與者的影響。在這種情況下,幾乎完全由服務機器人完成的行為應當規則于誰成為重要問題。更進一步,服務機器人有時甚至需要做出社會道德選擇,例如康復機器人在康復護理過程中間接對患者造成欺騙性、虛幻性消極影響時,是否應訴諸康復機器人承擔責任?當服務機器人出現故障,究竟是使用前就存在潛在設計漏洞或制造問題,還是用戶使用時操作不當、訓練不足?其責任認定到底由誰來承擔[11]?可見,如何規避和厘清此類責任的倫理風險是服務機器人在責任設計中的重要環節。
隨著生活水平提升,人們對服務行業的個性化、極致化需求會越來越多。服務機器人將從最基本的替代人類的服務性勞動,發展為可以替代情感性交流,為人類提供更貼心的情感寄托。也正因此,服務機器人將越來越多地融入人類生活的物質和精神世界,人類或將有意識無意識地從機器人那里聽取更多的建議。從護幼到助老、從醫療輔助到康養服務、從家務輔助到管家服務,機器人將越來越多地介入人們的日常,會時刻發生人與機器人之間的決策控制問題。隨著服務機器人的智能化水平提升,人類決策自主受控的可能性會越來越大、程度越來越深。與之相伴的服務失誤、失敗責任問題,偏見歧視與破壞公平問題也會偶爾出現。與所有人工智能產品或服務一樣,服務機器人智能決策系統所使用的訓練數據或自動收集的數據面臨著較大的隱私侵犯風險。做出決策所依賴的算法,是決策自主受控、加劇偏見歧視的重要風險源;無論是訓練還是服務機器人使用過程中收集的數據,都存在數據泄露的可能,與隱私侵犯最為相關。服務機器人的部署使用不僅將替代服務工作者,也將挑戰現有的制度規范,帶來社會面的公平及責任問題。
具體來看,由于服務機器人的開發與應用推廣過程涉及面較廣,在分析其倫理風險生成機制,即尋找其倫理風險點時,需要對其從數據搜集、算法設計到產品開發與應用落地的全過程進行環節分析,以期更為全面地評估風險的 “輕重緩急”。
決策自主受控風險可能由數據處理、算法開發、產品開發、部署使用、制度規范等風險源引起,例如,機器人未經用戶同意自主采集用戶信息,或機器人數據被黑客竊取、控制;機器人的算法開發過程中沒有設置自主決策選項或程序;機器人的產品開發過程中沒有設置自主決策選項或按鈕;醫院等服務機構強行為用戶選擇機器人的服務,或者要求配合人工服務方案共同使用;在制度規范中缺乏詳細的避免機器人脫離人類控制的條款或細則等。
隱私侵犯風險可能由數據處理、算法開發、產品開發、部署使用、制度規范等風險源引起,例如,服務機器人模型訓練需要收集大量數據;服務機器人算法開發企業沒有設立數據安全審查機制;服務機器人系統數據安全性能不足,機器人信息安全威脅分析及防護體系架構不完備;服務機器人運營過程中收集用戶的表情、動作和狀態等生物特征信息,以及個人和企業用戶的行程、地址等信息;服務機器人數據安全頂層設計、監管體系、標準法規等不完善等。
偏見歧視風險可能由數據處理、算法開發、產品開發、部署使用、制度規范等風險源引起,例如,服務機器人訓練數據存在偏見;服務機器人算法開發中植入偏見,缺乏倫理審核;服務機器人在功能設計、人機交互方式、系統透明性等方面考慮不周,導致偏見歧視;將服務機器人用于可能引發偏見歧視的場合;關于服務機器人數據、算法、應用中的偏見與歧視相關標準或監管體系不完善等。
破壞公平風險可能由數據處理、部署使用、制度規范等風險源引起,例如,服務機器人自主搜集數據信息從事有損于患者的活動;服務機器人大規模使用替代醫護、餐飲等服務業工作者;有關服務業工作者轉崗就業的培訓和就業保障安排缺乏;現有的壟斷法規尚未適應數字智能化趨勢,等等。
權責歸屬不清或失當風險可能由數據處理、部署使用、制度規范等風險源引起,例如,服務機器人數據來源記錄不清晰;服務機器人算法缺乏透明性/可解釋性;服務機器人生產過程各環節責任人記錄不清、缺乏可追溯性;服務機器人系統使用過程缺乏使用日志或日志記錄不清晰;服務機器人責任相關的法規不明確,保險覆蓋范圍狹窄等。
當前,學術界與產業界在進行風險評估時,大致可以分為客觀視角和主觀視角兩種類型[15]。客觀視角即 “以數據或案例說話”,通過對大量數據的搜集、統計分析,結合模型構建,建立對評價主體的理解并最終獲得評估結果,側重于定量分析。典型的定量分析方法有神經網絡方法、蒙特卡洛模擬分析、聚類分析法、時序模型、因子分析法、回歸模型等。主觀視角則 “以主觀感知為證”,帶有一定的個人傾向色彩,但同時也充分利用個人的經驗等隱性知識,即通過主觀認知獲得評價結果,側重于定性分析。典型的定性分析方法有邏輯分析法、歷史比較法、因素分析法、德爾斐法。
就人工智能倫理風險的評估而言,實踐中普遍采用風險矩陣的方式進行綜合評估。風險矩陣是風險管理過程中識別風險重要性的一種方法,它能從兩個維度刻畫特定風險 (一般來說是風險發生的可能性、嚴重性),進而以二維表的方式綜合評估特定風險的等級。例如,新西蘭政府于2020年7月發布 《算法憲章》,評估人工智能應用產生不利風險的可能性、影響規模和嚴重性[16]。該評估采用的基本模式是將風險發生的可能性與算法風險影響相結合,構建風險矩陣,得出風險評級。具體而言,風險發生的可能性有三個等級:不太可能、有可能和很可能;嚴重性程度同樣有三個等級:不嚴重、中等嚴重、嚴重。風險影響范圍大小的三個等級分別是 “孤立發生、影響中等數量的人、廣泛的影響”。由此,將算法風險劃分為低、中、高三種類型。我國的 《信息安全技術個人信息安全影響評估指南》 (GB/T 39335—2020)以安全事件可能性和個人權益影響程度兩個要素進行綜合分析,將個人信息安全事件發生的可能性分為四級:很高、高、中、低;對個人權益的影響程度也劃分為四級:嚴重、高、中、低。綜合得出個人信息安全的影響等級。
客觀與主觀兩種視角各有優勢又相互補充,本文的方法設計綜合考慮兩種視角,運用客觀視角進行風險發生的可能性分析,運用主觀視角進行風險發生的嚴重性分析,最后將兩種視角進行綜合考量,獲得人工智能倫理風險的最終評價結果。
風險的影響因素可以劃分為可能性與嚴重性兩個維度[17],服務機器人領域的人工智能倫理風險應當由倫理風險的可能性與倫理風險的嚴重性兩個因素共同決定,且二者與整體風險大小均為正比關系,即風險大小得分=風險發生的可能性×風險發生的嚴重性。
嚴重性是該風險造成的損失總和,可以劃分為以下四個等級尺度:①毀滅:造成死亡或主系統故障,需要立刻終止活動或操作;②危險:造成嚴重傷害,需要立刻執行正確的操作;③臨界:如果人為錯誤、設計漏洞、程序漏洞等問題能得到合理控制,那么嚴重傷害、主系統故障等問題就可以避免,或者只發生輕微傷害、次系統故障等微小問題;④極小:人為錯誤、設計漏洞、程序漏洞等問題并沒有導致或只導致微乎其微的傷害及系統故障等問題。
可能性是危害發生的概率,可以劃分為以下五個等級尺度:①頻繁發生:在一個周期內經常發生;②可能發生:在一個周期內多次發生;③偶爾發生:在一個周期內發生幾次;④少數發生:在一個周期內可能發生,但可能性不大;⑤不太可能:發生可能性極小,基本不會發生。
風險評估的結果由嚴重性及可能性數據的乘積得出。因此,要計算風險大小,就要分別對可能性與嚴重性進行評估。在可能性的評估上,對某一風險討論熱度的高低,或者稱輿論熱度,可以代表對該風險的關注度大小。當某一倫理風險頻頻出現在公眾的討論中,則說明對這些事件的關注程度越高,事件發生的頻率越高,該倫理風險發生的可能性越高。同理,對于研究經驗豐富的學術界群體,我們也能夠通過其論文、專利等挖掘其對倫理風險的感知度。討論頻率越高,說明風險的關注度和發生可能性越高。我們以知網和Web of Science的檢索數據代表專家群體對風險發生可能性的認知,以微博、百度和谷歌這類社交媒體平臺和資訊平臺的檢索數據代表公眾的風險可能性認知。
由于可能性的評估是客觀數據,而客觀數據來源難以做到覆蓋全面,關鍵詞難以窮盡,因此在嚴重性的評估上主要考慮專家和公眾的主觀性觀點,通過其經驗積累、日常感受進行打分或提出態度傾向。采取問卷訪談形式,闡述各類倫理風險在各環節中的風險點和表現形式,由不同人群 (一般群體、互聯網及相關行業工作者、相關政府機關工作者、專家學者等)基于過往經驗及日常認知,對這些環節可能發生風險的大小、發生風險后影響嚴重性大小進行主觀判斷。將五大風險 (自主決策受控、隱私侵犯、加劇社會偏見或歧視、破壞社會公平、責任歸屬不清或失當)依次編號為i=1,2,3,4,5;將五大風險平臺 (Web of Science、微博、百度、谷歌)依次編號為j=1,2,3,4,5;將各大風險對應的風險源 (數據處理、算法開發、產品開發、部署使用、制度規范)依次編號為h=1,2,3,4,5。各種符號的說明見表1。

表1 符號說明
2.2.1 可能性
可能性由公眾與專家的關注程度表示,數據來源于對微博等輿情平臺和知網等學術平臺的關鍵詞檢索統計。由于各平臺對于同一倫理風險的討論熱度不同,因而需要給平臺的檢索結果賦以權重,規定平臺風險權重為該平臺的風險相關文章或新聞數量占五大平臺統計總數的比重,其中微博、百度、谷歌數據代表公眾可能性認知,知網、Web of Science數據代表專家可能性認知,即:
(1)
同理,界定風險i對應的平臺風險源權重為該平臺的風險i對應風險源的相關文章或新聞數量占五大平臺統計總數的比重,即:
(2)
風險i發生的可能性為:
(3)
風險i對應的風險源h發生的可能性為:
(4)
2.2.2 嚴重性
嚴重性由公眾與專家的主觀評價表示,數據來源于對兩個不同人群的問卷調查結果。根據被調研者的排序與評價,得到五大風險嚴重性平均綜合得分:
各風險的平均綜合得分= (∑頻數×權值)/本調研填寫人次
(5)
其中,權值由選項被排列的位置決定,若有三個選項參與排序,則排在第一的權值為3、第二的權值為2、第三的權值為1。例如,一個風險調研題被填寫12次,風險A被選中并排在第一位置2次、第二位置4次、第三位置6次,則A的平均綜合得分= (2×3+4×2+6×1)/12=1.67。
圖1所示為服務人領域人工資能倫理風險的評估過程,結合對服務機器人領域人工智能五大倫理風險的認識及其風險源的分析,本文的服務機器人領域人工智能倫理風險評估分為倫理風險評價與風險源評價兩個階段進行。兩個階段的方法相通,先分別進行可能性與嚴重性評價,再根據式 (2)評價風險大小。其中,可能性評價涉及的數據來自百度、微博、谷歌、知網、Web of Science五個平臺,分別以 “服務機器人倫理風險” “機器人決策自主”等關鍵詞 (包含英文以及日文、韓文、法文、德文、俄文等小語種詞匯)進行檢索,每個關鍵詞在每個平臺取前300條檢索結果 (不足300條的以實際檢索結果計算);嚴重性評價涉及的數據來自問卷調研數據,包括專家有效問卷71份、公眾有效問卷581份。

圖1 服務機器人領域人工智能倫理風險評估過程
首先進行可能性評價,百度、微博、谷歌數據代表 “公眾可能性認知”,知網、Web of Science數據代表 “專家可能性認知”。五大平臺的權重分別為21.14%、24.10%、1.48%、45.03%、8.25%,各平臺的五大風險占比見表2。根據式 (3)得出五大風險發生的可能性,見表3。其次進行嚴重性評價,根據式 (4),并按照專家:公眾=7:3的權重,得到五大風險嚴重性綜合得分 (來自問卷統計結果),見表4。最后根據式 (5),得到五大風險大小的最終得分,如圖2所示??梢钥吹?,在服務機器人領域的人工智能五大倫理風險中,決策自主受控風險最高,侵犯隱私風險次之,二者得分遙遙領先于其他風險。權責歸屬不清或失當風險、破壞社會公平風險分居第三、第四位,加劇社會偏見或歧視風險最小。

圖2 五大風險的最終得分

表2 各平臺五大風險占比 單位 (%)

表3 五大風險發生的可能性

表4 五大風險嚴重性平均綜合得分
首先進行決策自主受控風險的風險源可能性評價,百度、微博、谷歌、知網、Web of Science平臺的權重分別為30.77%、13.61%、5.92%、17.75%、31.95%,各平臺五大風險源的占比見表5。根據式 (2),得出決策自主受控風險的風險源可能性占比,見表6。其次進行嚴重性評價,根據式 (4),并按照專家:公眾=7:3的權重,得出決策自主受控風險的風險源嚴重性綜合得分 (來自問卷統計結果),見表7。最后根據式 (5),得到五大風險源大小的最終得分,如圖3所示??梢钥吹剑诜諜C器人領域的決策自主受控風險中,算法開發最高,部署使用次之,產品開發再次,三者得分接近,且遙遙領先于其他風險源。外部制度規范居第四位,數據處理風險源最小。同理可得侵犯隱私風險、加劇社會偏見或歧視風險、破壞社會公平風險、權責歸屬不清或失當風險的風險源大小,如圖4所示。

圖3 決策自主受控風險的風險源大小

圖4 風險源大小

表5 決策自主受控風險的風險源在各平臺占比 單位 (%)

表6 決策自主受控風險的風險源可能性占比

表7 決策自主受控風險的風險源嚴重性平均綜合得分
從服務機器人領域人工智能五大倫理風險來看,無論是風險大小的綜合得分,還是風險發生的可能性、嚴重性得分,決策自主受控風險、隱私侵犯風險都位居前兩位。從風險發生的可能性來看,隱私侵犯風險居第一位,決策自主受控風險居第三位;從風險發生的嚴重性來看,決策自主受控風險居第一位,隱私侵犯風險居第二位,且這兩種倫理風險的大眾問卷與專家問卷評價結果一致。風險大小居第三位的是權責歸屬不清或失當風險,其風險發生的嚴重性排名居第三位 (專家和公眾問卷評價結果同樣居第三位),但該風險發生的可能性居第四位,遠低于可能性排名第二的破壞社會公平風險 (后者的風險大小排名居第四位)。破壞社會公平風險與加劇社會偏見或歧視風險在風險嚴重性的專家與公眾問卷評價結果上稍有差異,前者的大眾問卷排名高于后者,而專家問卷排名低于后者,但大眾問卷和專家問卷的平均綜合得分差距較小 (二者的大眾問卷得分為2.65和3.06,專家問卷得分為2.92和2.51),說明這兩種風險在大眾眼里的區分度可能并不大,在后續的宣傳科普中應當著重予以區分。
從風險源大小的評價來看,不同風險的風險源大小排序差別較大。對于決策自主受控風險而言,算法開發最值得關注,其次是部署使用 (且二者得分差距很小),再次是產品開發;外部制度規范和數據處理相對沒有那么重要,得分差距與前三名彼此之間的分差相比較大。
對于隱私侵犯風險而言,部署使用最值得關注 (且可能性和嚴重性得分均位居第一),其次分別是算法開發和數據處理 (二者分差較小),產品開發和外部制度規范相對沒有那么重要。
對于加劇社會偏見或歧視風險而言,算法開發最值得關注且遠遠高于其他風險源,其次是外部制度規范、數據處理和部署使用 (且三者得分接近),相對而言最不重要的是產品開發。值得注意的是,算法開發的可能性與嚴重性得分均位居第一位,但部署使用、外部制度規范、數據處理三者的可能性非常接近,外部制度規范、數據處理的嚴重性綜合得分也非常接近,這也是其風險源大小得分接近的原因。
對于破壞社會公平風險而言,部署使用遠高于外部制度規范。對于權責歸屬不清或失當風險而言,外部制度規范最值得關注 (可能性得分也居第一位,但嚴重性得分中的大眾問卷得分居第二位),其次是產品開發 (可能性得分居第三位,嚴重性得分中的大眾問卷得分居第一位,專家問卷得分居第三位),再次分別是部署使用和算法開發,數據處理相對最不重要。值得注意的是,部署使用的可能性得分居第二位,遠高于后兩名;算法開發的嚴重性得分居第三位,且與第二位的產品開發非常接近,其專家問卷評價結果甚至居第二位。
本文對服務機器人領域的人工智能倫理風險進行了較為深入的探討,主要解決了兩個問題:一是對該領域的人工智能倫理風險及風險源進行系統梳理;二是設計了一套通用的人工智能倫理風險評估方法,可以概括為風險和風險源大小評價 “兩步走”的評價思路,并將該方法在服務機器人領域進行了實踐。本研究不僅在一定程度上填補了人工智能倫理風險評價的方法空白,而且在服務機器人這一人工智能的重要應用領域將人工智能倫理風險的評價方法進行了實踐,具有一定的理論和實踐意義,更重要的是構建了一套系統的人工智能倫理風險評估方法,包括風險的識別、輕重緩急的判斷、結果的分析。
基于本文的研究基礎,特別是理論框架與模型基礎、實踐應用基礎,下一步可以考慮對服務機器人領域的人工智能倫理風險做進一步的識別與分析,將該方法的應用范圍進一步擴大,在風險識別環節嘗試進一步細化風險類型,完善實踐數據,對于結果分析與政策建議的銜接做進一步研究細化,同時,可以嘗試將該方法應用于解決自動駕駛、計算機視覺等領域的人工智能倫理風險評價,根據評價結果提出可行性政策建議,以助力人工智能技術與應用的健康、可持續發展。