999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

教育人工智能倫理原則的有限性及其補正

2024-04-29 00:00:00白鈞溢于偉
中國電化教育 2024年2期
關鍵詞:美德法律

摘要:教育人工智能倫理研究的“原則方法”旨在通過倫理原則的構建與教授消解教育領域應用人工智能技術出現的倫理風險。然而,當前教育人工智能倫理原則存在有限性,制約了其對教育實踐的影響力。就自身而言,教育人工智能倫理原則在構建過程中忽略了其在不同行業領域、不同教育應用甚至同一框架內的個性特征或關系。就實踐而言,教育人工智能倫理原則既無法提升目標對象將倫理原則付諸實踐的意愿,也缺乏強制其遵守這些價值觀和規范的機制。教育人工智能倫理原則有限性的消解需要在完善原則自身的同時引入美德與法律,進而構建“原則-美德-法律”框架。這一框架的構建要義是使原則、美德、法律三大層次針對且有效地應對倫理原則有限性的各個方面,做到確定可靠切實的倫理原則、開展明確可行的美德培育、構筑穩健有效的法律保障。

關鍵詞:教育人工智能;倫理原則;有限性;“原則-美德-法律”框架

中圖分類號:G434 文獻標識碼:A

教育是一門“時代學”,它隨時代變遷不斷進化和演變。人工智能技術的興起引發了第四次教育革命,其在一定程度上重塑了教育形態,為教育發展帶來了重要的機遇[1]。然而,伴隨著人工智能技術與教育的深度融合,隱私與安全隱患、技術依賴、算法歧視、學生數據所有權爭議等問題不斷顯現,實現可信賴的人工智能已成為全球教育領域的共同目標。“人工智能倫理”(AI Ethics)是實現可信賴人工智能的核心要素[2]。近年來,國際組織、各國政府與學界不斷探索教育領域的人工智能倫理,以期明晰人工智能教育應用的價值導向與作用限度。然而,現有研究大多采用的是以構建倫理原則為核心的“原則方法”,這一方法的有效性在當前已存在質疑。大量實踐表明,人工智能造成的倫理風險無法僅通過構建倫理原則消解,且現有原則在自身可靠性方面也存在問題。因此,本文將著眼于人工智能與教育向善融合發展的現實需要,聚焦教育人工智能倫理研究的“原則方法”,剖析倫理原則的有限性并在此基礎上提出具有針對性的“原則-美德-法律”框架,以期為人工智能教育事業的健康發展提供治理方向。

一、教育人工智能倫理研究的“原則方法”

就主題而言,當前教育人工智能倫理風險研究大體可分為風險識別與風險應對兩類。其中,風險識別研究劃分依據各異,劃分類型多樣,已對教育人工智能在不同應用、不同學段、不同利益相關者中出現的倫理風險進行了較為全面的探討。但在風險應對方面,與其他領域人工智能倫理研究相似,目前教育領域主要采用的是一種“原則方法”①(Principled Approach)。教育人工智能倫理研究的“原則方法”指代一種基于倫理原則,針對人工智能技術的應用和發展進行指導的方法論,它以建構一系列基本倫理原則為核心,旨在為教育人工智能的健康發展提供方向指導,使其能夠在遵循倫理原則和道德規范的前提下規避倫理風險,從而更好地服務于教育實踐。具體來說,圍繞教育人工智能倫理原則,這種方法具有三方面特征。

第一,教育人工智能倫理研究的“原則方法”傾向于借鑒經典倫理學與其他領域人工智能的基本倫理原則。各國人工智能發展規劃對教育的“工具性”定位使得教育領域的人工智能倫理原則構建滯后于其他領域[3]。教育領域的后發背景加之各領域人工智能應用在技術本質與倫理風險上存在共性使得研究者在構建教育人工智能倫理原則時傾向于靠攏已有研究,直接影響了構建的方式與結果。方式層面,研究者往往以各領域已有原則為依據。表現為一種“參照-審視”的研究偏好,即以一套認可度較高的元分析或幾套國際影響力較大的原則指南為參照系,橫向比較其它人工智能倫理框架或教育文件,在此基礎上對依據的元分析或倫理框架進行條目增減,進而提出教育的原則框架[4]。結果層面,構建方式與各領域倫理原則的趨同導致不同教育研究提出的倫理原則往往內容相近、形式相似。內容上,無論是國家與國際組織制定的教育人工智能倫理指南,還是探討教育人工智能倫理原則的學術研究,大多將安全、公平、可解釋、隱私等跨領域共識性原則或其變體納入其清單中。形式上,相近于其他領域,教育人工智能倫理原則指南通常包含幾組宏觀原則及其簡要說明,側重價值導向與抽象要求的建構。當前,教育人工智能倫理研究依然以構建強共識、高層次的原則為取向。

第二,教育人工智能倫理研究的“原則方法”主張將宏觀倫理原則靠攏教育情境。這類研究大體指向三個方面:一是教育人工智能應用的學段①。當前研究可分為K-12教育與高等教育兩大階段,如世界經濟論壇《人工智能一代:建立兒童和人工智能的全球標準》、白金漢大學《教育中人工智能的道德框架》及凱西·亞當斯(Cathy Adams)團隊提出的《人工智能在K-12教育中的倫理準則》[5]。二是教育人工智能的利益相關者。目前研究側重學生與教師。學生方面,主要以《聯合國兒童權利公約》、經合組織《數字時代的教育:健康與快樂的兒童》及歐盟委員會《關于在數字環境中尊重、保護和實現兒童權利的指導方針的部長委員會建議》等文件為指導,如聯合國兒童基金會的《兒童人工智能政策指南》。教師方面,將“教師福祉”納入倫理原則,回應教師對人工智能應用導致工作條件與師生關系改變、準備教學工作所需額外時間以及“技術失業”等問題的擔憂,但其在原則框架構建上與學段劃分主題存在交叉[6]。三是針對性人工智能倫理原則或教育發展目標。如將教育人工智能和人類發展理論相結合,涵蓋主體性(Agency)、社會公正(Social Fairness)、合理選擇(Justified Choice)三個主題領域的《教育人工智能的社會發展倫理框架》[7]等。

第三,教育人工智能倫理研究的“原則方法”強調倫理原則的教育實踐。教育實踐旨在為人工智能的相關從業者提供指導以確保人工智能技術的開發與使用符合道德標準和社會正義原則,實現倫理原則向現實場景的下落。2017年以來,人工智能倫理原則愈發受到國內外高等學校的關注并體現于課程開設[8]。在國外,劍橋大學開設了“人工智能、數據、倫理和社會”課程,旨在探索人工智能的倫理、社會和法律問題,并介紹解決這些問題的方法和原則;麻省理工學院計算機科學和人工智能實驗室(CSAIL)為學生提供“人工智能與倫理”課程,內容涵蓋人工智能倫理的規范、責任等方面;卡內基梅隆大學的“計算機倫理”課程探討了計算機科學和人工智能應用中的倫理問題,旨在幫助學生了解如何在遵守倫理原則的基礎上負責任地開發與應用這些技術。在國內,南京大學于2019年出版了《南京大學人工智能本科專業教育培養體系2019》,將包含人工智能倫理簡介、倫理規范、倫理案例等內容的“人工智能倫理”課程納入人才培養方案。同一年,西安交通大學出版了《人工智能本科專業知識體系與課程設置》,構建了由“人工智能的哲學基礎與倫理”和”人工智能的社會風險與法律”兩門課程組成的人工智能與社會課程群,其中“人工智能的哲學基礎與倫理”課程專門用以講授人工智能的一般哲學問題與人工智能的倫理規范。總體來看,盡管這些課程的授課內容與授課方式存在差異,但均涉及人工智能的倫理原則與規范。

二、教育人工智能倫理原則的有限性及其補正

倫理原則作為教育人工智能的指導性標準和價值取向,對人工智能開發與應用具有定向、引導、規范作用,是確保人工智能技術符合社會價值觀和道德標準的重要前提。然而,僅依靠倫理原則并不足以實現其所預期的效果。一方面,目前提出的諸多倫理原則在自身可靠性方面存在爭議,限制了其對實踐的指導效力。另一方面,倫理原則由于自身“無牙”的局限性,無法為人工智能的開發和應用提供強制性約束。因此,需要在倫理原則的基礎上尋求對其有限性的補正要素,實現倫理原則與教育人工智能實踐的有效聯系。

(一)有方法不等于有原則:原則自身的有限性

如上所述,由于起步相對滯后,教育人工智能倫理研究的“原則方法”傾向于借鑒其他領域人工智能的基本倫理原則。這意味著所構建的教育人工智能倫理原則往往由各領域已有原則組成或至少受已有原則啟發。然而,這種構建方式一定程度上忽略了人工智能倫理原則在不同領域間、不同應用間甚至同一框架內的個性特征或關系,制約了其對教育實踐的指導效果。

在不同領域間,人工智能倫理原則存在結構與指向差異。首先,不同領域對人工智能倫理原則有著各自的偏好與價值排序。例如,在法律領域,“正義”與“問責”原則被不成比例的提及,而在醫學領域,強調最多的是“善意”或“非惡意”。“隱私”在醫學和法律領域被視為重要的倫理原則,但在商業、科學與工程領域卻少有提及。同時,即使某一領域包含了相對全面的原則條目,它們的優先級也并不相同,如在軍事領域,“非惡意”遠優先于其他原則[9]。其次,不同領域的倫理原則具有特定的關聯。例如,“可解釋性”作為人工智能醫學倫理與傳統醫學倫理相區別的標志性原則,已與自主、有利、不傷害、正義四項醫學倫理學經典原則深度結合[10]。但在司法領域,居于核心位置的倫理原則是“正義”,其他倫理原則均應與之結合,這被稱為“正義關聯”(Justice Relevance)。最后,同一原則在不同領域有著不同的指代。例如,“以人為本”的“人”在《北京共識——人工智能與教育》中指代“人類”,而在IBM《人工智能的日常倫理》中則僅指代“用戶”[11]。

在教育領域的不同應用間,人工智能倫理原則存在對象與內容差異。盡管當前研究對倫理風險的類型劃分存在爭議,但對風險識別的前提性問題已基本達成共識,即“教育人工智能引發的倫理風險往往是特定于環境的”[12]。這意味著“原則方法”所構建的宏觀性倫理原則很難有效匹配多樣的目標對象與具體應用,及由此產生的個性化倫理風險。就目標對象而言,教育人工智能大體指向學生、教師、機構三類群體,所涉及的學生、教師、機構具有各自的特征,且在同一群體內部亦存在差異,不能在倫理方面劃為一談。相比之下,教育人工智能的應用類別更加復雜。當前影響較大的教育人工智能應用分類由倫敦大學學院教授韋恩·霍姆斯(Wayne Holmes)提出,其將現有人工智能應用劃分為21類[13]。由表1可知,不同教育應用的具體用途、作用對象與運作過程迥然有別,它們對學生、教師、機構的影響程度不盡相同,它們并不收集相同類型或數量的數據,因此未必都會造成特定的倫理風險[14]。

在教育領域的同一框架內,人工智能倫理原則存在概念與關系差異。概念差異表現為倫理原則自身模棱兩可。“原則方法”大多構建的是模糊的、高層次的原則和價值陳述,它們試圖指導實踐,卻沒有給出針對實踐的實施計劃與目標受眾,也未能明晰關鍵概念包含的基本規范。例如,“正義”原則往往不會給出正義的定義,而是讓行為者自行衡量[15]。關系差異表現為倫理原則間相互矛盾。“原則方法”所構建的教育人工智能倫理原則,如公平、隱私、透明度、福祉等乍一看很合理,因為它們對應了人工智能教育應用的現存風險。但如果進行追問,便會發現這些原則可能相互緊張甚至相互矛盾。例如,福祉原則要求教育人工智能不能剝奪教育群體的自主權與決策能力。然而,在某些情況下教育人工智能系統能夠做出比人類更優秀的決策,這在一定程度上導致了福祉與自治原則的沖突。又如,在確保學生隱私和數據安全時,可能會影響個性化學習和適應性評估。倫理原則的模棱兩可與互相矛盾掩蓋了自身蘊含的解釋差異與價值排序,使其難以有效落實于教育實踐。

(二)有原則不等于能落實:原則實踐的有限性

按照“原則方法”的最初設想,教育人工智能倫理原則的提出與教授能夠引發某種程度的監管或自我監管,進而使開發者、使用者的行為與規范標準保持一致。然而,一項針對軟件工程專業學生和專業軟件開發人員的調查表明,接受倫理原則培訓幾乎沒有影響到他們在開發人工智能應用時的倫理抉擇[16]。此外,一些教育人工智能研發企業會采用“倫理漂藍”①(Ethics Blue Washing)的手段規避監管、節約成本或提高自身競爭優勢。這意味著“原則方法”所主張的實踐導向并沒有在教育人工智能倫理實踐中得到有效落實。據此,有學者直言其是“毫無作用的倫理原則”[17]。這一觀點頗具攻擊性但并非孤例,對倫理原則實踐有限性的分析已成為當前國際教育人工智能倫理研究的熱點話題。

行為者缺乏將原則付諸實踐的意愿是導致教育人工智能倫理原則難以落實的一大原因。瓦庫里(Vakkuri)調查了五家參與教育人工智能開發的公司,發現雖然所有的調查對象均承認倫理原則的重要性,但當被問及他們是否會在人工智能開發實踐中考慮道德時,所有的調查對象的回答都是“否”[18]。在后續研究中,瓦庫里專門調查了開發人員對倫理原則的態度,得出的結論是“人工智能倫理的研究與實踐間存在顯著差距,原則在學院和研究所廣受贊譽,但實際構建技術的工程實驗室和工作室卻不以為然”[19]。上述情況反映了“知識與道德的關系”這一道德教育的經典元理論問題。對這一問題的共識是,僅有關于倫理問題和理論的知識并不能影響行為。事實上,道德心理學的研究表明,道德知識所指涉的道德推理主要是對已經根深蒂固的觀點和行為慣例的事后合理化,它是相對脫離對道德原則有意識反思的自動心理過程的結果[20]。如果忽略了行為個體的心理因素,倫理原則將無法有效影響其倫理決策。

教育人工智能倫理原則自身的“無牙”局限是造成其實踐有限性的另一原因。“無牙”局限是指人工智能倫理原則可以設定規范理想,但缺乏強制遵守這些價值觀和規范的機制,且違反它們不會受到切實的懲罰。德國社會學家烏爾里希·貝克(Ulrich Beck)曾指出,現在的倫理學“在洲際飛機上扮演著自行車剎車的角色”。這個比喻在人工智能領域內尤其正確,在《AI Now 2017》報告中,紐約大學凱特·克勞福德(Kate Crawford)指出,人工智能倫理原則和軟治理形式“面臨的真正挑戰”是人工智能企業研發的經濟目的對倫理原則的公共關系目的的兼并與消解,而面對這一情況,倫理原則與從事研究的企業與個人之間除自愿和非約束性合作之外,沒有任何維護自身的手段[21]。2019年,谷歌成立由哲學家、工程師和政策專家組成的先進技術外部咨詢委員會(ATEAC),用以審查公司的項目并評估它們是否違反了人工智能倫理原則。但是,該委員會沒有實際權力否決或終止項目,最終僅成立十天即宣告夭折[22]。總之,道德規范在多大程度上影響并塑造個體行為取決于后果與威懾機制,即個體如何權衡違反原則所帶來的好處與懲罰[23]。這意味著如果沒有強制性的獎懲機制,人工智能倫理原則的影響將是相當有限的。

(三)“原則-美德-法律”:原則有限性的補正框架

教育人工智能倫理原則的有限性提示我們需要重新審視原則自身及其支撐的人工智能倫理治理。一般認為,人工智能倫理治理“就是應用倫理工具與理論,對人工智能倫理與社會風險進行治理,與法學領域中的軟法治理本質上是一致的,相對于法律法規的鋼性規制而言,通過倫理原則等軟法實現對人工智能的靈活與敏捷治理,是當前及今后相當長的時間內人工智能治理的基本途徑”[24]。但從對倫理原則有限性的分析可以發現,其無法獨自承擔在倫理治理中的角色期待。自身的有限性尚可通過內容及形式優化進行修正,但對于實踐的有限性,倫理原則本身是無能為力的。安娜伊絲·瑞瑟吉爾(Anais Resseguier)對此有一個形象的比喻:“指責人工智能倫理原則沒有牙齒來確保人們遵守它所要求的一切,就像指責叉子無法切肉一樣——這不是它的設計目的”[25]。因此,人工智能倫理治理不能僅僅依靠倫理原則,還需要尋求原則實踐有限性的補正途徑。2018年,麻省理工學院計算機科學與人工智能實驗室教授帕特里克·溫斯頓(Patrick Winston)在TEDx Beacon Street演講中指出,倫理(Ethics)、道德(Morality)、法律(Laws)是人工智能三個最重要的方面,它們共同構成了人工智能的倫理基礎。在這一觀點的影響下,國際學界已就人工智能倫理原則實踐有限性的兩個方面提出了針對性方向——美德與法律。

人工智能倫理研究的美德方向旨在提升行為者將原則付諸實踐的意愿。美德方向研究起源于對個體及人工智能交叉領域的關注。在美德研究者看來,人工智能倫理具有三大特征——組織環境特征(倫理規范)、道德問題特征(倫理風險)、個人特征(性格傾向),但當前對個人特征的關注很少,導致倫理規范與倫理風險的鏈接斷裂[26]。在與人工智能交叉的數據領域,亦存在同樣的問題。在相當長的一段時間內,數字倫理學及其子領域數據倫理學由所謂的宏觀倫理學(Macroethics)主導[27]。宏觀倫理學所涵蓋的范圍及其與數字環境、文化社會研究的關系使得很難在倫理討論中找到個人。面對這一情況,美德倫理學及對美德的培養在數據領域得到復興,表現為開始重視個體的性格發展并培養與道德推理相關的各種技能。例如,哈佛大學2017年提出Embedded EthiCS項目,該項目反對將倫理原則進行獨立教學并以分布式教學加以代替,將道德推理貫穿于整個計算機科學課程,旨在使學生熟悉整個領域存在的道德問題并通過反復的道德推理形成穩定的個人秉性[28]。在數據領域的影響下,2020年以來,人工智能倫理領域出現了類似的呼聲,主張求諸美德倫理并關注人工智能從業者的性格傾向,以便將倫理原則有效地付諸實踐。

人工智能倫理研究的法律方向旨在破解原則自身的“無牙”局限。法律方向研究起源于對人工智能倫理原則哲學基礎①的追問。當前,人工智能倫理由英國倫理學家喬治·愛德華·摩爾(G.E.Moore)的理念所主導[29]。伊麗莎白·安斯康姆(Elizabeth Anscombe)稱其為“法律倫理觀”[30](Law Conception Of Ethics),即努力使倫理向法律靠攏,甚至具備法律的部分特征。如上所述,將倫理原則視為“法律的軟版本”(Softer Version of The Law)在當前人工智能倫理研究中十分普遍。然而,這只是倫理學的一種取向,且正如實踐的有限性所表明的那樣,這一取向是有局限的。人工智能的倫理原則可以成為法律的先驅,它們能夠為法律規則的可能內容提供方向。但是,它們不能取代法律,因為它們缺乏允許監管機構執行權力的合法性與約束性保障[31]。因此,有必要在倫理原則的指導下制定更加具體、可操作的指導方針,將倫理研究成果轉化為政府法規或部門規章,使倫理原則產生法律和行政效力。

美德與法律是補正倫理原則有限性的關鍵要素,但三者在關系上還需進一步討論。現有研究側重構建倫理原則與美德、法律的一對一聯系,即“原則-美德”“原則-法律”。出于三方面考慮,要想更好地發揮美德與法律對倫理原則的保障作用,需要同時將二者納入討論范圍,構建“原則-美德-法律”框架(如圖1所示)。首先,原則、美德、法律存在相互聯系。具體而言,原則層次關注道德準則與價值觀,旨在為人工智能開發與應用明確立場與方向,是開展倫理治理、實現技術向善的最基本前提;美德層次關注個人品質和行為習慣,在明確原則后,美德可以成為一種激勵機制,促使行為者更加積極地踐行這些原則;法律層次關注規范、制裁和補救,在美德失效后,法律具有維護原則地位的強制力量。其次,原則、美德、法律在相互聯系的基礎上具有一定的獨立性。當面對道德沖突或困境時,行為者應首先考慮倫理原則;在原則無法提供明確指導時,行為者可以依據自己的特質和經驗,發揮自己的美德來做出決策;當原則和美德均無法提供清晰指導時,行為者應遵循相應的法律規定。最后,原則、美德、法律相互作用與制約。原則為美德培養與法律制定提供了基礎和方向;法律為原則執行提供保障和支持;美德為遵守法律和原則提供內驅動力。總之,原則、美德、法律三個層次共同構成了一個完整的倫理治理框架,能夠更好地管理和引導教育人工智能的發展和應用。

三、“原則-美德-法律”框架的構建要義

“原則-美德-法律”作為倫理原則有限性的補正框架,核心目標是使教育人工智能的開發與應用遵循倫理原則所明確的價值觀以確保技術向善。實現這一目標的關鍵路徑是使原則、美德、法律三大層次針對且有效地應對倫理原則有限性的各個方面,即做到原則構建可靠、美德培育有方、法律保障有效。

(一)確定可靠切實的倫理原則

原則層次旨在應對教育人工智能倫理原則自身的有限性。相較于美德與法律層次,原則層次的構建方向較為明確,即承認、彌合人工智能倫理原則在領域間、應用間、自身內的差異或矛盾,從而確定指向教育、可靠切實的倫理原則。

首先,要明確教育領域應用人工智能技術的目的。如果沒有明晰的教育目的,在教育中尋找人工智能倫理將是徒勞的。例如,“公平”被普遍認為是一項重要的教育人工智能倫理原則,但教育領域的“公平”至少存在起點公平、過程公平與結果公平三種不同的取向,采納不同的取向會形成對應的原則內涵與實現途徑①。又如,定義教育人工智能“福祉”原則需要對什么是“進步”或“利益”有明確的理解,即應用技術的目的是為了知識構建、社會化還是自我實現。只有在明確教育目的的前提下,才能解釋原則術語的指向與內涵。

其次,要明確倫理原則的目標對象與應用。教育人工智能包括應用開發人員、學生、家長、教育工作者、監管者等多種利益相關者。復雜的利益相關者構成必然會將對價值共識與規范的尋求引向脫離實踐的高抽象層次。未來,使人工智能倫理原則能夠有效指導教育實踐可以考慮兩種構建方向。一種是構建聚焦某類具體教育人工智能應用及其利益相關者的針對性框架,這需要對人工智能的應用目的有著清晰的界定。另一種是構建可調整的宏觀性框架,當它面對不斷發展的教育應用時,能夠進行自我優化而變得繼續適用,這需要其具有可持續性和彈性,以適應快速變化的科技進步和新的教育需求。

最后,要提升倫理原則的實踐指導力。教育領域現有的倫理原則側重從宏觀層面闡釋價值導向,它們雖然體現了教育領域的重要道德議題與愿景,但對其內涵缺少具有可操作性的說明。同時,內涵模糊會導致對原則的期待過高,進而引發原則間的沖突。提升倫理原則的實踐指導力有三種可能方向。一是明晰倫理原則的內涵。“人工智能倫理原則間矛盾的消解需要澄清術語上的歧義”[32],如教育人工智能中的“隱私”“公平”等原則具體指代什么,以及在不同的群體和背景下如何得到不同的解釋。實現這一點需要倫理研究者了解目前技術上可行的內容,如在機器學習中確保數據隱私的最佳方法及其成本等;二是縮小倫理原則的指導范疇。原則間緊張關系的存在意味著各原則的作用程度是有限的,它們必須在追求理想的道德假設與確保可行的務實結果之間取得平衡②;三是確定倫理原則的優先級。雖然教育人工智能倫理原則之間不存在嚴格的價值排序,但是在實際教育應用中,可以根據教育目的確定原則的先后排序,以權衡不同利益間的沖突。

(二)開展明確可行的美德培育

美德層次旨在從個體內驅力方面應對教育人工智能倫理原則實踐的有限性。美德層次構建的關鍵在于回答好“美德可教”這一前提性問題。“作為蘇格拉底道德哲學經典命題,‘美德可教’探討美德的存在形式及其傳達性”[33],即“教什么”和“怎么教”。

“教什么”指向教育的目標與內容,即明確人工智能美德要素。目前國內對于人工智能美德尚沒有一個清晰的界定。而在國際,對人工智能美德要素的探討起源于工程倫理。2008年,查爾斯·哈里斯(Charles Harris)指出,“在工程學中,理想的倫理目標即使用技術促進人類福祉”[34],據此,他提出了誠實、勇氣、同情、感恩四大技術美德。2016年,香農·瓦洛(Shannon Vallo)對技術美德內容進行擴充,并在其《技術與美德》一書中確定了十二種技術美德,即誠實、自控、謙遜、正義、勇氣、同理心、關懷、文明、靈活性、遠見、寬容和智慧[35]。在此基礎上,2020年,德國倫理學家蒂洛·哈根多夫(Thilo Hagendorff)指出,現有的技術美德在人工智能領域過于冗雜,需要結合人工智能實際需要構建篩選標準,這一標準即“美德A是否包含一種性格傾向,當其被人工智能從業者內化時,這種性格傾向會內在激勵他們在行動中‘自動’執行倫理原則所要求的事項”[36]。兩年后,哈根多夫基于這一標準正式提出正義(Justice)、誠實(Honesty)、責任(Responsibility)、關懷(Care)四項人工智能基本美德[37],并詳細解釋了這四項美德與諸倫理原則間的對應關系③。在四項人工智能基本美德的基礎上,哈根多夫還提出審慎(Fortitude)與堅毅(Prudence)兩項二階人工智能美德,以克服“有限倫理”對個體踐行四項基本美德的妨礙,如意義偏見、價值行動差距、道德脫鉤、情境與同儕影響等(如圖2所示)[38]。

“怎么教”涉及教育的方法和形式,即實現人工智能美德的個體內化。在明確美德要素的基礎上,哈根多夫結合道德心理學與行為倫理學,針對人工智能從業者個體與人工智能企業管理者,從個人層面與組織層面提出獲得或支持人工智能美德的十個維度。其中,個人層面包括美德知識、行動策略、控制感、公開承諾、審核與討論小組五個維度。組織層面則包括領導力影響、道德氛圍與文化、女性比例、減輕壓力與緊張感、接受批評的開放態度五個維度。除這種較為宏觀的培養維度外,牛津大學科學、創新和社會研究院路易絲·貝祖登豪特(Louise Bezuidenhout)等人提出了一種將美德倫理學對個人性格的強調與微觀倫理學的具體情境相結合的人工智能美德培育方法,包括四個遞進方面:一是“劃分日常行為”,即讓個體認識到構成日常人工智能開發活動的常規、重復行為不僅具有道德意義,而且是可以提供道德訓練的事件,并對這些行為進行劃分;二是“突出美德行為”,即識別所劃分日常行為的道德內容并提供相應的道德訓練;三是“認識角色多樣性”,即通過道德訓練使個體認識到人工智能開發涉及角色的復雜性,思考自身角色可能引起的個性化倫理問題;四是“將微事件與‘大局’聯系”,即在個體理解自身角色后,將日常行為與社會利益相關聯,以幫助其更好地理解日常工作中做出的決策和行為的社會影響[39]。

上述研究為培養教育人工智能開發者與應用者的美德提供了方向與途徑借鑒。但需注意的是,受文化和哲學傳統的影響,不同地區對美德的定義和強調存在差異。正義、誠實、關懷、審慎、堅毅等人工智能美德的選擇與提出受古希臘經典美德觀念的影響并帶有一定的宗教色彩。而在中華民族傳統文化中,亦存在仁愛、誠信、正直、和諧等可供借鑒的相關美德。因此,教育人工智能倫理研究需要充分考慮文化多樣性和差異性,探索基于中國文化傳統的美德觀念及適用于中國本土的美德培育路徑,從而推進我國教育人工智能技術的負責任發展。

(三)構筑穩健有效的法律保障

法律層次旨在從監督與規約方面應對教育人工智能倫理原則實踐的有限性。一項由八所高校學者開展的系統性文獻綜述(Systematic Literature Review,簡稱SLR)表明,缺乏道德知識、法律框架與監管機構是人工智能倫理治理實踐面臨的最嚴峻的挑戰[40]。其中,道德知識可以由原則方法自身或美德培育進行傳授,而法律框架與監督機構則有賴于法律層次加以保障。目前我國尚未正式出臺國家層面的人工智能專門立法。與之相對,國際相關研究亦不明確但起步較早,部分舉措及其爭議可為我國相關工作的開展提供鏡鑒。

完善人工智能法律框架是保障倫理原則的核心要務。法律框架、指南和標準被視為在國家人工智能戰略規劃中制定人工智能監管制度的第一步[41]。2018年,歐盟頒布了通用數據保護條例(General Data Protection Regulation,GDPR),旨在為公民提供更大的數據掌控權和隱私保護。兩年后,又通過了數字市場法(Digital Markets Act,DMA)與數字服務法(Digital Services Act,DSA)以期對數字市場和數字服務進行監管與規范。但如奧利維亞·埃爾德利(Olivia Erdélyi)所言,“幾乎每個受技術進步影響的領域都存在日益嚴重的法律真空”[42]。隨著人工智能技術的快速發展,現有法律框架已無法完全應對人工智能技術帶來的挑戰,越來越多的研究者呼吁開發新的監管工具與法律框架。在已有法案的基礎上,2021年4月,歐盟提出了全球第一個專門為人工智能開發的法律框架——《人工智能法案》(Artificial Intelligence Act,AIA),旨在為人工智能的開發與應用提供法律確定性。此外,《人工智能法案》還提供了第一個基于倫理風險的人工智能系統法律分類。但需要注意的是,目前《人工智能法案》的幾個要點,如數據處理、監管機構角色、風險定義、國際合作存在要求改進、修正與進一步澄清的呼聲[43]。此外,法案在人工智能治理中的具體作用及其治理模式的組合形式仍然是一個懸而未決的問題[44]。總之,盡管人工智能立法已受到越來越多的關注,但無論是作為學術議題還是公共政策目標,其仍然是一個相對欠發達的領域。

明確人工智能監管機構①是保障倫理原則的直接途徑。監管機構作為法律框架的落實保障,其職責是根據法律框架或標準規定對人工智能開發與應用進行監督,因此對其的討論往往與法律框架同時出現[45]。例如,歐盟《人工智能法案》在提出法律框架的同時,也指出要保障法律框架“順利、有效和協調的實施”,并暗示要成立一個新的歐洲人工智能委員會。鑒于這一政策話語,新的人工智能監管機構似乎很快就能出現,但實際上對于“是否應當成立一個獨立的人工智能監管機構”在當前存在極大的爭議。在學界,支持建立獨立監管機構的關鍵論點是,人工智能的管理與監管涉及對技術、法律與道德因素的復雜理解,將它們整合為一個整體可能會有所幫助。而反對者則認為,新的人工智能監管機構可能會重復現有國家機構的工作,且一個新的機構在運作、權力、范圍與關系上可能會與現有機構產生交叉或沖突,甚至存在監管俘獲風險[46]。在國家層面,對于是否應當成立一個獨立的人工智能監管機構亦存在分歧。例如,法國呼吁在歐盟層面建立與數據保護局(Data Protection Authority,DPA)類似的新的人工智能監管機構,但這一提議目前尚未被其他歐盟成員國接受;英國政府的公共生活標準委員會(CSPL)明確表示沒有必要建立新的人工智能監管機構,本國的數據倫理與創新中心(CDEI)完全可以承擔相關工作;與英國類似,美國近期擬議的法律也試圖賦予現有機構新的權力以監管人工智能的開發與應用[47]。同樣,人工智能監管的技術、法律、道德統合,獨立監管機構成立的必要性及向現有監管機構賦權的可能性亦是未來我國人工智能監管需要考慮的問題。

四、結語

目前,“原則方法”所構建的教育人工智能倫理原則在自身可靠性與實踐效果上均存在一定問題。其中,原則自身的有限性提示我們要提升原則的可靠程度,而原則實踐的有限性則表明僅依靠原則自身已不能有效應對教育人工智能的倫理風險。在完善倫理原則的基礎上引入美德與法律,進而構建起“原則-美德-法律”框架是補正原則有限性的可行路徑。但需要注意的是,人工智能作為算法、算力與大數據的技術集合體,存在明顯的“步調問題”(AI Pace Problem),即人工智能技術在發展過程中會呈現不斷加速的態勢,使得倫理原則、法律規范、管理條例等難以跟上其發展的速度而無法做出有效的決策、監管和控制。因此,任何人工智能倫理框架的構建都無法畢其功于一役,需要不斷地完善和更新以適應持續變化的社會和技術環境。“原則-美德-法律”框架的各個層次是否包含其他內容,三個層次間是否存在其他互動關系,抑或是否存在其他層次乃至新的框架,亦是未來教育乃至各領域人工智能倫理研究所需關注的問題。

參考文獻:

[1] Seldon A,Abidoye O.The fourth education revolution [M].London:Legend Press Ltd,2018.

[2] Hagendorff T.AI ethics and its pitfalls:not living up to its own standards [J]. AI and Ethics,2023,3(3):329-336.

[3][4] 白鈞溢,于偉.超越“共識”:教育人工智能倫理原則構建的發展方向[J].中國電化教育,2023,(6):9-17+24.

[5][6] Adams C,Pente P,et al.Artificial Intelligence ethics guidelines for K-12 education:A review of the global landscape [C].Cham:Springer,2021.24-28.

[7] Tuomi I.A framework for socio-developmental ethics in educational AI [C]. Hawaii:University of Hawaii,2023.6208-6217.

[8] 古天龍.人工智能倫理及其課程教學[J].中國大學教學,2022,(11):35-40.

[9] Morley J,Floridi L,et al.From what to how:an initial review of publicly available AI ethics tools, methods and research to translate principles into practices [J].Science and engineering ethics,2020,26(4):2141-2168.

[10] Kempt H,Freyer N,et al.Justice and the Normative Standards of Explain ability in Healthcare [J].Philosophy Technology,2022,35(4):248-266.

[11] IBM Corporation.Everyday ethics for artificial intelligence [EB/OL]. https://www.ibm.com/downloads/cas/VDO5W3JK mhsrc=ibmsearch_ amhq=Everyday%20ethics%20for%20artificial%20intelligence,2019-05-07.

[12][14] Rességuier A,Rodrigues R F.The Ethics of Artificial Intelligence in Education:Practices,Challenges,and Debates [M].London:Taylor Francis,2022.

[13] Holmes W,Tuomi I.State of the art and practice in AI in education [J]. European Journal of Education,2022,57(4):542-570.

[15][32] Whittlestone J,Nyrup R,et al.The role and limits of principles in AI ethics:towards a focus on tensions [C].New York:ACM,2019.195-200.

[16] McNamara A,Smith J,et al.Does ACM’s code of ethics change ethical decision making in software development [C].New York:ACM Press,2018.729-733.

[17] Munn L.The uselessness of AI ethics [J].AI and Ethics,2022,1(1):1-9.

[18] Vakkuri V,Kemell K K,et al.Ethically Aligned Design of Autonomous Systems:Industry Viewpoint and an Empirical Study [J].Electronic Journal of Business Ethics and Organization Studies,2022,27(1):4-15.

[19] Vakkuri V,Kemell K K,et al“.This is just a prototype”:How ethics are ignored in software startup-like environments [C].Copenhagen: Springer International Publishing,2020.195-210.

[20][25][29] Rességuier A,Rodrigues R.AI ethics should not remain toothless! A call to bring back the teeth of ethics [J].Big Data Society,2020,7(2):1-5.

[21] Campolo A,Sanfilippo M,et al.AI now 2017 report [EB/OL].https://assets. ctfassets.net/8wprhhvnpfc0/1A9c3ZTCZa2KEYM64Wsc2a/8636557c5fb1 4f2b74b2be64c3ce0c78/_AI_Now_Institute_2017_Report_.pdf,2018-10-02.

[22] Knight,W.Google appoints an ‘AI Council’ to head off controversy,but it proves controversial [EB/OL].https://www.technologyreview. com/2019/03/26/136376/google-appoints-an-ai-council-to-head-offcontroversy-but-it-proves-controversial/,2019-03-26.

[23] Koniakou V.From the “rush to ethics” to the “race for governance” in Artificial Intelligence [J].Information Systems Frontiers,2023,25(1):71-102.

[24] 吳紅,杜嚴勇.人工智能倫理治理:從原則到行動[J].自然辯證法研究,2021,37(4):49-54.

[26][36][37][38] Hagendorff T.A virtue-based framework to support putting AI ethics into practice [J].Philosophy Technology,2022,35(3):1-24.

[27] Floridi L.Soft ethics and the governance of the digital [J].Philosophy Technology,2018,31(1):1-8.

[28] Grosz B J,Grant D G,et al.Embedded EthiCS:integrating ethics across CS education [J].Communications of the ACM,2019,62(8):54-61.

[30] Anscombe G E M.Modern moral philosophy [J].Philosophy,1958,33(124):1-19.

[31] Nemitz P.Constitutional democracy and technology in the age of artificial intelligence [J].Philosophical Transactions of the Royal Society A,2018,2133(376):1-10.

[33] 張濟洲,黃書光.美德是否可教——論蘇格拉底的德性教化[J].教育研究,2013,34(4):76-81.

[34] Harris Jr C E.The Good Engineer:Giving Virtue Its Due in Engineering Ethics [J].Science and Engineering Ethics,2008,14(2):153-164.

[35] Vallor S.Technology and the virtues:A philosophical guide to a future worth wanting [M].Oxford:Oxford University Press,2016.

[39] Bezuidenhout L,Ratti E.What does it mean to embed ethics in data science An integrative approach based on microethics and virtues [J].AI Society,2021,36(3):939-953.

[40] Khan A A,Akbar M A,et al.AI Ethics:An Empirical Study on the Views of Practitioners and Lawmakers [J].IEEE Transactions on Computational Social Systems,2023,12(3):1-23.

[41] Papyshev G,Yarime M.The state’s role in governing artificial intelligenc e:development,control,and promotion through national strategies [J].Policy Design and Practice,2023,6(1):1-24.

[42] Erdélyi O J,Goldsmith J.Regulating artificial intelligence:Proposal for a global solution [C].New York:ACM,2018.95-101.

[43] Ebers M,Hoch V R S,et al.The European commission’s proposal for an artificial intelligence act—a critical assessment by members of the robotics and ai law society [J].Multidisciplinary Scientific Journal,2021,4(4):589-603.

[44] de Almeida P G R,dos Santos C D,et al.Artificial intelligence regulation:a framework for governance [J].Ethics and Information Technology,2021,23(3):505-525.

[45][47] Stahl B C,Rodrigues R,et al.A European Agency for Artificial Intelligence:Protecting fundamental rights and ethical values [J].Computer Law Security Review,2022,45(1):1-25.

[46] 白鈞溢.教育人工智能倫理治理:現實挑戰與實現路徑[EB/OL].http://kns. cnki.net/kcms/detail/50.1028.G4.20231211.1217.002.html,2024-01-26.

作者簡介:

白鈞溢:在讀博士,研究方向為技術哲學。

于偉:教授,博士生導師,研究方向為教育哲學。

The Limitations of Ethical Principles for Educational AI and Their Remedies

—A Discussion on the “Principle-Virtue-Law” Framework

Bai Junyi, Yu Wei

Faculty of Education, Northeast Normal University, Changchun 130024, Jilin

Abstract: The “principled approach” to ethical research in educational artificial intelligence aims to construct and teach ethical principles to mitigate the ethical risks associated with the application of AI technology in education. However, current ethical principles for educational AI are limited, which constrains their impact on educational practices. Specifically, in constructing these principles, individual characteristics or relationships within different industry sectors, educational applications, and even within the same framework have been overlooked. Moreover, these principles themselves lack the ability to influence the willingness of the target objects to put them into practice, and there is a lack of mechanisms that can effectively enforce compliance with these values and norms. Ethics, virtues, and laws together constitute the ethical foundation of artificial intelligence. To overcome the limitations of ethical principles for educational AI, it is necessary to introduce virtues and laws and construct a “principle-virtue-law” framework. The key to this framework is to address all aspects of the limitations of ethical principles by developing reliable and viable ethical principles, conducting clear and feasible virtue cultivation and building robust and effective legal safeguards.

Keywords: educational AI; ethical principles; boundedness; “principle-virtue-law” framework

收稿日期:2023年8月6日

責任編輯:李雅瑄

① “原則方法”這一概念由艾倫·圖靈研究所布倫特·米特爾斯塔德(Brent Mittelstadt)教授于2019年在分析國際人工智能倫理研究現狀后提出,這一概念目前已得到廣泛認可并被諸多研究使用。參見Mittelstadt B.Principles alone cannot guarantee ethical AI [J].Nature machine intelligence,2019,1(11):501-507。

① 這類研究主要是在宏觀倫理框架的基礎上增加符合本學段特征的倫理原則,如在K-12階段側重強調包括以學生為中心、差異化和個性化學習等方面的教學適當性,而在高等教育階段,關注更多的則是人工智能素養。

① “倫理漂藍”由耶魯大學教授盧西亞諾·弗洛里迪(Luciano Floridi)將環境倫理學“倫理漂綠”(Ethics Green Washing)概念類比到數字技術領域提出,指代部分人工智能企業通過市場宣傳、廣告以及其他公共關系活動,使人們相信他們的行為、產品與服務等合乎倫理原則,但實際情況并非如此的現象。

① 通常來說,后果論、義務論與美德倫理作為塑造西方道德哲學傳統的三大規范理論,共同構成了人工智能倫理原則的哲學基礎。但目前研究明顯傾向于義務論,并且具有“道德泛法律化”傾向。

① 很長時間內,教育人工智能中的“公平”傾向于過程公平。1997年,《計算機與教室:美國學校的技術現狀》指出,公平是“技術問題”而非“倫理問題”,最好解決策略是為社會經濟地位低下的教師和學生提供額外的技術來“創造公平的競爭環境”。(參見Coley R J,Cradler J,et al.Computers and Classrooms:The Status of Technology in U.S. Schools [J].Princeton Nj Educational Testing Service,1997:71.)。

② 當前教育人工智能倫理原則以集合而非層次結構的形式出現,這“暗示”著各原則要盡可能地實現。但倫理原則想要發揮實際作用則必須相互權衡。如在隱私保護方面,既需要保障學生的隱私和數據安全,又需要充分利用數據進行模型訓練和優化,在設計隱私保護策略時,需要考慮不同利益方的需求,做到原則的彈性適應。

③ 例如,正義美德對應公平原則,一個正義的人會“自動地”構建不歧視任何群體的人工智能應用,且不受外部因素的影響;誠實美德對應透明度原則,一個誠實的人會“自動地”公開錯誤,不隱瞞技術缺陷,使設計的人工智能易于理解和解釋;關懷美德對應安全原則,關懷美德將促使人工智能開發者與應用者承認安全與避免傷害的重要性,并采取相應的行動。

① 根據既定慣例,此類監管機構可以采取多種形式,如數字機構、獨立監管機構、檢查機構、公共部門監管機構或工作組等。

猜你喜歡
美德法律
法律推理與法律一體化
法律方法(2022年1期)2022-07-21 09:17:10
誠實是美德
黃河之聲(2022年2期)2022-06-22 08:44:30
法律解釋與自然法
法律方法(2021年3期)2021-03-16 05:57:02
法律適用中的邏輯思維
法律方法(2019年3期)2019-09-11 06:27:06
她是自立自強的美德好少年
逝前的美德
特別健康(2018年2期)2018-06-29 06:13:40
助人為樂是美德
讓人死亡的法律
山東青年(2016年1期)2016-02-28 14:25:30
“互助獻血”質疑聲背后的法律困惑
中國衛生(2015年1期)2015-11-16 01:05:56
讓法律做主
浙江人大(2014年5期)2014-03-20 16:20:27
主站蜘蛛池模板: 欧美一级在线| 暴力调教一区二区三区| 久久久噜噜噜| 无码精品福利一区二区三区| 亚洲精品无码专区在线观看| 伊人成人在线| 亚洲欧美成人综合| 福利一区在线| 欧美精品成人| 免费在线a视频| 国产成人毛片| 欧美日韩在线亚洲国产人| 亚洲精品va| 精品无码一区二区三区电影| 青青久在线视频免费观看| 亚洲国产第一区二区香蕉| 综合久久五月天| 亚洲日韩AV无码一区二区三区人| 超碰aⅴ人人做人人爽欧美 | 欧美色视频在线| 国产一级视频久久| 国产一级毛片网站| 日韩免费毛片| 国产玖玖玖精品视频| 人妻一本久道久久综合久久鬼色| 亚洲成人在线网| 国产乱人伦AV在线A| 无码av免费不卡在线观看| 国产精品第页| 亚洲人成网线在线播放va| 国产欧美精品一区aⅴ影院| 国产成人亚洲毛片| 第一页亚洲| 国产青青操| 91最新精品视频发布页| 野花国产精品入口| 国产91特黄特色A级毛片| 幺女国产一级毛片| 都市激情亚洲综合久久| 国产精品欧美在线观看| AV熟女乱| 人妻21p大胆| 国产9191精品免费观看| 亚洲国模精品一区| 制服丝袜一区二区三区在线| 亚洲综合一区国产精品| 日本免费一区视频| 欧美区国产区| 伊人色在线视频| 亚洲不卡影院| 国产资源免费观看| 亚洲高清无码久久久| 麻豆国产精品一二三在线观看| 日韩在线播放中文字幕| 久久精品国产在热久久2019| 美女裸体18禁网站| 久久久精品无码一区二区三区| 色偷偷综合网| 综合社区亚洲熟妇p| 91人妻日韩人妻无码专区精品| 视频一本大道香蕉久在线播放| 亚洲天堂网在线播放| 亚洲高清日韩heyzo| 亚洲Aⅴ无码专区在线观看q| 91精品国产丝袜| 特级毛片8级毛片免费观看| www亚洲天堂| 欧美成人免费午夜全| 亚洲一区无码在线| 久久精品丝袜| 视频一区视频二区日韩专区| 国产乱人伦AV在线A| 免费激情网址| 精品无码国产一区二区三区AV| 无码视频国产精品一区二区| 91福利免费视频| 久视频免费精品6| 666精品国产精品亚洲| 亚洲最大综合网| 99re热精品视频国产免费| 亚洲欧洲天堂色AV| 91福利免费视频|