陸 康,劉 慧,張 婧,任貝貝
(1.南京曉莊學院a.圖書館,b.幼兒師范學院;2.上海市網絡技術綜合應用研究所)
人工智能(Artificial Intelligence,AI)技術在工業領域被譽為“第四次工業革命”[1],AI等新技術已廣泛應用于多個領域,并受到全世界的廣泛關注,各國都在積極探索AI的多元化治理措施,以規避AI等技術創新應用所帶來的涉及安全隱私的風險。歐盟委員會為了有效應對這些挑戰并充分利用AI帶來的新機遇,于2019年4月8日以“建立對以人為本AI的信任”為題,發布了歐洲版的《人工智能倫理準則》,期望建立“以人為本、值得信任”的AI倫理標準,促進社會公眾接受并應用AI技術,本倫理準則確立了AI應當符合法律規定、AI應當滿足倫理原則、AI應當具有可靠性等三項基本原則[2]。同時提出“可信任的AI”應當滿足的七項關鍵要求,包括:人的自主和監督,可靠性和安全性,隱私和數據治理,透明度,多樣性、非歧視性和公平性、社會和環境福祉、可追責性[2]。與此同時,國家互聯網信息辦公室發布的《網絡信息內容生態治理規定》,在強調政府、企業、社會、網民等主體共同治理網絡信息內容的同時,也及時回應了算法推薦、深度偽造、流量造假、網絡暴力等熱點問題[3]。
AI技術的發展為圖書館的智慧化服務提供了契機。AI技術在圖書館的應用包括專家系統、自然語言的處理、模式的識別、機器學習與機器人參考咨詢服務、編目、分類、資源購置、敘詞表構建、自動索引、信息檢索、流通服務以及圖書館自動化服務等方面[4]。2003年5月,中國圖書館學會正式發布了《中國圖書館員職業道德準則(試行)》,以維護事業持續與健康發展[5]。雖然目前AI技術在智慧圖書館的應用處于初級階段,對“智慧圖書館”也提出了一系列的期望、愿景[6],但是AI技術的應用仍然需要顧及倫理、道德以及圖書館的傳統服務理念,在圖書館技術創新與服務創新中需要對AI等新技術應用加以規范約束,從而促進智慧圖書館的健康發展。
2019年,國際圖聯大會(International Federation of library Associations and Institutions,IFLA)組織舉辦的世界圖書館和信息大會會前衛星會議信息技術分會就“機器人在圖書館:挑戰或機遇”進行了探討[7]。隨著AI技術在文獻資源智能化的組織與標識、互聯網門戶平臺咨詢的智能化問答等方面日益深入,其與傳統倫理道德的沖突也不可回避,《人工智能倫理準則》為智慧圖書館服務創新提供了倫理規范的參考依據。
《歐盟人工智能戰略》指出,AI應當堅持“以人為本”的價值觀,認為AI本身并不是目的,僅作為服務人類的工具。因此,《人工智能倫理準則》的內涵包括以人為本的價值觀以及工具論等方面。“可信任”是確保AI“以人為本”價值觀的關鍵所在,AI應尊重人的基本權利,作為工具幫助人類,而不是奴役人類甚至取代人類。為了加強對AI的監管,歐盟先后制定了《一般數據保護條例》(General DataProtection Regulation,GDPR)以及《非個人數據自由流動條例》,前者確立個人數據的安全保護制度,后者則消除了數據共享的障礙等。AI最大的特點就是機器的自主學習,在無人工干預的情況下自主判斷與執行。以數據、算法與算力(計算能力)為支撐的AI基礎也存在著不可信任因素,其數據的不完整性,會導致人們的偏見和質疑。因此,為了實現“可信任AI”,該倫理準則確立了三項基本原則[2]:AI應當符合法律規定;AI應當滿足倫理原則;AI應當具有可靠性。AI應用效果或者引發危機的影響隨著場景的不同也存在著差異性,例如AI產品推薦服務比AI醫療診斷服務產生影響要小得多。
AI技術帶來的挑戰無處不在,其中引發的倫理和道德危機也是學界探討的熱點。“可信任”“可控性”等一直讓AI研究者們糾結,一方面,技術創新支持者熱衷于利用新技術、新方法對現有的社會服務體制與方法加以拓展、升華,進一步解放生產力,從而促進社會的發展;另一方面,傳統的捍衛者則更多地從“以人為中心”角度對技術創新可能帶來的倫理和道德危機,尤其是替代人類思考、決斷等行為表示擔憂。人的能動與監督,可靠性和安全性,隱私與數據治理,透明度,多樣性、非歧視性和公平性,社會和環境福祉,可追責性等七項要求,成為《人工智能倫理準則》得以落實的關鍵所在,也是AI獲得社會普遍認可的重要因素。
圖書館信息服務同樣存在著倫理道德問題,其中圖書館信息倫理包括隱私權的侵犯、知識產權的侵犯以及對讀者的歧視等,行業自律與職業倫理教育成為解決倫理道德問題的主要對策[8]。圖書館對倫理道德的研究由來已久,并制定了相應的對策機制,如建立信息倫理原則體系、制度規范保障、加強用戶信息倫理建設以及館員職業道德與職業倫理建設、建立審查機制、利用技術方法和推進信息立法等[9]。圖書館智慧服務發展不僅是技術的迭代升級,也涉及傳統服務模式的轉變,屆時人工干預的服務將逐漸減少,以數據決策為基礎的智慧服務逐漸取代傳統服務成為主要的服務模式,而這些都需要數據規范、隱私規范等制度加以約束。AI作為數據分析的執行工具,也需要進一步制度化、規范化,《人工智能倫理準則》則可以為圖書館AI治理提供參考依據。
互聯網信息技術的普及與發展使傳統的倫理問題陷入困境,并且變得越來越復雜。圖書館的文獻資源服務依靠信息技術開展,因此圖書館迫切需要適用于圖書館技術創新的倫理準則與規范的制度保障。Judd提出了信息時代提高倫理道德的三個準則:責任、預見、正義原則指導公平[10]。Severson則探討了信息倫理四原則:知識產權的尊重、隱私的尊重、公平參與以及無害[11]。圖書館領域的專家和學者也不斷從信息倫理準則研究視角提出加強圖書館讀者信息倫理及館員職業道德建設等措施,對規范圖書館行為以及提高讀者信息倫理意識起到了一定的作用。當圖書館進入“智慧”時代,復雜的技術創新環境給各種倫理規范的制定帶來新的挑戰,因此,歐盟頒布的《人工智能倫理準則》對AI發展政策具有重要的參考價值。“可信任”是AI是否適應社會發展的基本要求,雖然該倫理準則不具備法律約束力,但是在安全問題、個人數據保護、隱私保護以及環境保護等方面已經在其他的相關法律中做了一些規定。
國務院發布的《新一代人工智能發展規劃》明確提出了到2030年我國人工智能發展的“三步走”目標,在發展的每一個階段,人工智能法律法規、倫理道德規范和政策體系的逐步建立與完善都是必不可少的重要內容。面對AI時代崛起的治理挑戰,如何重構治理體系、創新治理機制、發展治理工具,是擺在決策者面前的重要難題[12]。西方社會的傳統道德理論“義務論、功利論、權利論”為智慧圖書館倫理研究提供了重要思想。Anderson對信息人員的系統設計、交易與使用過程涉及的倫理問題進行了大量的研究,并圍繞倫理理論對信息人員作出基于倫理準則的限定[13]。Johnson對信息倫理、信息系統與信息技術三者之間的關系進行了闡述與研究[14]。《人工智能倫理準則》的“可信任”價值觀為智慧圖書館AI倫理治理機制框架的建立以及治理路徑選擇提供了參考依據(見圖1)。

圖1 智慧圖書館AI倫理治理機制框架
人的主觀能動性是“以人為本”價值觀的具體表現,而圖書館長期以來堅持“以讀者為中心”的服務理念,也是秉承此價值觀,無論是數字圖書館時代還是未來的智慧圖書館時代,這個理念將會繼續延續。智慧圖書館是復雜的有機體,既包括技術創新引發的業務變革,也需要相應的制度完善來約束過度創新造成的倫理和道德危機。AI時代,智慧圖書館需要保持人的主體性,同時AI技術的應用也要增強人的自主性,保障人的基本權利,幫助圖書館館員基于業務需要及用戶需求等目標作出便捷、人性化的選擇,從而提升圖書館智慧服務效率。無論是館員對AI的全面監督,還是用戶對AI實施過程和結果的監督,這些都是為了確保AI不會降低人的自主性,或者因此帶來的其他負面影響。雖然AI最終的目標是降低或消除人類對系統的干預,但是從倫理角度來考慮,實施適當控制措施還是有必要的。AI技術在應用推廣前需要經過測試與管理,但是在復雜的互聯網環境,任何組織和個人都無法保證其可控性。圖書館對AI的監督可以通過治理機制來實現,如人機(控)回環等方式。此外,行業內部、公共管理部門等執法機構根據相關法律法規擁有對整個AI項目的監管權。
“可信任”的技術才能促進創新發展。AI技術要求其內部所使用的算法要具備可靠性與安全性,這就要求在設計的“算力”范圍內完全能夠應對、處理整個生命周期的數據以及自身引起的各類錯誤結果。AI技術的可靠性與安全性也同樣要求其具有防御來自外部攻擊與干擾的能力,包括外部網絡攻擊的公開行為以及數據控制爭奪權算法等隱蔽行為。AI技術的可信任取決于分析結果的準確,或者能夠正確反映其準確率,其結果具備科學性、可重復性等。在設計、測試過程中,AI也應該遵循每項運行步驟所具備的可驗證安全性,即AI在正式運行過程中,意外和錯誤出現的處理方式也必須是及時的、最小化的、可逆的。AI技術在圖書館智慧服務中的應用涉及用戶數據安全與隱私保護問題,需要技術可靠性驗證以及環境安全性的保障。AI在智慧圖書館中應用的可靠性與安全性需要館員和用戶對系統運行的異常行為進行分析,并根據事先建立的評估程序進行潛在風險的規避,從而進一步完善AI應用效能。
當前AI倫理主要討論技術設計者和使用者等主體的道德責任問題[15]。由于利益驅動是造成倫理問題出現的重要因素,因此圖書館在引入AI技術進行技術創新和服務提升的同時,應當主動承擔相應的道德責任。AI不僅可以幫助圖書館掌握用戶的需求和偏好,還可以通過特定的分析模型,推斷出其他信息,如宗教信仰、政治觀點等。推薦算法的治理已經逐步開始實踐,如GDPR通過賦予用戶選擇與控制權力來解決用戶畫像與自動化決策過程中所涉及的隱私問題。圖書館應該占據AI技術在圖書館使用過程中的主導地位,從宏觀、微觀等多方面對AI的實施過程予以有效管理,如在數據處理過程中必須確保數據主體(用戶)對涉及自身的數據擁有完整的控制權,并且保證用戶不會因為這些數據造成傷害或者歧視。除了保護個人隱私數據外,AI應用效果的提升還需要一些外部條件的支持。對于指定的數據集,在使用特定的分析模型進行訓練時,一些不能全面反映問題的數據集合需要予以調整,如擁有理工科背景的讀者其閱讀偏好并非理工類文獻資源等。另外,AI應用存在數據的完整性挑戰,其使用方法以及數據集在計劃、訓練、測試與應用過程中必須進行如實記錄,并需要嚴格執行數據訪問控制權限的劃分。
AI與其他技術創新不同,其發展最終可能創造出與人類相同甚至超越人類智慧的自主性智慧體。因此,AI倫理問題也不同于其他倫理問題。錯誤是幾乎可以讓所有技術造成傷害的潛在威脅,對于AI來說,錯誤也許就是技術的本身[16]。技術設計與應用等傳統倫理問題不再是AI關注的重點,實施整個業務流程體系的倫理自主性逐漸成為AI倫理所關注的焦點。所以,圖書館作為使用AI技術的主體,其業務流程以及數據使用的透明性也成為AI倫理問題的關鍵。AI時代,智慧圖書館服務應該要具有全流程的可追溯性機制,即圖書館要規范、如實記錄系統中所做以及產生決定的全過程,如收集數據過程、數據標記過程以及選取的算法描述等。AI技術的應用必須為圖書館業務提供決策思路以及系統方案設計選擇理由,這樣才可以全面地保證數據與業務系統的透明性。AI技術在圖書館中的應用多數以商業領域成熟的實踐案例為基礎,進而拓展到相關業務的迭代與升級。使用場景的不一致容易導致AI能力存在不足,因此AI只有與業務進行有效融合,才能提升業務效能,這就需要圖書館不斷進行完善,其中業務流程、數據使用的透明性是關鍵因素。總之,AI在圖書館的應用必須是可識別的,以保證使用者知道AI在與哪個系統進行交互操作,從而落實相應的責任。
AI需要大量的數據集進行訓練,而訓練數據與應用數據應該存在著相似性或者特征一致性,否則會影響應用效果。在復雜的大數據環境,數據集的選取方式至關重要。雖然AI的“能力警惕”概念一直存在爭論,并且“我們應該避免關于未來AI上限過高的假設,但這些并未達成共識”[17],數據集(無論是訓練“數據集”還是應用“數據集”)仍然存在著無意識的偏見,數據完整性和模型治理不準確等問題的存在會影響圖書館AI的應用效果。當然,圖書館作為AI應用的主體,始終需要保持中立,不能故意利用偏見或者從事一些容易造成不公平的行為,這些問題需要在AI設計、開發之初就應解決。因此,AI技術的應用需要圖書館進行統籌規劃,做好技術團隊建設,形成技術保障,這樣才會盡可能避免上述問題的出現。圖書館還需要對AI生命周期內可能涉及的利益相關者不斷進行咨詢,如用戶,傳統服務商等。這些措施也有助于在公平性基礎上實施AI的應用普及。AI在圖書館的應用開發也應考慮不同用戶的能力與需求,以提升AI的易用性,如視障人士的閱讀需求等。
AI安全與隱私保護問題主要是從個人角度進行考慮的。雖然AI倫理問題反復強調技術為人服務、“可信”于人,但是就促進社會發展而言,全局觀也是我們要考慮的。對于圖書館而言,智慧服務可以提升整個圖書館的運行效率,也能夠通過精準服務提升用戶的滿意度與忠誠度[18]。圖書館在AI行業標準缺失的情況下,需要借鑒《一般數據保護條例》(GDPR)以及《信息安全技術個人信息安全規范》等標準,同時運用自律與其他法律規范相結合的方式促進圖書館數據的規范化使用,以滿足圖書館服務于社會需求。圖書館員、用戶也應認真考慮AI應用對整個社會公共治理相關活動的影響,特別涉及數據決策和生態文明建設方面。此外AI在幫助圖書館提升服務水平的同時,也可能導致圖書館員某些技能的退化,如文獻編目技能。因此,圖書館要對AI應用在館員、用戶所具有的專業技能的影響方面進行充分考慮。圖書館行業的自律管理機制在不斷完善,圖書館用戶獲得最大的選擇與控制權限,避免、限制虛假信息的傳播,這都是未來圖書館技術創新過程中首要考慮的內容。
為了便于監督與管理AI在圖書館中的應用,應該制定數據溯源的規則,使AI成為具有可追責性的AI,這樣才能夠提升用戶對圖書館的信任。因此,圖書館應當建立分級責任機制,確保行業監管、執法監管機構能夠對AI應用及其結果進行追責。圖書館也需要由內部審核人員、外部審核人員組成評估小組對AI項目開展評估并出具相應的評估報告,這是保障用戶以及相關人員能夠對AI項目進行追責的關鍵因素。政府也應參與到對AI行業規范的制定中,政府的直接參與可以讓圖書館AI可追責機制進一步規范化。當前,AI在賦能智慧圖書館的同時,也存在著一定的負面影響。因此,在AI項目實施之前,圖書館應該建立事前識別與評估機制,并在訓練過程中及時優化模型,以降低風險系數。對于涉及用戶隱私、個人權利的AI應用,應該確保其具有外部第三方審計的可行性,以保障用戶、圖書館基本的權益不受侵害。
雖然目前AI在圖書館領域的應用僅限于智能問答系統、文獻資源自動標引等具體業務,并未支撐起以大數據作為分析對象的全面的智慧服務系統,但是圖書館應該從設計層面加以考慮,并從制度層面、倫理角度以及技術層面等方面與業務實現有效融合,以規避可能存在的倫理“空場”、個人主義、自由與尊嚴、隱私與安全等問題,做到逐一排查并制定相應的預警方案,降低AI可能產生倫理危機的風險。在這些方面,《人工智能倫理準則》的七項要求為智慧圖書館倫理規范制度框架的制定提供了參考依據。
圖書館是一個公共服務機構,“以讀者為中心”的服務理念與AI“以人為本”的倫理準則存在著相似性。引入“可信任”的AI應用,是實現智慧服務的重要途徑之一。圖書館AI應用無論是從訓練數據的選取,還是模型的設計,都要考慮倫理規范,并與利益相關者(如用戶、館員、開發者)以及公共監管機構聯合開展評估與反饋。圖書館需要通過群體協商的方式加強認識,完善技術方案,彌補可能存在倫理失范的漏洞,并且要與時俱進,對于新技術、新方法的引入與傳統業務產生的沖突進行不斷調和,通過完善制度體系來約束新技術、新方法所引發的倫理道德問題。