周游
2017年4月,美國《Nature》雜志發表的一項研究成果表明,當智能算法通過分析處理人類書寫的文本來學習詞句的含義時,也會獲得類似于人類偏見那樣的刻板印象。算法,是人工智能自主決策的關鍵。人工智能的應用,為人類社會帶來巨大機遇的同時,也帶來因算法而導致的歧視、錯誤等問題。因此,加快建立人工智能算法審查機制有助于維護我國國家、社會安全和搶占產業國際話語主導權。
建立算法審查機制的必要性
算法本身無法實現技術中立。技術是中立的,但算法本身不是中立的。一方面,算法的基礎是數據,基于錯誤的或者不準確的數據,算法決策得出的結論自然是錯誤的、有偏差的;另一方面,算法是人工智能的底層構架,算法過程看起來是非人為的決策行為,但其實,算法內嵌程序不可避免地會帶入設計者的價值取向、倫理道德素質、指標標準、結果導讀等因素。
算法本身不具有公開透明性。智能時代,人類將選擇權和決策權讓渡給算法,就必然導致算法將成為監管的核心。算法具有高度技術性,其運行機制和決策依據, 只有程序員和相關人員能夠知曉,競爭性商業機密也往往成為算法不能向公眾公開、透明的主要緣由。因此,必須有相應的機制能夠對算法進行監管,能夠在公眾質疑時公開或予以解釋,以此保證算法是符合公眾利益、倫理道德取向以及沒有違反現有相關法律制度。
算法在一些領域已經開始主導人類選擇方向和內容。搜索引擎、瀏覽器、新聞客戶端等,憑借強大的算法,分析并解讀用戶的使用習慣和興趣,可能會不斷地向用戶推薦大量魚龍混雜的信息。算法淪為商家追逐利益的工具,“標題黨”泛濫,價值取向跑偏,內容淪為附庸。同時,算法基于特定標準的推薦還會導致用戶封閉在自我喜好和習慣的信息孤島之中,制約獲取異質化信息和內容,長此以往,將導致人類自我封閉,不利于創新。
可借鑒的國外算法規制經驗
美國加強行業自律制定算法基本原則。2017年1月12日,美國計算機協會下屬美國公共政策委員會發布文件,闡述了關于人工智能算法透明化和可責性七條原則。具體如下:(1)公眾對算法的了解,應該讓公眾了解自動決策的程度。(2)錯誤決策的救濟,對錯誤決策可以進行調查并予以糾正。(3)責任認定,算法設計者而不是系統本身對基于此算法所做出的決策負責。(4)解釋,無論算法的邏輯構架多么復雜,都必須能夠用人類語言進行解釋。(5)數據來源及可靠性,算法設計者應該對訓練數據的來源及可靠性加以說明。(6)可審查性,算法設計機構應記錄模型、算法、數據和具體決策,以便在解決出現的問題或依法監管時有據可查。(7)驗證和測試,算法應用機構應采取可靠的技術手段對其算法的程序進行驗證,以提高基于此算法所自動做出的決策的可信度。由于包括技術、經濟和社會等在內的很多因素,算法所作出的決策可能是不透明的或具有某種導向,算法偏見或歧視可能對公眾產生危害,上述原則的確立是通過算法透明化及可追溯性,盡量減少潛在的風險及危害。
美國對公共政策算法立法規制及核心內容。2017年12月1日,紐約市議會通過了《政府部門自動決策系統法案》(以下簡稱《法案》),這是美國針對人工智能算法進行立法監管的首個法案,其目的在于促進政府自動決策算法的公開、公平,提高政府決策智能算法的公信力。其核心內容包括三個方面:一是厘清自動決策系統概念;二是制定對公共政策自動決策系統算法審查的規則;三是建立政府決策算法開源和公眾問責機制。《法案》規定,由市長或指定人士召集成立專門工作機構,組成人員主要包括自動決策系統技術專家、代表受政策影響公眾的公益組織人士,其職責是制定相關規則,對公共政策自動決策及其算法的公平性進行審查。
其他國家關于算法的相關規制。其他國家普遍的做法是在人工智能細分領域相關的法規或倫理道德規范中對算法制定相關規則,會專門制定算法的法律法規。2017年2月,歐盟議會通過《機器人民事法律規則》,其中有關于算法的倫理道德規定:強調透明原則,即對某個人或更多人的生活可能產生實質性的影響,借助于人工智能所做出的決策,必須在任何情況下都可以提供其決策背后的算法設計規則。2017年6月,德國提出全球首個自動駕駛汽車倫理原則《自動和聯網駕駛》,其中針對算法有三個原則:當危險情況不可避免時,保護人類生命優先于其他權益方,為了避免造成人員傷亡,允許在決策算法中事先設定讓動物或財產遭受損害;道德困境下的決策依賴于現實中的具體情況,不可能事先將其進行標準化編程;在事故無法避免時,嚴格禁止基于人的特征(年齡、性別、生理或者心理狀況等)做出歧視性的算法決策,同時不得犧牲不相關方。
對策與建議
一是制定算法法律法規,搶占人工智能戰略制高點。算法是人工智能的核心,決定人工智能的決策程序、價值取向和發展方向,我國應盡快對算法進行立法,加強人工智能頂層設計,搶占人工智能發展先機與戰略制高點。首先,加快推動算法倫理道德規范出臺,厘清算法倫理道德規范和算法法律的界限。其次,在此基礎上,以算法為規制對象制定法律法規,約束和規范算法設計及決策等行為。立法的主要方面應該包括但不限于:一是厘清算法的概念及應用范疇;二是制定對算法的審查規則;三是把部分倫理規范融入法律規則,強化對算法設計者遵循社會倫理道德的法律約束力。
二是設立專門機構,構建全過程監管機制。建議有關部門成立算法審查專門機構,組成人員可包括職能部門人員、計算技術專家、產業界人士、法律專家、社會團體或公益機構人員等不同利益方。專門機構應該進行全過程的監管,包括:事前,算法設計者向專門機構提供算法相關技術及決策依據的說明,并進行備案;事中,專門機構加大對算法與決策的隨機抽查力度,從技術上對算法進行審查檢驗,對錯誤決策進行糾正;事后,通過構建算法問責追溯機制,為公眾建立算法決策的申訴渠道,接受公眾對算法的質疑,要求算法設計者針對算法進行必要解釋和說明。
三是開展相關研究,夯實算法應用基礎。一是加強對算法在人工智能領域的技術開發和應用,開展預測、研判和研究,準確把握技術和產業發展的趨勢;二是加大資金扶持,研究和評估算法決策應用對社會秩序、價值導向、社會倫理等方面的影響,開展防止算法歧視的研究,強化前瞻性預防和引導;三是加緊對算法設計人員和算法提供者在法律以及道德倫理方面的教育,提高公眾對算法技術和相關知識的認識和了解程度。