龔超

2021年9月25日,國家新一代人工智能治理專業委員會發布了《新一代人工智能倫理規范》(以下簡稱《倫理規范》),旨在將倫理道德融入人工智能全生命周期,為從事人工智能相關活動的個人與機構提供倫理指引?!秱惱硪幏丁诽岢隽嗽鲞M人類福祉、促進公平公正、保護隱私安全、確保可控可信、強化責任擔當、提升倫理素養等6項基本倫理要求,同時也提出了人工智能管理、研發、供應、使用等特定活動的18項具體倫理要求。
然而,據筆者調研發現,倫理往往是中小學教育中最容易被忽視的內容。以幾家不同出版社出版的高中人工智能教材為例,涉及人工智能倫理的內容平均篇幅占比不足5%,少數教材中對倫理甚至只字未提。中國的人工智能倫理研究任重道遠,筆者結合相關文獻資料及自身給中小學師生培訓經驗,淺析中小學人工智能倫理教學,借以拋磚引玉,望有更多相關人士建言獻策,推動中國中小學人工智能倫理教育的發展。
雙輪驅動文理兼修,不可忽視的人工智能倫理
人工智能,作為一門增強人類改造自然、治理社會的新興技術,涉及諸多人與社會價值的問題。相對于英、美、日、韓等國家而言,中國的人工智能倫理研究存在一定的滯后性,這與中國人工智能其他領域研究的快速發展已經不相匹配。毫不夸張地說,離開了倫理的約束,人工智能好比一匹脫韁野馬,風險將大大增加。
倫理是人工智能知識體系中不可分割的組成部分,也是中小學人工智能教育中最為重要的內容之一。以社會主義核心價值觀為指導,強化人工智能倫理教育,從小樹立正確的價值觀是中小學人工智能教育的重中之重。要打造不同學段進階、課程體系完善、知識內容豐富、教學形式新穎的人工智能教學體系,人工智能倫理教育必不可少。
了解什么是人工智能倫理,要先從認識機器倫理開始。機器倫理的出現早于人工智能,學界通常認為,米切爾·安德森等學者最早提出了機器倫理的概念,即如何關注機器的倫理屬性。2004年《走向機器倫理》一文的發表,為機器倫理學奠定了理論基礎。其實,人們對機器引發的倫理問題很早就有關注。比如非常知名的機器人三定律,是科幻作家艾薩克·阿西莫夫在其1942年的短篇小說《轉圈圈》中提出的??刂普搫撌既酥Z伯特·維納在1950年出版的《人有人的用處》一書中,也道出了一些機器帶給人類風險的思考。
正是因為人工智能涉及人類智能的某些特征,人們在與其交互的過程中不可避免會引發倫理方面的風險。因此將人工智能技術的發展與倫理問題進行同步討論是十分必要的,這點在中小學人工智能教育中尤為重要。
巧用科技影視作品,思考強人工智能倫理問題
一些知名的學者、企業家均表達過對人工智能引發人類災難的擔心。斯蒂芬·威廉·霍金曾說,人工智能研發的成功有可能成為人類歷史上最大的事件,但是它也可能成為人類文明的終結,除非我們學會如何避免危險。比爾·蓋茨就曾公開發表言論,擔心幾十年后人工智能會強大到足以令人擔憂的地步。埃隆·馬斯克也說過,人工智能是關系人類文明存亡的最大威脅,是汽車事故、飛機墜毀、濫用藥物或劣質食品都比不了的威脅。
不少學者還擔心另一個議題,即奇點的來臨。奇點是一個臨界點,一旦超過該點,人工智能就會對人類產生巨大影響。奇點一說并非一蹴而就,計算機之父馮·諾伊曼在與控制論創始人諾伯特·維納談話中受到啟發,引入“技術奇點”。2005年,人工智能專家瑞·庫茨維爾在其《奇點臨近》一書中提出了2045年機器智能將超過人類智能,一時間引發了人們對人工智能倫理的廣泛討論。
其實,這些言論都屬于強人工智能討論范疇,也就是當人工智能擁有了自我意識后引發的一些倫理風險問題。從目前的發展來看,強人工智能引發的倫理問題仍然處于假設階段,然而由于一些文學影視作品帶來的沖擊激發了人們對于未來人工智能發展的無限遐想與擔憂,這種憂慮甚至蔓延到了中小學。比如,根據對教師的調研可知:小學高年級的一些學生開始擔心人工智能會取代未來的工作甚至毀滅人類,因此在學習、生活上產生了消極心理;還有一些學生認為未來的人工智能會包辦一切,因此無須好好學習。這些誤區都需要加以糾正。
針對強人工智能引發的倫理問題,教師可以通過結合豐富的影視作品片段,如《阿凡達》《她》《機器姬》《機器崩壞》《超驗駭客》等,詮釋影片中技術引發的倫理問題,甚至可以讓學生們參與討論,切身體會未來科技下的倫理問題。
算法歧視層出不窮,如何思考背后倫理問題
算法歧視是弱人工智能范疇下備受熱議的倫理問題之一。近幾年,運用人工智能導致偏見的問題屢見不鮮。早在2015年,Google Photos使用的圖像分類器就曾將一名黑人女性“歸為”大猩猩類別。無獨有偶,2020年,有Facebook用戶在觀看完某黑人的視頻時,收到了是否繼續觀看靈長類動物視頻的信息。
除了種族歧視外,人工智能技術中還存在著一定程度的性別歧視。比如一些學者指出,像IBM、微軟以及亞馬遜等公司,在利用人工智能處理海量簡歷進行打分篩選時,對女性應聘者產生了嚴重的偏見。另外,在廚房工作的男性,也被人工智能識別成了女性。
當然,人工智能產生的“歧視”問題遠不止這些,比如價格歧視、身份歧視、就業歧視、教育歧視、信貸歧視等,層出不窮。教師可以帶著學生一起思考并討論這些由人工智能歧視引發的倫理問題。一方面,某些人工智能算法的不可解釋性制約了人工智能倫理的研究與發展,從而催生了當下一個熱門概念——可解釋的AI(Explainable AI,簡稱XAI)。另一方面,很多倫理的偏見也產生在數據環節,而有關數據收集、整理與分析等相關知識,在中小學階段也是比較容易被忽視的內容之一。
比如針對某算法將黑人照片“美化”成白人照片,圖靈獎得主楊立昆認為這是數據的偏差所致。麻省理工學院研究人員喬伊·博拉姆維尼認為,人工智能是建立在數據基礎上的,數據反映了我們的歷史,過去的不平等一直存在,人工智能很容易受到數據的偏見影響,因此她創立了算法正義聯盟(Algorithmic Justice League),旨在挑戰人工智能帶來的偏見。2016年,微軟曾推出人工智能聊天機器人Tay(設定為一個什么都不懂的19歲美國女孩)向線上的用戶互動學習,然而不到一天時間,微軟就關閉了該服務。原因是網上的惡意言論(數據)將其徹底“教”壞,成為一個飆臟話和種族歧視的“不良少女”。
隱私保護不容忽視,提升自我安全防范意識
大數據往往被稱為信息時代的石油。人工智能能夠再度崛起,一個重要原因就是得益于大數據。然而,大數據收集與分析帶來的諸如隱私權等問題越來越被重視。以人臉識別為例,《信息安全技術個人信息安全規范》明確指出指紋、聲紋以及面部識別等個人生物識別信息屬于個人敏感信息。因此在中小學階段,一定要教育學生學會保護自己的敏感信息,避免被他人擅自采集。像照片中V字手,又或是娛樂App中上傳人臉等,都存在個人敏感信息泄露的風險。
比如,中小學教師在課堂上展示換臉等人工智能技術帶來的強大功能時,也應該將deepfake等技術帶來的危害一并告知學生。比如網上流出的某國總統發言的視頻,其實是某大學研究團隊“偽造”的,利用人工智能技術可以做到偽造人物的發音與嘴唇都嚴絲合縫。這就是人工智能技術雙刃劍的體現,在其推動社會發展的同時,我們更要思考人工智能會帶來哪些不良的影響。
另外,在中小學生掌握人工智能技能的同時,教師還要教育他們提升倫理責任意識,切勿做一些違反法律或倫理準則的事情。近幾年,國內時有發生中學生利用技術手段非法獲取信息,或是被不法分子利用從而釀成大禍的事件,這與倫理教育的缺失也存在一定的關系。
很多中小學教師感慨在人工智能倫理方面沒有太多內容可以教授,事實并非如此。除了上述問題外,人工智能倫理中的電車困境、控制權歸屬、責任擔當、身份認同、公平公正等話題,都是人工智能倫理教育需要進一步探討的問題。
中小學人工智能教育中,不僅要教授人工智能的知識、訓練人工智能的技能,更要隨時進行倫理教育,讓人工智能知識技能與倫理雙輪驅動,讓學生認識到科技帶來的利與弊,從小樹立正確的價值觀,培養科技向善的意識。