蘇啟敏,陶燕琴
(廣州大學教育學院,廣東廣州 510006)
人工智能(Artificial Intelligence, AI)是正在蓬勃發展的技術領域,是人類學、語言學、腦科學、神經科學、計算科學等學科的融合與運用,借助計算機等機器來模仿人類行為或思維中的認知屬性,并能處理海量的數據信息,從而在不同環境中自動解決問題以實現特定的目標。美國同樣重視人工智能技術的研發,人工智能滲透至美國的各行各業,在人們日常生活的交往中編織了一張巨大的“智能信息網”。本文主要研究了美國教師專業道德守則如何回應人工智能時代的道德挑戰及產生的新動向。
基于計算機體系的人工智能技術離不開互聯網、多媒體等媒介載體,它們是人工智能子域——機器學習的運用。例如,蘋果公司(Apple)的智能語音助手軟件,國際商業機器公司(IBM)的數據云包、沃森助手,谷歌(Google)的智能搜索引擎、谷歌助手、谷歌郵箱智能自動回復等。顯然,人工智能借助商業機構或運營商開發的平臺或軟件來影響人們生活的方方面面,通過社交媒體和其他網絡平臺的交流,能夠突破時空局限,這使教師愈難區分私人生活、公共生活和專業生活的畛域。在不同生活領域的交叉地帶中,教師面臨著專業道德失范的風險。
人工智能時代的網絡生活,使教師的專業道德邊界意識削弱。人工智能技術變得對用戶友好且易于使用,教師容易在無意中形成在家里、學校或者其他非學校的公共領域中使用技術可以不用考慮教育后果的想法。教師因使用網絡媒體發生的失德行為受到普遍關注。從2018年到2020年,美國愛達荷州教育部門處理了61起教師失德行為事件,其中有14起事件是教師在使用“閱后即焚”(Snapchat)的圖片社交軟件、基于游戲的學習平臺“卡胡特”(Kahoot)、“臉書”(Facebook)等網絡媒體時發生的失德行為。[1]
首先,教師利用網絡媒體的“跨時空性”“交互性”對學生做出失德行為,違反了師生之間的交流與關系邊界。如2019年愛達荷州專業標準委員會(Idaho Professional Standards Commission)對教師喬丹·懷特(Jordan G.White)實施吊銷資格證的懲罰,原因在于他違反威斯康星州的法律條例,使用電腦或其他通信系統促成兒童性犯罪。其次,教師僭越專業生活、私人生活的邊界,使用網絡媒體做出與學校的金錢、財產有關的不道德行為,如2018年愛達荷州凱利主教高中教師使用學校分發的手提電腦在家和學校瀏覽色情網頁。其他各州媒體也有報道,教師因不當行為而受到公眾的指責愈加頻繁。得克薩斯州、佛羅里達州、馬里蘭州、加利福尼亞州、賓夕法尼亞州的一些教師使用“臉書”“聚友網”(My Space)等社交平臺做出不當行為,使教師私人生活、公共生活和專業生活的界限愈加模糊。有關“聚友網”的研究也正好表明社交過程的越界可能,這些可能將媒體技術、文化、話語實踐和具體用戶交織在一起,它們都被視為從物理空間擴展到數字空間的網絡中相互塑造的參與者。因此,將身體、性別和性與賦予其形式和意義的網絡技術區分開,變得越來越困難。[2]
其中,師生關系的邊界僭越屢見不鮮,在情感、道德、心理等方面對學生造成傷害的風險攀升,導致學生安全感的降低。這在某種程度上也反映了教師在網絡社交生活中對于保持師生邊界的意識不強。一項關于美國教師道德或不道德行為的調查研究表明,在“教師無法識別私人和公共行為的邊界”這個維度中,教師通過臉書、推特(Twitter)或者其他社交媒體網站與學生進行“非專業問題”的交流,在所有原因中的占比排名第一。[3]社交網絡既可以作為教師專業生活中的教育工具,也是教師私人生活和公共生活的一部分,因此在沒有確定教師的專業道德邊界時,極容易造成教師失德行為的發生。
在人工智能時代,教師的數據道德涉及教師在教學過程中如何處理數據以及做好數據的保密工作,從而不因數據使用不當而傷害他人。數據的形式多樣,有的是人們有目的地產生的電子圖片、視頻、社交媒體網站上的帖子等,有的是人們在某一時刻無意做出的動作、表情、神態等,它們被技術設備捕捉而成為數據,這些都是支撐人工智能技術對不同問題進行自動分析的資源,而臉書或谷歌等平臺恰好是產生數據的途徑。人工智能、大數據以及其他諸如個人計算機與智慧設備等可行的技術相結合而成的“智慧信息體系”,其局限性在于容易侵犯人類權利。具體而言,借助網絡媒體為媒介的人工智能容易造成教師數據道德的缺失。
一是教師通過互聯網等技術平臺獲取并不當使用他人的作品成果,侵犯他人的知識產權。學者大衛·巴雷特(David E. Barrett)等人曾對美國593名教師做了包括41種失德行為的利克特量表調查,結果發現教師直接使用從萬維網上下載的課程而不是自己設計的課程占47.9%,在教師所有“頻繁”而不是“嚴重”失德的行為中排名第二。[4]教師這種直接從網上下載課程使用的行為,在無形中侵犯了他人的知識產權。正如美國國際商業機器公司在2018年的《信任和透明原則》中所提到的,在人工智能時代,數據與深刻洞見屬于它們的創造者。顧客通過云端和人工智能產生的數據與深刻洞見同樣屬于顧客自己。[5]這就說明了如若需要使用他人數據進行研究或用于其他目的,需要征得他們的同意,否則就構成侵權的不道德行為,這也是人工智能時代教師專業道德亟須引起重視的問題。
二是教師在互聯網、多媒體上對學生或他人信息的不當使用,難以保障對方隱私權。2008年,美國康涅狄格州的“西班尼爾曼和休斯”(Spanierman v. Huges)判例指出,教師在“聚友網”網上社區創建了一個“蜘蛛俠先生”的個人網頁,在學生照片旁有“裸體男性”的照片,照片下面也有不當言論。顯然,教師對學生照片的使用,更多是出于私人生活的娛樂而非專業生活的目的,侵犯了學生的隱私權。為了應對“技術與道德”兩者對立的局面,美國智能社區(Intelligence Community)在2020年為實施《人工智能道德原則》而發布《人工智能道德框架》,英特爾公司(Intel Corporation)在2018年發布《人工智能隱私權政策的白皮書:在人工智能世界保護個人的隱私和數據》,國際商業機器公司提出《信任和透明原則》,上述文件都談及人們使用人工智能技術時的數據道德問題。因此,基于數據隱私權的安全問題也成為教師需要關注的專業道德問題。
三是由于人工智能技術存在算法偏差(algorithmic bias)的缺陷,導致教師在使用技術時不能全面考慮學生的數據,不同學生在教學過程中受到不平等對待。在2019年聯合國教科文組織的移動學習周活動中,美國拉瑪爾大學(Lamar University)教育創新與數字學習中心主任喬治·薩爾茨曼(George Saltsman),在名為《人工智能支持教師和教師發展的倫理和道德思考》的報告中提出,“算法偏差”是當計算機系統的行為反映了人類設計者的隱含價值時出現的情況。在人工智能教育的今天,這種偏見對教育系統歷史上不具代表性的人群(historically underrepresented populations)而言更為明顯,當以前考生的數據被用于人工智能系統時,過去的偏見被重復,甚至被放大的可能性很高。[6]一旦教師在教學中使用由人工智能系統加工過的不同學生數據時,系統對部分學生的歧視會誤導教師的決策,從而導致教育中的不公平現象產生。美國學業評價測驗(Scholastic Assessment Test,SAT)作為一種廣泛應用于大學入學的標準化測驗,非裔黑人學生成績卻遠低于白人學生,人工智能教育系統在收集信息并運行算法時,易于將這部分人定為“不受歡迎人群”。新任教師借助人工智能技術分析得出的客觀結果在對學生做出學情分析時,也容易形成刻板印象。谷歌于2018年發布文件《谷歌的人工智能:我們的原則》強調,人工智能的應用應該避免創造或增強不公平的偏見,同時人們意識到這種偏見在不同的文化和社會也是不同的。[7]可見,人工智能存在的數據偏差是一種不公平的現象,而如何防止這種不公平在教育領域的擴大造成“暈輪效應”,是人工智能時代教師專業道德需要關注的焦點。
教師在人工智能時代面臨著網絡生活的沖擊,由此導致教師私人生活、公共生活、專業生活的交叉和重疊,從而使教師專業道德邊界變得模糊,催生了新道德空間。美國教師專業道德守則在制定和實施過程中,為新道德空間確立了邊界范圍,并依托人工智能技術打造網絡平臺,提升教師的專業道德邊界意識。
在人工智能時代,教師專業道德邊界涉及真實情境和虛擬時空兩個維度。教師專業道德守則強調教師與其他主體應保持情感、語言、肢體的安全距離。首先,守則提出提升教師專業生活的界限意識。由于教師對專業道德邊界的僭越總是發生在私人生活、公共生活和專業生活三個領域的灰色地帶,因此,2015年美國全國各州主管教師教育與資格認證協會(National Association of State Directors of Teacher Education and Certification)制定的《教育者道德模范守則》提出,在網絡環境中,“專業教育者應謹慎地維護獨立和專業的虛擬檔案,保持個人和專業生活的不同”[8]。2018年,懷俄明州專業教學標準委員會(Wyoming Professional Teaching Standards Board)發布的《專業行為守則》提出:“在使用社交媒體時,教育者應建立個人和專業的獨立虛擬檔案,將私人生活和專業生活區分開來。經常檢查自己的隱私/共享設置以及聯系人之間的帖子,以維護專業精神。”[9]可見,教師需要以謹慎的態度處理不同生活的邊界問題。
其次,守則具體說明了教師在虛擬時空內的專業道德邊界范圍。教師不清楚在虛擬的網絡空間中應該或不應該做什么,在這種情況下,容易產生失德行為而不自知。為此,一些守則為了明確教師與教師、教師與學生之間在虛擬時空內的邊界,提出教師使用技術與人交流時需要注重所涉及材料和內容的專業性。懷俄明州《專業行為守則》提出:“教育者應保持網絡虛擬空間中工作的友好性,不要用同事、上級或學生的名字表示消極的含義。”對于教師發送給學生的電子圖片、材料等同樣也有要求,“教育者在學校為滿足學生的需要而使用的電影、電視節目、互聯網網站、閱讀材料等,需要遵守學區政策”[10]。“為了確保學生的安全和幸福,教師使用信息技術時應根據學區、州和聯邦政策,警惕、識別、處理和報告不適當與非法的電子或其他形式的材料或圖像。”[11]
再次,一些守則也提到教師在教學實踐過程中使用技術時需要考慮目的、方式。具體而言,2018年新罕布什爾州教育委員會(New Hampshire State Board of Education)發布的《新罕布什爾州教育者行為守則》指出,教師通過電子媒體與在校生或畢業生進行長達10個月以上的交流也許是不道德的,通常僭越了師生之間的交流、情感和關系邊界。不當交流取決于交流的意圖、時間、主題和次數,具體表現為:(1)這種交流本質上是隱蔽的;(2)這種交流在本質上可以被合理地解釋為獻殷勤、露骨或浪漫;(3)這種交流包括討論教師或學生的身體、性吸引力、性活動、幻想。[12]與之相似,2018年阿拉斯加州教學專業實踐委員會(Alaska Professional Teaching Practices Commission)更是明確提出《專業邊界列表》,界定了教師與學生線上交流的道德邊界,如避免對一些具有特殊情況的學生作出錯誤的判斷和干涉學生的私人生活。[13]
最后,一些守則也確立了教師在使用技術時與學校的專業道德邊界。懷俄明州的《專業行為守則》在正文“科技”部分提及,“在任何時候,學校電腦只能用于處理工作事務,而且不能在學校電腦上下載色情內容或任何不適當或有問題的材料”[14]。譬如,該守則要求教師通過校屬網站、電腦或電子郵箱向學生發送電子郵件,而不使用個人的電子郵件賬戶。
隨著人工智能借助網絡、媒體廣泛運用于視覺感知、語音識別、決策和學習等領域,美國大多數州在制定教師專業道德守則時,也借助人工智能技術建立相應的網絡平臺來促使教師恪守專業道德邊界。由于虛擬網絡生活的復雜、形象、逼真,給人以一種生活無邊界的錯覺,教師因網絡形成的道德困境和道德問題也日益增多。結合教師實際情況,美國一些州根據教師專業道德守則開發“網絡課程”“視頻解說”“網上道德評價”和“網上道德培訓項目”平臺,提升教師在使用技術與不同主體交往時的專業道德邊界意識。
賓夕法尼亞州設計的八個單元網絡課程以案例研究法的形式開展培訓。該州專業標準和實踐委員會(Pennsylvania Professional Standards and Practices Commission)根據《賓夕法尼亞州專業實踐和行為守則》和《專業教育者懲戒法案》,邀請學者奧利弗·德雷恩(Oliver Dreon)和桑迪·謝珀德(Sandi Sheppeard)共同合作,完成“教育者道德和行為工具箱”(Educator Ethics and Conduct Toolkit)項目的所有網絡課程設計。[15]這個課程運用案例研究法分析教師專業生活中的道德事件,旨在為教師提供“道德指南”,期望教師意識到師生之間的合適邊界,內化守則中的價值理念,充分認識到做出不當行為的后果。
八個單元的網絡課程主題分別是處于倫理關系中的教師、私人生活和專業生活、師生關系、網絡技術與教師社交、在多元社會中的教學、不恰當的個人或經濟收益、教師與同事的倫理關系、營造道德的學校氛圍。其中,單元四(網絡技術與教師社交)指出學校領導者應該努力為師生運用社交媒體、郵件和信息進行合適交流制定相關的學校政策,期望教師保持在數字世界中的專業精神。通過分析案例,思考“使用科技往往涉及邊界僭越,那么教師給學生發短信有什么正當理由嗎”,并理解“歸屬于學區的手提電腦,即使在家里使用,也應用于合法且授權的教學”。[16](真實、虛構的)案例以道德故事討論的方式展開并設計問題提問,以此訓練教師的道德思維,提升道德認識。
內布拉斯加州則基于案例研究法和情境體驗法提供教師專業道德失范視頻解說。2016年,該州專業實踐委員會(Nebraska Professional Practices Commission)依據《內布拉斯加州道德守則》設計有關6種師德失范的視頻解說。這6種失范行為分別與合同、上班時間、測驗、社交媒體關系、不當關系、酒精有關,相應地,有6個視頻的情境模擬和解說。[17]在社交媒體關系的視頻解說中,分析了師德失范的類型與后果,從而引導教師思考因網絡媒體而對學生做出不道德行為的性質和影響。其中,視頻設計了各種對后果進行假設的情境,目的在于引起教師的思考,以客觀的立場探討視頻中行為的道德與否及原因,增強自身在專業生活中面對類似情境時的道德判斷力。
佐治亞州的教育者道德評價項目(Georgia Educator Ethics Assessment)重在模擬教師專業生活,幫助教師獲得道德體驗,并以測驗形式考查教師專業道德狀況。該項目是基于網絡的道德評價體系,由佐治亞州專業標準委員會(Georgia Professional Standards Commission)和美國教育考試服務中心(Educational Testing Service)聯手打造,目標在于幫助教育者熟悉、理解和運用《佐治亞州教育者道德守則》。[18]該項目采取人機互動的形式,發揮人工智能技術中機器學習的預測、無監督(自定學習進度)、診斷、反饋、鞏固等優勢,建構多個場景的交互活動模塊,而教學和形成性測驗又穿插在模塊3—7中,最后通過數據輸入、自動分析和結果反饋來對教師的道德水平完成智能評價(見表1)[19]。

表1 教育者道德評價項目
其中,模塊3探討專業教育者在課堂上對學生的道德及法律義務,主題包括合適的關系、社交媒體、評價和情感客觀性;模塊4探討教育者在處理與學校、同事和管理者的關系方面的道德與法律義務,主題包括網絡活動、課外活動、誠實報告和透明。在這兩個模塊中,教師將面臨在使用社交媒體時常見的道德問題,評價體系圍繞“貼近生活的方案”,采取“做中學”的方式,并通過“測驗”來對教師進行考查,提升教師在處理與他人關系方面的專業道德邊界意識,將道德教育、道德評價貫徹于職前和職后教師的道德培訓,以避免失德行為和失德后的懲戒。
美國教育考試服務中心開發了真實情境方案和人機學習的“教師專業道德項目”(The ProEthica Program for Teachers)。它實質上是對2015年《教育者道德模范守則》的實施和應用,旨在為教育者應對道德挑戰提供指導。基于人工智能中的機器學習技術,打造個性化的教師道德學習平臺。這個項目是一個在線的、自定進度的網上道德培訓計劃,由7個交互式模塊組成。其中,模塊3(專業教育者和學生)確立了教師與學生建立并保持適當的言語、身體、情感和社會邊界的責任。模塊6(專業教育者和科技/數字/社交媒體)涵蓋了教師與學生、家長、同事互動中所有技術的使用規范,包括技術使用的保密以及如何識別和解決技術使用不當的問題。該項目有三個特征:第一是真實性,具有一系列視頻、模擬和基于真實場景活動的學習模塊;第二是便利性,方便在線訪問以進行個人探索;第三是監督和反饋,內置監督、檢查、反饋學習進度的程序。此外,該項目為了適應不同教師的學習需要,開發了基礎和重點兩個層次的服務內容,基礎內容著重介紹專業道德決策的運用,每個模塊的學習結束后有包括12個問題的測驗;重點內容著重對如何在日常實踐中應用《教育者道德模范守則》應對道德挑戰進行更高級的探索。譬如,基礎內容在模塊6(專業教育者和科技/數字/社交媒體)的課程測試要求是通過率達到41%,而重點內容要求課程測試的通過率是75%。測試結束后可以查看答案和解釋,有助于糾正教師對道德行為的不當認識或者提升教師道德邊界的敏感性。表2詳細介紹了教師專業道德項目測驗情況。[20]

表2 教師專業道德項目
數據所有權(data ownership)和數據隱私權(data privacy)是人工智能時代教師專業生活涉及的兩種數據道德形式,因此,美國教師專業道德守則尤為重視教師的學術數據道德和保護他人隱私的數據道德。
在人工智能時代,機器對于數據、信息的可識別程度加強,教師的學術數據道德表現為教師在網絡環境中能否堅持道德原則,如公正、正直等,準確、可靠地使用學術數據。一方面,教師應扎根現場,遵循學術規范使用數據,用數據得出新的研究結論。2011年美國教育研究協會制定的《道德守則》和2015年《教育者道德模范守則》都提出,無論是已出版的、未出版的,或以電子方式提供的數據,都必須正確、規范地運用。在更好地引導專業研究、教學的同時,認可他人的勞動成果,尊重他人對數據的所有權。就前者而言,教育研究者的做法如下:(1)從他人的作品中逐字提取數據或材料時,準確識別和引用作者;(2)即使沒有逐字逐句或轉述他人作品,也不能將他人作品當作自己的作品來呈現。[21]就后者而言,在教師負責且道德地使用數據時,尤其需要注意的是“了解如何訪問、記錄和使用專利材料,了解如何識別、防止學生和教育者的剽竊行為”[22]。另一方面,教師的學術數據道德也包括遵守數據使用上的保密要求。《道德守則》提出,教育研究者需要注意在運用計算機網絡技術來保存、傳送機密信息和數據時,可能會無意中泄露專業人員的信息。
一些教師預備項目也將教師學術數據道德和教師資格認證結合起來。“明日教師”(Teachers of Tomorrow)是一項線上教師資格認證項目,得到美國大部分州的認可。教師資格候選人獲得教師資格需要遵守該項目提出的《學術正直聲明》以及相關的教師專業道德守則。北卡羅來納州“明日教師”項目規定教師資格候選人在資格認證時,需要遵守不偽造記錄等學術正直原則。《北卡羅來納州教育者道德守則》在“對專業的承諾”部分提出,教師崗位求職者應提供有關資格證或就業的準確證明和信息等。
教師在教學過程中使用數據涉及對學生隱私的保護。在人工智能時代,許多網絡媒體運營商愈加重視從邊緣到云端的數據分析以及數據收集。在教育領域,盡管大數據技術的應用能最大限度地促進學生發展,正如美國教育部前部長阿恩·鄧肯(Arne Duncan)在提出“強有力的數據為改革提供路線圖”時認為,有了數據,就可以追蹤學生在不同學段甚至職業生涯的發展情況,同時也能追蹤到在教室中獲得快速成長的學生,以及這些學生身后的好教師甚至他們所接受的學校教育。然而,數據的使用也隱藏著侵犯他人隱私權的風險。為了應對技術帶來的道德挑戰,2019年美國俄亥俄州教育委員會(Ohio State Board of Education)重新修訂了《基于資格證的俄亥俄州教育者專業行為守則》,增加了“合適且負責地使用科技”的內容,指出“教育者應始終以負責任和專業的方式使用技術、電子通信和社交媒體,并適當保護未經授權使用或訪問就委托給他們的電子設備和數據”。同時,在“保密”部分也列舉了教師應注意的不道德行為,如“故意違反聯邦或州法律的學生信息保密要求,包括未經家長或18歲以上學生的同意,在學區或公共網站上發布、訪問或更改學生的機密信息,如成績、個人信息、照片、紀律處分或個人教育項目”[23]。
人工智能時代個人信息的重要程度是以往人類經歷過的任何時代都難以想象的,正因如此,個人信息泄露的風險也急劇上升。“人工智能技術具有產生諸如圖像、視頻、聲音等潛力,能夠對人進行精確描述和提取、洞察他們身上具有意義的內容,這對個人而言,也增加了偽造個人信息的風險,而這些信息一旦被偽造就會影響我們如何看待他人以及如何看待自己”[24]。
針對人工智能時代下的技術應用,美國教師專業道德守則除了明確教師專業道德的虛擬時空邊界,倡導重視教師的數據道德,還提醒教師注意教育領域中“邊緣群體”的技術應用平等以及了解技術應用的局限性以避免對他人造成傷害。
技術應用上的不平等主要表現為教師在教學過程中帶有偏見或歧視地對不同學生應用人工智能技術。因此,在《教育者道德模范守則》中強調“教育者應對所有學生,特別是那些歷來未享有充分的教育服務的學生,平等地使用技術”,“教育者在使用技術時能夠合理考慮學生的個體需要,同時在教和學的過程中,學生也了解如何使用技術來促進自身的學習”。[25]在人工智能時代,技術嵌入社會生活的每個角落,技術的廣泛應用離不開越來越多使用者對它的支持。然而,美國文化固有的階級、種族、膚色等歧視在某種程度上影響了技術的平等應用,這是一種復制了社會文化中意識形態偏見的技術領域的“文化偏見”。正如名為“數據和社會”(Data & Society)的非營利性研究組織在談及人工智能對道德的影響時提出,人工智能用于幫助政府機構和社會組織決策時,受其設計者預先設定的分類,或者在以效率和利潤為目標的機器學習影響下,智能化地縮小或擴大選擇的范圍,致使某些群體遭到歧視和排斥。這種現象在美國的邊緣群體中極為普遍,并造成對邊緣群體受教育權的侵害。另一方面,教育者在教學過程中帶有偏見地應用技術進行教學,也使這種偏見被無形地放大,容易導致教育過程中的不平等現象。教育作為一種社會階級的“均衡器”,為了避免部分學生在教育人工智能技術的應用場域成為“邊緣人”,教師有責任保證所有學生通過技術應用受惠的機會平等,防止技術應用導致的教育不平等風險。
美國國際教育技術協會(International Society for Technology in Education)在2008年發布的《國家教育技術標準:教師版》提出,教師在不斷變化的數字文化以及專業實踐中應培養文化理解和全球意識,塑造數字公民意識和責任感。在2017年修訂的《國際教育技術協會教育者標準》當中,教師的這種角色和職責得到強化。作為被賦權的專業人員,教師扮演七種角色,如標準二(教師是“領導者”),“倡導平等獲得教育技術、數字內容和學習機會,以滿足所有學生的多樣化需求”[26],無論學習者身體、情感、文化差異如何,都有學習技術并成為數字公民的機會。同時,教師具有領導力,能夠為同事在識別、探索、評估、管理和采用新的數字資源與學習工具方面提供指導。這意味著以數字為特征的人工智能時代,教師在面對學生的不同文化需求時,既要保證獲得技術使用的平等機會以及技術使用過程的平等,也需要縮小人工智能技術造成不同群體知識水平差異帶來的“知識鴻溝”,降低技術創造新“教育邊緣群體”的風險。
在使用人工智能技術時,《教育者道德模范守則》提出:“教育者與同事、學校有關人員、家長、社區成員應一起宣傳各種技術應用的好處并澄清技術的局限性”[27]。由于技術上的缺陷并非短時間可以解決,教師對此種情況應有所了解,并在教育過程中凝聚學校、家庭和社區三方的合力,降低不當使用技術的風險。各種運用增強現實(Augmented Reality,AR)和虛擬現實(Virtual Reality,VR)技術的社交網絡環境與匿名的智能軟件APP,使學生的網絡生活愈加豐富,使他們能超越時空界限接觸更多良莠不齊的資源,這也改變了傳統的校園欺凌形式。2015年,康涅狄格州教育部門為幫助教師理解《康涅狄格州教育者專業責任守則》,發布《康涅狄格州教師教育指導項目:教師指導者指南》。該指南中在涉及互聯網、數字技術等形式的網絡欺凌內容時要求,教師對網絡欺凌應加以防范并與被欺凌者建立信任關系,執行學校防止欺凌的政策,不在學生不當使用技術時作為“旁觀者”。這不僅為了保護學生的尊嚴和價值,也如守則所主張的“培養學生對自己和他人的終身尊重和同情,不論其種族、民族、性別、社會階層、殘疾、宗教或性取向如何”[28]。
為了規避技術自身局限性帶來的風險,教師應遵循專業程序。2018年,美國教育通信與技術協會(Association for Educational Communications and Technology)修訂并發布了《專業道德守則》,在第一部分“對個體學習者的承諾”中指出,“教師應盡己所能保護學習者免受有害健康和安全的學習環境或工作條件的影響,包括技術本身造成的有害條件,具體做法是遵循專業程序評估和選擇材料、設備與器具以創建教育工作區域”[29]。夏威夷州教育部門(Hawaii Department of Education)制定的《行為守則》也明確提出,教師在使用電子通信、技術和互聯網時,應遵循教育部門的用戶指南和程序。[30]
為確保教師合理使用技術,一些守則在相關規定上顯示出兩個特點。一是技術使用的合法性。《教育者道德模范守則》要求教師在使用學生的電子資料時,需要清楚了解《聯邦教育與隱私權利法案》(Federal Educational Rights to Privacy Act)的內容。同時,教師在與學生的電子交流中,應保持技術上的敏感。對于交流的話題應該符合《信息自由法案》(Freedom of Information Act)以及州公開通過的法律法規。二是技術使用的透明性和可理解性。2018年,新罕布什爾州教育委員會制定的《引導原則:新罕布什爾州教育者道德守則》規定:“教育者應該考慮通過任何一種形式的技術來使用、創造、傳播、交流信息時產生的影響。專業教育者以負責和透明的方式使用社交媒體,首要目的是為了教和學。”[31]透明性是一種道德原則,指教師利用技術作出決策時,應考慮公開的決策過程能否使人信服、結果是否客觀與可靠。這有效避免了技術的復雜性遮蔽人們對決策的了解。“人工智能中的深度學習技術廣泛應用于計算機視覺、自然語言處理或面部識別等,這些任務的復雜性和抽象性導致了驅動算法結果的因素難以被理解與被解釋的情況。”[32]對技術的理解存在障礙,加上教師利用技術及相關數據作出決策時的隱蔽性,導致了一種“黑箱”現象,即人們只知道決策的結果,決策的過程是否損害他們的利益,猶未可知。因此,教師專業道德守則強調教育人工智能技術使用過程的透明原則和可理解原則。
人工智能時代既使教師專業道德守則制定者重新思考新道德空間產生的道德困境,也帶來了應對困境的契機。賓夕法尼亞州的網絡課程、內布拉斯加州的視頻解說、佐治亞州的網上教師道德評價項目和美國教育考試服務中心的網上道德培訓,提升了教師對于專業道德邊界的意識,促進了教師對于專業道德守則的理解。在數據泛濫的人工智能時代,守則也相應地重視教師的數據道德意識。同時,守則為教師如何在由私人生活、公共生活和專業生活交織的網絡中合乎道德地行動提供指導,幫助教師在虛擬和真實交替、抽象與復雜并存的生活中規避人工智能技術帶來的風險。同時,降低因不平等使用技術而產生新“教育邊緣群體”的可能性,以及由于技術本身局限性引起的負面影響,這也為世界各國制定教師專業道德守則,應對人工智能時代的新挑戰提供了可資借鑒的經驗。