陳 靜
(長江大學教育與體育學院 湖北·荊州 434000)
智能教育使用學習者選擇和行為的數據以多種方式支持和加強學習,如提供智能輔導;[1]預測學生成績,提出補救措施[2];為不同學生的個性化學習以及教師改進教學提供精準服務;[3]引入新的評估形式等[4]。然而,鮮有學者分析人工智能教育對個人自由和基本權利的影響,實際上收集與使用大量學習者個人數據的系統會帶來重大的人權問題。關注大規模收集和分析個人數據,監管教育大數據的收集與使用,確保學習者個人數據的使用能夠支持學習者選擇自由的變革是智能教育時代對教育提出的挑戰與難題。
教育系統面臨著一個悖論,學習者必須參加老師認為有益的學習活動和評估。矛盾的是,強制性參與可能被視為減少基本人權,包括行使自主權和作出選擇的權利。當學習者必須參與收集他們數據的活動和評估時,這一矛盾就變得尤為突出。學習者應被賦予選擇不收集數據的權利。因此,考慮如何平衡選擇自由、數據質量與學習者的潛在利益是至關重要的。智能教育時代學習者選擇自由的缺失主要體現于數據收集退出受阻、數據使用限制存在與終身數據管理受限。
人工智能數據能力收集有限,收集哪些數據,應用主體具有一定的決定權。[5]學習者可能出于各種原因,拒絕參與數據收集。然而多數國家低于法定成年年齡的學生不能合法地“選擇”或“退出”監控,通常由其父母或法定監護人決定是否參與,限制學生的自由選擇,只能被動參與其中。同時大部分預測分析系統運轉都依賴于評估數據的收集,這使得學校更難以改變評估模型。應該強調任何數據主體有權利知曉數據采集類型和方法以及數據安全保護措施,而現今對于收集數據的類型和方法始終邊界不清。[7]
值得注意的是,是否選擇進行數據收集會影響數據質量。收集到的數據可能會因過多或過少地代表特定的學習者群體而產生偏差,對這些不具代表性的數據加以分析可能會加重學生間的差距,從而得出歧視代表性不足的學習者的結論。上述因素對學生退出數據收集造成了一定程度的影響,進而限制學生確定是否進行數據收集的選擇。
數據的“所有權”和控制是權力差異的一種形式。學生數據詳細分布在整個教育管理系統和商業平臺上,這引發了關于所有權和控制權的復雜問題。學習管理系統越來越多地將學習者的數據存儲在教育機構以外的系統中。雖然系統可能直觀地易于使用(例如,清晰的菜單和有效的用戶培訓),但它們的軟件設計和硬件配置增加了高度的復雜性。平臺沒有為學習者提供充分的途徑來使用數據。這削弱了個人自主決定自己的數據將如何被使用的能力,并使教學過程變得高深莫測。
理論上,每個人的數據保護權利可以減少個人與控制數據的人之間的權力失衡,然而,將人工智能系統嵌入教育可能會加劇權力失衡,并產生新的、不可預見的差異。與數據相關的挑戰已經超越了數據的“所有權”,包括有效的數據控制和使用權。
學生有權管理其個人的學習數據,并決定是否希望將其每個階段的所有成就記錄都包括在內。確保學生能夠選擇何時以及如何使用他們的數據是一個重要的考慮因素,以確保個人不會處于不利地位。任何學習對象對在享受學習服務過程中產生、搜集、存儲與自身有關的數據都要享有知情權,[8]然而,弱勢群體不太可能獲得支持和建議。終身且聚合的數據把人描繪成具有“可測量特征”的“對象”,用來預測其未來。教育系統傾向于記錄特定的階段,如童年或青春期。然而,對于部分學習者來說,這些可能不是自身快速發展的階段,階段數據無法準確地說明成績。另外一些特定時刻可能成為數據缺失的契機,例如將數據從一個機構轉移到另一個機構的過程,這使得學習者的終身數據管理與使用受到一定的沖擊。
通過對智能教育時代學習者選擇自由缺失的具體表現進行分析,本文認為應從以下三方面著手改善,全面系統地復歸學習者的選擇自由,進而實現高效且自由的學習。
不同個體間表達方式上的區別可能會直接造成數據質量差異出現。部分數據可能因表達方式不夠準確而降低數據質量,而另一部分的數據可能會以更有利的方式表示。對于這些數據,應該如何分析、解釋和共享,如何糾正可能對個別學生的合法權利產生負面影響的偏見(有意識和無意識的)。[9]這些數據質量上的差異可能源于不平等,通過人工智能和分析,可能會加劇劣勢。
當前應要求并鼓勵開發和部署新方法,以確保數據質量提升。唯有通過收集高質量的數據,才能實現公平和基本權利。上述要求引發并觸及了計算機科學、人工智能及相關領域的新研究領域。這些研究領域主要包括對匿名數據收集和處理、去身份識別和公平的調查,特別是在非歧視方面。未來人工智能在教育中的應用須重視并借鑒以上發展。
對學習者數據收集實乃龐雜與全面,分析數據時對數據使用的尺度把握顯得尤為重要。由此對數據使用提出新要求,應確保數據不用于最初明確指明的和商定的目的以外的其他目的。使用數據的目的在于掌握學習者學習具體情況,分析學習者學習行為,并最終滿足學習者現實需要,獲得相應的學習成就。這一目的的達成須遵循妥善且合理地使用數據這一原則,然而該原則與人工智能分析的探索性相沖突。同時學習者數據收集與使用的最終目的是滿足學習者需要,學習者作為數據主體,使用數據的權限與熟練度卻受到限制。學習者選擇自由的復歸應關注學習者這一主體,適當放寬學習者使用權限,并進行適當培訓以幫助學生合理參與數據的使用。[8]數據使用過程中的限度與使用主體的多元化是人工智能教育研發中需要關注的主要方面。
數據透明度與數據的“所有權”有關,數據透明度直接影響數據質量,對數據收集與使用至關重要。需將透明度和公平作為處理學習者數據的主要原則,在數據收集與使用的全過程均應實現透明化。包括但不限于數據管理平臺須提供全面且具體的信息,對數據處理的方式和原因進行必要且詳細的科學解釋,比如在平臺中部署的人工智能分析方法、在數據分析中所采取的理論與技術。上述要素決定學習者數據透明度,也關聯著學習者學習的公平性,因而在智能教育盛行的時代,注重數據透明度應是平臺搭建者與教育工作者共同努力的方向。
學習者不應簡單地被認為“數據主體”,被動參與智能教育時代的數據收集與使用,而應能夠對其數據行使自主權,將推進學習者的選擇能動性作為智能教育發展的前進路徑。值得關注的是,在實現數據自治和隨著數據足跡的擴大而加重個人管理數據的負擔之間取得平衡是提升學習者選擇能動性的重要因素。
隨著人工智能工具與技術的開發、營銷和嵌入教育,迫切需要確保學習者和教師(而不是科技公司和組織)成為主要受益者。教育中的人工智能不僅涉及數據隱私,還影響基本人權。在教育中引入人工智能所引發的一系列問題是全球性的,需要更高級的機構參與進來,以督促和規范教育領域內人工智能系統的科學發展。及時制定并實施相應規則,學習者就能越快地避免教育中人工智能破壞其基本人權的風險,進而實現數據選擇自由。