摘 要:現(xiàn)行的網(wǎng)絡(luò)未成年人模式面臨著諸多現(xiàn)實困境,如應(yīng)用效果不佳,引發(fā)數(shù)字鴻溝與信息壁壘等,亟須改革。其改革方向應(yīng)專注于在發(fā)展權(quán)與安全權(quán)之間尋求保障與平衡,并遵循無位階原則、比例原則、個性化原則等指導(dǎo)原則,推動未成年人數(shù)字安全與數(shù)字素養(yǎng)的和諧發(fā)展。在實踐進路方面,建議通過改進人工智能算法、以未成年人發(fā)展需求為中心研發(fā)以及構(gòu)建應(yīng)用監(jiān)管技術(shù)體系等措施,力求打造更為有效、精準(zhǔn)的未成年人保護模式,從而確保未成年人在數(shù)字時代能夠健康安全地成長。
關(guān)鍵詞:未成年人模式;數(shù)字安全;數(shù)字素養(yǎng)發(fā)展
(一)未成年人模式面臨的現(xiàn)實困境
1. 效果不佳導(dǎo)致應(yīng)用率低
“未成年人模式”是指在使用時段、時長、功能和瀏覽內(nèi)容等方面對未成年人的上網(wǎng)行為進行規(guī)范的系統(tǒng),其以限制未成年人對人工智能的使用為主,適用在很大程度上取決于監(jiān)護人的參與程度和設(shè)置意愿。①如果監(jiān)護人缺乏足夠的技術(shù)知識,并對網(wǎng)絡(luò)安全問題認識不足,疏于對未成年人的網(wǎng)絡(luò)監(jiān)管等,都可能導(dǎo)致未成年人模式不能被及時啟用或正確設(shè)置。同時,現(xiàn)有未成年人模式在智能搜索、算法推薦等方面的功能相對簡陋,譬如有的應(yīng)用如果啟用搜索功能尋找特定內(nèi)容,就需要監(jiān)護人關(guān)閉未成年人模式進行添加、搜索,而要保證監(jiān)護人在未成年人需要關(guān)閉該模式時總在未成年人身邊是非常不現(xiàn)實的。*這使得許多監(jiān)護人不得不放棄該模式的使用。
2. 未成年人模式帶來數(shù)字鴻溝與信息壁壘
未成年人模式旨在為未成年人減少潛在網(wǎng)絡(luò)風(fēng)險。然而,過度強調(diào)“保護”可能會限制對未成年人的“賦權(quán)”,導(dǎo)致其發(fā)展權(quán)受到傷害—“賦權(quán)”意味著為保障未成年人的發(fā)展而給予其一定的自主權(quán)和選擇權(quán),如果過于嚴(yán)格地限制未成年人在網(wǎng)絡(luò)世界的權(quán)限,將極大限制他們的數(shù)字素養(yǎng)發(fā)展。畢竟人機交互情境在未來將會成為未成年人數(shù)字生活的常態(tài),未成年人應(yīng)具備和人工智能相得益彰的能力和素養(yǎng)。這種能力和素養(yǎng)不是在達到法律規(guī)定的成年人年齡后自主生成、自動具備的,而是通過在未成年時期的培養(yǎng)和鍛煉獲得的。②上述“保護”與“賦權(quán)”的現(xiàn)實沖突是未成年人模式應(yīng)用困境的主要表現(xiàn),其來源于數(shù)字時代未成年人面臨的雙重風(fēng)險。

(二)未成年人模式的標(biāo)靶:雙重風(fēng)險
1. 數(shù)字安全威脅
日新月異的互聯(lián)網(wǎng)技術(shù)在給未成年人帶來新奇體驗的同時,也隱藏著不容忽視的數(shù)字安全威脅。一是生命健康威脅。教育機器人、智能玩具等人工智能產(chǎn)品可能存在潛在漏洞,這些漏洞在特定情況下可能變成對未成年人安全的威脅。二是心理健康威脅。未成年人的好奇心強、自制能力差,這可能導(dǎo)致他們?nèi)菀壮撩蕴摂M世界乃至混淆現(xiàn)實與虛擬的界限,引發(fā)一系列行為與心理問題。三是隱私威脅。未成年人可能因缺乏足夠的認知和辨別能力,易受不法企業(yè)或違法應(yīng)用的誘導(dǎo),從而泄露個人隱私信息。四是資產(chǎn)威脅。由于未成年人的心理防范意識較弱,使他們更容易成為人工智能技術(shù)賦能下的新型詐騙手段的受害者。同時,在鼓勵創(chuàng)新的人工智能時代,未成年人的知識產(chǎn)權(quán)也面臨被侵害的風(fēng)險。
2. 數(shù)字素養(yǎng)發(fā)展受阻
(1)認知發(fā)展受阻
由于未成年人的心智發(fā)展尚未成熟,接觸不良信息(如暴力信息)將對其認知發(fā)展產(chǎn)生深遠的負面影響。調(diào)查顯示,65.5%的未成年犯罪嫌疑人認為“恐怖暴力”信息會對自己有影響,56.4%的認為“淫穢色情”信息會對自己有影響。①此外,由于人工智能技術(shù)的復(fù)雜性和未成年人的心理認知尚不成熟,后者可能混淆自然人與人工智能的關(guān)系與行為規(guī)范,從而導(dǎo)致自身社會關(guān)系紊亂和倫理認知錯誤。
(2)發(fā)展機會不平等
人工智能算法的偏見可能放大教育不公平現(xiàn)象,對未成年人中的弱勢或邊緣化群體造成歧視。如英國艾倫圖靈研究所就曾指出,可能影響兒童群體的首要潛在危害是由人工智能驅(qū)動的歧視和不公平。②
綜上所述,未成年人在人工智能環(huán)境中面臨著數(shù)字安全威脅和數(shù)字素養(yǎng)發(fā)展受阻的雙重風(fēng)險,都應(yīng)當(dāng)被未成年人模式列為防范標(biāo)靶。
(三)未成年人模式標(biāo)靶來源:具有同一性
1. 算法的內(nèi)在缺陷
算法本身的缺陷是重要的風(fēng)險來源,這主要歸因于以下三個方面。一是算法存在“黑箱”,降低了人類對其決策行為的控制。二是數(shù)據(jù)的準(zhǔn)確性、完備性和社會價值都會影響算法的決策結(jié)果。算法基于未成年人的學(xué)習(xí)數(shù)據(jù)給他們提供個性化推薦服務(wù),可能會產(chǎn)生“信息繭房”效應(yīng),限制他們接觸信息,降低思考廣度,不利于未成年人的長期發(fā)展。三是算法在研發(fā)、訓(xùn)練和測試等階段可能存在諸多隱患,若被不法分子利用,可能會對未成年人等弱勢群體造成傷害。
2. 未成年人的特質(zhì)
未成年人的特質(zhì)使得他們在面對人工智能時相較于成年人具有更高的安全風(fēng)險,也更容易遇到發(fā)展阻礙。
從生理層面看,未成年人的身體特別是大腦還處在發(fā)育階段,預(yù)測能力和自制力都尚未發(fā)育完善,他們在面對人工智能技術(shù)時可能無法充分意識到其中蘊含的風(fēng)險,也缺乏足夠的自我保護能力。
從心理認知和情感層面來看,未成年人對世界規(guī)律的認知尚不全面,對人工智能產(chǎn)品的感知和辨識能力有限。同時,他們的情感色彩強烈,心理矛盾性明顯,可能會過度依賴人工智能產(chǎn)品,甚至由此產(chǎn)生心理沖突和困擾。此外,未成年人也處在自信心和自我價值發(fā)展的關(guān)鍵時期,容易將人工智能的好壞結(jié)果內(nèi)化為自身原因,這可能對他們的心理健康和發(fā)展產(chǎn)生不利影響。
從道德倫理層面來看,未成年人雖然開始形成道德信念和道德理想,但他們的道德判斷與道德行為尚未完全一致。在面對人工智能技術(shù)時,他們可能無法做出正確的道德判斷和選擇。
3. 治理策略不足
在世界范圍內(nèi),各國政府頒布的人工智能治理策略大多采取適用于多個領(lǐng)域的通用型框架結(jié)構(gòu),很少有專門針對未成年人教育領(lǐng)域的治理策略。同時,由于機器學(xué)習(xí)決策行為的自主性,其決策結(jié)果可能超出了人工智能系統(tǒng)設(shè)計者、制造者和部署者的控制范圍和預(yù)期,一旦人工智能產(chǎn)品對未成年人造成傷害,如何劃分法律責(zé)任成為一大難點。
綜上所述,未成年人面臨的數(shù)字安全風(fēng)險和數(shù)字素養(yǎng)發(fā)展風(fēng)險均來源于算法的缺陷、未成年人的特質(zhì)以及治理策略不足,具有同一性特質(zhì),通過未成年人模式一并予以防范是可行的。即“保護”與“賦權(quán)”可以通過對未成年人模式的改革做到消滅沖突、實現(xiàn)共贏。
未成年人的數(shù)字安全權(quán)是指,社會各界有義務(wù)采取多種措施,避免未成年人在面臨網(wǎng)絡(luò)風(fēng)險時受到侵害;未成年人的數(shù)字素養(yǎng)發(fā)展權(quán)是指,從未成年人的成長和未來發(fā)展看,未成年人需要具備網(wǎng)絡(luò)素養(yǎng)和數(shù)字技能。①這些權(quán)利都來源于憲法賦予未成年人的基本權(quán)利。
在信息時代初期,無論是家庭還是社會都沒有做好充分的認識與準(zhǔn)備,為了保護未成年人的數(shù)字安全權(quán),只能采取圍堵的監(jiān)管方式,將未成年人與網(wǎng)絡(luò)隔離開來。然而,隨著科技的進步與發(fā)展,未成年人的日常生活、學(xué)習(xí)與網(wǎng)絡(luò)的聯(lián)系越來越多,遠離網(wǎng)絡(luò)就意味著被時代淘汰,也代表著未成年人的數(shù)字素養(yǎng)發(fā)展權(quán)遭到嚴(yán)重侵害。共青團中央和中國互聯(lián)網(wǎng)絡(luò)信息中心聯(lián)合發(fā)布的《第5次全國未成年人互聯(lián)網(wǎng)使用情況調(diào)查報告》顯示,我國未成年網(wǎng)民規(guī)模不斷擴大,低齡未成年人觸網(wǎng)比例不斷擴大。2022年未成年網(wǎng)民數(shù)量已超過1.93億,未成年人網(wǎng)絡(luò)普及率達97.2%,其中小學(xué)階段未成年人互聯(lián)網(wǎng)普及率達95.1%,網(wǎng)絡(luò)已全方位嵌入經(jīng)濟社會發(fā)展和未成年人生活的方方面面,成為未成年人“與生俱來”的生活方式。在此背景下,如何解決數(shù)字發(fā)展權(quán)保障措施與數(shù)字安全權(quán)保障措施之間的沖突,成為當(dāng)下我們不得不面對的課題。其實,該沖突的本質(zhì)是對基本權(quán)利的保障措施的沖突:為實現(xiàn)公民的基本權(quán)利,責(zé)任主體一般會采取一系列保障措施,當(dāng)保障措施不當(dāng)或不同措施之間(可能是不同責(zé)任主體為保護不同基本權(quán)利采取的恰當(dāng)措施)發(fā)生沖突時,反而可能發(fā)生影響公民該項基本權(quán)利或其他基本權(quán)利實現(xiàn)的結(jié)果。要解決這一問題,首先應(yīng)當(dāng)明確措施沖突的解決原則,并將其作為未成年人模式的改革方向。
(一)無位階原則
基本權(quán)利的保障措施沖突與基本權(quán)利的沖突是兩種不同的概念。后者系存在多個基本權(quán)利主體,因各自所享有的相同或者不同的基本權(quán)利發(fā)生對立所具有的情形。①而前者可以是保障同一基本權(quán)利主體之相同或不同基本權(quán)利的措施之沖突。即便如此,“在權(quán)利未曾遭遇的場合,每項權(quán)利都是自己世界的國王,當(dāng)多種權(quán)利發(fā)生碰撞和沖突的情況下,就要衡量這些都受法律保護的權(quán)利的位階和層次”。②權(quán)利位階理論在這兩種沖突的解決過程中,似乎都有用武之地。權(quán)利位階是指從公民權(quán)利來看,所有的權(quán)利并不是一概平等,而是處于不同的位階的,即存在著高低之分。為了保障高位階的公民權(quán)利,在必要時可以對低位階的權(quán)利加以限制,以便實現(xiàn)對高位階權(quán)利的保護。即便同屬于基本權(quán)利,也可能存在位階高低之分—如生命權(quán)較之于隱私權(quán)處于更高位階。③這一理論似乎也為解決基本權(quán)利保障措施的沖突提供了一個方向:保障低位階權(quán)利的措施當(dāng)然要讓位于保障高位階權(quán)利的措施。
然而,在對未成年人數(shù)字安全與數(shù)字素養(yǎng)發(fā)展這一特定主體的特定基本權(quán)利的保障措施沖突中,權(quán)利位階理論的應(yīng)用空間實際上是不存在的,因為同一未成年人的數(shù)字安全權(quán)與數(shù)字素養(yǎng)發(fā)展權(quán)互為前提,不可比較:只有數(shù)字素養(yǎng)得到發(fā)展,未成年人才能實現(xiàn)數(shù)字安全的自主防護;只有未成年人的數(shù)字安全得到保障,其數(shù)字素養(yǎng)的發(fā)展才具有實際意義。任何一項權(quán)利保障措施的缺失,都將帶來另一項權(quán)利乃至未成年人整體權(quán)益的減損。由是觀之,該沖突的解決關(guān)鍵不在于基本權(quán)利位階的比較,而在于如何調(diào)整保障措施以獲取最大保障效益。這就意味著需要尋找一種改革方向,注重權(quán)利人整體權(quán)益的保有量和沖突權(quán)利的行使方式轉(zhuǎn)化,在保護未成年人數(shù)字安全的同時,積極探索和支持其數(shù)字素養(yǎng)發(fā)展權(quán)的實現(xiàn)途徑,確保兩者之間的平衡與協(xié)調(diào)。
(二)比例原則
在以保障權(quán)利為目的導(dǎo)向、尋求沖突雙方利益最大化的過程中,最常用到的指導(dǎo)原則是比例原則。比例原則以平衡為基本理念,要求行為者應(yīng)當(dāng)選擇有助于正當(dāng)目的實現(xiàn)的必要手段,并且該手段所造成的損害同其所促進的利益應(yīng)當(dāng)成比例,具體包含目的正當(dāng)性、適當(dāng)性、必要性和均衡性四個原則。①在未成年人模式的語境下,比例原則的應(yīng)用顯得尤為重要,因為它涉及未成年人的數(shù)字安全權(quán)與數(shù)字素養(yǎng)發(fā)展權(quán)之間的平衡。
特別需要指出的是,在傳統(tǒng)網(wǎng)絡(luò)時代強調(diào)對未成年人數(shù)字安全保護的背景下,保護未成年人數(shù)字素養(yǎng)發(fā)展權(quán)的目的正當(dāng)性更值得強調(diào),這也是數(shù)字公平的要求—數(shù)字公平是測量數(shù)字化與公共性兩個屬性構(gòu)成的二維空間下數(shù)字化主體接入與使用數(shù)字技術(shù)的權(quán)利、機會和實際結(jié)果的接近程度。②人工智能的算法時代為全社會特別是邊緣人群帶來了新興數(shù)字鴻溝的挑戰(zhàn),如算法推薦服務(wù)的接入、移動數(shù)字鴻溝、算法素養(yǎng)、數(shù)字?jǐn)噙B能力等,更重要的是催生了更多新類型的邊緣人群,比如陷入信息繭房的數(shù)字化主體、追求信息與數(shù)字極簡主義的數(shù)字化主體、無法在連接與斷連之間自如切換的數(shù)字化主體等。③在這種情況下,如何維護數(shù)字時代弱勢群體的權(quán)利以及支持他們的發(fā)展是亟須解決的核心議題。
(三)個性化原則
憲法保障公民的基本權(quán)利,而未成年人的權(quán)利保護更應(yīng)細致入微。因為,未成年人處于成長發(fā)育的關(guān)鍵時期,且心理、生理特點各異,所以在解決未成年人模式困境的過程中,應(yīng)當(dāng)秉持個性化原則,注重對未成年人個體差異的尊重和保護,最大化實現(xiàn)未成年人的價值;針對不同未成年人的特點和具體情況,對其進行細致入微的考量與權(quán)衡并留有靈活調(diào)整保護措施的余地,可以確保未成年人的數(shù)字安全與數(shù)字素養(yǎng)發(fā)展。
從應(yīng)當(dāng)“明確在生成式人工智能教育應(yīng)用過程中師生主體主觀能動性的不可替代性,明確學(xué)生的復(fù)雜知識理解與建構(gòu)、開放性問題解決、與真實世界的互動等尚屬于人工智能技術(shù)不能也不應(yīng)替代的人類主體性教學(xué)的邊界”④的角度來看,未成年人模式對未成年人的數(shù)字素養(yǎng)發(fā)展是非常有必要的。但在平衡未成年人的發(fā)展權(quán)與安全權(quán)方面,從指導(dǎo)原則出發(fā),針對其風(fēng)險來源,未成年人模式還應(yīng)有以下幾點改進之處。
(一)改進人工智能算法

對人工智能算法的改進是改進未成年人模式最直接、最高效的途徑,因為未成年人模式的開發(fā)主體往往也是人工智能算法的設(shè)計主體。當(dāng)然,這對人工智能時代的私人責(zé)任(Private Accountability in the Age of Artificial Intelligence)提出了更高要求。畢竟如今在人工智能領(lǐng)域引發(fā)涉及隱私、正當(dāng)程序、歧視等方面擔(dān)憂的,不是國家而是企業(yè)。①因此,國家可以通過一系列政策措施,鼓勵甚至要求人工智能開發(fā)主體增強算法透明度、優(yōu)化算法設(shè)計和測試、提高數(shù)據(jù)質(zhì)量和多樣性(防止偏見)、建立反饋和糾錯機制以及研究和開發(fā)可解釋的人工智能技術(shù)。
(二)以未成年人的發(fā)展需求為中心進行研發(fā)
為了未成年人的福祉和成長,設(shè)計一套有益于他們的人工智能方案至關(guān)重要。這樣的方案不僅有益于未成年人的全面發(fā)展,更是保護他們免受人工智能技術(shù)潛在危害的法寶。
首先,以未成年人的權(quán)益為考量,為其量身打造人工智能發(fā)展藍圖,在確保安全無誤的前提下,推進人工智能技術(shù)的革新與發(fā)展,妥善處理技術(shù)創(chuàng)新與監(jiān)管之間的平衡。人類在使用人工智能技術(shù)的過程中應(yīng)具備“自主性”,特別是當(dāng)用戶為心智尚未成熟、世界觀尚未穩(wěn)定的未成年人時,更加需要對該技術(shù)有相應(yīng)的監(jiān)督和支持,以保證未成年人在與智能系統(tǒng)交互中保留自我,具有以正確教育理念引導(dǎo)的成長體驗。②
其次,為人工智能技術(shù)的供應(yīng)商制定統(tǒng)一的技術(shù)與道德準(zhǔn)則,確保人工智能技術(shù)的研發(fā)、設(shè)計與應(yīng)用均遵循一定的規(guī)范,并始終把未成年人的利益放在首位。比如,2018 年,美國斯坦福大學(xué)人工智能實驗室與視覺實驗室負責(zé)人李飛飛啟動“以人為本的人工智能計劃(Human-Centered AI Initiative,H AI)”,她認為人工智能的良性發(fā)展需要人文主義的指引,應(yīng)反映人類智能的深度,以確保每一步都能正確地引導(dǎo)人工智能的發(fā)展,實現(xiàn)人機共軛共生。③
最后,實施包容性設(shè)計和可持續(xù)的風(fēng)險評估。一方面,鼓勵未成年人參與到人工智能技術(shù)的設(shè)計與應(yīng)用中是非常值得嘗試的舉措。2021年,兒童人工智能項目組舉辦全球兒童論壇會,通過了解兒童對人工智能的不同看法和愿望,以及他們?nèi)绾卫斫馊斯ぶ悄軒淼娘L(fēng)險和機遇,將“兒童聲音”融入人工智能政策的制定過程。④這不僅是實現(xiàn)人工智能對未成年人透明化、可解釋、可控制的過程,也是滿足未成年人需求、體現(xiàn)未成年人自主性的舉措。另一方面,對技術(shù)可能帶來的風(fēng)險進行持續(xù)評估也十分重要。對于高風(fēng)險的產(chǎn)品,要嚴(yán)格控制其市場投放;對于中低風(fēng)險的產(chǎn)品,則要建立長期的追蹤與定期的安全評估機制。
總之,始終以未成年人的素養(yǎng)發(fā)展為本,對人工智能應(yīng)用的風(fēng)險邊界進行有效管控,才能實現(xiàn)人機相融共進。⑤
(三)治理策略的配合
1. 培養(yǎng)未成年人的人工智能核心素養(yǎng)
為保障未成年人的自主決策能力與批判性思維能力的發(fā)展,防止其受到網(wǎng)絡(luò)信息特別是人工智能誤導(dǎo)性決策的不利影響,提升未成年人的數(shù)字素養(yǎng)至關(guān)重要。聯(lián)合國教科文組織2021年發(fā)布的《人工智能倫理問題建議書》,要求會員國應(yīng)努力消除數(shù)字鴻溝,并確保對人工智能發(fā)展的包容性獲取和參與,①從宏觀層面為未成年人人工智能素養(yǎng)教育提供了原則性指導(dǎo)。面向未成年人的人工智能技術(shù)規(guī)范是人工智能時代確保未成年人健康成長的關(guān)鍵,是穩(wěn)步推進人工智能技術(shù)創(chuàng)新發(fā)展和負責(zé)任的保障,也是我國落實未來人工智能發(fā)展戰(zhàn)略的關(guān)鍵一環(huán)。②
2. 構(gòu)建應(yīng)用監(jiān)管技術(shù)體系
面向未成年人的人工智能應(yīng)用監(jiān)管技術(shù)體系具有復(fù)雜性和多維度性。該體系的構(gòu)建應(yīng)以保護未成年人的權(quán)益為核心,從數(shù)據(jù)的質(zhì)量把控、評測工具的完善,到監(jiān)測平臺的建立,每一個環(huán)節(jié)都至關(guān)重要:在數(shù)據(jù)方面,重視面向未成年人數(shù)據(jù)的完整性、一致性和準(zhǔn)確性,以確保訓(xùn)練出的人工智能模型具有高度的可靠性和適用性;在評測工具方面,要能夠評估人工智能對未成年人全面發(fā)展的影響,特別是在道德、情感和素養(yǎng)方面的促進作用;在監(jiān)測平臺方面,應(yīng)當(dāng)既能夠通過數(shù)據(jù)分析來評估人工智能對未成年人行為和心理健康的影響,又可以提供反向監(jiān)管機制,根據(jù)數(shù)據(jù)分析結(jié)果對人工智能產(chǎn)品的設(shè)計和開發(fā)過程進行調(diào)整和優(yōu)化,以確保更加符合未成年人的需求。
3. 構(gòu)建人工智能監(jiān)管制度體系
在構(gòu)建人工智能的應(yīng)用監(jiān)管制度時,特別是在面向未成年人的應(yīng)用場景中,應(yīng)確保技術(shù)的合理應(yīng)用并防范潛在風(fēng)險,從多個維度出發(fā)建立完善的監(jiān)管制度。首先,應(yīng)強化企業(yè)監(jiān)管制度,確保企業(yè)在開發(fā)面向未成年人的人工智能應(yīng)用時,能夠自我約束并遵循高標(biāo)準(zhǔn)的質(zhì)量控制。其次,應(yīng)采取措施增強監(jiān)護人的風(fēng)險防范意識與能力:加強對監(jiān)護人的網(wǎng)絡(luò)安全教育;幫助監(jiān)護人更好地理解和使用家長監(jiān)控功能;建立家長社區(qū)或論壇,鼓勵監(jiān)護人分享使用家長監(jiān)控功能的經(jīng)驗和心得,形成互幫互助的氛圍;與學(xué)校合作,將家長的網(wǎng)絡(luò)監(jiān)控行為納入家校合作的范疇,給予積極參與的家長以正面的反饋和認可;通過相關(guān)法律法規(guī)或政策,明確監(jiān)護人在未成年人網(wǎng)絡(luò)保護中的責(zé)任和義務(wù),為他們提供指導(dǎo)和支持;加強執(zhí)法力度,對于因監(jiān)護人疏忽導(dǎo)致的未成年人網(wǎng)絡(luò)安全問題,依法追究監(jiān)護人的相應(yīng)責(zé)任。最后,應(yīng)時刻關(guān)注未成年人在線使用人工智能應(yīng)用的情況。政府在制定相關(guān)政策時,應(yīng)充分考慮未成年人的特殊需求,通過設(shè)置合理的技術(shù)使用模式,規(guī)避那些可能使未成年人上癮或形成病態(tài)技術(shù)使用習(xí)慣的應(yīng)用開發(fā)和運營。對于專門針對未成年人或可能被未成年人廣泛使用的人工智能應(yīng)用,應(yīng)對其進行更為嚴(yán)格的日常審查和監(jiān)管。還應(yīng)設(shè)立專門的反饋渠道,收集未成年人、家長及社會各界的意見和建議,不斷規(guī)范和完善未成年人模式。
綜上所述,未成年人模式應(yīng)當(dāng)在各方面的努力下,向以保障數(shù)字安全權(quán)與數(shù)字素養(yǎng)發(fā)展權(quán)為目標(biāo)、以數(shù)字安全威脅風(fēng)險與數(shù)字素養(yǎng)發(fā)展阻礙風(fēng)險為標(biāo)靶的系統(tǒng)工程發(fā)展改進,只有這樣,才能最大限度保障和實現(xiàn)未成年人的數(shù)字權(quán)益。
① 林維、劉曉春:《構(gòu)建面向未成年人保護的網(wǎng)絡(luò)生態(tài)協(xié)同治理體系》,《中國黨政干部論壇》2023年第12期。* 據(jù)中國青少年研究中心少年兒童研究所調(diào)查,近七成未成年人使用短視頻時缺乏父母家人陪伴。
② 許浩、程卿玄、董晶、田麗:《人智交互情境下的未成年人個人信息保護:困境與出路》,《情報理論與實踐》2024年第8期。
① 張振鋒:《網(wǎng)絡(luò)不良信息對未成年人犯罪的影響》,《預(yù)防青少年犯罪研究》2017年第1期。
② 郭勝男、錢雨、吳慧娜、吳永和:《面向未成年人的AI安全風(fēng)險:風(fēng)險澄思、根源透析與治理進路》,《中國遠程教育》2023年第7期。
① 葉子:《第一部專門性的未成年人網(wǎng)絡(luò)保護綜合立法出臺 筑牢未成年人網(wǎng)絡(luò)保護法治防線》,《人民日報》(海外版)2023 年11 月10 日第8 版。
① Vgl. Albert v. Mutius, Grundrechtskollision im Mietrecht, in : Joachirn Jickeli u.a.(Hrsg.), Ged? chtnisschrift für Jürgen Sonnenschein: 22. Januar 1938 bis 6. Dezember 2000, 2003, S.71.關(guān)于基本權(quán)利沖突不包括同一主體基本權(quán)利沖突的論述參見柳建龍:《論基本權(quán)利沖突》,《中外法學(xué)》2021年第6期。
② 杜寧寧:《權(quán)利沖突視野下的勞動者知情權(quán)問題研究》,《當(dāng)代法學(xué)》2014 年第5 期。
③ 解晉偉:《以“權(quán)利位階”為基礎(chǔ)解決權(quán)利沖突優(yōu)先保障問題試探》,《上海政法學(xué)院學(xué)報》(法治論叢)2020年第5期。
① 張迪:《數(shù)字檢察的法治邊界》,《蘭州大學(xué)學(xué)報》(社會科學(xué)版)2024年第2期。
② 閆慧:《數(shù)字公平實現(xiàn)進程中的外部效應(yīng)研究》,《國家圖書館學(xué)刊》2022年第1期。
③ 閆慧:《算法時代的數(shù)字公平問題思考》,《圖書館建設(shè)》2022年第6期。
④ 苗逢春:《生成式人工智能技術(shù)原理及其教育適用性考證》,《現(xiàn)代教育技術(shù)》2023年第11期。
① Sonia K. Katyal.“Private Accountability in the Age of Artificial Intelligence”, UCLA L.Rev,2019,Vol66,pp.54.
② 倪琴、賀樑、王英英、白慶春、吳永和:《人工智能向善:面向未成年人的人工智能應(yīng)用監(jiān)管探研—面向未成年人的人工智能技術(shù)規(guī)范研究(三)》,《電化教育研究》2023年第8期。
③ XU W.“ Toward human-centered AI: a perspective from human-computer interaction”,Interactions,2019,vol26,pp42–46.
④ UNICEF.“Adolescent perspectives on artificial intelligence”,https://www.ictworks.org/wp-content/ uploads/2021/03/adolescent-perspectives-artificial-intelligence. pdf,最后訪問日期:2025年1月31日.
⑤ 祝智庭、韓中美、黃昌勤:《教育人工智能(eAI):人本人工智能的新范式》,《電化教育研究》2021年第1期。
① 聯(lián)合國教科文組織:《人工智能倫理問題建議書》https://unesdoc.unesco.org/ark:/48223/pf0000381137_chi/ PDF/381137chi.pdf.multi,最后訪問日期2024年2月24日。
② 吳永和、郭勝男、許秋璇、鄭浩、顏歡:《面向未成年人的人工智能技術(shù)規(guī)范研究:學(xué)理闡析與探研進路—面向未成年人的人工智能技術(shù)規(guī)范研究(一)》,《電化教育研究》2023年第5期。
作者簡介
劉楠楠,中國社會科學(xué)院大學(xué)法學(xué)院2021級刑事法學(xué)博士生。