人工智能時代,經由算法產生的互聯網誘導行為已成普遍現象,其負外部性效應愈發顯現,具有法律規制的迫切性。這種負外部性效應的本質是純粹算法中立,即不加限制的算法技術應用帶來的風險。由于算法的應用,促使人工智能與互聯網誘導行為產生關聯,并因其公共屬性,使得該風險具有公法風險的特點。因此,算法規制的法正當性,主要是對純粹算法中立的修正,包含公益優先和文化引導兩方面。在傳統命令控制型規制存在權利保障疑慮的情況下,基于國家擔保責任的兜底,元規制理論下的自我規制有助于改善和提高規制的績效;并通過算法技術計算公共利益的限度,保障規制活動始終受到法律的拘束。
在人工智能技術日新月異的今天,算法技術的運用是其核心推動力。在技術革新的同時,算法已經深深介入人們的日常生活,并且產生了一些負面社會影響,譬如互聯網誘導行為。所謂互聯網誘導行為,是指互聯網業者借由網站或微博、微信、直播平臺等客戶端,通過人工智能和算法技術掌握用戶的使用偏好,并根據該偏好向人們推送內容信息誘導其瀏覽的行為。而人工智能時代,個體化推送的技術成本下降很快,互聯網誘導行為技術上更易實現,且“效果”更佳。互聯網文化產品是此類現象的“重災區”。中央電視臺《焦點訪談》欄目曾通過專題報道,揭批互聯網直播領域存在的傳播暴力、色情、吸毒等不良信息的亂象,引起廣泛社會關注,促使行政部門進行大力整頓。
這些亂象均歸因于互聯網誘導行為,其存在以下負外部性效應。首先,影響良好社會風氣的養成。此類信息不加控制地傳播,會對一些辨識能力較弱的用戶產生消極影響,甚至誤入歧途,尤其是青少年群體。其次,干擾社會主流價值的認識。不良行為并不只是一種孤立的行為方式,不是個別社會成員偶發的錯誤,其背后往往存在一種錯誤的價值指引。如不限制,則必然干擾社會主流價值和社會主義核心價值觀的樹立。最后,破壞社會公共秩序。
因此,面對人工智能時代通過算法進行違反法律法規、敗壞社會風氣的互聯網誘導行為的法律規制是迫切需要大力研究的時代命題。為此,本文從互聯網誘導行為負外部性效應的本質展開研究,經分析提出相應規制建議,希冀引起學界研究的進一步深入。
對互聯網誘導行為的規制,核心在于規制算法。互聯網誘導行為可能產生的負外部性效應,與人工智能技術中的算法應用密不可分。因此,厘清算法和互聯網誘導行為之間的關聯,分析算法風險的成因,是正確認識算法規制的前提。
人工智能技術建立在對大數據,即海量數據的掌握與應用的基礎上。大數據尚沒有一個較為統一的定義,但是根據其特點,一般而言具有規模性、多樣性、高速性和價值性的特點。互聯網環境為大數據技術在互聯網誘導行為中應用提供了條件,互聯網誘導行為以對數據的占有與分析使用為前提。
從互聯網誘導行為的具體類型來看,可以將其分為兩種類型。第一類是直接根據信息內容對不特定多數人進行無差別誘導。此類誘導行為不是根據被誘導對象的使用習慣產生數據,而是根據互聯網海量信息分析得出數據。譬如,在搜索引擎中由網頁主動呈現的熱點信息或所謂“熱搜榜”,其內容用戶可能并未檢索過,而是其他用戶檢索較多或互聯網業者根據計算分析認為此類信息內容更容易被關注。第二類是基于用戶的使用習慣,對特定用戶進行針對性誘導。此類誘導行為以掌握用戶的互聯網使用習慣為基礎,有目的地多次或反復向特定用戶推送與曾經瀏覽過的信息類似的內容。譬如,直播平臺根據用戶在日常使用中生成的喜好,向其推送近似或相關的周邊直播內容。但是,無論是哪種誘導類型,均是以數據和算法為基礎。不論何種數據來源,都是互聯網用戶和業者相互作用的產物,任何一方都不可能單獨產生數據。數據一旦生成,便從用戶與業者的雙方行為轉化為由業者實際掌握并使用的單方行為。
數據在使用中,根據對算法的人為操控程度,又會發生兩種現象。一種是“數據失靈”現象,即基于數據中立的立場,對算法不進行任何修正,完全由算法根據數據“客觀地”計算得出信息,又或客觀計算得出信息后,不對內容進行任何篩選便推送給用戶。此種現象的風險在于,如果原始數據的質量不高,譬如作為數據源的用戶喜好瀏覽包含不良內容的網頁,此時根據計算認為這類信息更易于增加點擊量,便向其他用戶推送。另一種是“數據操控”現象,即互聯網業者在獲得數據并經過計算,人為將結果進行修改,又或是在計算過程中直接對算法進行操控以達成特定結果。由此可見,數據風險經由算法而產生,形成互聯網誘導行為的負外部性效應。
互聯網誘導行為所導致的負外部性問題是一個公共議題,對互聯網業者的規制不能僅僅指望其自身的內部規制或整個產業的自發規制。而外部規制的著力點,看似是在規制互聯網業者,其實質是規制互聯網業者所應用的算法。基于此,算法本身不再是一個私人領域的單純技術問題,而是一個法律議題。
首先,互聯網誘導行為的本質是公共產品的供給。以文化產品為例,業者借由互聯網平臺向用戶推送信息內容并誘導點擊,其本質是在互聯網社會中提供文化公共服務。雖然業者本身的供給(誘導)行為并不是出于公益的目的,但是在此過程中,互聯網業者與用戶本身并不是一種有償的具有商業服務性質的文化產品購買關系。在多數情況下,用戶接受了互聯網業者的誘導之后,并不需要付費,而是直接閱讀、視聽其提供的內容。換言之,互聯網業者的經濟利益不借由用戶的使用而直接產生。目前的互聯網生態中,多數業者旨在打造公共平臺,信息內容并非由其直接提供,而是通過平臺對海量信息的梳理,再向用戶進行二次供給。由此,互聯網誘導行為無疑是一個在公共場域的行為,算法由于在其中具有舉足輕重的作用因而由此進入公共領域。
其次,數據的生成過程使用戶和互聯網業者構成了網絡社會的共同體。用戶基于對互聯網平臺的使用而產生使用習慣,業者搜集、掌握并利用其數據,以數據為媒介,以互聯網平臺為依托,當用戶達到一定數量時,便形成了一個互聯網社會。以微博為例,微博設有社區管理中心,既向用戶提供一些基本服務,也進行一些準司法性質的活動。社區管理中心設有舉報大廳,受理對侵權行為或危害公共利益的行為的舉報,并按照公開程序進行判定與裁決。判定過程需要利益關系人的舉證,判定結果會進行公示,對裁決不服還能通過申訴程序救濟。微博運營商在此過程中已經實質性地行使了公權力,這便是互聯網社會中的社會公權力。有學者認為:“社會公權力是國家之外的社會組織以‘準公共產品’供給為目的,以社會利益實現為宗旨,對組織成員所產生的影響力與支配力。”[1](P87)這是對社會公權力的一種美好的期許,然而在實際的權力運行過程中,社會公權力可能走偏,互聯網誘導行為的負外部性效應便是例證。
最后,數據本身具有公共性。“隨著大數據技術的發展,各種涉及數據智能及其算法的場景成為主體生活實踐的一部分。”[2](P100)具體而言,數據本質上是個人信息,當下在論述大數據與個人信息保護時,普遍是遵循隱私權保障的路徑。對于個人信息是否具有財產屬性,尚存在爭議。但是,從市場實踐看,個人信息的商業價值和作為交易客體存在的事實也充分證明了個人信息具有不可否定的財產性質,并且這種財產性質在市場中早就通過交易得到了事實上的認可。[3](P16)頻繁出現的個人信息泄露與交易,在侵害了隱私權的同時,也證明了其作為虛擬財產或虛擬物的功能。在互聯網誘導行為中業者所掌握的用戶信息,是使用習慣與痕跡。誘導過程中并不存在轉賣和泄露信息的問題,如果發生類似情形,則屬于純粹的侵犯個人隱私權,與互聯網誘導行為的特性無關。互聯網誘導行為利用個人信息進行分析的目的,在于反作用于該用戶,或以此為基礎推薦于其他用戶,此過程本身不涉及信息交換。在網絡社會公權力運行的情境下,作為公權力行使主體的業者通過算法掌握并運用數據,數據此時形同網絡社會中的公物,而不再是用戶與互聯網業者之間的私主體關系。所謂公物,就傳統行政行為而言,本指為了達致特定公共行政任務之目的,由行政法調整的受行政公權力支配的公用物。據此,在承認網絡社會公權力的邏輯前提下,數據成為受網絡社會公權力機關(互聯網業者)所支配,并用以達成提供公共服務之特定目的之物,是為網絡社會共同體中的公物。由于數據與互聯網誘導行為具有公共屬性,而算法是大數據與互聯網誘導行為的關聯點,因此其具有公共性就顯得順理成章。
證明算法具有公共性的目的,在于研究通過公法對算法進行規制的必要性。唯有算法與公的屬性產生聯結,才便于在公法架構中進行規制。經由算法的聯結,可以從兩個方面審視其在互聯網誘導行為中面臨的公法風險。
第一,從權力視角來看,其負外部性效應實質上是種公法風險。就前述三類負外部性效應而言,首先,對良好社會風氣的影響直指法律上公序良俗原則。公序良俗不僅是民法中的一項重要原則,同樣也是行政法上不可忽視的重要價值。“很多國家和地區在行政程序法中規定違反善良風俗的行政行為無效,也是為了保障善意的優先實現。”[4](P98)可見,公共行政中行政行為亦不能突破公序良俗底線。在網絡社會公權力運行的情境下,業者在互聯網平臺這個共同體中所行使的社會公權力,其初衷與行政機關公權力行使的初衷當屬一致,即達成特定社會規范治理的目標。據此,業者在行使這項公權力的時候,理應比照行政機關公權力行使的標準,恪守公序良俗原則。而互聯網誘導行為所導致的對良好社會風氣的負面影響,顯然是背離了公序良俗原則對公權力的約束。其次,從對社會主流價值觀的沖擊來看,我國憲法第24條對主流價值觀作出明確規定,載明了國家提倡社會主義核心價值觀,提倡愛祖國、愛人民、愛勞動、愛科學、愛社會主義的公德。互聯網誘導行為造成的負面影響,顯然不符合國家根本法的規范。最后,從對公共秩序的破壞來看,公共秩序主要是通過法律所構筑與保障的秩序。“法律秩序是法律調整下的人類社會的條理化狀態,也是法律規范下的主體生活模式,它是任何人類社會法律所共同追求的目的。”[5](P381)互聯網社會中的公共秩序也應是以法律規范的指引為基礎而建構的法律秩序。
第二,從權利視角來看,互聯網誘導行為侵犯了互聯網用戶的文化權利。所謂文化權利,是“為了滿足公民個人的精神需求的一種精神性權利”[6](P21),同時也是“對自身的文化創造享有精神上和物質上的利益的權利”[7](P12)。用戶在互聯網平臺所接受的資訊、瀏覽的信息、參與的各種論壇或視聽活動,均屬于文化領域。在接受互聯網文化服務的過程中,用戶不只產生視聽上的直觀感受,更加包含精神上的體會。因此,當前述負外部性效應發生時,事實上是未給用戶提供優質的公共文化服務,損及互聯網用戶的文化權利。
所謂算法中立,是一種理想狀態,也就是任由算法技術自身運行發展,而不被任何人為修改控制。透過互聯網誘導行為的負外部性效應說明純粹的算法中立是不存在的,算法具有可規制性。算法風險的存在說明純粹的算法中立并不能真正實現,但算法中立的價值追求又具有一定正面意義。因此,一種被修正的算法中立才是真正符合社會需要的原則。換言之,算法規制可以視為政府部門運用公權力修正算法中立風險的行為,其法正當性主要包含以下兩個方面。
“算法獨裁”的提出,反映了人們對人工智能技術不斷發展所表現出的憂慮。所謂算法獨裁,是指一部分掌握核心技術手段的人,利用其在技術上的優勢干預甚至主宰社會的運轉,以至于影響到法律中公平正義價值之實現。因為“這種技術超人作為人工智能時代的最有利者,幾乎不會顧及被淘汰者的綜合狀況和心理反應”[8](P29)。在人工智能愈加發達的社會,掌握算法的人將控制主要社會資源,因其僅為少數人所掌握,因此當失去有效制約與監督時,算法掌控者的權力便可能失控。譬如,當政府掌握數據與算法時,“腐敗的技術官僚與逐利的市場精英卻容易同流合污,以‘數據獨裁’為特征的市場獨裁非常容易形成”[9](P63)。同理,在網絡社會公權力運行的情境下,互聯網業者已經實質掌握和利用了用戶數據,并且通過算法進行大數據分析操控由其運營的虛擬社會(互聯網平臺)。在沒有外力作用的情況下,僅僅依靠平臺用戶的力量,幾乎無法對業者形成制約。譬如,當政府有關部門未對一些直播平臺進行執法時,各平臺為了搶占市場,要么對用戶發布的視聽內容完全不予監管,要么就是直接由平臺提供一些吸睛的內容。此時,業者利用其數據和算法上的優勢,已經在其平臺范圍內形成了算法獨裁。
為了因應算法獨裁的后果,有關部門已經采取行動,對一些互聯網企業進行約談或關停。政府的行政行為,無疑應當基于公益優先的立場。那么,到底何為公益則是一個需要進行判斷的問題。一方面,“公益是一個不確定的法律概念,法律上之用語,相類似的有公共利益,意指最大多數人最高標準之利益而言”[10](P88)。每個人都有對美好生活的向往,在互聯網社會亦不例外。用戶借由互聯網平臺想要享有的,于大多數人而言是正向的符合社會普遍道德標準與謹守法律最低限度標準的服務。互聯網誘導行為造成的負外部性效應顯然不屬于“美好生活”的范疇,也不符合大多數人的利益。另一方面,公共利益的判斷以公共性為前提,“正義、公正、福利的概念,既是公共性本身,又是公共性的實體性內容,也是公共的理念在具體情況下得以展開的核心問題”[11](P169)。互聯網平臺、大數據、算法等,均具有公共性,由此產生的是社會問題而不僅是個體問題。于互聯網誘導行為而言,在多數人渴望獲得更優質服務的情形下,業者為了利益而迎合少數用戶的負向需求,又或是借由算法獨裁地位,探底每個人內心的陰暗面,這顯然是對大多數用戶的不公平與不正義。因此,針對互聯網誘導行為,政府有關部門采取必要的措施進行干預,具有法律上的正當性。
如果說“算法獨裁”是個從字面上看具有負面含義的詞匯,那么“算法中立”則是個看起來要正面得多的詞匯。因此,“算法中立”的觀念看似順應人工智能技術之發展趨勢,相較于需要借助人的技術而言更具進步意義。然而,純粹的“算法中立”并非在所有情況下都是正面的。算法應用的基礎是對數據的占有,而數據本身存在優劣之分。互聯網誘導行為的負外部性效應有相當部分的成因,便是數據本身的劣質。此時,“算法中立”并不具有正面意義,且為互聯網誘導行為推波助瀾。我們必須明確:“‘算法中立’的本意是為保護技術發展以促進行業進步,目的是平衡產業發展與權利保護之間的沖突,但如將‘算法中立’之名作為侵權行為的擋箭牌,則背離了行業規則與司法原則的本意。”[12]事實上,算法也好,數據也罷,一旦進入公共領域便不再是純粹的技術問題,其必然與價值發生關聯。因此,“規制算法是對人主體地位的強化”[13](P146)。尤其是就互聯網誘導而言,由于誘導的內容本身具有某種傾向的觀念,受到特定價值的指引,其效果與公共文化秩序聯系緊密。因此,對“算法中立”問題,也必然需要通過一定的價值觀和價值標準進行規范與修正。
政府部門對算法進行規制,可以視為有權主體履行文化引導的國家義務,透過憲法所確認的文化價值觀對互聯網誘導行為進行行政規制。所謂文化引導的國家義務,是指根據憲法的規定,國家具有保障公民基本文化權利、提供基本公共文化服務和實現全社會文化發展目標的義務。我國是社會主義國家,國家的文化引導義務是我國憲法的特征之一。譬如,我國憲法在序言第一段中對傳統優秀文化和革命文化進行了宣誓。又如憲法第24條確認了我國文化的社會主義方向。從這些憲法內容來看,可以發現我國對文化的態度不是中立的,而是存在著一種經由憲法確認的以價值引領為目標的國家義務,即國家必須確保我國文化的發展與文化領域的各種活動都符合社會主義的價值與發展方向。面對互聯網誘導行為,政府部門有義務采取必要的規制手段,促使互聯網業者回到正確的、符合主流文化價值認知的軌道上。
盡管對算法進行規制具有現實的必要性和法律上的正當性,但是也不得不承認,目前政府有關部門主導的規制路徑是一種傳統的命令控制型規制,具有一定的局限性。面對人工智能技術快速發展、互聯網社會變化與轉型迅猛的新興規制領域,傳統的命令控制型規制的效果存在疑慮。因此,我們需要找尋一種新的更加有效并且充分保障被規制者權益的規制路徑。
傳統的命令控制型規制是由政府有關部門單方主動做出的行政行為,如果采取約談互聯網業者的方式,則屬于“違法預警型”的行政事實行為[14](P104),其目的是對潛在的可能發生的或業已發生但情節較輕微,尚不對公共利益造成嚴重負面影響的行為進行提醒與勸誡,行政公權力行使的強度相對較弱,對行政相對人不產生實體性的權利作用。而如果是采取諸如關停、罰款等行政處罰,對作為行政相對人的互聯網業者產生實體權利影響,可能產生權利保障疑慮。
一方面,算法規制應當保持謙抑、防止恣意。所謂規制活動保持謙抑,主要是就行政權的行使而言。“行政權謙抑性是指行政法應秉持謙虛、收斂的立場,在可以采取其他社會管理的手段才是理想時,行政權應讓位;或者在行政法最小、必要合理的維度內有強度、力度更弱或更柔的手段可以實現目的時,選擇之。”[15](P90)人工智能技術手段具有較強的專業性,行政機關作為規制者,其成員未必來自于行業一線或具備較強的專業技術知識。在此情況下,對互聯網領域的公共事務,以政府引導和行業自治的方式達到規制目標是更加適宜的策略;過于主動的強行政干預,會被視為行政權的不正當擴張,違反行政法上的禁止恣意原則。根據算法規制的特質,數據與算法一方面關涉業者在技術領域的知識產權。在算法規制中,行政機關只能對算法所導致的計算結果之應用進行規范,而不適宜借由規制行為直接掌握由業者所享有的算法技術,從而侵犯到業者的合法權益。此外,算法得以應用的基礎之一是數據,數據是對用戶個人信息的記錄,其由業者獲得可以視為用戶的一種自愿,但這種自愿并不及于行政機關。政府有關部門在進行規制活動時非經法律允許不能獲取用戶的個人信息從而侵犯隱私。
另一方面,算法規制需要注意公正、衡平利益。算法規制的初衷應當是促進互聯網社會充分實現公益和維持互聯網產業的積極健康發展,因此,在進行算法規制時,至少有以下三方面的利益需要被關注。第一是衡平業者與用戶之間的利益。如上文所舉的不正當獲取用戶個人信息的問題。第二是衡平具有競爭關系之業者利益。譬如,面對同類型的互聯網誘導行為,規制應當公平公正,不能針對性地處罰或輕縱包庇特定業者。第三是衡平公益與互聯網產業的關系。公共秩序屬于公益范疇,而互聯網產業的發展也可以促進公益的實現,不能因為互聯網誘導行為具有的負外部性而對相關產業過度管控,從而壓制業者積極性。譬如,學者指出法院在審理與插件相關的不正當競爭案時,“反映出法院對平臺利益的過度保護,忽視了插件軟件的公益屬性,也失去了平臺價格監管的可行的替代方案”[16](P93)。
其實,在數據規制中同樣需要厘清何為公益,因為公益是公正與利益衡平時必須考量的因素,也是規制之所以作出的主要理由。而事實上,由于公益的模糊性,使得行政機關的干預行為也會變得隨機與不確定,從而損及業者和用戶基于期待可能性而產生的利益。
“命令控制觀念,指出政府決定會排除市場活動,政府機構只有十分有限的知識與能力,去通過規則直接控制他人行為,并且法律與政治體系中的溝通能力,會限制其直接干預經濟社會生活的能力。”[17](P207)這促使我們思考如何“鼓勵行政機關采取成本更少、限制更少的方法進行規制”[18](P513)。換言之,即“針對網絡市場的獨特問題為其量身定制全新的規制體制和規制手段”[19](P83)。隨著規制理論的不斷發展,元規制理論被越來越多的學者所關注與提倡。所謂元規制,其并沒有一個統一的標準界定。根據權威的《牛津規制手冊》,我們可以將其理解為:“外部規制者有意促使規制對象本身針對公共問題,作出內部式的、自我規制性質的回應,而不包括外部規制者的無意而為”[20](P150)。那么,結合算法規制與互聯網誘導行為規制來看,可以從以下兩個向度進行考察。
規制過程的反身性。所謂反身性,簡言之就是規制者與規制對象應當是互動的,而非傳統單方的,二者甚至可以是互相影響互相決定的。如果按照元規制的策略,在互聯網誘導行為規制中,規制的體系將從原有的單向度變為多向度規制,規制主體也從單一主體變為多元主體。第一種規制關系和傳統的命令控制型規制一樣:政府部門充當規制者,業者是被規制者。而區別在于,政府部門不再在第一時間直接以行政命令的方式要求業者為或不為某類型行為,而是為其設定一個治理底線或目標,由業者或由其組成的行業協會根據政府的治理底線與目標,在不突破法律的前提下,自行設計和決定規制形式與內容。這個由被規制者主導的過程,稱為自我規制,即“規制對象對自身施加命令和結果的規制”[20](P150)。第二種規制關系,是業者或同業協會的自我規制。基于社會公權力的行使,其從第一種規制關系中的被規制者變為了自我規制中的規制者。由于業者是數據的掌握者和算法的應用者,在政府的公共治理目標的指引下,其更加知道何種規制方法或策略更容易結合大數據與算法的客觀實際。特別是業者作為一種非政府組織,其沒有政府部門科層制在效率上的困擾,至少在理論假設上更容易避免權力的傲慢與偏見。
反身性的另一方面,是為了避免被規制者利用自我規制及其在專業上的優勢,而導致政府規制能力的減弱,政府部門更需要提高的不是強規制的手段而是如何運用規制的學習能力。因為,“規制體系中各主體不僅需要了解其他主體的行為,也需要明白自身應當做什么”[17](P215),這一點對政府部門尤其重要。“反身程度更高的治理形式能夠提供一些機制,通過允許不同主體表達各自觀點、偏好與立場,來解決那些沖突較多的問題”[17](P212-213),而作為樹立規制目標和最終承擔保障作用的政府部門,更加需要通過加強學習能力,使其在被規制者面前不至于成為“外行”,或者避免其作出不正確不適當的規制行為,從而陷入恣意規制的窠臼。因此,元規制的策略在理論上是一種更為有績效的治理方式。“當規制者缺少必要資源或信息,無法設計合理的規則來限制規制對象的裁量權時,自我規制與元規制能解決特定問題;當規制問題過于復雜,或某個行業存在異質性,或處于動態演進之中時,更適合去選用自我規制與元規制。”[20](P169)
規制結果的擔保性。此處所論之擔保,就是國家擔保責任。規制中的反身性固然重要,但反身治理與規制學習的根本目的,仍然是提高政府部門的規制能力。換言之,即便是在元規制的策略中,政府的功能不是全然弱化的,其至少應當起到兜底的作用。以互聯網誘導行為的規制為例,如果業者的自我規制發生了偏差,達不到預期的效果,類似的誘導行為仍然持續發生,則視為自我規制無效,政府部門還是應當采取必要的手段維護互聯網社會的公共秩序,保障公共利益。
公共利益是算法規制得以進行的正當性基礎之一,“任何一個公共利益的概念都必定會和社會的主導價值攪在一起,但它不一定非要反映這些價值才能夠變得有用”[21](P32)。即便透過一定的由憲法確認的價值作為指引,也只是一種方向性的宏觀指引。由于公共利益在利益內容和受益對象上的不確定性[22](P229-235),使其一旦涉及具體的規制個案,很難據此為量化標準進行衡量。在元規制的策略中,具有反身性的規制學習可以為我們提供另外一種思路,來審視公共利益的判斷問題。根據這種反身性,在算法規制中,數據與算法是互聯網業者的優勢,但是基于規制學習的能力,政府部門同樣可以學習并掌握這樣的方法。
事實上,政府部門透過數據的應用實現社會治理的目標,早已有先例。美國交通安全管理局就通過建立收集網絡進行交通數據收集,在保證數據質量的基礎上進行數據分析,確定存在的問題,研究新的政策,評估政策績效,最后進行數據發布并接受社會監督。在數據發布之后,也鼓勵民間介入,推動政策的復制并調動政策競爭。[23](P71)同樣的規制思路我們也可以應用于互聯網誘導行為的算法規制。互聯網社會呈現復雜狀態,而“多樣化的訴求和群體基礎的問題看來會給有效規制設定嚴重障礙”[21](P230)。面對錯綜復雜的利益關系,公共利益的判斷勢必引入算法,通過算法計算出既不突破法律底線,又符合多數社會成員期待的公共利益,是一種規制學習的體現。
以互聯網誘導行為為例,至少有兩個方面的內容是可供政府部門進行數據搜集的。一是業者所意欲誘導的不良信息的各平臺種類及其傳播覆蓋面。不同的平臺類型,如微博、微信公眾號、手機APP等,在用戶范圍、年齡層次、使用習慣等方面可能存在差異,政府部門可以借由一定的觀測方法進行數據收集。二是用戶對不良信息的感知程度。不同類型的平臺用戶,對不同類型的不良信息,其好惡可能存在偏差,什么樣的內容最為用戶所厭惡,或最容易被用戶繼續二次傳播,可以通過觀察而生成數據。在此基礎上,政府部門可以根據特定的算法來計算,何種不良信息傳播速度更快、覆蓋面更廣、影響層次更深。通過算法的應用,可以提供給政府部門一種根據不同規制對象而作出相應規制行為的參考依據。進而判斷,何種互聯網誘導形態適合先由互聯網業者或同業協會基于自我規制的策略,先行進行必要的約束,預防負外部性效應的風險或消除業已產生的負外部性效應;或何種誘導形態是一般性的自我規制難以及時抵御與消除負外部性效應的。此時則需要政府部門基于擔保義務,及時指導自我規制主體再進行更加深層次的規制活動,或者直接由政府部門執行規制,以達到規制目標。
但是,即便是元規制策略具有上述優勢,其歸根結底作為一種行政活動,仍然是應當受到法律的拘束的,不能突破依法行政之原則。就算法規制而言,還是應當以回應型法的路徑來規范算法規制的法律限度問題。那么,以下幾個問題需要通過法律的形式加以厘清。一是數據收集的法定原則。由于數據在本質上是一種個人信息,政府對個人信息的獲取在法律架構內的理解應當是個人向政府讓渡部分權利,所以信息獲取必須基于法律的授權。二是算法應用的公開原則。政府作為公權力主體,在收集數據之后,其具體的算法關系到計算的結果,而計算的結果又直接影響到政府規制政策,政府規制政策的貫徹會影響行政相對人的實體權利。既然數據和算法本身都具有公共性,那么應當有法律規定政府在應用時必須依法公開,以體現決策的透明度和行政公開的行政法原則。當然,這種公開在堅持法定的同時,也以不泄露或侵犯數據源之私人主體的隱私為前提。三是數據的收集同樣根據公開原則,應依法公開進行而非秘密活動。在此,法律需要明確的是政府獲取數據的方法、手段、程序等法律限度問題,特別是數據的獲得可能會涉及業者或用戶的配合問題,此時能否通過法律為其設定義務,需要審慎考量。四是相關立法建議采用促進型立法的方式。因為元規制的策略之所以區別于傳統的命令控制型規制,便在于政府部門與規制對象之間是互動的而非單向的,立法應當鼓勵政府部門采取必要且適當的方式實現規制目標,譬如引導業者或同業協會采取自我規制或者鼓勵合作行政治理。政府部門與規制對象既然是互動的,那么合作行政就更能描述這種關系。有學者提出 “應強化商業搜索引擎和政府數據開放平臺的合作”[24](P45),這是一種有益的探索思路。五是法律應當明確政府部門兜底的擔保義務。達成算法規制的目標是“剛柔并濟”的,規制過程可以是柔性的,但是為了保障公共利益和規制目標的實現,其規制手段的剛性須由法律明確授予。
互聯網誘導行為誕生于市場經營活動,是市場失靈的產物,人工智能的技術發展進一步放大了其負外部性。對互聯網誘導行為的規制而言,其負面效應直指社會公共利益,傳統強監管可能出現規制失靈,需要一種更加具有績效的規制方式來克服這種失靈。在國家恪盡擔保義務責任的前提下,元規制理論提供了一種自我規制的規制改善路徑,并借由對算法技術的應用,厘清該規制活動的法律限度,有助于在對互聯網誘導行為進行規制的同時,保障相對人的權利,達成規制目標。當然,互聯網誘導行為還涉及公共安全、個人隱私、知識產權保護等多領域,因此規制難度也呈現增長態勢。相應的正當行政程序完善,算法在行政規制中的應用等問題需要進一步探究。