彭心一
武漢市建設工程設計審查和消防驗收中心 湖北武漢 430015
近年來,隨著計算機科學的蓬勃發展,算法(Algorithm)這一原本屬于傳統數學領域的概念也被投入計算機領域。國內“互聯網+”概念提出后,使原本封閉的互聯網突破了傳統的時間、空間限制,所有信息數據可以實時進行收集和處理,催生了利用數據作為生產力引領經濟發展技術創新的“數字經濟”。數字經濟和其他行業的融合滲透推動了產業領域的增長,提升了經濟發展的上升空間,而大數據作為數字經濟時代的“新能源”,大數據算法作為數字經濟時代的“新生產工具”,如何對它們在法律上進行賦權和規制,是數字經濟時代的重要命題。
為順應我國“十四五”發展規劃,推進數據知識產權保護工作,2021年10月9日,國務院辦公廳頒布《“十四五”國家知識產權保護和運用規劃》,其中“專欄2”提出數據知識產權保護工程,從開展立法研究、完善法律法規、建立行業規范、推動國際規則制定、保護數據安全幾個方面,對數據知識產權的賦權和規制進行了討論[1]。大數據算法作為新興的前沿科學技術,在與現有的法律規范造成沖突的同時,也會不可避免地和現有倫理觀念產生碰撞,這與倫理學界的普遍觀點也不謀而合。[2]在考慮對其進行法律規制的同時,也需要對其倫理方面的沖突引起注意。
大數據(Big Data)泛指體量大、增長率高、信息種類繁多、來源復雜的數據集合,是國家重要的戰略資源。而“大數據”并非只是在“數據”的概念上簡單疊加一個“大”字。不同于互聯網上沒有經過數據處理的海量信息,大數據進行了信息處理,從而產生了以人工智能為代表的信息應用科技。大數據算法(Big Data Algorithms)是通過將海量的數據作為輸入,并通過特定的程序分析處理這些數據集合,從而作出決策的算法。隨著數字經濟發展,海量數據集的產生使人類越來越難以依靠傳統的人工決策進行高效數據處理具有人工智能、深度學習特性的大數據算法可通過采集、分析、運算數據集,對數據的特性、技術、結果形成自動化決策,在現代數字經濟發展中的作用越來越重要,難以替代。
數字經濟與大數據算法之間存在天然的相通關系。數字經濟能將任何有機物和無機體都看作“算法”的一部分,從而使大數字的外延范圍向外擴展;在新一輪工業革命的大潮下,我國正處在以網絡為核心的新型信息技術上升期,由大數據算法為主導的新型信息技術的合理應用,勢必讓大數據分析中蘊藏的巨大經濟價值得以全面釋放,使中國數字經濟發展走向新的臺階。
然而,大數據算法只有在數據來源正規、中立客觀的情況下,才能在數據收集、智能分析、結果預測等方面發揮優勢。如果數據本身有缺陷或不完美,僅靠通過技術手段并不能避免大數據算法被錯誤使用或濫用,從而導致一系列問題。
在運行大數據算法的過程中也需要遵循人類道德準則的規范。算法倫理問題是傳統信息倫理問題在數字經濟背景下的進一步延伸。由于大數據算法作為實現決策的技術手段具有雙面性,造成的算法倫理問題不斷挑戰用戶的正常生活,造成了負面影響。其中,最為突出的是用戶知情權和個人信息的泄露,以及違反信息倫理。
大數據分析技術的應用使得信息資料收集的難易度大大降低,自動化程度上升。目前,部分算法設計師對消費者的不同軟件應用的用戶端數據進行采集統計分析,并利用大數據算法生成“用戶畫像”(Persona),以進行產品的針對性推廣,平臺掌握了用戶的需求和偏好,便能更具針對性地向用戶推送商品和服務,長此以往,可能會導致信息倫理問題的出現。
大數據算法對用戶畫像的精確掌握使平臺對用戶的偏好和消費習慣產生濫用。其本質是平臺通過分析用戶畫像,形成的帶有價格歧視性質的大數據算法。它將平臺的話語權無限放大,成為絕對的規則制定者,這種算法權力的濫用行為需要被及時約束。
由于用戶在網絡信息平臺獲取的信息偏向于自己喜歡的領域,久而久之,這種信息獲取的非全面性將必然導致信息認知偏差,即“信息繭房”,而在其中發揮作用的正是個人推薦算法。
同時,大數據算法更多依賴于信息收集和計算機自身的深度學習,而深度學習的后果往往難以預料,算法黑箱是數據保護的天然屏障,但同時也為算法的倫理規制帶來了困難。數字經濟時代,算法黑箱化傾向也會更加突出。
大數據的來源一般可分成自然科學數據和社會數據兩種。然而,無論是科學技術、社會進程如何向前發展,這兩方面的數據也無法被全部收集涵蓋。這些數據的產生、獲取從客觀層面來講依然是具有隨機性、特殊性的,同時,收集的數據也不能包括邊緣數據和未能電子化的紙質數據。大范圍的信息共享平臺也未能搭建,年代久遠的信息只能以紙質形態保存,散布于不同領域,沒有參與信息流通。如何盤活信息資源,共享數據,完善大數據樣本,政府部門的角色不能缺位。大數據算法只有在信息來源本身完善、高效的前提下,才能切實體現其優越性。只有在保證數據資源合理利用的前提下,同時保障用戶使用數據權限的私密性、合法性,才能形成良性的數據處理機制和網絡監管機制。
算法黑箱的普及也催生出了借助網絡、大數據技術和智能算法而形成的全新權力形態,即算法權力。算法權力能夠短期內提升企業效能、社會福利、政府管理效率等,但從長遠來看算法權力的滲入對合法權利體系來說必然造成權力濫用。并且,算法內嵌了設計者自身的價值取向,由此可能會產生算法歧視。如有的專家所說,算法的本質是“以數學方式或者計算機代碼表達意見,包括其設計、目的、成功標準、數據使用等都是設計者、開發者的主觀選擇,設計者和開發者可能將自己所抱有的偏見嵌入算法系統”。[3]程序員在編寫算法的時候,往往從自身角度出發,依靠自己的專業知識和價值評判標準構建邏輯框架,編寫代碼。久而久之便把對自身不熟悉的領域排斥在了思考范疇之外。
面對大數據算法這一新興主體所造成的倫理問題,需要同步更新法律規制手段。注重用戶隱私保護,消除數據偏見問題和歧視問題,同時提升監管措施和提升算法透明度,從而確保大數據算法的運用符合公眾利益。
必須破除數據信息孤島,并大力推動全社會的數據開放與資源共享,其中以政府數據開放更為關鍵。這樣做的原因在于,一是真正核心的數據絕大部分掌握在政府部門,二是政府的主導可以更好地促進大數據全面、有序、規范的共享。可以說,如果沒有政府介入和整合,就沒有真正的大數據。所以,需要由政府牽頭,就大數據公開的收集、傳播、保存、使用和公開等各環節規范管理并出臺立法,明確界定了政府數據公開主體、范圍、程序,同時以《網絡安全法》《政府信息公開條例》等法律為上位法基礎,以各省、市自身的具體情況引導實施,并因地制宜出臺地方性法規或規章,為大數據公開主客體各方的權利義務等規定提供了法律依據。既要促進數據資源最大化利用,又要保障公眾的知情權、行政參與權和監督權。在知情權保障的基礎上實現數據資源的充分開發利用。
大數據算法的倫理規范完善的首要要求就是保證客觀性。在算法設計開發初期,應確保其使用不違背算法設計者和開發者的本意,不違背法律規定及道德準則要求。當算法投入商業使用時,將根據其原先設定的用途合理使用,同時人類社會的法治精神與美德內嵌于算法行業的商業倫理準則。同時加大在教育與培訓方面投資,以提高社會對大數據算法的認知度。加強對從業人員的教育培訓,使其了解大數據算法的運用應當遵循哪些規范和準則;各高等院校可多注重專業交叉教學,有關政府組織及公司也可邀請專業人才對成員作有關技術培訓。引導公民積極參與監督,以適應未來的高速增長,提高公眾的認知能力。
完善數據立法,進一步增強立法對數據主權領域的支撐保護功能。如歐盟《通用數據保護條例》(General Data Protection Regulation,GDPR)專門立足于保護個人數據隱私。《中華人民共和國數據安全法》對盜竊和用其他非法手段獲取數據的行為作出了限制,同時擴大了向境外提供數據的監管適用情形;《中華人民共和國網絡安全法》《中華人民共和國個人信息保護法》也明確了對數據的使用收集要克制,明確哪些數據是必須要收集的,如果不能收集,就要明確相應的制度對其進行保護。
同時,根據算法的使用目的來設定法律規制。根據商業、教學、研發、個人使用等目的,對數據安全和隱私的保護進行區別保護。如果是出于商務目的而使用大數據算法從事生產、管理活動的,就必須要保障信息使用權人的合法利益,而不能任意損害商業信息所附帶的著作權、商業秘密等利益;企業個人或科學研究機關以教學、研發為目的對數據加以擷取、數據分析的,政府部門或地方司法機構以行政管理或嚴厲打擊違法活動為目的對數據加以獲取和分析的,則必須對信息使用權人加以一定的約束。當然,這些約束都是相對的,也不是指有關機構和社會個人都可任意損害數據使用權人的合法權益。
算法水平的高低影響國家綜合實力,因此,從國家利益來看,國家算法權力只能增強不能削弱。針對新型的科學技術,應當采用包容審慎的態度。明確設立算法審計制度的目的在于保證大數據算法的準確性、公正性,同時兼顧數據安全和個人隱私。對于尚處于創新發展中的算法應用,可以采用事中和事后審查兼用的模式,對于事前無法準確判斷其影響的大數據算法,可以在不危及公共利益和個體基本權利的前提下,考慮設置一定的“觀察期”。同時建立算法審計制度,明確具體的審計標準,確保審計人員具有專業知識技能,建立明確的算法設計者、控制人監管機制和針對算法失靈、算法崩潰的應急預案機制。靜態的制度設計會產生監督系統不到位的情形,所以政府必須創新制度設計,并動態地調整監督系統,才可以搭建由政府領導的大數據分析審計與監督平臺,對公司進行真正的動態監督。
利用“算法問責”控制算法歧視和新技術對隱私的侵襲。傳統的決策問責遵循“誰決策誰負責”“誰主管誰負責”,雖然大數據算法決策是機器做出的決策,也要從“誰設計誰負責”和“誰主管誰負責”的方式來溯責。在《算法問責法(草案)》、歐盟《通用數據保護條例》《中華人民共和國個人信息保護法(草案)》等的系統問責制度中,均有規定計算問責制度的有關條款。在法律執行方面,可以通過明確違反算法倫理的問責對象、制定包含調查違規行為、證明問責事實、決定問責措施等步驟的問責程序,將問責與處罰制度相銜接,確保算法問責能夠得到合理合規的執行。在行政手段方面,[4]可通過區分職責層級,分別明確計算設計者與系統之間的職責關系,并賦予計算設計者程序解釋權,使數據處理者遵循透明度原則,對處理過程和結果進行充分透明化,以確保數據使用的合法性和公正性。對算法解釋有助于理清算法行為背后存在的技術問題與判斷失誤,除便于進行系統問責的制定以外,也可促進計算機決策流程的完善,同時也是算法透明的體現。
數字經濟時代充滿著新的機遇和挑戰,大數據算法決策將會獲得更加廣闊的應用與推廣,并潛移默化地改變著人們的生活,因此,我們需要對大數據算法的保護和規制進行前瞻性思考。道德準則的執行往往受人的主觀性影響,技術措施的效果受技術水平和技術應用情況的限制,因此,在實際應用中,最好的做法是綜合采用法律法規、道德準則和技術措施,以提高數據處理的安全性和公正性。通過完善立法,提高法律倫理水準,通過強化行政介入來達到政府間接調控監管市場的目的,從總體上提高了經濟質量與社會發展效果,并達到了經濟社會發展、市場與消費者維護三者間的動態均衡。在此基礎上,希望我國能夠積極推動社會各方的大數據管理合作,促進社會和諧發展注入活力和動能。