999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

以行業協會為中心構建算法治理模式

2021-11-24 18:24:33
法制博覽 2021年32期
關鍵詞:主體

桂 雪

(西北政法大學經濟法學院,陜西 西安 710122)

進入強人工智能時代后,算法(Algorithm)作為人工智能的支撐技術,其主要表現為解決特定問題而通過分析輸入信息最終得出結論的技術程序。然而,在對個人信息數據進行價值提取的過程中,算法模型因其開發者或使用者所欲達成的特定目的、個體利益最大化的自利性考量以及因信息不對稱產生的優勢地位等,極易產生具有法益侵犯性的負外部效應[1]。也就是說在算法設計者的“偏好”下會存在“算法黑箱”,進而隨之帶來信息濫用、差別化對待、牽制公權力等問題。在進入以自主學習為代表的強人工智能時代后,學界展開了對算法的相關研究,主要研究成果大都集中在算法歧視、算法共謀等具體問題,而對算法治理模式的研究并不多見。算法作為一門智能技術,與其他技術一樣,都將在法律的監管下運行,但在算法高度隱蔽性、強制性和固有的知識產權性的特征下,原先以政府監管為中心的事后懲戒式治理模式則表現出了弱監管性的現象。在人工智能時代下,如何將算法這一具有自主學習的高智能技術進行有效監管,是本文研究的主要問題。

一、算法技術溯源與算法應用風險

(一)算法運行的基礎理論

算法(algorithm)源于9世紀波斯數學家花拉子模,本意為阿拉伯數字的運算法則。現代意義上的算法,更多被提及為計算機算法,“算法是一種有限、確定、有效的并適合用計算機程序來實現的解決問題的方法”[2],算法的運行分為三個層次:數據輸入層—數據分析層—結果輸出層。輸入層將實際數據置入算法模型中,是算法運行的信息基礎。數據分析層即算法技術層,是使用算法模型對輸入數據進行分析得到結論,并最終輸出分析結果。算法技術就是將輸入值轉化為輸出值的關鍵步驟[3]。

算法產生社會作用需經過兩個步驟:算法設計階段與算法應用階段。算法設計是算法應用的前提,是由算法研發者基于應用目的開發算法程序的階段。算法應用是算法使用者部署應用算法技術,使算法作用于社會領域的步驟。算法設計者與使用者掌握算法運行機理、明確算法目的,依靠算法技術獲得利益,擁有強大的算法能力,規制算法本質上是規制算法主體的行為,必然需要將算法主體納入監管范圍,對其濫用算法侵犯社會公共利益與個人權利的行為承擔相應的責任。

(二)“算法黑箱”引發社會風險

算法本身擁有高度的技術復雜性和專業性。算法運行的整個過程涉及龐大的數據資料和繁雜的算法方法,并以計算機語言——數字代碼的形式出現,不能被大多數人理解。在算法技術應用中,由于技術公司研發算法而掌握算法技術,政府公共部門僅掌握輸入數據以及輸出結果,社會公眾則被完全排除在算法之外。由此,算法的不透明性導致了“算法黑箱”的產生。“算法黑箱”究其根本屬于技術的“黑箱”[4],對于算法設計者、使用者而言,其創造、控制算法必然掌握算法機理,對于技術人員之外的普通公眾,因難以跨越技術知識的鴻溝、難以探明其運行內部結構和運行程序而被排除在算法程序之外。

“算法黑箱”為算法主體違法行為的實施提供了不易察覺的封閉空間,在潛移默化的算法應用過程中悄無聲息地侵害公共利益,導致社會風險的發生。

首先,私益操縱算法損害社會利益。算法作為人工智能的技術工具,理應是客觀公正的,但由于算法自身的“黑箱”特征以及算法技術運用不當,在現實運用中往往難免陷入偏私與歧視。作為算法設計者的私人企業往往以利益驅動為導向,收集算法使用者的數據信息,通過設計不同算法模型針對不同情況作出相應的場景分析,并基于算法分析結果獲利。算法主體違法收集個人數據、忽視算法漏洞導致輸出結果錯誤、設計歧視性算法程序,最終使算法擁有者通過算法工具造成個人權益和社會公共利益嚴重受損的惡果。

其次,私權控制公權風險。政府部門由于缺乏專業知識和技術人才,在設計公用算法程序時往往無奈選擇與私人企業合作,將所擁有的公民個人信息、基礎數據的所有權與控制權移交給算法公司,并將算法設計、運行以及結果分析的權限全權交給私人企業,私人企業擁有了全面的數據信息,掌握核心的算法技術而政府部門卻逐漸喪失了對于關鍵數據、算法技術的控制權,導致算法與資本甚至是公權力相連接,造成私人資本控制公權力的風險。

最后,政府監管失靈風險。政府作為監管者,具有對算法設計與運用進行監督管理的職責。然而限于算法程序的復雜性與極度專業化特性,公權力部門往往很難察覺算法運行漏洞與算法缺陷的出現,對于算法的糾正與治理更是無從下手。政府部門無法識別和判斷病灶所在,難以對算法問題進行及時、正確的問責與糾正,埋下政府監管失靈的隱患。算法“黑箱”使得算法流程呈現不透明狀態,公眾的知情權必然在一定程度上受到損害。公眾對于政府監管失靈以及算法公共應用的隱憂也引發了社會對算法風險的合理懷疑,從而造成了公眾對于政府的信任危機。

二、規制難題:監管模式現實困境

如何確保算法的合理性與正當性、有效提升政府監管能力、化解政府信任危機,必須回歸監管問題。現行監管方式從主體而言具體可劃分為政府監管、公司自我監管、社會公眾監督、行業協會自律監管。算法專業化特性使得現行監管模式無法適應算法技術監管。

政府監管是為保證算法合法、合理使用而利用公權力實現對算法的強制監管,本質上是規制算法設計者、算法使用者,現實中通常以市場微觀主體即私人企業為被監管對象。但是算法高度專業化和不透明性使政府監管部門缺乏專業性,難以有效實施管制。算法現階段還屬于新興技術,更多地將算法納入商業秘密或知識產權進行保護,私人企業期望擁有獨家技術而保持自身市場話語權以獲取巨大經濟利益。企業將技術牢牢掌握在自己手中,若要求算法對行政機關進行公開,必然損害市場主體積極性,阻礙經濟的發展。

自我監管是對算法主體提出道德要求,期望算法設計者、使用者以良好職業倫理、道德標準要求自己,對自身違法違規行為自查自糾,保證算法正當。從算法技術風險產生的源頭即算法主體著手監管雖然能直接防范、化解算法風險,然而算法主體的趨利性往往使得對行為主體提出高度的道德自律要求是不現實的,僅依靠主體自我監管太過理想化。

社會公眾是輸入層基礎數據的所有者,賦予社會公眾算法監督的權利,提升監督范圍、影響力的廣泛性和普遍性。然而社會公眾因缺乏專業性被排除在算法“黑箱”之外,對算法監督的途徑、方式阻塞,未打通公眾與算法的連接渠道,也就無法實現社會公眾有效監督。

政府監督、企業自我監督、社會監督的嚴重弊端,使得行業自律監管的優勢凸顯。行業協會作為管理下級企業、溝通上級行政機關的中間層組織,具有一定程度的管理權,了解專業知識,以促進行業發展為宗旨,能夠有效彌補政府監管、自我監管及社會監管的不足,實現算法行業的有效監督管理。構建以行業協會自律監管為中心結合配套監管措施的算法治理架構,彌補“算法黑箱”導致的監管空白。

三、制度進路:以行業協會監管為核心的全面監管模式

面對因“黑箱”化暴露出來的算法風險,我國目前還未確立相應的監管機構。德國建立的由技術專家和資深媒體人為主的非營利性組織,用以監測、評估公共社會領域算法運用和決策過程,率先借助第三方獨立組織的力量規制算法技術。隨著人工智能的廣泛應用,我國相繼出現了許多互聯網相關行業自律組織,這些行業協會擁有專業技術人員和齊全設備,掌握行業全面信息,選擇行業協會作為規制算法風險的核心機構具有良好基礎。

(一)制定算法技術統一標準

算法本質上是計算機技術,是算法設計企業向其他私人公司或政府提供的技術產品。行業協會擁有專業技術知識和算法信息,由其牽頭主導制定統一的算法技術標準最為合適。經營者使用算法技術的目的不同,其所采取的技術手段和使用計算機代碼設計的算法系統必然完全不同且不為非專業人士所知,統一的算法技術標準有利于追蹤、監管算法設計與運行,從技術層面實現算法對于行業監管主體的相對透明性。此外,算法技術標準要求設計者在創造算法時必須符合技術標準,在一定程度上限制設計者的行為,能夠糾正算法設計之初就存在的人為導致的歧視與偏私,保持算法工具的中立性。當然,算法不是一成不變的,算法技術標準也應隨之而變,但需始終堅持算法技術標準是以實現算法公正合理為核心內涵。

(二)建立算法備案制度

算法備案制要求研發者在算法設計完成后投入應用前向行業協會進行算法備案。對算法信息包含設計主體、技術標準、運行模式、應用領域、算法漏洞、可能產生的算法風險以及解決方式等信息進行全面備案。行業協會在收到算法備案申請后,應當核查信息準確性、真實性,若發現違反算法技術標準、可能導致算法歧視、引發算法風險的算法應當不予備案并退回研發主體進行更改和糾正,直至符合備案條件才準予備案,并同意該算法程序投入應用。對于可能引發重大風險或設計主體拒不彌補算法漏洞的,行業協會有權決定不予備案。備案是算法進入使用階段的必經程序,賦予行業協會備案核查權,能夠利用行業協會的專業性替代行政機構進行技術核驗,防止“不良”算法投入使用后發生算法風險引起社會恐慌。但同時應建立算法設計者的申訴渠道,允許對于不予備案決定有異議的研發者向上級組織或相應行政機構申請救濟,請求其進行核查,防止行業協會過度干預算法。

(三)建立行業“黑名單”制度

對于違反法律法規與行業規章、嚴重破壞行業秩序、違背行業倫理道德、違規算法備案或逃避算法備案以及有其他可能引發或造成重大算法風險的企業,由行業協會列入“黑名單”,并向社會公示。對“黑名單”實行分級管理,實行不同的懲罰措施。對于惡意造成嚴重社會風險的算法主體,應實行行業禁入。政府部門采購算法技術時也應以此作為重要考量因素,其他市場主體也可以依據“黑名單”選擇交易對象。在一定程度上限制算法主體的交易機會,發揮警示作用,督促算法主體嚴格合法合規開發算法技術。

同時,未來算法領域相關立法還應賦予行業協會一定的處罰權,對已經引發重大算法風險、未經備案就直接投入應用的嚴重違規者進行處罰,以提高行業協會監管效率與效力。

(四)建立公司自我審查制度

算法公司既包括算法研發公司也包括算法應用公司,它們作為算法的開發主體和實際運用主體對于算法治理應承擔相應責任。首先,算法主體應向政府和行業協會提供真實且充足的算法信息,例如公開源代碼,為監管提供基礎的設計信息和數據資料,積極配合監管。其次,公司應注重技術人員職業道德、社會道德的培養,在算法設計過程中嵌入算法倫理[5],防止算法偏私,保持算法設計階段的中立性、正當性,實現算法源頭治理。同時算法主體還應主動、定期對所擁有的算法進行全流程的自我檢查,完善算法漏洞,對于算法應用向有關部門提交風險應急預案,防止可能引發的算法風險。

猜你喜歡
主體
一起多個違法主體和多種違法行為案件引發的思考
論碳審計主體
論自然人破產法的適用主體
南大法學(2021年3期)2021-08-13 09:22:32
從“我”到“仲肯”——阿來小說中敘述主體的轉變
阿來研究(2021年1期)2021-07-31 07:39:04
如何讓群眾成為鄉村振興的主體?
今日農業(2021年7期)2021-07-28 07:07:16
何謂“主體間性”
領導文萃(2020年15期)2020-08-19 12:50:53
技術創新體系的5個主體
中國自行車(2018年9期)2018-10-13 06:17:10
中醫文獻是中醫寶庫的主體
關于遺產保護主體的思考
懷舊風勁吹,80、90后成懷舊消費主體
金色年華(2016年13期)2016-02-28 01:43:27
主站蜘蛛池模板: 国产第八页| 成人毛片免费在线观看| 重口调教一区二区视频| 在线中文字幕网| 91精选国产大片| 亚洲精品午夜天堂网页| 一级不卡毛片| 国产精品自在线天天看片| 综合网天天| 99视频在线看| 无码一区18禁| 国产精品久久自在自线观看| 国产午夜一级毛片| 99热这里都是国产精品| 国产丰满成熟女性性满足视频| 国产一级裸网站| 日韩视频免费| 深爱婷婷激情网| 亚洲愉拍一区二区精品| 国产精品尤物在线| 中文字幕波多野不卡一区| 一级看片免费视频| 亚洲国内精品自在自线官| 91青青草视频| 91亚洲精选| 国产黄网站在线观看| 高清久久精品亚洲日韩Av| 国产一在线| 国产福利一区视频| 一级毛片基地| 激情网址在线观看| 久久综合色天堂av| 国产啪在线91| 99久久国产综合精品女同| 国产一区二区三区精品欧美日韩| 91探花在线观看国产最新| 精品一区二区无码av| 久久一级电影| 日本精品影院| 国产爽妇精品| 久久国产精品国产自线拍| 日韩区欧美区| 无码aaa视频| 国产噜噜在线视频观看| 国产高清在线精品一区二区三区 | 亚洲无限乱码一二三四区| 亚洲色成人www在线观看| 国产性精品| 一区二区三区四区日韩| 无码内射在线| 国产精品香蕉在线| 午夜免费小视频| 久久久久中文字幕精品视频| 亚洲人成在线精品| 亚洲天堂网在线视频| 色爽网免费视频| 欧美人与动牲交a欧美精品| 蝌蚪国产精品视频第一页| 国产日产欧美精品| 伊人久久大香线蕉影院| 亚洲国产精品一区二区第一页免 | 亚洲精品欧美重口| 毛片网站观看| 亚洲三级视频在线观看| 国产福利在线观看精品| www.av男人.com| 国产v精品成人免费视频71pao| 免费在线观看av| 欧美va亚洲va香蕉在线| 亚洲精品你懂的| 国产精品吹潮在线观看中文| 欧美日在线观看| 白浆视频在线观看| 国产剧情国内精品原创| 激情网址在线观看| 国内精品小视频在线| 精品久久久久久久久久久| 欧美日韩中文国产| 青青青国产视频| 国产小视频在线高清播放 | 国产在线拍偷自揄拍精品| 亚洲嫩模喷白浆|