——以上海“天眼”系統為例"/>
999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?張煒達,張 晨
(西北大學法學院,陜西 西安 710127)
近年來,從有關于“算法”“大數據”等詞匯的應用可以看出,科學技術對社會諸方面帶來前所未有的影響。人類在日常生活中都會無意識的運用簡單的算法模式,基于人類運算能力的有限性,計算機算法通過對“爆炸式”信息的整合和利用,可以在不同領域基于分析有針對性地發揮“創新作用”。算法通過已獲得的數據對相關對象進行推薦,達到治理目的。在人類社會政治結構的影響下,算法與權力的實踐相結合,產生算法行政。算法行政指“建立在自動收集、匯總和分析大數據基礎上的某種類型的規范性或政治理性,以建模、預測和先發制人地影響可能行為”,也有學者將其稱為政府主導下的人工智能治理。黨的十九屆五中全會專門提出構建數字化中國,算法行政也已經推廣到社會治安、環境污染、食品安全等領域。當前學者對算法行政的研究大多基于總體性的分析和建構,較少針對算法治理的某一領域和對象具體分析。現有研究對于算法行政的類型存在不同理解,例如“快速抽檢監測系統”“智能抓拍”等均是電子技術對傳統監管方式的更新,嚴格意義上并不是算法在行政領域的應用。截至2021年12月31日,在中國知網(https://www.cnki.net/)以“算法行政”為關鍵詞進行檢索,僅出現21 篇相關文章,且沒有針對食品安全領域的專門研究。其中有2 篇文章在介紹算法應用時簡單提及算法行政下的食品安全監管,如《人工智能算法決策對行政法治的挑戰及制度因應》的第一部分提及“食品安全領域的智能轉型”,《算法行政的興起、挑戰及法治化調適》中提及上海市在食品安全監管領域基于算法智能分析系統的探索。
本文以上海市在食品安全監管中推出的“天眼”系統為例,介紹算法行政下食品安全監管方式的轉變,并對算法本身的局限性進行分析,綜述新型監管方式在食品安全治理領域存在的問題。本文試圖跨過算法本身涉及程序編寫的自動化階段,主要從應用前的系統評估、應用中的可控因素以及應用后監管部門可參與的正當程序入手,綜述算法行政下食品安全監管的風險與應對。
食品安全監管涉及食品的整個產業鏈,包括生產、加工、包裝、銷售等環節。由于食品安全關系著老百姓的生命健康,歷來都是關注的重點領域。日本等國早已實現科技與食品監管領域的融合,充分利用大數據與人工智能技術,啟用二維代碼跟蹤,包括網絡供應系統以及智能預測業務,以提升食品可追溯性。但不同學者對于這些應用技術的態度存在差異,例如有學者指出應用區塊鏈技術確實可以保證食品安全,但其傾向于研究食品的可追溯性,而不是監督。基于食品安全風險發生的導向性,傳統的行政監管主要集中于加工之后的市場流通階段。從已有監管實踐來看,主要包括運用快速抽檢手段、制定食品風險分級管理制度、創設智慧監管網絡系統、引入第三方參與等,這些方式本質上都是一種食品可追溯系統,并且以提供“有關生產鏈質量評估信息”為基礎。如江蘇省徐州市運用快速抽檢系統,在全市展開“你點我檢”抽檢活動,通過對農貿市場中經營的食品進行抽檢,即時公示結果;廣西壯族自治區分步制定食品生產經營者風險分級管理制度,按比例進行“雙隨機”抽查,餐廳的風險級別與抽查比例、抽檢頻次成正比,對最高風險等級實行全覆蓋抽檢;陜西省寶雞市建設“互聯網+明廚亮灶”智慧管理系統,運用大數據等新興技術進行食品安全監管,攝像頭覆蓋廚房區域,監控視頻通過網絡傳輸至大廳的監控顯示屏和市場監督管理局網站等智慧監管平臺,實現公眾監督與政府監管雙向實時進行;浙江省桐鄉市以政府購買服務方式請第三方機構參與餐飲單位后廚衛生等經營行為監測,建立從事前的隱患排查到違法查處結果反饋的閉環管理機制。
算法的應用催生了新監管方式的產生,如上海市的“天眼”系統——“餐廳食品安全市民評價大數據系統”做到了“算法”與“食品安全監管應用場景”的結合。2016年下半年,美團點評集團與上海市長寧區市場監管局共同啟動食品安全全社會共治示范項目,其中的“天眼”系統就是算法行政的典型代表。如圖1所示,該系統將消費者在美團應用程序(application,APP)上對食品的評價信息進行收集整合,形成“餐廳市民評價大數據系統”,再由算法根據政府制定的“負面關鍵詞清單”在“數據系統”中進行抓取,并在量化統計與數據可視化操作下形成“負面信息線索庫”,與監管部門內網實時共享,作為政府部門監管的信息來源和依據。

圖1 “天眼”系統流程Fig. 1 Flow chart of “Tianyan” system
食品安全對老百姓來說就是天大的事情。而近些年來我國餐飲業的迅猛發展,催生出許多類似于美團點評集團這樣的第三方平臺,方便消費者從線上獲取生活服務并進行事后評價,大大提升了人們生活的便捷度。正如有學者對食品市場各個環節進行梳理并得出技術應用需要全方位覆蓋食品安全領域的觀點,監管環節也不例外。作為消費者最真實的反映,平臺方獲取的評價信息如今也作為監管資源進行開發和利用,有效達成了消費者與監管部門的信息對接,實現了監管的快捷化。但是,算法的僵化性加之消費者對于評價的主觀性,容易使對違法信息的收集不準確。首先,就消費者個人而言,其評價是針對已經拿到手的外賣食品,但是該外賣食品的上游環節不僅包括餐廳一方,至少還有快遞員的參與,這就說明食品的安全風險可能還來自其他主體。其次,個人評價也存在高度的主觀性與重復的可能性。算法的應用在一定程度上提高了食品安全監管的中立性,但是消費者評價的主觀性仍舊難以排除,尤其是針對“好吃”“難吃”等這類涉及個人口味的評價更是如此,需要完善系統以有效應對。美團點評“天眼”系統負責人李夢陽介紹,一些“好評”中可能也隱藏著安全風險,比如有的餐廳提供政府部門禁止銷售的食品,即便消費者點評說好吃,監管部門也需要及時進行調查。這就說明“天眼”系統全覆蓋了所有的用戶評價,更有效地規避了安全風險。有學者根據調查顯示,有直接經驗的消費者與有間接經驗的消費者對于食品安全的滿意度標準存在顯著差異。至于評價的重復性,比如現實中大量存在的“多人一單”現象,即幾個人共同在一家餐廳訂購外賣,當其中某樣商品品質不合格時,若多個主體在同一商家下均進行負面評價,就會產生負面信息的重復。還有商家通過給予優惠的手段與消費者進行交易,讓消費者刪帖或者求好評,這種情況下算法對負面信息的檢索就會產生疏漏,一旦這種規避行為普及化,就會產生大量的執法空白區。另一方面,算法在運行中的僵化性降低了信息收集的準確度。在算法運用中,其是依賴“關鍵詞清單”在“大數據系統”中自動抓取信息,例如“中毒”“吃壞肚子”“蟑螂”等,只要系統檢索到相關關鍵詞就會計算為一次負面信息,這樣產生的量化統計結果,結合上述消費者信息來源的不真實情況,就存在“虛化”的可能性,從而得出錯誤的判斷結論,產生算法歧視。有學者將這種算法運行中易產生的歧視分為算法社會語境下、技術限定下以及特定領域中的算法歧視。事實上,這種分類邊界并不清晰。但尚知的是,算法歧視與傳統歧視現象本質不同,需要區別化規制。另有學者認為,算法決策背后實際是人為歧視,由數據和技術兩方面引發。
算法、大數據等新技術本身就是以其自動處理為優勢而應用于各個領域,但是現有的科技水平無法做到完全的自動化,這就導致了算法在行政監管中的應用還需要人為干預。“天眼”系統下算法在食品安全監管中的應用是根據“負面關鍵詞清單”在“評價數據系統”中檢索關鍵詞。可以說,算法是否能夠有效實現其功能,“關鍵詞清單”在其中起著決定性的作用,而該清單又是人為選取和設置的,這就會產生相應的問題。首先,以算法抓取關鍵詞無法應對語言描述的差異性。以2016年上海市長寧區發生的“河豚魚事件”為例。根據“天眼”系統的1.0版本,監管部門發現幾位消費者在美團點評集團所屬的大眾點評APP中對一家餐廳評價時都提到了“河豚魚”,經后續證實,商家提供的“河豚魚”不符合規定,監管部門據此對其進行了處罰。這是算法應用成功的案例。但是,如果消費者在評價中只是將“河豚”作為形容詞描述餐廳做的食物的味道、造型等等,這種情況下算法基于程序的被動效應,將評價傳送至監管部門,就會造成信息傳達的偏差。其次,語言文字對于感覺的描述具有一定的局限性,并且由于多民族語言、地區方言等的存在,納入“清單”的關鍵詞需要不斷地更新。例如,“吃壞肚子”作為關鍵詞被納入“負面關鍵詞清單”,但“肚子痛”“肚子難受”“肚子不舒服”,甚至“upset stomach”等表述都具有相同含義,若相同含義的關鍵詞未列入清單,會形成監管漏洞。基于此,“負面關鍵詞清單”需要實時更新,以提高監管效果。
人工智能時代下算法的自動決策使得其獨立享有“資源配置權力”,有學者就此也關注了這一發展對網絡平臺監管帶來的挑戰。對于算法在行政領域的自動化,有學者根據識別輸入、分析決定和輸出實現3個環節的完成主體是人類還是自動化系統,將其分為5 類,包括無自動化行政、自動化輔助行政、部分自動化行政、無裁量能力的完全自動化行政和有裁量能力的完全自動化行政。根據該分類,本文重點關注的“天眼”系統即屬于部分自動化行政,其根據“餐廳市民評價大數據系統”形成“負面信息線索庫”,該過程均屬于算法的自主運行,基于專業差異,監管部門得到的僅是運算的“結果”,相較于傳統的監管方式,工作人員無法參與到信息的分析過程中。例如在傳統的智慧監管網絡系統中,對于后廚員工未蓋垃圾桶的“智能抓拍”,監管部門可以調取前后視頻具體分析是否是故意或過失而為。在這一過程中,監管部門有空間發揮其能動性。而算法阻斷了信息從收集分析到結論化過程中人工參與的可能性,其整個運行過程跳過了人類深思熟慮的環節,若直接將該結果作為行政處罰的唯一依據,極易導致監管對象權利受損。以健康碼算法系統舉例,“自我學習”產生的“算法偏見”無限放大了算法運行中的風險,從而侵犯了服務對象的合法權利。對比來看,更難以做到對被監管者基本權利的保障。而根據英國2021年官方報告顯示,算法基于個性化定價與合謀,雖然算法行政監管不力的直接受害者是個別商家,但最終損害的卻是消費者的利益。同時,對負面信息保護不到位時易形成錯誤的“處罰效果”。算法運行產生的結果對于所涉餐廳來說本身就是“負面信息”,而在監管部門做出處罰決定之前即為過程性行政行為,一旦“負面信息線索庫”遭到泄漏,對于所涉商家均會帶來權利的損害。當該負面信息具有相當的真實性時,其會產生事前的“處罰力”,在行政相對人沒有申辯的情況下直接下了“有罪”的定論。而當負面信息不具有真實準確性,或者直接是競爭者的惡意詆毀時,就會對涉事商家名譽權造成侵犯,監管部門也成為侵權者之一,需要就侵權范圍的擴大承擔連帶責任。
作為新興技術,知識的專業化以及運行的自主性使得算法本身形成高度的不透明性,也即學界所稱的算法的“黑箱效應”。有學者就一針見血的指出其本質,表面上看只要輸入數據就能得到結果,實際卻存在黑箱效應,算法決策看似體現了一種無須滿足任何條件即生成是與否的客觀回答,但程序背后蘊藏的卻是設計者對于結果的主觀偏見。也有學者就其不透明性引發的原因進行分析,包括政府基于各種考慮可公開而不愿公開以及“算法黑箱”本身造成的不能公開的問題,或者是基于保護商業機密的考量。對此有觀點認為,衡平算法信息與商業機密的公開界限需考量算法透明背后的社會公共利益與商業機密背后的競爭秩序和激勵創新之間的價值取向。在不透明性的前提下,監管部門完全依靠算法結果對行政相關人進行行政處罰,其可信賴度以及說服性并不高。例如,監管人員基于算法量化統計中多次提取到“嘔吐”的關鍵詞從而對某一餐廳進行處罰,那么該餐廳負責人首先會提出的質疑就是造成顧客嘔吐的結果與其自身存在食品安全風險之間是否存在因果關系。在行政處罰領域,行政相對人違法的舉證責任主要是由行政機關承擔,可是算法行政下該因果關系根本難以證明,相對人還可能提供自己沒有做出違法行為的證據,但這不能免除行政機關的舉證責任,對于監管部門來說非常不利。此外,算法應用中涉及的“負面關鍵詞清單”“負面信息線索庫”以及量化統計標準均是對公眾保密的,這就使得處罰時行政相對人難以得知自己是否真正達到了應受處罰的程度。換個角度來說,就是算法智能抓取關鍵詞的過程中難以為監管部門留下確鑿的證據作為處罰依據。對于監管機關來說,算法運行結果應當作為處罰的線索來源,但行政機關經常會對算法處理結果產生依賴,在難以提供有力證據的情況下,被監管主體即對該結果“買單”。
基于機器學習技術,算法可通過自主學習達到獨立決策以實現共謀的效果,此種共謀并不需要操作者具有共謀的意圖。據此,算法在設計階段監管部門的參與度幾乎為零,所做的更多是為算法提供有效運行的前提——“負面關鍵詞清單”。算法行政以計算機進行大數據計算為主導,只是為最終的處罰提供“是”或“否”的答案,可能的結果或是根據量化統計后“河豚”出現的次數進行處罰,或是因為技術錯誤而不處罰。可問題在于,行政處罰不同于羈束性行政行為,其適用標準多為裁量性規定,需要結合行政相對人違法情形決定如何處罰,也即“與違法行為的事實、性質、情節以及社會危害程度相當”。而在“算法權力”大有取代行政權力的情境下,監管部門不能僅通過某餐廳涉嫌違法使用河豚的結果就做出具體明確的處罰,而要盡到相應的附隨義務,畢竟相關法律中規定了處罰的幅度,意味著處罰既要合法,也要合理。還不要說監管部門并不能保證提供足夠的證據支撐自己的處罰決定。而在傳統的監管方式下,工作人員有機會全面掌握餐廳的違法行為,包括其持續的期間長短、河豚的來源、是否已經造成嚴重的侵權事件等,都可以作為行使處罰裁量權的依據。另外一個需要重視的問題在于,算法行政下由機器代替人類決策,會產生行政處罰權事實上的轉移。就像初級技術應用(視頻監控、人臉識別等),只對行政執法起到輔助作用,進一步算法智能化的推廣容易導致人為裁量程序的缺失,誘發監管者的路徑依賴,此時算法系統本身的高效率行政,就公共利益優先原則而言,為其廣泛適用提供了正當性,而算法行政下的行政處罰裁量權則面臨著喪失的風險。之前引發社會熱議的“外賣騎手,困在系統里”的社會問題,就是反思算法對勞動價值的抽象化,揭示算法專制下弱勢方將陷入結構性貧困的經濟學結論。在此語境下,餐飲商家則有可能成為算法專制下的又一弱勢群體。
食品安全雖然關切公眾健康,是監管的重中之重,但也要確保行政處罰做到有法可依,不可濫用權力,尤其是算法行政下催生的“算法權力”。就算法收集信息可能存在的不準確性,需要完善食品安全評價責任制度。首先,完善平臺消費者個人注冊和登記信息。根據《網絡交易監督管理辦法》(國家市場監督管理總局37號令)第二十四條的規定,“天眼”系統的有效運行是以商家在平臺申請核驗登記并建立入網經營商戶電子登記檔案為前提的。根據權利與義務一致原則,消費者同樣有必要在平臺完善個人信息,并對其真實性負責。對于無效的身份信息,平臺方必須拒絕其申請,并且有必要定期排查“黑戶”并取消其使用資格,不能為擴大平臺使用規模而盲目收納“黑名單”,影響平臺秩序。其次,針對注冊用戶嚴格采取“一人一單一票制”。對于“多人一單”的實際消費情形,需要確保消費次數和評價次數的嚴格對應,平臺方對一個商家的一個訂單僅設置一個評價入口,避免“一單多評”。“一票制”并不意味著對該評價信息不可更改,消費者可以在一定時間內對評價進行修改和刪除,但當前美團APP的評價信息沒有修改次數和時間的限制。對于商家聯系消費者刪帖或給予優惠求好評的情況,在不能禁止商家與消費者信息互通的前提下,算法可通過對該類信息進行智能抓取的同時,記錄其修改次數以及刪帖的情況,以算法的量化統計和數據可視化彌補空白區,只要系統檢測出該商家的消費者多次對負面信息進行修改和刪帖,同樣作為“負面信息”的一種情況留存于線索庫中。因此,要從強化監管智能算法的研發入手,通過算法對數據的分析總結,反映出的問題甚至可以實現平臺及行政主體被算法反監管的效果。最后,明確圖片采集作用。在算法智能抓取負面信息時對消費者拍攝的圖片進行采集,可以有效留存證據,為監管部門的后續處罰行動提供依據。
雖然算法運行屬于完全的自動化,但其仍舊需要以程序書寫為前提。在這一語境下,需要以配置技術應用為主,完善技術開發為輔,提升食品安全監管的執法效果。事實上,相比于“傳統計算機軟件算法”,現行開發出的“人工智能算法”已經實現了“自我進化”的功能,即根據輸入數據輸出“最理想方案”,這就需要監管部門不斷更新運行系統以提升執法效果。作為算法有效運行的決定性環節,“負面關鍵詞清單”的合理設置同樣尤為重要,不僅算法系統需要不斷升級,清單也需要與時俱進,不斷更新。對于我國多民族語言文字的現狀,當前系統可能無法做到全覆蓋,但“技術的缺失不是減損公民權利的借口”,尤其是隨著我國經濟發展地區差異的縮小,少數民族餐飲業在全國的普及,這些餐廳也將成為被監管的對象,所以多民族語言下“負面關鍵詞清單”的設置有其必要性,具體完善措施可以借鑒我國2018年法考改革(新的法律職業資格考試對于客觀題在機考時就有不同語言供考生選擇)。此外,在對外國消費者的算法應用上,目前尚不需要全面覆蓋各國語言,僅開發英文版本的關鍵詞清單即可。就語言的創新和衍進而言,監管機關需要制定管理關鍵詞庫的規則,包括管理人員和更新周期的規定,確保清單的準確有效,減少監管的空白區。根據官方回應,“天眼”系統的更新版本使得負面信息線索庫容納了不同類別的數據匯總信息,包括“違禁食品及異物”“食品變質”“環境衛生”“疑似事故”等幾大類,其分別對應的關鍵詞各有側重。監管部門可以根據不同類別的信息適用監管程序,行使處罰裁量權,確保合理行政原則的落實。與此同時,可以從改進算法運行系統出發解決語言描述差異問題,實行量化統計與多項關鍵詞綜合提取相配合的措施。例如對評價中存在關鍵詞“河豚”,在對同一商家的不同評價中提取“河豚”這一關鍵詞之外,可以對同一評價中其他的負面關鍵詞進行提取,比如“河豚”與“中毒”等關聯詞的結合就大大提升了算法定位的準確度。
在算法廣泛應用于執法領域的形勢下,囿于其自身的局限性,監管部門最應該也最可能完善的是食品安全監管的執法程序。在“算法官僚”機制下,不同主體在行政管理中產生多重委托代理關系,需要從事前、事中以及事后分階段管控。有學者就提出,要充分發揮算法影響評價制度的功能,因為算法影響評價制度是前置于算法實際應用的風險評估和預防程序,可以提早發現及解決問題。另有學者提出,相比于封閉合規型算法應用模式,具有周期、動態、開放性的反思型應用模式更具優勢,能更有效地實現保障行政相對人權益的目的。算法行政下,首先要做好的就是對運行系統的評估工作,即將算法本身納入監管范疇。對此,有學者建議根據對公民意志支配的可能性以及權利損害的或然性,將算法分為無風險、低風險、中風險以及高風險4個等級并采取不同程度的監管制度,尤其政府應用算法治理領域宜定級為中等風險以上等級,建構專門的行政許可制度進行監督。其次要重視算法程序中對行政相對人權利的保障,保證涉嫌違法主體擁有陳述、申辯以及重大利益可能受損時要求聽證的權利,并且明確算法運行中對不相關信息免予考慮。就“天眼”系統來說,程序員在設置程序時要保證算法嚴格按照監管部門制作的“負面關鍵詞清單”運行,不能主觀納入其他考量因素或是擅自更改關鍵詞清單,違反規范單位應當承擔相應的法律責任。最后要明確算法運行只是執法程序中的中間階段,將監管機構調查程序作為處罰決定做出的必經程序。對此,監管部門需要做好與算法開發企業的對接工作,嚴格區分線索與證據,完善《行政處罰法》的證據制度,賦予行政相對人質疑和拒絕僅以算法統計數據作為證據進行處罰的權利。監管部門應將算法運行的結果視為過程性行政信息予以參考。對監管部門調查前從負面信息線索庫獲取的線索嚴格適用保密制度,其類似于市場主體中具有負面影響的“敏感個人信息”(指《個人信息保護法》第二十八條中規定的,一旦泄漏或者非法使用,容易導致自然人的人格尊嚴受到侵害或者人身、財產安全受到危害的個人信息),在未經證實時,不能以適用公共利益原則為由進行公開,避免造成行政處罰前的“錯誤傷害”,否則視情節追究披露者的過錯責任。
食品安全監管領域中算法行政的“黑箱效應”是由于技術本身的專業性以及行政行為的單方性決定的。對此,需要從信息公開與規范解釋義務兩方面完善算法的監管輔助功能。一方面,我國行政活動明確適用行政公開原則,遵循“公開為常態,不公開為例外”的原則。為此,應將增強算法透明度作為必不可少的治理策略,從算法啟動運行到事后信息公開均加強監管。就涉及行政處罰行為而言,要遵循公正、公開原則,對違法行為給予行政處罰,其規定必須公布。依照相關法律要求,對算法行政中權力運行的主體、依據、過程和結果均要向行政相對人公開,或是引入技術性算法披露機制,這種“技術性”即是“成本-收益”思維,在逐一滿足人類具有順位的訴求下,走算法行政公開之路徑。以“天眼”系統為例,需要做到“負面關鍵詞清單”的更新與公開同步進行,制定相應規范,明確公開清單的制定主體和更新時間。并且處罰依據要落實到位,對算法量化統計的結果一經查證屬實,在做出處罰決定時需要將其作為證據之一公示給行政相對人,以保證相對人的知情權。為更好落實依法行政原則,應將算法系統數據單(即“負面信息線索庫”中的結果)作為算法行政下處罰的必要證據,納入《行政處罰法》第四十六條的證據制度中。另一方面,只有進行算法解釋才能有效解決適用標準不明確、階段和界限模糊的問題,而規范解釋義務是解決技術、倫理以及法治三重風險難題的關鍵。進行算法解釋的權利在學界被稱為“算法解釋權”,其作為一項請求權,需要解決主體、內容、限度以及與算法問責銜接的問題。也有學者提出,需要根據解釋權的內容、程度、時間、方式等進行考量。還有學者認為,網絡平臺對算法設計的主觀過錯應當負責。因此,算法行政下,相關設計主體也應根據工作內容進行解釋,說明設計目的和預期后果,并結合損害結果予以歸責。據此,“天眼”系統運行中的算法應用效果以及如何利用“負面關鍵詞清單”實現“負面信息線索庫”與監管部門的對接等都需要開發者和應用者雙方配合進行解釋,并且需要注意,解釋的目的不在于算法如何運行,而在于算法運行對監管過程中行政相對人的權利義務發揮何種功用。公眾關注的焦點是自身的權益保障。將信息公開與解釋義務綜合適用,能最大程度保障公眾在知情的前提下守法。
合法行政作為行政執法的首要原則,強調要遵守法律優先和法律保留,即依法行政、法無授權不可為。風險社會理論前提下,需要從政府、網絡平臺企業以及評估機構三者法律關系建構出發,加強對算法應用中人工的參與,明確程序中立,堅持人在公共行政中的主體地位,在此基礎上運用算法的有限理性,將算法作為規制工具,以平衡工具與人的主體性之間的關系。認定監管部門作為食品質量主要監管者的地位,準確發揮“算法運行量化和提高政府監管績效”的功能價值,同時在“機制與技術創新中形成有效的多中心協調監督機制”。在食品安全監管領域,算法運行有其特有的被動性。首先,算法的啟動離不開技術主體的開發和程序編寫。其次,對于算法監管功能的實現也離不開數據的填充,就像“天眼”系統,如果沒有“負面關鍵詞清單”的配套使用就難以運行,基于此,其操作離不開人為力量。再者,監管后的行政處罰領域的可裁量空間比較大,監管部門需要結合個案分析處罰的幅度和標準。甚至在個別案件中需要考量行政相對人的法外因素,這就需要道德因素下的人性化監管,要求工作人員發揮主觀能動性,這也是有“人情味”的現代執法的要求,而這些都是算法決策做不到的。所以對其工具屬性的定位更加切合實際,我們可以做的就是最大程度發揮算法對監管的輔助功能,同時利用正當程序原則規避算法的最終決策權。
相較于傳統市場調查、消費者訪問、行政機關抽樣等監管手段,互聯網等新興產業的普及使得社會各領域工作實現線下到線上的轉變,食品安全監管也在從“監管”向“共治”轉型。可以說,多元社會力量共同參與食品安全治理是未來食品安全監管模式改革的必然選擇。但如何在依法行政的要求下發揮算法行政的最優化,切實履行食品安全監管責任的同時不侵犯公民權利,是目前值得研究和亟待解決的問題。為應對大數據背景下對國家治理帶來的挑戰,不只是食品安全監管方面,包括所有存在算法適用空間的行政領域均要確定有效之策,確保算法行政貫徹合法、合理原則。