999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能技術產業化創新生態系統風險歸因及治理體系研究

2021-09-08 09:15:36孫麗文李少帥
科技進步與對策 2021年17期
關鍵詞:人工智能

孫麗文,李少帥

(河北工業大學 經濟管理學院,天津 300401)

0 引言

大數據、云計算等信息技術的迅猛發展催動了龐大規模數據的誕生,同時隨著GPU芯片的普及以及FGGA、ASIC芯片的快速發展,計算機運算能力獲得極大提升并邁向新的發展階段,越來越多高級算法被應用到智能推薦、計算機視覺等不同領域。隨著近些年互聯網產業整體進入洗牌期,資本市場對人工智能的投資也愈發理性,技術成熟且具有較強落地能力的項目受到持續關注,推動人工智能從廣泛強調技術優勢的早期階段,向更加重視產品、服務、解決方案等產業化能力發展階段過渡,政策持續加碼也加速了產業化實現。在上述因素共同作用下,人工智能經歷技術突破和技術標準化時期,邁進產業化發展時期[1]。同時,人工智能技術產業化過程中也引發了數據安全、隱私保護等風險,而以科層制為代表的現有治理體系由于治理邏輯不匹配、治理結構僵化以及范圍狹隘等弊端,難以應對人工智能風險的嚴峻挑戰[2]。

當前,創新范式逐漸從線性、機械的創新體系邁向非線性、生態化的創新生態系統[3]。作為新的創新范式,創新生態系統同樣為人工智能風險治理提供了新的思路和方向。為此,本文基于創新生態系統理論,聚焦人工智能技術產業化創新生態系統風險治理議題,探索風險治理主體、原則及路徑等具體問題,無疑具有重要現實意義。

赫利森接著觀察了免疫細胞是如何通過導血管從顱骨移動到腦膜的,在小鼠體內和體外都是如此?!霸隗w內觀察非常具有挑戰性,”她說,“血液從硬腦膜(腦膜的一層)外流向顱骨,而細胞則向相反的方向流動。可以看到細胞在逆流而上爬行。”

1 文獻綜述

創新生態系統可追溯到Moore[4-5]的相關論述,其率先把企業生態系統界定為基于組織互動的經濟聯合體,并進一步認為企業生態系統是由具有利益關系的組織或群體組成的動態結構系統。此后,Adner[6]明確提出創新生態系統概念,認為創新生態系統本質上是協同機制,能夠將個體與整體緊密聯系起來,并進一步通過創新協作和鏈式整合快速提供面向用戶的系統解決方案。對創新生態系統的理解可以從價值創造和風險治理兩種情景維度進行。

從價值創造情景維度看,創新生態系統主要由經濟行為主體構成,經濟行為主體之間通過相互協同,提升綜合競爭能力,產生獨自無法企及的巨大經濟價值,并且在此過程中與所處創新生態系統共生演化[7]。系統運行目的在于實現經濟行為主體的價值創造,價值創造實現途徑包括為單一企業創新過程提供便捷和為創新群落創造價值溢出[8]。隨著經濟行為主體逐漸意識到知識網絡、選擇性互補和資源整合的重要意義,價值共創逐漸成為價值創造的新趨勢[9]。

從風險治理情景維度看,創新生態系統強調防范和化解技術產業化過程中的重大風險,實現技術可用、可靠、可知、可控,同時實施負責任的研究,促進科技向善,助力經濟社會健康可持續發展。學者從不同視角對不同類型創新生態系統風險及其治理進行了探討,如Das&Teng[10]從聯盟網絡視角出發,認為創新生態系統存在關系風險和運行風險,其中關系風險是戰略聯盟網絡的核心風險[11];朱瑞博[12]從產業集群視角出發,認為可根據創新生態系統風險誘發屬性,將其劃分為內生性風險和外生性風險,前者是由集群內部力量積累的風險,包括僵化、創新惰性等,是系統衰退的根本性風險,后者則是環境動蕩等沖擊形成的風險,包括結構性、周期性等,是導致系統衰退的誘發性因素;張運生(2009)認為,創新生態系統具有復雜性、合作共贏、技術標準化等特點,會引發依賴性風險、結構性風險和專用性資產投資風險;梅強等[13]針對戰略性新興產業創新生態系統面臨的技術風險、整合風險、合作風險和依賴性風險,認為風險治理復雜且難以量化其有效性,需要通過健全技術風險管理機制、技術標準化、完善合作機制進行綜合治理;吳紹波[14]考慮戰略性新興產業創新生態系統的技術專用性、非對稱性以及技術學習能力差異性等因素,構建多主體治理模式,以健全創新生態系統風險治理體系;武建龍和劉家洋[15]詳細分析新能源汽車創新生態系統內涵與演進過程,發現其存在系統脆弱性風險、盲目擴張風險和匹配依賴風險,需圍繞創新驅動、需求創造和環境利用實施風險治理。

(2)反腐倡廉建設是一個動態的過程。習近平指出:“黨風廉政建設和反腐敗斗爭是一項長期的、復雜的、艱巨的任務,不可能畢其功于一役。反腐倡廉必須常抓不懈,拒腐防變必須警鐘長鳴,關鍵就在‘?!?、‘長’二字,一個是要經常抓,一個是要長期抓?!保?]70“經常抓”,就要保持當前反對、懲治腐敗的高壓態勢,做到有腐必反、有貪必肅,遏制腐敗現象蔓延的勢頭;“長期抓”,就要堅持不懈、長期作戰,既要有懲治腐敗的決心、信心,也要有長期作戰的恒心、耐心。另外,反腐倡廉建設不是抽象的,而是具體的、歷史的,其建設的內容、方式等要隨著時代的發展而不斷變化。

此外,為提升風險治理的有效性,促進創新生態系統健康發展,需要測度其風險程度。然而,由于風險評估的復雜性和主觀性等原因,評估結果精度有待提升,因此風險評估的真正意義不在于精確測度,而是把握風險治理重點方向,形成科學研判。如李曉娣和張小燕[16]認為,創新生態系統內部異質性主體的風險感知不直接影響風險評估,但直接作用于治理投入,并且通過治理意愿間接影響風險治理過程。

既有研究鮮有關于人工智能技術產業化創新生態系統的直接論述,僅有耿喆等[17]結合產業生態理論和人工智能產業發展特征,分析人工智能產業創新生態系統的生物成分和非生物成分各組成要素,并構建一般模型;楊偉等[18]以人工智能領域的數字創新生態系統為研究對象,發現生物群落多樣性有助于核心企業績效提升。更多學者從技術創新[19]、政策規制[20]和倫理道德[21]視角高度重視人工智能引發的數據安全、隱私保護、算法歧視等風險問題,密切關注人工智能技術產業化過程中的風險特征、治理工具與方法等問題,并認為加強人工智能風險治理已成為不可回避的時代責任。

以上有關創新生態系統的內涵、價值創造、風險治理等研究成果,為深入探討人工智能技術產業化創新生態系統風險提供了重要理論依據和實踐經驗。然而,仍存在兩點不足:首先,現有研究對風險的分析更多聚焦于風險形成機理、性質分析和風險影響等討論,而對創新生態系統如何實施風險治理卻缺乏系統性分析,如治理主體、原則及路徑等關鍵問題。其次,既有研究雖然形成了人工智能技術產業化風險治理及治理方式的共識,但研究深度有待提升,研究視野也較為狹隘,沒有上升到創新生態系統高度,更沒有形成人工智能技術產業化創新生態系統風險治理的完備體系和系統性解釋。鑒于此,本文嘗試識別人工智能技術產業化創新生態系統風險屬性,明晰治理主體、治理原則并探索具體治理路徑,以期彌補對該問題研究的不足。

2 人工智能技術產業化創新生態系統內涵及風險識別

2.1 人工智能技術產業化創新生態系統內涵

與內生性風險不同,外生性風險是創新生態系統運行過程中,由于人的主觀性、偏見性以及其它環境等因素導致的風險,會使算法應用偏離正常軌道,集中體現為算法歧視風險和算法濫用風險。

2.2 人工智能技術產業化創新生態系統風險歸因

本文借鑒朱瑞博[12]的研究思路,將人工智能技術產業化創新生態系統風險歸結為內生性風險和外生性風險并賦予全新內涵。其中,前者是指人工智能技術特性和運行過程攜帶的先天風險基因,包括數據風險和算法風險,是導致系統衰敗的根源;后者是指產業化過程中人為因素、環境因素等形成的風險,包括算法濫用和算法歧視,可能導致系統運行異化,背離正常演進方向。人工智能技術產業化創新生態系統風險可看作是兩種風險共同作用的結果。

2.2.1 內生性風險

從創新生態系統演進過程看,不同階段的風險也不盡相同,內生性風險從技術突破時期到技術標準化時期,再到技術產業化時期始終存在,并成為技術突破時期和技術標準化時期的主要風險,而外生性風險只有當創新生態系統進入技術產業化時期才逐漸凸顯(見圖1)。

根據亨廷頓的觀點,政治衰敗源于新興社會行動者對政治參與的渴望,政治參與程度的減弱有利益政治的穩定,亞當·普沃斯基則對此提出了批評,認為對于穩定的民主政治真正的合法化危機不是來源于社會動員導致的政治參與擴大,而是來自政治參與的不足。[6]就互聯網背景而言,兩者的理論都需要修正,互聯網下的社會動員會導致公民重拾參與政治的熱情,但是也誘發了基于互聯網的不當的社會動員問題。

(2)算法維度風險。算法發展推動計算機視覺、自然語言處理等關鍵技術識別精度持續攀升,能夠在更廣泛的場景下解決實際痛點,驅動人工智能技術產業化進程。同時,算法運行的“黑箱”性和自主決策性使創新生態系統面臨算法安全風險、算法可解釋性風險和算法決策風險[19]。首先是算法安全風險,在實際應用中,若算法模型及具體參數發生泄漏,那么第三方極有可能“克隆”該算法。同時,由于人工智能算法在原理上主要用于處理過程不明確、輸入不受限的場景,并容許一定錯誤率存在,而且算法訓練數據也不能覆蓋所有應用場景,因此若算法參數存在被非法篡改的可能,那么算法性能下降或錯誤率升高將難以被覺察,人工智能算法從設計、訓練到運用都將面臨可信賴性的問題。此外,部分場景要求算法隨時可用,算法漏洞造成的人身權益難以挽回以及一系列法律追責困境等,都使創新生態系統處于極大風險之中。其次是算法可解釋性風險,根據2017年美國加州大學伯克利分校發布的《對人工智能系統挑戰的伯克利觀點》,將算法可解釋性理解為,解釋人工智能算法輸入某些特性引起某個特定輸出結果的原因。由于人工智能算法往往是多層神經網絡,屬于非線性數學,不同變量之間關系糾纏不清,呈現涌現性和自主性特征并因此形成“黑箱”,其算法的復雜性和專業性更提高了信息不對稱程度,從而極大降低人類對算法的信賴和認同[19]。最后是算法決策風險,計算力躍升使人工智能具備計算超高數量級可能性的超強能力,其選擇范圍遠超人類,能夠嘗試人類以前未曾考慮的方案,從而導致算法結果的不可預見性風險。

在價值創造情景下,創新生態系統內部形成以技術創新群落、商業引領群落、控制調節群落和量子參與群落為主的價值創造群落結構。在風險治理情景下,創新生態系統內部群落逐步從價值創造者向風險治理者的身份和使命轉變。具體而言,技術創新型企業、AI初創新銳、AI巨頭、AI獨角獸等企業主體從技術創新群落和價值創造群落轉變為企業治理群落,政府、學術界和社會組織由控制調節群落分別轉變為政府治理群落、學界治理群落和社會組織治理群落,用戶、互聯網群體等微觀個體集合則由量子參與群落轉變為社會公眾治理群落(見表1)。

2.2.2 外生性風險

人工智能技術產業化逐漸形成了由多種主體參與的獨特創新生態系統。本文借鑒自然生態系統中的群落概念[17-18],并按照功能差異,將系統主體劃分為技術創新群落、商業引領群落、控制調節群落和量子參與群落。其中,技術創新群落(高校、科研機構和技術創新型企業)投入大量創新資源,使人工智能技術領先可行;價值創造群落(AI初創新銳、AI巨頭和AI獨角獸)以實現經濟效益和社會期望滿足為目標,提供相應智能產品和服務;控制調節群落(政府機構、學術界和社會組織)對人工智能技術產業化進行控制和調節;量子參與群落(用戶、互聯網群體等微觀個體集合)廣泛參與到人工智能技術創新和產業化各方面。通過各群落間相互協作和價值共創,形成人工智能技術成果向生產力轉移的創新體系[8-9]。

(1)算法歧視風險。算法歧視風險是指在看似沒有惡意的程序設計中,由于算法設計者/開發人員對事物認知存在某種偏見,或算法執行時使用帶有偏見的數據集等原因,造成算法產生帶有歧視性的結果,并由此形成3種類型的算法歧視,即人為因素歧視、數據驅動因素歧視和機器自我學習因素歧視。算法設計者、用戶都可能引發算法歧視風險,其中算法設計者可造成算法對用戶的價格歧視和結果偏袒,而由用戶引發的算法歧視主要源于用戶與算法的非理性交互。數據驅動的歧視則更多源于數據偏見,即偏見性數據引致算法結果的非客觀性。此外,隨著算法復雜程度日益提高,通過機器學習過程形成的隱性歧視也越來越難以被察覺[23],但這些可能無法被理解的技術卻已廣泛試用于信用授予、企業籌款、企業招聘等領域,這無疑成為創新生態系統穩健發展的潛在隱患。

(2)算法濫用風險。算法濫用風險是指在運用算法進行分析、決策過程中,因使用方式、目的和適用范圍等出現偏差導致的風險。企業出于自身利益考慮,可能會利用算法對用戶進行不良誘導,同時過度依賴算法和盲目擴大算法應用范圍也都會使算法缺陷被放大并影響系統有效性,甚至可能危害人類生命和人類社會發展,必須予以重點關注和妥善處理[23]。

(1)數據維度風險。數據是人工智能技術快速發展并邁進產業化的重要驅動力[22]。隨著大數據、機器學習等廣泛運用,數據本身富含的價值越來越大,同時數據泄露等風險亦急劇增加并引發數據風險(數據安全和數據偏見)。首先是數據安全風險,因數據挖掘深度和廣度提高,個人數據隱私被以更多方式、更低成本獲取,導致近年來數據安全事件頻發,甚至形成了完整的數據灰色產業鏈,不僅推高企業數據存儲與維護成本,而且極大降低了社會公眾對人工智能產品、服務和相關企業的信任程度,給創新生態系統發展帶來嚴重困擾。其次是數據偏見風險,根據形成原因,數據偏見可分為客觀性數據偏見和主觀性數據偏見,其中客觀性數據偏見是由數據本身的非公平、非理性所致,數據主觀性偏見則是由研發人員的主觀選擇和數據處理等因素引起。數據偏見從底層影響人工智能的客觀性和公正性,甚至可能引發風險的多米諾骨牌效應。

圖1 人工智能技術產業化創新生態系統演進過程中風險分布特征

3 人工智能技術產業化創新生態系統風險治理體系

針對人工智能技術產業化創新生態系統面臨的內生性風險和外生性風險,需要圍繞風險治理主體、根本原則和治理路徑3個方面形成風險治理體系。

3.1 風險治理主體及群落結構

2.2 近期療效 術后6周,觀察組患者臨床總有效率為79.2%,對照組為62.5%,兩組比較,差異無統計學意義(P>0.05)。見表2。

表1 不同情景下人工智能技術產業化創新生態系統群落構成

(1)政府治理群落。作為創新生態系統風險治理的推動者和監管者,政府治理群落需要深刻認識到人工智能風險的長期性和復雜性,把握風險治理動向并提供強力支持。為鼓勵不同風險治理群落共同應對和化解創新生態系統風險,同時防止經濟行為主體利用市場契約不完全和信息不對稱牟利,避免“搭便車”等機會主義風險,政府需要對其它治理群落實施激勵和約束,以提升風險治理效率,促進系統良性發展。

以學生為主導的小組合作式課堂教學模式,是指在上課的過程中,教師設定教學的方向,分配任務到小組,學生在課下查閱和討論相關知識,課堂上匯報,其他學生提問,匯報小組作答,教師最后總結,講解重點知識、解答有誤問題。這種教學模式,不僅能提高學生團結協作能力和自主學習能力,還能提高其學習熱情,從而更好地掌握所學的知識,達到教學目的,在現代教學中發揮著重大意義[6]。尤其在研究生教育階段,學生以自主學習為導向,導師做好引導與扶持,對激發學生的創新意識具有積極作用[7]。

(2)企業治理群落。由于企業本身具有追逐利益和風險規避的天性,會通過衡量不同情境下能獲得的利益,選擇實施或不實施風險治理。因此,企業治理群落的最終形成源于對治理成本和收益的權衡。當前,由人工智能技術產業化引發的風險日益增加,既具有超強傳染性又難以完全追蹤。同時,由于人工智能深度嵌入社會經濟結構中,當出現系統性風險危機時,極有可能陷入“科林格里奇”困境從而釀成災難性后果[24]。這迫使企業尤其是綜合實力強大的核心企業,以高度危機感和使命感投入到風險治理浪潮中。

(3)學界治理群落。作為人工智能風險治理的教育者和反思者,學界在承擔知識生產與傳播任務的同時,積極倡導責任式創新(responsible innovation),更加關注廣泛情景下的新興技術治理[25],強調利益相關者共同參與[26],對人工智能等新興技術創新與實踐進行超前布局、預測治理和響應式治理[27-28]。

(4)社會組織與社會公眾治理群落。社會組織作為風險治理的助推者和監管者,積極參與從技術研發到實際應用的多階段風險治理以及行業監督、監管;社會公眾是風險治理的廣泛參與者和監督者。社會組織與社會公眾治理群落通過輿論宣傳和輿論監督實施“軟治理”,以推動技術信任,引導科技向善。

創新生態系統風險治理需要以治理原則為基礎并形成規則體系保障。雖然目前鮮有針對風險治理的專門性政策出臺,但已有人工智能治理原則能夠為風險治理提供很好的思路借鑒,如在倫理領域達成兩個極具影響力的共識:阿西洛馬人工智能原則(Asilomar AI Principles)和IEEE倡導的倫理標準。其中,阿西洛馬人工智能原則倡導安全、失敗透明、審判透明、負責、與人類價值觀一致性等;IEEE則發布多份文件倡導對倫理標準的重視,并且都得到廣泛傳播和認同。2017年3月,IEEE在《機器人與自動化》上發表旨在推進人工智能和自治系統倫理設計的IEEE全球倡議書,倡議建立人工智能倫理設計原則和標準,并提出人權(human rights)、福祉(well-being)、問責(accountability)、透明(transparent)和慎用(use with caution)五原則。我國新一代人工智能治理原則也于2019年6月發布,包括和諧友好、公平公正、包容共享等8項原則,突出了發展負責任的人工智能這一主題。

風險治理群落的多屬性和多中心性使其形成多層次結構,包括外圍層、中間層和核心層。其中,外圍層以政府治理群落和學界治理群落為風險治理中堅力量,對人工智能技術產業化創新生態系統風險治理進行長遠考慮,做好頂層設計和統籌規劃,并積極倡導發展負責任的人工智能,采取分類分級、分階段的靈活監管方式;中間層以社會組織群落和社會公眾治理群落為主體,通過營造和規范發展負責任研究的價值導向和輿論環境,使具有可用(available)、可靠(reliable)、可知(comprehensible)、可控(controllable)性的人工智能實現更高效率的技術轉移、獲取更豐厚的經濟效益和積極的用戶反饋,形成良性增值循環;核心層以企業治理群落為關鍵支撐,包括核心企業、上游供應商和下游互補方等利益相關者,通過行業自律、行業協同治理等方式應對和化解風險。外圍層、中間層和核心層構成創新生態系統風險治理的多層次結構體系(見圖2)。

(2)運用所學生物學知識和技能改進教材實驗,設計開發“酸雨對生物影響的模擬探究實驗”。從微觀方面(細胞結構層面)和宏觀方面(生態系統模擬和動物的行為)呈現酸雨對生物的影響,創造性解決學習中遇到的新問題。

圖2 創新生態系統風險治理多層次群落結構

3.2 風險治理根本原則

正如虛寧寺管委會的李副主任所說:“對于我們而言,構建和諧社會的大目標,就要從人與人之間互相關懷的點滴開始做起。”

既有治理原則既反映出對人工智能的包容與共享,又體現其治理需要打破傳統治理邊界、行動的及時性以及治理方法的靈活多樣,強調發展負責任的人工智能。本文借鑒既有人工智能治理價值導向和核心思想,認為人工智能技術產業化創新生態系統風險治理是治理原則在風險防控領域的具體體現。首先,創造經濟價值、引領廣泛產業變革是人工智能價值體現和實施風險治理的首要前提[8-9],需要在人工智能價值創造和變革過程中包容其引發的非重大系統性風險,同時將濫用風險降至最低。因此,包容審慎(tolerance and prudence)成為治理原則的必選項。其次,由于人工智能與社會經濟以超乎尋常的速度整合和相互建構,其超高的技術密集性和復雜性,使創新生態系統任何單一治理群落都無法精準判斷和應對風險挑戰,需要企業、政府、社會組織、社會公眾和學界共同參與,真正形成全鏈條、多視角、多層次的風險治理體系。因此,需遵循開放協同(open collaboration)的治理原則。再次,為增強創新生態系統內部治理群落的責任使命感,牢固樹立群防群控風險意識,需要通過建立風險追責機制等,使其更好地履行各自職責,共同建立風險治理的安全屏障。因此,責任共擔(shared responsibility)成為重要保障。最后,人工智能產業發展和風險治理均處于探索和發展時期,需避免嚴格、細致的法律要求對人工智能產業產生阻礙,而應采取事后監管或通過出臺標準、行業公約、倫理框架、最佳實踐等,調整人工智能技術創新及發展應用,同時大力支持行業自律。因此,要秉持敏捷靈活(agile and flexible)的治理原則。

3.3 風險治理路徑解析

3.3.1 內生性風險治理

羊群感染布魯氏桿菌病后癥狀不明顯,因此,極易與其他傳染病混淆,養殖戶也未對其給予足夠的重視和關注。母羊感染此類傳染性疾病后容易出現流產現象,通常流產時間為妊娠后3個月或4個月,在流產前并沒有明顯的癥狀,即使誘發病癥,多數情況也是患有關節炎或者乳房炎。公羊感染此類疾病后會與公牛一樣引發附睪炎或者睪丸炎。

圖3 人工智能技術產業化創新生態系統數據安全風險治理路徑

(2)數據偏見風險治理路徑。數據偏見風險隱蔽性極強,而且帶有偏見的數據還會通過算法產生偏見結果,并作為此后算法的數據輸入,由此偏見數據和偏見結果在迭代中得以持續和增強,引發人工智能技術研發、測試及產業化過程中風險的“蝴蝶效應”,成為創新生態系統安全運行的“定時炸彈”[22]。同時,鑒于數據偏見風險形成的主客觀因素,其治理路徑也主要從這兩方面入手。一方面,對于客觀性偏見,需高度重視數據檢驗,以政府治理群落為主導,多方積極參與,共同商討建立具有客觀性、合理性的數據檢測體系,對數據多樣性、分布規律等指標設立相應閾值,同時也需要對不同數據源進行相互印證,以增加其信效度。只有通過檢驗成為完整、客觀的數據,才能作為算法訓練的數據來源。另一方面,對于主觀性偏見,需要企業治理群落謹慎使用數據,同時優化數據處理方法,最大程度保持數據公平公正性。數據偏見風險治理具體路徑如圖4所示。

圖4 人工智能技術產業化創新生態系統數據偏見風險治理路徑

(3)算法安全風險治理路徑。算法安全風險主要源于算法漏洞、低可靠性以及在特定領域可能造成的人身傷害,鑒于算法安全風險更多源于技術性因素和特殊應用場景,因此應采取兼具技術防護和異常應急的聯合治理策略。對于技術防護策略,企業治理群落要增強算法保密性,如采取加密等措施提升算法安全等級,通過優化算法設計原理、加強安全防護,防范算法參數被非法修改,提升算法安全性。異常應急策略即建立算法輸入異常和算法運行異常的應急管理體系,尤其要加強特殊應用場景(如醫療領域)的風險防范。企業、政府和學界需共同發力,通過實施多情景、多頻次模擬,建立算法異常風險預警和應急系統,通過增加對特殊應用場景的針對性測試,提升算法可靠性并降低人身傷害的可能性。同時,對由算法引起的人身傷害典型事件,在追責的同時,更要吸取教訓,從而持續完善算法安全風險治理路徑。算法安全風險治理具體路徑如圖5所示。

(1)數據安全風險治理路徑。數據安全風險的強大破壞性和極難挽回性引起各個治理群落高度關注,如何通過多方參與更有效地管控數據資源的使用,使創新生態系統更加安全,成為研究與實踐的緊要議題[29-30]。為此,政府、社會組織和企業治理群落需要從法律規制、倫理引導和預測預防角度,為數據安全風險治理提供有效措施。首先是法律規制。政府治理群落可通過制定數據保護條例、建立數據安全規范等措施強化數據保護權益,并對個人和商業敏感信息予以更高保護[20],其次是倫理引導,社會組織治理群落可通過建立行業數據使用標準和倫理規范,引導和規范數據采集、分析和運用等環節[21]。最后是預測預防,企業治理群落可采用技術、理性洞察等途徑識別未來可能的隱私數據,并提前布局新興數據的隱私保護機制。同時,還應探索數據侵害的追責機制,以督促各風險治理群落打破治理界限,共同應對數據安全風險挑戰。數據安全風險治理具體路徑如圖3所示。

圖5 人工智能技術產業化創新生態系統算法安全風險治理路徑

(4)算法可解釋性風險治理路徑。人工智能算法可解釋性風險主要來源于算法的復雜性特質——涌現性和自主性,并由此導致理性推導失效,最終形成未知的潛在風險。算法可解釋性風險治理路徑可從技術降維和標準制定兩方面考慮。在技術降維方面,企業治理群落從技術角度切入,通過技術手段,將人工智能算法由機器理解層面降維至人類理解層面[19]。在標準制定方面,需要學界和政府積極制定算法模型標準、算法操作標準和算法解釋標準,加快形成算法可解釋性規范體系,在降低創新生態系統算法可解釋性風險的同時,進一步支撐和引領人工智能技術產業化蓬勃發展。算法可解釋性風險治理具體路徑如圖6所示。

由圖2可知,濕式誘捕器在前3周誘捕效果最好,但3種誘捕器均隨著時間的變化誘捕效果呈降低趨勢,第3和第4周效果甚微,由此可以判斷誘捕器誘芯的效果在20 d以內,每隔15~20 d需換一次誘芯。

圖6 人工智能技術產業化創新生態系統算法可解釋性風險治理路徑

(5)算法決策風險治理路徑。人工智能技術發展與應用的內在邏輯是基于機器學習形成自主性決策[2],在解放人類腦力勞動的同時,其難以理解的過程和行為,使創新生態系統處于算法決策不可預見的風險中。為應對和化解算法決策風險,需要從增強可解釋性和算法終結兩方面考慮。一方面,可通過技術加持、算法簡化等方法,增強算法可解釋性并降低算法決策風險;另一方面,引入算法終結機制,即參考生命體中的衰老機制,將算法終結機制引入算法決策風險治理中,使算法決策遇到無法判斷未來結果時立即終止。2016年,Google旗下的DeepMind就曾提議給人工智能技術系統安設“切斷開關”(kill switch),以防范人工智能對關鍵決策的惡意干預,避免重大嚴重后果。對人工智能技術產業化創新生態系統而言,當既有風險治理措施失效時,能夠立即觸發算法自我終結機制,形成安全可中斷性能力,防止算法對創新生態系統中企業創新戰略、商業模式等關鍵決策的過度干涉,從而將算法決策風險破壞降至最低。算法可解釋性風險治理具體路徑如圖7所示。

圖7 人工智能技術產業化創新生態系統算法決策風險治理路徑

3.3.2 外生性風險治理

(1)算法濫用風險治理路徑。算法濫用風險治理可從明確算法使用邊界、降低算法依賴和倫理引導方面考慮。首先,明確算法使用邊界。人工智能算法需要技術(算法模型、參數等)、數據和場景特征彼此契合,才能提供專業解決方案等服務。從該意義上講,算法都具有一定專屬性質,若其它帶有目的傾向的算法依然能夠使用相同數據源,那么極有可能使得使用人工智能產品和服務的用戶身處險境,從而造成創新生態系統核心企業與用戶關系緊張,甚至逐步演變為系統性風險。因此,必須嚴格規范算法的商業化領域和用途,限制算法外延。其次,降低對算法的依賴。必須堅持人類主體地位,降低人工智能落地實踐中對算法的過度依賴和盲目依賴,提倡人與算法的有機結合。尤其是創新生態系統核心企業更需要從負責任的角度,提供有利于社會公眾實現數字福祉的智能產品和個性化服務[15,28],而不是對“流量”趨之若鶩,淪為算法的附庸。最后,對算法進行倫理引導。社會組織與社會公眾治理群落要倡議算法倫理規范,以引導其倫理取向,使算法回歸合理的應用軌道并釋放“向善”潛力[21,23]。算法濫用風險治理具體路徑如圖8所示。

今天,尋訪團一行來到杭州始版橋,印刷專業的學生朝拜行業始祖——畢 ,今年是他在杭州發明活字印刷970年。烈日炎炎,尋尋覓覓,見人就問,無人知曉。最后,在一片住宅廢墟上,有人告之這可能就是遺址。不禁唏噓中國印刷之父畢 的發明地竟然如此境遇,但愿是我們搞錯了。我們一直在反省自四大發明之后,中國于世界現代科技文明的定位到底是什么。

圖8 人工智能技術產業化創新生態系統算法濫用風險治理路徑

(2)算法歧視風險治理路徑。算法歧視是人工智能技術產業化引發的系統性風險,體現為形成原因的多樣性和風險危害的廣泛性,數據偏見、算法設計者、機器自我學習和人機互動都會導致算法歧視,而算法歧視風險的危害從個人層面的價格歧視[31]、結果偏袒等,蔓延到創新生態系統的群落關系、運行和演進。鑒于此,本文認為需要以風險治理根本原則為導向,充分發揮創新生態系統風險治理群落的多層次結構優勢,從多層面、多視角對算法歧視風險實施治理。首先,從倫理嵌入視角出發,政府、社會組織等治理群落要致力于提升算法設計者、用戶的科學素養和倫理道德水平,使算法設計者更加客觀、公平,用戶與人工智能互動更加理性,從而減少算法歧視風險中的人為因素,同時將倫理嵌入到技術研發、技術測試等產業化各階段,使算法設計更具正義性[21]。其次,從數據驅動視角出發,企業治理群落可通過探索數據去噪、數據填充、數據擬合、數據清洗等技術手段,降低數據偏見并實現高質量數據輸入。最后,從機器學習視角出發,持續優化機器學習算法,理性看待機器學習結果和決策,以實現人機高效協同、和諧共生。算法歧視風險治理具體路徑如圖9所示。

圖9 人工智能技術產業化創新生態系統算法歧視風險治理路徑

4 結論與討論

4.1 研究結論與政策啟示

人工智能技術經過快速發展,逐步從實驗室階段走向產業化應用階段[1],并形成以人工智能技術創新與應用為核心的創新生態系統。然而,人工智能技術產業化引發的大數據隱私泄露、算法“黑箱”、就業替代等風險,使人工智能再次受到廣泛關注和高度警惕[32]。本文聚焦人工智能技術產業化創新生態系統風險治理議題,分析并歸納了系統面臨的內生性風險和外生性風險,探討了具有多層次結構特征的風險治理群落,明晰了適用于人工智能風險治理的根本原則,揭示了創新生態系統風險治理的具體路徑。主要結論及政策啟示如下:

2017年1-12月神經外科出院患者1258例,發生醫院感染59例,65例次,實際感染率4.69%,感染例次率5.17%。

本文從創新生態系統理論視角出發,針對人工智能技術產業化生態系統風險治理問題,提出風險識別依據,建立相應風險治理體系。現有研究雖然對人工智能技術創新與產業化應用引發的風險問題進行了一定討論[19,29-30],但多聚焦于狹義的技術危機和機器倫理,對治理主體和治理過程的探討也局限于傳統科層制的思維邏輯[2],亟待基于創新生態系統理論,對人工智能引發的風險進行更加廣泛和系統性的分析,并提出與之相匹配的風險治理體系,以降低風險等級、推動創新生態系統穩健發展。本文借鑒創新生態系統風險的相關研究[14-15],依據風險誘發屬性,將人工智能技術產業化創新生態系統風險歸結為內生性風險和外生性風險。風險治理情景下,創新生態系統將風險治理主體視為具有內在相關性的群落,在注重發揮各自功能的基礎上,進一步強調治理群落間的互補性和協同性,并由此形成了風險治理群落的多層次結構和風險治理的根本原則。根據內生性風險和外生性風險特征,不同層次的風險治理群落通過內外結合、相互協同的治理模式,形成應對和化解創新生態系統風險的具體路徑。

本文從創新生態系統視角,結合具體路徑,為人工智能風險治理提供政策啟示。首先,風險治理群落在提升治理能力的同時,也需要創新治理理念與方法。政府要避免對偶發性負面問題采取激進的治理措施,同時要創新監管方式,如推動先行先試和柔性監管;企業不僅要降低數據安全風險和數據偏見風險,使算法設計更具正義性,也要創新風險治理思路,如對于算法可解釋性,或許探索相關關系而非因果關系,才是平衡用戶利益和減輕企業解釋成本負擔的合理途徑;學界要持續探索如何將責任式創新范式全面嵌入到創新生態系統風險治理體系中[33-34],為風險治理提供智力支持和決策輔助;社會組織與社會公眾不宜定位于“呼吁者”,而應深刻認識自身價值和使命,廣泛參與到風險治理中。其次,需要引入更廣泛的風險治理群落,持續優化創新生態系統多層次結構及相互關系,形成科學高效的風險治理體系,引導創新生態系統向責任式創新方向演進。最后,積極推動人工智能風險治理的全球性合作。數據流動的全球性及人工智能研發應用的跨國界、國際分工等特征,都表明人工智能風險不可能局限于某一區域或國家,因此必須加強國際對話與交流,預防人工智能可能引發的國際風險。

4.2 研究不足與展望

本文主要通過分析和邏輯演繹,討論人工智能技術產業化創新生態系統的風險性質和治理體系,而這種定性研究在系統框架驗證、風險危害等級判定和風險治理效果評估方面存在一定不足,由此制約了創新生態系統風險治理過程中資源的合理投入以及治理方法與工具的靈活運用。未來可采用定量研究方法,利用經濟計量模型,建立人工智能技術產業化創新生態系統風險測度體系和治理效果評估量表,從而將人工智能風險及其治理的相關研究從理論分析轉向實證研究。同時,以風險治理效果為導向,逆向推動創新生態系統群落結構的合理調整、治理原則的有效落實和治理路徑的持續優化,形成風險治理體系與治理效果之間的閉環生態和良性循環。

猜你喜歡
人工智能
我校新增“人工智能”本科專業
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
基于人工智能的電力系統自動化控制
人工智能,來了
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
學與玩(2017年12期)2017-02-16 06:51:12
主站蜘蛛池模板: 婷婷伊人久久| 国产精品性| 日韩在线视频网| 欧美日本激情| 亚洲一区二区三区国产精华液| 日本人妻一区二区三区不卡影院| 国产精品一区不卡| 色天天综合久久久久综合片| 99久视频| 国产成人免费观看在线视频| 99久久亚洲综合精品TS| 国产精品一线天| 亚洲侵犯无码网址在线观看| 911亚洲精品| 午夜在线不卡| 99精品这里只有精品高清视频| 国产网友愉拍精品| 亚洲欧洲AV一区二区三区| 免费中文字幕在在线不卡 | 国产精品永久久久久| 国产成人调教在线视频| 亚洲精品成人片在线观看| 国产成a人片在线播放| 婷婷成人综合| 欧美日韩精品一区二区在线线 | 久久久久九九精品影院| 亚洲视频在线网| 久久久久无码精品国产免费| 强乱中文字幕在线播放不卡| 人禽伦免费交视频网页播放| 永久免费无码成人网站| 午夜精品久久久久久久无码软件| 亚洲天堂成人| 干中文字幕| 色噜噜综合网| 国产成人综合久久| 亚洲精选高清无码| 福利在线一区| 亚洲日韩国产精品综合在线观看| 欧美国产在线看| 中文字幕乱码中文乱码51精品| www.狠狠| 免费人成黄页在线观看国产| 熟妇丰满人妻av无码区| 青草视频在线观看国产| 欧美国产日韩在线观看| 国产精品视频免费网站| 国产精品极品美女自在线看免费一区二区| 免费一级无码在线网站 | 成人综合久久综合| 免费人成视频在线观看网站| 中文无码精品A∨在线观看不卡| 女人18一级毛片免费观看| 91小视频在线观看| 第九色区aⅴ天堂久久香| 亚洲人成影院在线观看| 强奷白丝美女在线观看| 波多野结衣无码AV在线| 国产成人精品在线1区| 午夜精品影院| 全部免费毛片免费播放| 精品福利视频导航| 91成人免费观看| 国产免费自拍视频| 欧美在线三级| 无码'专区第一页| 成人国产精品一级毛片天堂| 成人午夜精品一级毛片| 国产在线精彩视频二区| 极品国产在线| 国产精品手机在线观看你懂的| 亚洲第一视频免费在线| 97免费在线观看视频| 2021最新国产精品网站| 欧美在线精品怡红院| 九九热精品视频在线| 在线播放国产一区| 国产精品毛片在线直播完整版| 国产精品久久久久久久伊一| 99热6这里只有精品| 亚洲区视频在线观看| 一级黄色网站在线免费看|