999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

促進公眾理解生成式人工智能的集體責任分析

2024-01-01 00:00:00李健民
科普研究 2024年2期

[摘 " 要] 生成式人工智能的快速迭代和應用存在的種種風險使“人工智能威脅論”在社會公眾視野中盛行。本文基于集體行動的視角,將人工智能應用問題解釋為集體責任問題,分析公眾在生成式人工智能應用中所具有的能動性和反身性的集體責任定位,以及公眾在生成式人工智能治理中的集體義務。本文以結構性非正義理解生成式人工智能應用的問題,闡述促進公眾理解生成式人工智能的科學傳播困境,從信任角度進行出路分析。生成式人工智能應用問題的集體本質決定了促進公眾理解生成式人工智能的集體意義,生成式人工智能應用的責任倫理亟待從個人倫理走向集體倫理。

[關鍵詞]公眾 " 生成式人工智能 " 集體責任 " 集體行動

[中圖分類號] "N4;B82-057;TP18 [文獻標識碼] A [ DOI ] 10.19293/j.cnki.1673-8357.2024.02.006

生成式人工智能有著無限前景與風險,其應用問題可以從兩個不同角度被解釋為集體責任(collective responsibility)問題:生成式人工智能應用本質上是一種集體問題,或集體實體(collective entity)承擔生成式人工智能應用的集體責任。在后一種解釋中,使用生成式人工智能服務的社會公眾是作為集體能動者(collective agent)的眾多集體實體之一。同時,促進公眾理解生成式人工智能是人工智能風險治理的重要內容之一。本文從集體行動視角切入,以公眾在生成式人工智能應用中的責任關系為對象,分析公眾的集體責任定位和公眾在人工智能風險治理中的集體義務,就促進公眾理解生成式人工智能所面臨的問題給予解決進路。

1生成式人工智能應用問題的集體本質

加速發展的生成式人工智能重塑了人類與技術的交互模式,將全球社會中的更多人群納入人工智能應用中,大模型、大數據、大算力支撐的生成式人工智能技術呈現“涌現”(emergence)特性,帶來一系列風險挑戰。同時,生成式人工智能的應用與發展進程中涉及不同群體的大量能動者(agent),造成風險的因素在時間和空間上是分散的,人工智能風險治理不能僅靠單個能動者。生成式人工智能風險本質上是集體造成的“涌現”,它已成為一個真正的社會性、全球性問題。

1.1生成式人工智能應用問題是一種全球性問題

生成式人工智能應用問題已經成為除氣候變化、公共衛生、戰爭等全球性問題以外人類社會面臨的又一個共同問題。作為新一代人工智能技術,生成式人工智能基于大模型的內容生成,是推動全球數字生產力變革的重要技術力量。相比以往的人工智能技術,生成式人工智能呈現更強的內容創新、人機協作、數據依賴等特性,在眾多應用領域產生深刻影響,也帶來一系列風險挑戰,生成式人工智能正在改變人類世界。

與傳統人工智能技術不同,生成式人工智能可以在已有數據基礎上生成新內容,這令人工智能變得更加智能化,呈現通用人工智能的特征,生成式人工智能的此特性引發人們對人類社會未來是否會真正進入通用人工智能時代這一問題的思考。同時,生成式人工智能的強人機協作會導致人機界限模糊等問題,如何分清虛擬與現實也將成為全人類面臨的共同難題。另外,生成式人工智能的大模型訓練需要以互聯網為依托收集海量數據,這使得生成式人工智能應用問題真正成為全球性問題,人類社會正面臨前所未有的數據信息安全風險挑戰。OpenAI公司為訓練其自然語言處理模型GPT-4使用了龐大的數據集,其數據收集以在全球互聯網上抓取公開網頁內容為主,其中涉及眾多社交媒體、論壇、書籍、論文等原始文本數據。

此外,生成式人工智能的多領域應用導致的倫理風險、產業風險、價值風險等挑戰,正逐漸影響人類社會的發展進程。筆者認為,生成式人工智能應用本質上是人類群體、社會集體共同面臨的問題,理解這一全球性問題的集體本質是生成式人工智能風險治理的重要理論前提與決策依據,具有重要的理論和現實意義。2023年,我國發布的《生成式人工智能服務管理暫行辦法》明確鼓勵對生成式人工智能技術平等互利開展國際交流與合作,參與生成式人工智能相關國際規則制定[1]。

1.2生成式人工智能應用問題是一種集體行動和集體傷害問題

集體行動問題(collective action problem)指“由獨立的個體行動聚合而產生的結果,而這些行動并非旨在產生該結果”[2]。全球各國政府、科學界、企業、公眾等能動者共同行動,旨在推動生成式人工智能技術發展,引領新一輪科技革命與產業變革,但生成式人工智能可能帶來的社會、倫理乃至安全風險并非預先存在于相關能動者的行動意圖中。生成式人工智能的社會應用是一種集體行動問題,其自身的復雜性“涌現”機制令其結果難以預測和控制。

在集體行動問題中,個體理性往往導致集體非理性。生成式人工智能的開發者、使用者、管理者等集體能動者依照其自身領域的理性規范采取行動,而能動者間缺乏合作性質的交互行動,更可能導致非理性結果。如在教育領域中,運用生成式人工智能為學生教育提供個性化支持是開發者和使用者的共同初衷,但對生成式人工智能的過度依賴將損害人類認知能力,這將成為教育領域的潛在風險[3]。另外,能動者活動的規范性準則可能存在非理性成分,這將導致行動整體走向非理性方向,如生成式人工智能的技術開發者對底層算法有較大決策權,存在算法歧視風險。

作為集體行動問題的子概念,生成式人工智能應用問題還是一種集體傷害問題(collective harm problem)。集體傷害問題涉及以集體造成傷害或未能防止傷害的方式行動,但相關的個人行為本身似乎沒有區別[4]。面向公眾提供服務的生成式人工智能產品拓展了公共生活空間,不僅使人機關系的互動與協作更加緊密,還將連接整合、協同利用更多領域的資源。在生成式人工智能塑造的更具互動性、更緊密關聯的社會世界中,存在更多以間接方式傷害社會成員的風險,這些傷害通常是“多手”(many hands)[5]造成的。許多人以各種方式參與到大數據的信息收集中,特別是在使用生成式人工智能產品時,若包括個人信息等在內的輸入內容被用來迭代訓練,個人將面臨數據與隱私安全風險。這類因相關個體行為本身的無差別性所導致的集體傷害,在生成式人工智能變革社會認知層面上尤為突出:生成式人工智能一方面可以增強個體認知,另一方面人們過度依賴人工智能可能會對社會認知產生結構性的負面影響[6]。事實上,該問題的本質是,當以某種方式行動似乎對結果沒有影響或影響較小時,很難辨別我們如何有理由行動或選擇不以此方式行動,普通民眾顯然更多關注生成式人工智能應用所帶來的眼前收益,進而采取相關行動。這表明在生成式人工智能風險治理方面,開發者、使用者、管理者等單方面將降低風險視為自身的職責或義務都是錯誤的,應該尋求一種合作方案來解決這類集體行動問題。

1.3生成式人工智能風險的集體責任定位

人工智能應用的責任歸屬是人工智能倫理的核心問題,一旦人工智能在應用進程中出現問題,能夠找到責任承擔者十分重要。以往的哲學分析通常基于單子化個體主義視角討論責任的歸屬與分配,包括對人工智能自身能否成為道德能動者(moral agent)的討論。然而這種分析思路忽略了人工智能應用行動的集體本質。同其他技術行動一樣,人工智能行動涉及時間線上的眾多能動者。人工智能的使用者、管理者可能并不知道誰曾參與技術的開發和使用,這使得風險責任的明確歸屬與分配變得困難。

生成式人工智能風險的責任類型涉及三個層面:因果責任、道德責任和法律責任。其中道德責任和法律責任都是規范性責任,這意味著存在作出此類規范性判斷的主體,雖然這類判斷不需要因果責任,但卻受到因果考量的影響。因果關系存在于發生的事情與引起它發生的事情之間,原因并非必須是一個能動者,例如可以是一種自然或意外現象。然而,即便雷雨天氣可能會導致電力系統損壞,但并不能追究其造成損壞的道德責任。一般而言,道德責任意味著道德能動性(moral agency),只有道德能動者才能對電力系統老化背后的經濟、政治或其他相關因素負責,這些因素加大了損壞程度。就人工智能應用而言,盡管新一代生成式人工智能技術已具有更強的自主性,但筆者認為,關于人工智能風險的責任倫理討論仍應以人類自身為焦點,至于將諸如“人機混合能動者”作為道德能動者的混合進路嘗試也依然無法脫離人自身。生成式人工智能的強智能自動化會產生難以預測的有害后果,但人類卻可以控制哪些任務被自動化,因此可能結果的因果責任和道德責任仍在于我們人類個人和集體。

因果責任在生成式人工智能風險責任中難以判定,呈現集體特性,同時也帶來集體道德責任。以生成式人工智能應用可能導致的知識產權侵權責任為例,生成式人工智能從迭代數據到內容輸出,再到發生權利侵害,整個侵權過程的因果關系追溯困難[7]。在生成式人工智能應用過程中,開發者、使用者甚至人工智能自身各自是否應承擔傷害的因果責任或應承擔哪些因果責任難以確認。這種復雜的因果關系同時也導致相關法律責任難以被追究,處于行動鏈條的相關行動者甚至難以確定自己是否參與了行動。盧恰諾·弗洛里迪(Luciano Floridi)認為,能動者間的道德中立或道德無關交互活動是一種分布式道德行動(distributed moral action),這類道德行動的道德責任也分布于各成員間,形成分布式道德責任(distributed moral responsibility)[8]。生成式人工智能應用行動的道德責任并不能單獨指向某一個體,生成式人工智能風險是一種集體傷害問題,這種傷害應分散給各類相關能動者。

道德責任不僅限于對過往行為的指責,也是一種規范性責任。由于造成生成式人工智能風險的道德能動者并不唯一,因此需要集體責任概念,這一方面包括造成傷害的因果責任,另一方面也涉及造成傷害后所受的指責,集體責任概念將道德責任的根源定位在這些群體所采取的集體行動中。科技倫理治理將政府、科技人員、企業及利益相關方、社會公眾等作為參與人工智能行動的主要集體實體,涉及應對人工智能風險應該做什么及由誰做的問題,這些集體實體承擔人工智能風險的集體責任,在有關生成式人工智能的責任討論上涉及哲學、法學、管理學等多個學科領域。這種規范性集體道德責任將各類能動者在結構上定位于不同的集體實體范圍內,避免分布式道德責任面臨的責任主體缺失問題[9]。

大多數哲學家在討論集體責任時主要圍繞回溯性集體責任(backward looking collective responsibility)展開,即在傷害發生后追溯道德能動者的責任,近年來他們對所謂的前瞻性集體責任或前瞻性集體道德責任(forward looking collective moral responsibility)的關注度逐漸增加,前瞻性集體責任主要關注能動者應該為彌補傷害或預防傷害發生做什么。生成式人工智能風險的集體責任很大程度上是在討論一種前瞻性集體責任,畢竟這類技術的應用在人類社會中剛剛起步,還并未造成重大傷害。對于人工智能技術的開發者和管理者而言,這顯然是一種集體職責(collective duty),同時開發者有義務讓人工智能技術走向為人類服務的善的方向。對于使用者而言,存在一種更為積極的集體義務(collective obligation),不僅包括對未來科技發展的信任與信心,同時也涉及主動提高自身科學素質、參與并支持人工智能風險治理的集體行動,這都表明人工智能應用本質上是一種集體問題。

2公眾在生成式人工智能應用中的集體責任定位

聯合國教育科學及文化組織發布的《人工智能倫理問題建議書》(Recommendation on the Ethics of Artificial Intelligence)強調了公眾參與在人工智能倫理治理中的重要作用[10]。分析公眾在人工智能應用行動中責任定位的前提是理解公眾如何作為集體來承擔責任、其能動性的基本內涵和公眾參與人工智能風險治理的途徑及集體意義。

2.1公眾的能動性和反身性

責任離不開能動性,有能動性的實體往往是有組織的實體,如政府中相關工作人員的規范性角色嵌入組織結構中,使政府能作為集體能動者行動。克里斯蒂安·李斯特(Christian List)和菲利普·佩蒂特(Philip Pettit)認為能動者是一種系統,有描述其周圍事物如何的表征狀態、確定事物應該如何的動機狀態,以及處理這兩種狀態以在兩者不匹配時便于干預的能力[11]。另外,一定程度的自主性和理性也是成為能動者的必要條件。在人工智能應用及風險治理行動中,將公眾理解為具有能動性的集體實體具有重要意義,他們成為承擔人工智能應用責任的重要一環,將使用者納入責任歸屬的討論中,作為人工智能的使用者,公眾既是能動者,同時也是受動者,呈現一種反身性特征。

作為集體實體,公眾的反身性特征首先體現在其參與生成式人工智能應用的集體行動中。公眾群體中的個體成員不應僅指大部分人工智能普通用戶,還應包括參與人工智能技術發展的開發者及管理者,因為即便是開發者和管理者也并非完全能夠掌握關于人工智能的所有知識,這些人彼此之間呈現一種非獨立的關系,因而一旦出現傷害,也都應承擔相應的因果責任和道德責任。

另外,公眾也是人工智能應用責任關系中的“責任受動者”(responsibility patients),受能動者行動的影響,同時要求能動者能負責任地行動,即能動者被期待并被要求給出其行動理由[12]。公眾在人工智能應用中兼具能動者(并非唯一能動者)和受動者身份,一方面,公眾參與生成式人工智能的應用行動;另一方面,生成式人工智能應用導致的可能風險會影響公眾。值得注意的是,公眾受到的風險危害并非總是完全負面意義的,如生成式人工智能中的數據爬蟲問題反倒可能引發公眾信息隱私意識的覺醒。

2.2義務承擔者:公眾在生成式人工智能行動中的集體意義

自烏爾里希·貝克(Ulrich Beck)首次提出“風險社會”概念以來,伴隨各個領域內技術的極速發展,“風險社會”一詞已被大眾所熟知并接受,“相比于其他個別因素,技術可能性的巨大拓展對吸引公眾關注風險的貢獻巨大”[13]。生成式人工智能技術一經誕生就引發社會公眾的關注,這很大程度上是由公眾對該技術是什么及其未來可能的發展方向不夠明確所致。筆者認為,公眾作為承擔生成式人工智能應用集體責任的集體實體,有主動理解生成式人工智能、提升自身科學素質的集體義務,同時在參與人工智能風險治理行動中,也有促成集體實體采取集體行動的義務。成為承擔責任的道德能動者的前提是知道人們在做什么或已經做了什么,這是風險社會中公眾價值的重要體現。

生成式人工智能技術未來將成為推動社會各領域智能化升級的關鍵動力,將更加深度地融入社會公眾的日常生活中,促進個性化服務、智能制造、虛擬現實等多個領域的進展,這項技術的最終目的是服務于人類的社會生活。阿爾文·托夫勒(Alvin Toffler)曾指出,快速的技術變化將超出正常人的接受能力,必須學會理解和控制變化速度,成為技術進化的主人[14]。社會公眾使用生成式人工智能技術時,無論是直接使用抑或被動參與,都應具備一定的相關知識,這不僅由于面對生成式人工智能技術的發展,公眾對其理解產生分歧繼而導致“人工智能威脅論”盛行,更深層次的原因是公眾本質上既是人工智能應用的能動者,也是人工智能風險的責任承擔者和受動者。筆者認為,公眾理解生成式人工智能的基本內涵是作為集體的公眾對什么是生成式人工智能、生成式人工智能的應用與發展前景、生成式人工智能應用的風險具有一定的認知,認同管理者主導的人工智能風險治理的基本策略。

在生成式人工智能行動中,公眾責任的集體性還體現在促成集體實體采取相關行動上。生成式人工智能技術導致風險傷害的一般原因之一是缺乏相關的責任規范。以生成式人工智能對深度偽造技術領域的影響為例,更加進步的技術模型有能力生成與現實難以區分的視頻、圖像和音頻,越來越多相關的人工智能危害社會現象引發公共輿論、造成社會損失。一方面,政府及監管部門有職責出臺相關法律法規;另一方面,由于技術迭代與應用周期短,較大可能出現規范滯后情形,因此公眾有集體義務促成集體實體采取行動以規避風險。第一,公眾有集體義務促成公眾自身包含的社會成員合作,從群體走向有組織的集體。弗吉尼亞·赫爾德(Virginia Held)提出,有理性的人清楚需要采取什么行動并且當該行動的預期結果明顯有利時,一群人的集合可能因未能合作形成有組織的群體以防止傷害而承擔責任[15]。更加有組織的、對生成式人工智能應用達成更多共識的社會公眾將成為人工智能風險治理的重要力量。第二,公眾有集體義務努力促成政府和其他集體能動者在還未存在有效集體能動性的情景中采取集體行動。公眾既直接處于人工智能應用場景中,也是風險傷害的親歷者,應更為積極地向政府、開發者等能動者反饋傷害,以促進技術和規范責任體系的完善,為多元參與協同互動的“敏捷治理”貢獻力量。

3促進公眾理解生成式人工智能

作為生成式人工智能應用的集體能動者,社會公眾一方面有集體義務積極參與人工智能風險治理,包括主動加強對生成式人工智能知識的認知;另一方面,由于生成式人工智能應用以非正義的社會結構為背景,社會公眾缺乏對生成式人工智能的理解和認知,其根源是信任問題。

3.1生成式人工智能的結構性非正義問題

生成式人工智能應用問題不僅是單個能動者或集體行動的問題,還是一種社會結構問題。導致生成式人工智能風險的因素涉及社會整體的多個層面,在復雜社會網絡中,個人和集體都與權力和利益產生關系。艾麗斯·楊(Iris Young)認為,當社會進程使大批人受到統治或剝奪其發展和行使能力途徑的系統性威脅,同時這些進程使其他人能夠統治或擁有發展和行使能力的廣泛機會時,就會存在結構性非正義(structural injustice)[16]。社會中的所有人都因對社會進程作出因果貢獻而負責。

生成式人工智能的主要結構性非正義在于,人工智能技術應用的成本和收益在全社會及全球不同群體中分布不均,使用生成式人工智能的成本與門檻較高。一些社會群體更容易受到人工智能風險的影響,不同群體對人工智能技術的認知與使用程度將影響其適應能力。在全球企業紛紛布局生成式人工智能的境況下,受益于生成式人工智能的工作者將提高生產力和收入水平,而無法受益的工作者將面臨落后及失業風險。OpenAI公司曾就生成式人工智能的語言大模型對美國勞動力市場的影響予以研究,得出的結論是約80%的美國人在其工作任務中會受到大模型的影響[17]。因此,可大膽預測,這種結構性非正義未來將進一步加劇全球貧富差距,一些從未使用或參與人工智能技術行動的群體可能受到最嚴重的影響,尤其是社會結構中的一些邊緣性群體可能遭受人工智能技術影響下社會結構所產生的大部分風險傷害。另外,生成式人工智能還可能加劇社會結構中原本存在的不正義內容,如算法歧視可能進一步加劇社會性別偏見、種族刻板印象,模型訓練消耗大量能源加劇全球碳不平等。

改善生成式人工智能的結構性非正義有賴于集體行動的形成。人工智能應用問題本身是一種集體行動問題,應對該問題的關鍵在于形成更具有集體性的行動,即集體能動者的行動,或形成有共同目標的合作性聯合行動。政府、企業等集體能動者的行動及合作行動將在改善生成式人工智能的結構性非正義問題上扮演重要角色,同時社會公眾中的個體為實現規避風險的共同目標聯合行動,不僅能形成集體行動,還令社會公眾成為人工智能應用行動中的重要集體能動者。羅賓·鄭(Robin Zheng)認為,個人通過其社會角色對結構性非正義負責,角色是結構和能動性的交匯處,理解這些角色有助于確定個人為什么要負責、對什么負責及應承擔什么義務[18]。在人工智能應用中,個人可能是開發者、管理者、使用者等不同社會角色,抑或存在角色重疊的情形,明晰不同角色的責任定位將有助于改善結構性非正義問題,包括理解社會公眾在生成式人工智能風險治理中的角色責任定位,并在此基礎上促進公眾理解生成式人工智能,確保生成式人工智能的開放包容與公平普惠,推動人類社會能最大限度地共享生成式人工智能帶來的益處。

3.2促進公眾理解生成式人工智能的信任問題與出路

導致生成式人工智能的結構性非正義問題的重要原因之一是社會公眾自身缺乏相關知識,這既是一個科學傳播和教育問題,也涉及公眾對科技的態度。筆者認為,促進公眾理解生成式人工智能并不能簡單停留于科普層面,更重要的是培養公眾的認知主動性。負責任地行事不僅要求作為能動者的公眾知道自己在做什么,同時公眾也要對人工智能技術的未來發展持有自己的理性態度。

促進公眾理解科學、提升公眾科學素質一直以來都被視為科學傳播領域的核心主題,筆者認為,促進公眾理解生成式人工智能面臨的主要科學傳播困境是生成式人工智能的開發者、使用者和管理者間缺乏知識性互動,未能將個體的科學素質以一種集體行動方式表達。作為新一代人工智能技術,生成式人工智能的基礎性知識還未在公眾中普及,公眾對人工智能的理解大多停留在語音識別等弱人工智能應用層面,人工智能科普教育亟待推進。以往對社會層面科學素質的討論僅關注個體的聚合,未能有效檢視社會結構,如不同社會群體科學素質的差異分布情況對科學素質水平的影響等。事實上,提升社會層面科學素質的關鍵不是使各類群體的科學素質達到統一水平,普通民眾很難且不必精通人工智能的所有相關知識,而是不同科學素質水平的群體能協同行動,特別是增強開發者和使用者間的知識性互動,以超越個體科學素質之總和的方式展現國家或全社會的科學素質水平[19]。另外,生成式人工智能的監管與治理需要積極鼓勵并推進開發者和使用者的參與跟互動,一方面向公眾普及使用生成式人工智能服務的規范,另一方面鼓勵科學家參與人工智能科普,特別是要積極解決人工智能科普資源的分配不均衡問題,避免導致或加劇未來生成式人工智能應用的結構性非正義問題。

促進公眾理解生成式人工智能,增強開發者和使用者間的知識性互動,其中科學家能否與公眾良好互動是重要內容,也是促進科技發展的關鍵。然而,面對科技問題,社會人群傾向于產生分歧而非在很大程度上達成共識,人工智能與人類關系就是典型例子。人工智能威脅論盛行的通常解釋是公眾的相關知識不足,如果能夠彌補不足,比如將人工智能素質教育納入基礎教育至高等教育的各個環節,公眾就更可能與科學界保持一致。迪特里姆·舍費爾(Dietram Scheufele)認為這類進路并未觸及問題的根源,“根本問題不在于知識缺失,而在于信任缺失。民眾只有更信任科學家,才能更信任科學研究”[20]。劉永謀指出:“要維護技術專家與大眾之間的信任,警惕此種信任的衰落甚至消失。”[21]信任是維持科學傳播向好態勢的關鍵因素。同時,促進公眾理解生成式人工智能亟待在社會公眾與發展負責任人工智能間建立信任關系,讓公眾相信人工智能技術的良性發展圖景。然而,信任負責任人工智能的發展并不等于盲目相信開發者和管理者的發展及應用策略取向,公眾作為集體能動者和風險受動者,就新技術的迭代和應用應當展開更為廣泛的討論,積極參與人工智能風險治理行動。

此外,由于社會公眾的價值觀或文化背景存在差異,建立公眾對發展負責任人工智能的信任關系可能面臨公眾難以就“負責任人工智能應該是什么”達成共識這一情形。OpenAI公司發布的人工智能文生視頻大模型Sora具有強大的圖像視頻生成能力,改變了人們“眼見為實”的傳統觀念,但不同價值觀下的公眾成員卻對此產品持有不同態度,存在追求更多可能性和維護真實世界間的價值觀沖突。因此,促進公眾理解生成式人工智能的重要內容之一應該是促成社會公眾就生成式人工智能的發展和應用達成較為一致的價值觀,特別是在生成式人工智能全球大發展的背景下,促成此種價值觀的一致性將更具有集體意義。2023年世界互聯網大會發布《發展負責任的生成式人工智能研究報告及共識文件》,提出發展負責任的生成式人工智能共識,強調增進人類福祉,堅持以人為本,推動人類經濟、社會和生態可持續發展的價值宗旨[22]。

促成公眾形成較為一致的價值觀,以保證公眾對發展負責任人工智能的信任,并非完全不允許不同的價值觀存在。閆宏秀認為,一種更為審慎的信任關系應當是在解析價值觀差異的基礎上,尋找不信任的價值觀基礎,繼而構建關于負責任人工智能的共識[23]。筆者認為,不同價值觀的存在有利于保證公眾對人工智能持有理性態度,但需要建構信任負責任人工智能的基本價值觀,即生成式人工智能的發展和應用應當為社會帶來更多的益處。公眾在確立這種基本信任關系的前提下,將更加主動地加強對生成式人工智能的認知學習,提升自身科學素質,不僅在有關人工智能的科學知識方面得到提升,還能借助對人工智能的學習,掌握基本科學方法,培養科學思維,形成崇尚科學的精神和科技向善的價值觀,繼而作為集體能動者積極承擔參與人工智能風險治理的集體義務。

4結論

傳統個人倫理框架難以較好地呈現生成式人工智能應用問題中的集體內容,生成式人工智能應用問題的集體本質意味著該問題必須通過集體行動來解決,集體責任無法在完整意義上轉化為個體責任。我國發布的《新一代人工智能治理原則——發展負責任的人工智能》將研發者、使用者和受用者“共擔責任”作為人工智能治理原則之一[24]。其中,既是使用者也是受用者的社會公眾不僅要承擔人工智能應用的集體責任,還要積極承擔人工智能風險治理的集體義務。生成式人工智能應用問題還是一種結構性非正義問題,促進公眾理解生成式人工智能并在此基礎上形成集體行動有利于改善這種情形。然而,促進公眾理解生成式人工智能面臨科學傳播困境,解決該問題有賴于建立公眾對負責任人工智能發展的信任關系。

整體來看,生成式人工智能涉及的倫理治理問題亟待從個人倫理走向集體倫理,一種生成式人工智能應用的前瞻性集體道德責任框架亟待建構。作為集體能動者和受動者的社會公眾在生成式人工智能發展和應用進程中應當發揮重要作用,在主動提升自身科學素質的同時積極參與人工智能風險治理行動。正如劉大椿所言:“科技發展所帶來的四海一家的情勢,則促使人們進一步發展一種具有大同世界胸襟的新型集體倫理……新型集體倫理將更加強調人類普遍共識基礎上的共同行動,只有這樣,才可能實現整體的永續發展。”[25]

參考文獻

中國網信網. 生成式人工智能服務管理暫行辦法 [EB/OL].(2023-07-13)[2024-01-07]. https://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm.

Schwenkenbecher A. Structural Injustice and Massively Shared Obligations[J]. Journal of Applied Philosophy,2021,38(1):3.

李艷燕,鄭婭峰. 生成式人工智能的教育應用 [J]. 人民論壇,2013(23):70.

Nefsky J. Collective Harm and the Inefficacy Problem[J]. Philosophy Compass 14 (4):e12587.

Thompson D F. Moral Responsibility of Public Officials:The Problem of Many Hands[J]. The American Political Science Review,1980,74(4):905-916.

段偉文. 準確研判生成式人工智能的社會倫理風險 [J]. 中國黨政干部論壇,2023(4):76-77.

袁曾. 生成式人工智能的責任能力研究 [J]. 東方法學,2023(3):18-33.

Floridi L. Distributed Morality in an Information Society [J]. Science and Engineering Ethics,2013,19 (3):727-743.

閆宏秀. 數據時代的道德責任解析:從信任到結構 [J]. 探索與爭鳴,2022(4):37-46.

聯合國教科文組織. 人工智能倫理問題建議書 [EB/OL].(2021-11-24)[2023-12-08]. https://unesdoc.unesco.org/ark:/48223/pf0000380455_chi.

List C,Pettit P. Group Agency:The Possibility,Design,and Status of Corporate Agents[M]. Oxford:Oxford University,2011:20.

Coeckelbergh M. Artificial Intelligence,Responsibility Attribution,and a Relational Justification of Explainability[J]. Science and Engineering Ethics,2020,26 (4):2061.

尼可拉斯·盧曼. 風險社會學 [M]. 孫一洲,譯.南寧:廣西人民出版社,2020:127.

阿爾文·托夫勒. 未來的沖擊 [M]. 蔡伸章,譯.北京:中信出版社,2018.

Held V. Can a Random Collection of Individuals be Morally Responsible? [J]. The Journal of Philosophy,1970,67(14):476.

Young I. Responsibility for Justice[M]. New York:Oxford University Press,2011:52.

Eloundou T,Manning S,Mishkin P,et al. GPTs are GPTs:An Early Look at the Labor Market Impact Potential of Large Language Models[J]. arXiv Preprint arxiv:2303.10130,2023.

Zheng R. What is My Role in Changing the System? A New Model of Responsibility for Structural Injustice[J]. Ethical Theory and Moral Practice,2018(21):869-885.

凱瑟琳·E.斯諾,肯妮·A.迪布納. 科學素養:概念、情境與影響 [M]. 裴新寧,鄭太妍,譯.北京:中國科學技術出版社,2020:74-85.

迪特里姆·舍費爾,游文娟. 公眾如何理解科學 [J]. 科學與社會,2023(5):56.

劉永謀. 專家與大眾:人們為何對專家不滿? [J]. 科學傳播,2023(3):24.

世界互聯網大會人工智能工作組. 發展負責任的生成式人工智能研究報告及共識文件 [EB/OL].(2023-11-09)[2024-01-07]. https://cn.wicinternet.org/2023-11/09/content_36952741.htm.

閆宏秀. 負責任人工智能的信任模塑:從理念到實踐 [J]. 云南社會科學. 2023(4):45-46.

國家新一代人工智能治理專業委員會. 新一代人工智能治理原則——發展負責任的人工智能[EB/OL].(2019-06-17)[2023-12-08]. https://www.most.gov.cn/kjbgz/201906/t20190617_147107.html.

劉大椿. 科技倫理建構的新路徑[N/OL]. 光明日報,2023-06-05(15) [2023-12-17]. https://epaper.gmw.cn/gmrb/html/2023-06/05/nbs.D110000gmrb_15.htm.

(編輯 "顏 " "燕 " "荊祎瀾)

主站蜘蛛池模板: 乱人伦99久久| 韩日免费小视频| 欧美日韩国产精品综合| 久久久久久久久18禁秘| 欧美天堂久久| 喷潮白浆直流在线播放| 国产精品流白浆在线观看| 国产人成网线在线播放va| 国产杨幂丝袜av在线播放| 无码丝袜人妻| 午夜国产小视频| igao国产精品| 免费看的一级毛片| 成年人国产网站| 亚洲色图综合在线| 亚洲区一区| 国产毛片高清一级国语 | 伊人蕉久影院| 国产精品成人不卡在线观看| 国内精品九九久久久精品| 国产欧美日韩精品第二区| 香蕉在线视频网站| 国产精品.com| 亚洲无线国产观看| 九九九久久国产精品| 99久久国产综合精品2020| 人妻中文字幕无码久久一区| 国产成年女人特黄特色大片免费| 亚洲一区网站| 在线欧美日韩| 亚洲中文字幕久久无码精品A| 日韩在线第三页| 日韩黄色大片免费看| 免费全部高H视频无码无遮掩| 欧美黄网在线| 国产精品香蕉在线| 乱人伦中文视频在线观看免费| 在线看免费无码av天堂的| 色婷婷丁香| 国产一级毛片高清完整视频版| 欧美午夜久久| av大片在线无码免费| 熟女成人国产精品视频| 亚洲第一黄片大全| 狠狠综合久久| 国禁国产you女视频网站| 一本一道波多野结衣一区二区 | 色综合天天操| A级毛片高清免费视频就| 欧美在线伊人| 亚洲精品片911| 亚洲男人在线| 欧美日韩亚洲国产主播第一区| 亚洲 欧美 日韩综合一区| 亚洲大尺码专区影院| 亚洲国产中文在线二区三区免| 日韩精品亚洲人旧成在线| 国内精品九九久久久精品| 国产精品九九视频| 国产成熟女人性满足视频| 免费在线看黄网址| 欧洲极品无码一区二区三区| 色综合久久无码网| 天堂在线www网亚洲| 四虎亚洲精品| 国产成人精品三级| 亚洲天堂视频网站| 欧美黑人欧美精品刺激| 午夜在线不卡| 日韩国产黄色网站| 亚洲中文字幕久久无码精品A| 天堂岛国av无码免费无禁网站| 国产精品久久久久久久伊一| 国内嫩模私拍精品视频| 亚洲一区毛片| 无码免费视频| 自偷自拍三级全三级视频 | 欧美亚洲网| 潮喷在线无码白浆| 久久99蜜桃精品久久久久小说| 国产男女XX00免费观看| 亚洲人成在线精品|