999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能的倫理困境及其法治化解決路徑

2024-10-09 00:00:00魏龍凡
知與行 2024年3期

[摘要]ChatGPT等大語言模型的出現掀起了新一輪的人工智能發展狂潮。人工智能的發展對傳統社會秩序和社會道德體系產生了強烈的沖擊。在人機關系層面,人工智能在法律、醫療、教育等領域的廣泛應用也對人類的“主體性”產生了威脅。這些不同層面的倫理困境阻礙人工智能的進一步發展以及社會進步。現階段人工智能治理缺乏具有影響力的國際行業規范。與此同時,在技術發展過程中人的價值在一定程度上被迫讓位于科技價值。人工智能發展如何走出“科林格里奇”困境仍然充滿挑戰。因此,我國必須以人本主義的核心立場去審視人機關系,推動構建國際性人工智能行業規范,探索如何用法治化的手段走出人工智能發展的倫理困境,最終達到科技進步與保障人類福祉的平衡。

[關鍵詞]人工智能倫理;人機關系;人工智能法治化

[中圖分類號]D90[文獻標志碼]A[文章編號]2096-1308(2024)03-0066-11

早期的人工智能研究主要集中于創建能夠模仿人類解決問題技能的程序,如紐厄爾和西蒙等邏輯理論家。這些基礎研究為AI設定了核心目標——創造能夠復制人類智能方面的機器。20世紀80年代向機器學習的轉變代表了從基于規則到基于數據的方法的范式變化。21世紀初深度學習的出現,將AI帶入了應用性時代。而近幾年生成式人工智能的出現更是將人工智能的發展推到一個新的頂峰,2022年11月30日,OpenAI發布了ChatGPT,不足兩年時間OpenAI推出的生成式視頻人工智能模型Sora再次成為全球關注的焦點。Sora能將文字、圖像、音頻等信息轉化為逼真的視頻,讓人嘆為觀止。從人工智能技術驅動的自然語言處理工具ChatGPT到如今的Sora,從自動生成文字、圖片,再到自動生成視頻,短短幾年時間人工智能基于大語言模型技術所迸發出的顛覆性的創造力讓人驚呼震撼。與此同時,在人工智能高速迭代的背景下,人工智能的倫理問題也層出不窮。例如,新型的違法犯罪案件、人機沖突帶來的人類主體性的缺失、人工智能的道德危機等。由此可見,人工智能的倫理困境,成為人們亟須解決的現實問題。

本文將歸納人工智能倫理困境的現實樣態,分析人工智能倫理困境出現的成因,探索中國特色法治化人工智能倫理困境解決進路。

一、人工智能的倫理困境

2023年10月,中國發布了《全球人工智能治理倡議》,圍繞人工智能發展、安全、治理三方面系統闡述了中國關于人工智能治理的方案,具體包括在人工智能治理方面堅持倫理先行,建立并完善系統的人工智能治理準則、規范及相應的問責機制。倫理觀念影響法律規范所體現的價值和指引的方向,因此在人工智能治理和規制的過程中需要“倫理先行”,在明確倫理困境的基礎上再進行具體的法治化探索。人工智能的倫理困境主要包括社會倫理困境和對于人類“主體性”的沖擊。

(一)人工智能對社會規則體系的沖擊

社會倫理主要是指在社會生活中調節人與人、人與社會之間的道德規范和準則體系。社會規則體系是社會倫理的制度化表達。而人工智能對社會規則體系的沖擊主要表現在對社會法律秩序的挑戰和重塑以及對于就業的影響。

1.人工智能應用中的法律挑戰

在民商法律方面,人工智能的應用目前最突出的問題體現在個人隱私和數據安全方面。在人工智能系統中,海量的數據被用于訓練算法模型,以提高人工智能的實踐表現。然而,如果那些個人敏感信息被錯誤處理,則必然損害個人權益。2024年2月,斯坦福大學發布的白皮書《反思人工智能時代的隱私問題——針對“以數據為中心”世界的政策建議》指出隱私和數據保護框架無法擴展,讓個人在數百甚至數千個數字關系和渠道中承擔管理其數據的主要責任,無法成功保護個人隱私,也無法化解人口或社會層面的隱私風險和危害。

以ChatGPT為代表的新一代生成式人工智能應用于各種藝術創作領域,人工智能生成內容(AIGC)在外觀形式上高度趨同于人類作者創作的作品,受限于AIGC創作主體認定的困境,也引發了AIGC“作品”屬性的爭議。人工智能決策的責任歸屬也是一個難題。由于人工智能系統的決策往往基于復雜的算法和模型,這些算法的運作方式往往是不透明的,缺乏解釋性。[1]

在人工智能產品侵權案件中,責任認定往往出現多種責任競合。因為人工智能具有智能性的特點,使用者在使用人工智能產品的時候,更多的是選擇人工智能運行模式或基本設定。因此,導致人工智能在使用過程中往往無法由使用者作出預先判斷,并加以干涉。而使用者在使用人工智能產品的過程中出現侵權行為時,就會產生侵權責任與產品責任的競合。因為同時涉及使用者與研發者、運營者共同侵權的可能性,兩種責任的區分將變得困難。

在刑事法律方面,生成式人工智能因其“類人性”強,極易引起非法侵入計算機信息系統罪、破壞計算機信息系統罪等。例如,“山寨版”ChatGPT會產生惡意鏈接,用戶按照指令點擊后,惡意軟件會攻擊用戶電腦設備、入侵用戶特定的計算機系統、非法獲取用戶的個人隱私數據。生成式人工智能憑借自身的海量數據,通過深度學習形成非法對話內容,用戶在進行特定主題對話時,更容易獲取違法犯罪信息。另外,在刑事司法中,使用人工智能司法工具容易出現“算法黑箱”和“數字鴻溝”,從而影響司法的公平公正,降低司法機關的公信力。

2.人工智能司法工具的價值判斷困境

一方面,傳統的司法三段論的法學方法論模式是大前提—小前提—結論。法官在作出司法裁判的過程中,自由心證過程是包含價值判斷的。人工智能司法裁判在進行價值權衡時是依據海量數據形成的規則模型,但是人工智能如何對這些海量的司法數據進行分析與判斷是廣泛存在于各國法律人工智能發展過程中的難題。另一方面,從當前人工智能技術發展的現狀來看,人工智能司法很容易會被社會政治因素“控制”,從而滑向另一個深淵。

當前人工智能技術在我國司法裁判的價值判斷過程中的應用主要存在四個方面的障礙:

第一,司法數據不充分。我國各級法院的大量裁判文書并沒有在裁判文書網上予以公布,裁判者在進行案件的審理和裁判活動中所運用的自由心證過程無法體現在已經發布的裁判文書中。

第二,司法數據的真實性存在疑問。在現實中存在公開司法文書中的裁判理由與法官在審判過程中實際的裁判理由存在很大出入的情況。

第三,司法數據存在主觀性。不同地區的法官甚至同一地區的不同法官在面對同樣的案件時可能有不同的處理結果,這也決定了公開的裁判信息具有主觀性。

第四,司法數據缺乏文本上的統一性。全國各地基于現實情況的差異,公開的裁判文書中的司法數據在文本上可能存在很大差異,這種差異性體現在人工智能司法上就會導致人工智能識別困難。[2]這些司法數據方面的問題,成為對人工智能進行正確司法價值判斷的阻礙。人工智能系統是在大量數據集上訓練的,這些數據集可能會受到歷史偏見的影響,而人工智能的機械客觀性可能通過“技術清洗” 讓這些偏見不易被發現,因此也在某種程度上強化了偏見,影響決策的公正性。[3]事實上,在其他國家,這種數據方面的技術障礙也同樣存在。

這種數據的不充分和不“完美”就導致人工智能在進行司法裁判過程中只能進行一些簡單的價值判斷,但是面對復雜多樣的現實案件,僅僅具有簡單價值判斷的能力是完全不夠的。公正的司法裁判要求的顯然更多。

人工智能應用于司法很容易使司法成為政治歧視的工具。以美國部分州法院使用的再犯危險性智能評估工具 COMPAS為例,COMPAS曾經對一名黑人女性

Brisha Borden和一名白人男性Vernon Prater進行社會危險性打分,Brisha Borden因為四次青少年時期的違法行為被判定危險系數為7(high risk),而Vernon Prater則以兩次武裝搶劫既遂,一次武裝搶劫未遂,一次攜帶兇器盜竊被判定危險系數為3(low risk),而后Brisha Borden與Vernon Prater均因犯罪被捕,Brisha Borden因社會危險性系數高被判定為重罪。法院這一判決也使開發COMPAS的公司因種族歧視問題被調查。

這種人種的歧視,其實是美國社會種族歧視問題折射到司法領域的體現。與傳統法官裁判不同,人工智能進行司法裁判的速度非常快,在一定程度上稀釋了法律程序在司法裁判過程中的作用。如果人工智能被廣泛應用于司法的各個環節,那么可以預見的是這種“歧視”將很難被監督,而且很難進行侵害彌補。對于人工智能是否可以追責是一個值得研究的問題,但是就目前人類認知水平來看,人工智能在適用司法過程中產生的侵害,很難通過傳統的救濟手段進行調整。最終,司法的“歧視”很可能會在人工智能的“掩護”下全身而退。

3.人工智能對現有就業結構和模式的沖擊

2024年5月14日,國際貨幣基金組織總裁表示,未來兩年,對于發達經濟體而言,人工智能可能會影響60%的工作崗位;而對于全球所有國家而言,人工智能將會沖擊40%的工作崗位,以教育和法律行業為例。

基于大語言模型的生成式人工智能教育工具的革命極大地改變著知識傳播的途徑。學習空間從線下更多地轉移到線上,從“有形”逐漸變為“無形”。試想有一個百科全書式的“老師”24小時在你書桌旁守候,你關于所有領域的問題都能得到他的解答,這樣的學習模式是不是完全顛覆了以往?事實上ChatGPT技術已經讓這種想象成為現實。首批11家國產大語言模型已經通過國家監管部門備案。[4]生成式人工智能的文本生成、語言理解、知識問答、邏輯推理等方面能力對于教育教學具有極大的應用潛力和價值。[5]

在法學教育的培養目標層面,生成式人工智能的加速迭代,也向傳統的法律實務工作和法學研究工作提出了新的要求。法學教育所培養的法律人才需要具備應對人工智能沖擊的更高層次的技能。

人工智能相比一般律師有以下優點:第一,即時處理海量的數據并給出結論;第二,永不疲倦并且可以隨時工作;第三,無非理性因素的影響,更加中立和客觀;第四,能夠最大限度地避免錯誤的發生。目前來看,人工智能對一些初級工作和重復性工作具有明顯的替代作用,這就意味著未來會有相當多的律師,特別是初級律師會失去工作。高端法律工作者利用人工智能的能力將成為其核心競爭力的重要組成部分。可以預見,精通使用生成式人工智能技術來協助法律研究和分析的“超級律師”可能會更受歡迎,因為他們能夠為客戶提供更準確和全面的法律建議。[6]

而人工智能對于法律共同體就業的影響只是其具有代表性的“冰山一角”。事實上,除了已經消失的一些傳統崗位,所有重復性強、規律性高、標準化的工作在不遠的將來都會走向“末路”。

(二)人工智能對社會道德體系的沖擊

道德不僅體現在人們社會生活的方式中,而且部分構成人們社會生活的方式[7],人工智能的廣泛應用可能導致道德的虛無化以及對人的本質帶來挑戰。[8]這種道德危機會動搖人類社會原有秩序的情感基礎,從而使社會走向不可控。

道德的虛無化是指人工智能使人類脫離實踐的人際關系,從而失去道德發生的情感因素來源。道德是一種實踐理性,是人與人在社會交往過程中所產生的用于規范人的行為和調節人們之間關系的準則與規范。在人工智能時代,人的傳統社會聯系減少,人們更多的是通過人工智能工具交流,甚至直接與人工智能工具交流。目前,我們熟知的AI對話工具,百度的文心一言、阿里的通義千問、ChatGPT、微軟Copilot、谷歌Gemini等都得到了不錯的市場反應。隨著生成式人工智能的迅速迭代,其情感溝通能力會更加接近真實的人類對話。而缺乏真實社會人際交往,人類道德也會逐漸發生異化,并且在缺乏監管的“網絡世界”,人的道德會更難以受到制約。

與此同時,人工智能時代,人類以“數字人”的形式存在于社會,同時與“機器的智能”共存。人類也會產生對于人的主體性的懷疑。馬克思主義哲學認為,勞動是人的本質。通過勞動人得以實現價值,也正是勞動將人與其他生物區分開來。但是,人工智能的大規模運用會造成大量的“無用階級”[9],也就是說,不遠的將來人工智能會代替人類從事大量的工作,社會生產力因此得到極大發展,人類不用付出勞動即可獲得體面的生活。這也就是人工智能專家所鼓吹的人工智能積極性的根本立足點。但是,假如這一天真的到來,“無用階級”勢必會成為社會的大多數,到時又如何控制人類因本質迷失所帶來的道德的“潰堤”?這是很多人工智能研究者不愿意正面回答的問題。

(三)人工智能對人類主體性的挑戰

AI按照功能可以籠統地分為兩類:專用人工智能(簡稱 AXI)和通用人工智能(簡稱AGI),前者側重對“智能”行為外在的模擬,后者的技術路徑則致力實現機器內在的思維和情感,也就是讓機器像人一樣“思考”。我們已接觸過許多專用人工智能的例子,如AlphaGo和ChatGPT,AXI非常擅長完成特定的任務,但是缺乏在相當狹窄的領域之外應用其資源的能力。而AGI的圖景尚未降臨,理想中的AGI具備符合人類情感與倫理道德的觀念,能做到自主化感知、學習,甚至進行社會協作,這幾乎就是對人類的要求。目前,AGI因為數據、泛化、技術方面的瓶頸,在技術上尚且沒有被攻克。與此同時,僅從社會需求角度而言,AGI產品產生之后是否會被投入使用,仍然面臨許多倫理困境,其中最大的爭議就是其是否能夠取代人類的“主體性”地位。

馬克思主義反對就人的本質進行抽象預設和簡化還原,主張將人置于由生產力與生產關系、經濟基礎與上層建筑構成的社會結構之中進行考察,揭示人的多重本質及動態發展性。[10]隨著人工智能在教育、醫療、建筑、法律等行業的廣泛使用,人的主體地位在一些腦力和體力勞動中被淡化,而人工智能的使用又不能顯著提升社會整體生產力水平,ChatGPT等生成式人工智能的快速發展引起社會各界對相關行業的就業問題的擔憂。有學者坦言,在AI時代,社會整體之間的真實的命運共同體可能更難以形成,相反人類可能陷入更大的分裂。

如果說社會層面的問題還不是人工智能的人機關系沖突所亟須面對的問題,那么人工智能的主體性問題則是迫切需要重視的問題。國家網信辦聯合七部門于2023年7月10日聯合公布的《生成式人工智能服務管理暫行辦法》,也僅就技術發展與治理、服務規范、監督等環節作出規定。目前,國際社會也并沒有就人工智能的主體地位達成共識。

AI 是模擬、延伸和擴展人類智能的機器。[11]人類需要意識到,人工智能只是我們創造出來的工具,它應該為我們服務,而不是成為我們的敵人。

二、人工智能倫理困境多重歸因

人工智能之所以在發展過程中產生如上倫理困境,一方面是因為人工智能技術的飛速發展,法律出現了一定程度的滯后性;另一方面,過度的控制也導致人工智能技術發展全球范圍內的不平衡。另外,討論人工智能的倫理問題的前提是人們對人機關系的認知問題,人們對人機關系的認知狀況直接決定了其對人工智能社會倫理困境與規制方向的判斷。[12]對于人機關系的認知爭議,也導致相關國際性準則的缺失。

(一)人工智能技術發展的“科林格里奇”困境

科林格里奇困境,簡單來說就是技術發展的雙刃劍效應。一方面,我們擔心技術的不良后果而過早實施控制,可能會阻礙技術的發展;另一方面,如果對于技術發展的管控遲緩,技術已經深入到社會生活的方方面面,再想解決由技術產生的各種問題就變得困難且成本高昂。

伴隨著人工智能的飛速發展,2021年11月,聯合國教科文組織發布的《人工智能倫理問題建議書》規定了四項基本價值觀,即明確尊重、保護和促進人權和基本自由以及人的尊嚴。2021年,美國正式頒布《2020年國家人工智能倡議法案》,其目的是保證美國在人工智能領域長期處于世界的引領者地位,強調要進一步強化和協調國防、情報界與民用聯邦機構之間的人工智能研發活動,同時美國還設立了國家人工智能倡議辦公室,具體推動國家人工智能戰略的實施。此外一些聯邦機構和地方政府也針對特定領域發布了政策文件和地方性立法。2024年2月,歐盟通過了《人工智能法案》,這是全球第一部對于人工智能進行監管的綜合性法律。整體來看,世界各國對于人工智能發展的立法側重點不同,而人工智能作為各國綜合國力競爭的主陣地,關于對于人工智能進行監管的全球性法律出現較晚,導致在人工智能發展早期處于“野蠻生長”的狀態。

以輿論討論最熱烈的生成式人工智能ChatGPT為例。第一代GPT模型于2018年產生,已經是一種強大的語言理解模型。雖然它在判斷句子語義關系、文本分類、問答和常識推理方面表現出色,但不適合作為對話式AI模型,并且參數數量相對較少。而經過短短五年的更新迭代,最新的GPT-4于2023年3月14日發布,不再大規模增加參數,而是著重提升利用現有數據的能力。它的準確度比前一版本提高了40%,主要用于整理和搜索網絡信息,還支持視覺輸入和圖像識別。這使得GPT-4能夠完成更具實踐性的任務,如圖像故事生成等。人工智能技術的飛速發展讓規范的制定陷入兩難境地:一方面,如果限制過寬,則很難切實解決人工智能應用過程中所產生的負面影響;另一方面,如果限制過嚴,則不適應人工智能技術蓬勃發展的現狀。

(二)人機交互過程中人機地位的國際性準則缺失

生成式AI是目前人工智能發展的技術前沿,以 ChatGPT 為代表的生成式 AI 的崛起是人工智能領域的一次重大變革,也可能成為由專用性人工智能轉向通用性人工智能的關鍵轉折點。[13]針對生成式人工智能人機交互過程中所產生的人機沖突以及道德困境,目前國際社會缺乏統一的共識。

整體來看,大部分國家有關人工智能的立法還是以原則性的規定為主,但是各國立法側重不同。歐洲立法最為超前,特別關注對高風險人工智能系統的劃分和限制;美國立法是在鼓勵行業發展和創新的前提下,對特定領域進行規范;印度選擇暫緩監管;中國則是在數字社會的整體治理框架下,對產業發展較為成熟的領域進行了規范。國際社會在人機交互過程中人與人工智能產品的關系問題,尚未形成國際共識。

(三)人機交互過程中人的價值遭到忽視

為了保證 ChatGPT 輸出信息的正確性 ,OpenAI 在訓練過程中采用了“人類反饋強化學習”(reinforcement learning from human feedback,RLHF)的思路[14],這也為生成式人工智能注入了設計者以及開發者的主觀意識。而這些技術開發的最終目的必然服務于資本市場。資本必然以盈利為目的,所以人工智能開發的底層邏輯是否有利于人的價值的實現有待考慮。

OpenAI公司首席執行官Sam Altman認為:OpenAI是“人類用的工具”,不是在創造生物;而人類充滿偏見卻往往不自知。人工智能是人類科技樹上的新工具,人類沒必要害怕超級智能的人工智能,每個新模型的缺點也是它們持續迭代的動力,與未來的模型相比,每個新模型都被認為能力不足,進而推動了持續的改進。可見,人工智能研發領域也沒有足夠動力在人工智能產品研發上對人機關系中人的主體性地位做太多努力。

馬克思主義認為,人的價值在于對社會的貢獻。人工智能時代,人工智能在一些領域剝奪了人類的勞動機會,并且逐漸使人類減少了產生良好道德的社會人際交往場景。人工智能的出現會進一步鞏固資本的統治,不斷削弱勞動者在勞動中的主動性,使其成為智能網絡的“神經末梢”,任何勞動個體不再具備不可替代性,只能以降低自身勞動成本的形式換取勞動機會。[15]而這種對人的價值的忽視會隨著生成式人工智能的迅速迭代,更加明顯地表現在社會領域。

三、人工智能倫理困境的法治化解決路徑

基于對人工智能倫理困境的反思與展望,借鑒歐盟、美國等先進國家及國家組織的治理經驗,結合我國國情,提出適應我國人工智能發展現狀的法治化解決路徑。

(一)加強人工智能風險分類分級立法和監管

2024年3月13日,歐盟議會審議通過《人工智能法案》(EU AI Act),標志著全球人工智能領域監管邁入全新時代?;谌斯ぶ悄艿牟煌该餍?、復雜性、對數據的依賴性、自主行為性等特征,《人工智能法案》將人工智能的風險等級區分為“不可接受”、“高”、“中”以及“低”四個風險等級。這一分類決定了相關企業需遵守的義務程度,其中風險級別越高,合規要求越嚴格。特別是處于高風險類別的人工智能提供商,在對外提供服務之前,必須進行徹底的風險評估,并確保其產品完全符合法規要求。違規企業將面臨嚴厲的經濟處罰,罰款范圍介于750萬~3 500萬歐元(相當于820萬~3 820萬美元),具體罰金額度將基于侵權行為的性質及企業規模決定。

我國于2023年7月10日公布的《生成式人工智能服務管理暫行辦法》第四章第六條第二款規定國家有關主管部門針對生成式人工智能技術特點及其在有關行業和領域的服務應用,完善與創新發展相適應的科學監管方式,制定相應的分類分級監管規則或者指引。由此可見,目前我國立法并沒有對基于生成式人工智能服務可能存在不同等級風險進行詳盡的分類分級治理,這種“一刀切”的做法,一方面會導致高風險的生成式人工智能服務產生的大量法律問題不能及時得到解決,另一方面又會阻礙低風險的生成式人工智能服務的正常發展,遲滯技術進步的腳步。[16]

我國可以根據人工智能的算法透明性、數據依賴性、對經濟社會的依賴性來劃分人工智能風險等級,通過立法落實相應風險等級,為人工智能發展設立方向標。

同時,加強對人工智能發展的監管,嚴格按照法律法規所劃分的風險等級進行“敏捷治理”,加強公眾對國產人工智能設備的信任度。

(二)推動國際性人工智能行業規范的形成

構建人工智能倫理風險的全面治理體系,需要多方的參與,其中人工智能行業作為技術的創造者與產品的生產者,承擔著重要的倫理責任。推動國際性人工智能行業規范的形成對促進人工智能技術健康發展,保障技術的安全性和可靠性具有深遠意義。

生成式人工智能由人研發,亦為人所用。倘若生成式人工智能應用過程中引發了倫理危機,應當依照有關規定追究相關主體的倫理責任,維護生成式人工智能應用的人本主義立場。[17]與此同時,合理地規范人工智能應用的研發也是解決人工智能倫理困境的重要途徑。隨著世界范圍內人工智能技術的快速發展,基于預防風險以及解決人工智能產品危機的需要,制定國際性的人工智能行業規范成為大勢所趨。而如今不論是歐洲委員會、經濟合作與發展組織(OECD)、歐盟,還是人工智能全球伙伴關系(GPAI),都未能制定出適用范圍廣、實踐性強、具有強約束力的國際性人工智能行業規范。

而國際性人工智能行業規范的形成確實充滿阻礙?;趪H間政治、經濟、文化、科技發展水平的巨大差異,成立類似于聯合國政府間氣候變化委員會(IPCC)這樣的開放性人工智能治理政府間機構并實際起到作用,顯得越來越困難。因此,我國應立足本國人工智能發展現狀,加強人工智能行業規范的制定和完善,在促進我國人工智能行業有序健康發展的同時,為國際社會提供可供參考的實踐范本。

我國高度重視人工智能行業的發展,針對人工智能行業發展過程中的現實困境,一方面,要繼續完善人工智能生產開發責任法律規范,加大對違反國家新一代人工智能治理專業委員會發布的《新一代人工智能倫理規范》的開發行為處罰力度。另一方面,鼓勵支持更多的法學專家以及法律實務工作人員參與到人工智能產品的開發和設計中。

(三)落實憲法對人機關系中人的主體性的回應

目前,我國在立法層面對于人機關系中人的主體性地位缺乏明確回應。《生成式人工智能服務管理暫行辦法》規定了一系列行為規則,如遵守堅持社會主義核心價值觀、采取有效措施防止歧視、依法開展預訓練、優化訓練數據處理活動、制定技術研發過程中的數據標注規則等。[18]目前,我國已頒布的人工智能法律規范性文件中包含了對于個體主體性的尊重和保護,但都未明確人機關系中人的地位。中央網信辦于2023年10月18日發布的《全球人工智能治理倡議》指出:發展人工智能應堅持“以人為本”的理念,以增進人類共同福祉為目標。這體現了我國在人工智能領域始終堅持“以人為本”的理念。

科技領域中的國家干預行為是保障生命健康與科研自由基本權利,落實發展科技事業任務,滿足風險防范現實需求的關鍵。[19]我國《憲法》并沒有直接涉及人機關系中人的主體性地位的規定。隨著人工智能技術的快速迭代,特別是擁有深度學習能力的生成式人工智能的進一步發展,在《憲法》中明確人機關系中人的主體性地位具有相當程度的緊迫性。

《憲法》作為國家的根本大法,通過《憲法》的形式確認人機關系中人的主體性地位對于人工智能相關立法具有重要的指引作用。人機關系中人的主體性地位被確認將促進相關人工智能立法的完善,提高我國人工智能相關法律法規的強制效力。

四、結語

以人工智能技術為核心驅動力的“第四次工業革命”悄然來臨,有關人工智能的倫理困境隨著人工智能的加速迭代愈加嚴峻。只有時刻堅持人機關系中人的主體性地位,把握好人對于人工智能工具的使用意義,人工智能才能為人類發展造福,有關人工智能發展的困境才能得到解決。當然,不能陷入“科林格里奇”式的怪圈,制度制定者應既致力于增進人類福祉,又不能阻礙科技發展的腳步。而這些顯然不是某一個國家憑借一己之力就可以完成的任務,人工智能的長遠發展還需要國際社會通力合作,共同把握好這一“人類解放”的歷史機遇。

[參考文獻]

[1]謝明敏.人工智能視角下的民法諸問題研究[J].民商法爭鳴,2020(1):23-30.

[2]左衛民.關于法律人工智能在中國運用前景的若干思考[J].清華法學,2018,12(2):108-124.

[3]李容佳.論人工智能在刑事司法決策中的應用[J].網絡安全與數據治理,2023,42(8):21-27.

[4]經濟觀察網.11家AI大模型產品今日起將陸續上線,騰訊華為訊飛等也將開放[EB/OL].(2023-08-31)[2023-09-21].http://www.eeo.com.cn/2023/0831/603409.shtml.

[5]肖君,白慶春,陳沫,等.生成式人工智能賦能在線學習場景與實施路徑[J].電化教育研究,2023,44(9):57-63+99.

[6]王祿生.從進化到革命:GhatGPT類技術影響下的法律行業[J].東方法學,2023(4):56-67.

[7]麥金太爾.倫理學簡史[M].龔群,譯.北京:商務印書館,2003:23-24.

[8]王鋒.人工智能對道德的影響及其風險化解[J].江蘇社會科學,2022(4):44-50,242.

[9]赫拉利.未來簡史[M].林俊宏,譯.北京:中信出版集團,2017:286.

[10]姚偉.人工智能與人的本質發展——兼論社會制度系統的適應性變革[J].學習與探索,2023(10):35-41.

[11]程承坪.人工智能:工具或主體?——兼論人工智能奇點[J].上海師范大學學報(哲學社會科學版),2021,50(6):5-12.

[12]章文光,賈茹.人工智能的社會倫理困境:提升效率、輔助與替代決策[J].東岳論叢,2021,42(8):92-100,192.

[13]陳永偉.超越ChatGPT:生成式AI的機遇、風險與挑戰[J].山東大學學報(哲學社會科學版),2023(3):127-143.

[14]OUYANG L,et al.Training Language Models to Follow Instructions with Human Feedback[J].ArXiv Preprint,2022,No.2203.02155.

[15]李楠.人工智能時代勞動價值論再審視[J].馬克思主義理論學科研究,2024,10(3):39-46.

[16]吳大奎.基于生成式人工智能服務風險的分級法律規制研究[C].智慧法治,2023第三卷:195-203.

[17]馮子軒.生成式人工智能應用的倫理立場與治理之道:以ChatGPT為例[J].華東政法大學學報,2024,27(1):61-71.

[18]徐繼敏.生成式人工智能治理原則與法律策略[J].理論與改革,2023(5):72-83.

[19]石晶.生命科技風險的憲法回應[J].法學,2023(2):47-61.

〔責任編輯:曲丹丹〕

主站蜘蛛池模板: 69av在线| 精品亚洲国产成人AV| 国产成人综合网| 亚洲激情99| 老司机久久99久久精品播放| 日韩无码视频专区| 亚洲色成人www在线观看| 国产制服丝袜无码视频| 又黄又湿又爽的视频| 亚洲男人在线| 黄色网站不卡无码| 国产午夜不卡| 人妻无码一区二区视频| 婷婷色中文| 国产99精品久久| 日韩精品一区二区三区swag| 亚洲最大福利视频网| 波多野结衣亚洲一区| 国产日韩精品一区在线不卡 | 久久成人免费| 亚洲精品午夜天堂网页| 第一区免费在线观看| 毛片久久网站小视频| 另类专区亚洲| a毛片在线| 男人天堂亚洲天堂| 青青青伊人色综合久久| 伊人色综合久久天天| 99人体免费视频| 91福利免费| 很黄的网站在线观看| 国产成人精品综合| 亚洲系列无码专区偷窥无码| 久久这里只精品国产99热8| 欧美精品v欧洲精品| 青青网在线国产| 欧美α片免费观看| 国产美女在线观看| 国产天天射| 67194在线午夜亚洲| 色悠久久综合| 国产亚洲男人的天堂在线观看| 日韩成人免费网站| 久久精品免费国产大片| 人妻丰满熟妇av五码区| 熟妇人妻无乱码中文字幕真矢织江| 国产波多野结衣中文在线播放| 欧美一道本| 国产精品亚洲片在线va| 日本国产精品| 国产美女91呻吟求| 久久国产精品嫖妓| 亚洲精品成人7777在线观看| 91原创视频在线| 中文字幕日韩丝袜一区| 国产一区二区三区日韩精品| 国产女人爽到高潮的免费视频 | 中日韩欧亚无码视频| 久久国产热| 久久综合结合久久狠狠狠97色| 久久精品人人做人人综合试看 | 手机永久AV在线播放| 国产精品久久久久无码网站| 亚洲首页国产精品丝袜| 99无码熟妇丰满人妻啪啪 | 极品av一区二区| 无码国产偷倩在线播放老年人 | 国产精品三区四区| 在线观看无码av五月花| 71pao成人国产永久免费视频| 日本高清免费不卡视频| 中文字幕佐山爱一区二区免费| 亚洲第一综合天堂另类专| 99手机在线视频| 性欧美精品xxxx| 天天色天天操综合网| 亚洲首页在线观看| 欧美自慰一级看片免费| 日韩av无码DVD| 福利一区在线| 欧美精品H在线播放| 无码精品一区二区久久久|