李茜舒曼
1950年,阿蘭圖靈在英國雜志《思考》上發表《計算的機器和智能》一文,該文借助“模仿游戲”的概念提出“機器能否思考”的哲學問題;1956年“人工智能”術語首次提出,這一學科自此誕生。2016年谷歌旗下的“深度思考“(Deepmind)出品的阿爾法狗擊敗世界圍棋冠軍李世石后備受關注,麥肯錫報告聲稱“人工智能進入突破階段”。2022年底,OpenAI發布的新一代人工智能系統ChatGPT成為現象級事件,而Open AI的CEO Sam Altman曾表述,AIGC的定位是做一個類似于新時代的搜索引擎,從內容輸出質量和內容形態覆蓋多維度。
一、人工智能生成物的主客體關系
歐盟委員會2021年4月21日頒布的《人工智能法案》中將人工智能系統(Artificial Intelligence system)界定為“基于機器的系統,旨在以不同程度的自主權運行,并且可以針對明確或隱含的目標生成例如預測、建議或決策等輸出,影響物理或虛擬的環境。”
計算機技術興起之后,各國即已對機器創作作品的法律屬性進行過討論,并在計算機僅作為協助創作的工具而存在這一點上達成共識,因此,對于依然不能脫離人類控制的人工智能的法律保護問題,可依照計算機衍生作品的邏輯解決,而這僅僅是針對于利用現有數據分析推斷其結果的人工智能的處理方式,對于具有生成創作性質的人工智能則不適用。
在討論人工智能創作生成的作品時,應根據創作過程中對人的依賴程度對其進行類型化判定,人工智能研究的一個主要目標是使機器能夠勝任一些通常需要人類的智能才能完成的復雜工作。在此分為兩種情況,人工智能作為人類創作的輔助工具,其創作物可視為傳統的計算機衍生作品;而人工智能創作無需人類事先定義規則,作為獨立的創作主體,這時就出現了如何看待人類主體和智能機器主體之間關系的問題。
而這個價值判斷在技術操作層面往往很難界定,在康德主客體統一認識論和“人是目的”的哲學命題視角看來, “在人與物的關系上,物只具有相對價值,因而永遠只能作為手段,而人作為絕對價值則不但是主觀目的,而且也是客觀目的,因為其存在自身就是目的”。黑格爾在《邏輯學》中進一步論證了目的與手段的關系,他認為手段從屬于目的,力求使手段體現并實現目的的價值,目的通過手段揚棄客觀而達到主觀、客觀的統一。這說明人作為主體在與客體交往的過程中,主體利用與改造客體,將客體視為工具。馬克思則指出,“人是目的”的實現是一個漫長且曲折的歷史進程,“創造這一切、擁有這一切并為這一切而斗爭的,不是‘歷史,而正是人,現實的、活生生的人,但歷史并不是把人當做達成自己目的的工具來利用的某種特殊的人格,歷史不過是追求著自己目的的人的活動而已。”
基于人類哲學視角的價值論斷,人工智能生成物的主體地位只能是人類自身,而機器則始終只能作為輔助性工具的客體角色;隨著人工智能的類人化創作,其根基則建構在人類智力成果的數據基數上,其創作高度不會超越人類的智力創作上線,但其在思考維度上能夠做到更加廣泛、全面。
二、生成式人工智能政策和法律文件分析
2023年5月23日國家互聯網信息辦公室審議通過了《生成式人工智能服務管理暫行辦法》,并于2023年8月15日起實施,制定《辦法》旨在促進生成式人工智能健康發展。習近平總書記在主持召開中共中央政治局會議中指示:“要重視通用人工智能發展,營造創新生態,重視防范風險。”
《生成式人工智能服務管理暫行辦法》(以下簡稱“辦法”)奠定了我國對生成式人工智能服務的基本態度及行政監管措施,共分為5章24條。其中,辦法第二條規定了生成式人工智能服務法律適用的基本范圍包括文本、圖片、音頻和視頻等內容,其中不包括新聞出版、影視制作、文藝創作等活動;這一規定確定了生成式人工智能服務所規制的法律客體,即不在客體范圍內的作品形式則不屬于人工智能生成物;主體范圍包括研發、應用生成式人工智能技術的行業組織、企業、教育和科研機構、公共文化機構、有關專業機構等。其中,未向中國境內公眾提供生成式人工智能服務的主體不在適用范圍內。
辦法第三條規定了分類分級的監管措施,根據人工智能技術的不同特定,采用不同的監管方式和標準進行分類分級監管。分類分級監管的原則是發展和安全并重、促進創新與依法治理相結合;即對于不同類型的人工智能服務采取不同的監管措施,鼓勵創新發展的同時確保使用人工智能服務的安全合規;例如,在訓練數據處理活動和數據標注方面,對于涉及個人隱私的數據,應嚴格控制其使用范圍;根據辦法第七條第三款規定,涉及個人信息的,應當取得個人同意或者符合法律、行政法規規定的其他情形;第九條規定,涉及個人信息的,依法承擔個人信息處理者責任,履行個人信息保護義務;第十一條規定,不得收集非必要個人信息及非法保存和提供能夠識別使用者身份的輸入信息和使用記錄。
該辦法第四條第一款、第四款對于生成式人工智能服務的內容限制包括政治敏感信息、社會公序良俗、個人合法權益等方面。這些內容在生成式人工智能算法設計時采取屏蔽關鍵詞匯的方式,即不提供相關方面的內容反饋,而該限制在軟件使用過程中是顯而易見并極易被觀察到的;辦法第十四條規定,提供者發現違法內容的,應當及時采取停止生成和傳輸、消除等處置措施;發現從事違法活動的,應采取警示、限制功能、暫停或終止向其提供服務。但同時提供者對使用者的輸入信息和使用記錄應當依法履行保護義務。這就說明,國家政策在生成式人工智能安全度方面采取“收緊”措施,以監管的方式嚴格控制人工智能的發展不超出社會穩定和網絡安全的合理框架。
該辦法第四條第二款規定在算法設計、數據訓練、生成模型的過程中避免出現“歧視”,這就是首先從采樣數據入手,在訓練數據中納入不同背景和經歷的人群,采用具有多樣性和包容性的數據;同時,在第七條第四款中也提及要提高訓練數據質量,增強訓練數據的真實性、準確性、客觀性、多樣性。其次,在算法設計中采用反偏見算法來檢測和糾正人工智能系統中的偏見,這些算法可以識別和糾正訓練數據中的非客觀因素,同時在人工智能系統的設計開發過程中,研發專家進行涉入干預,以抽樣方式糾正系統中的計算偏差,以保證數據的相對準確性。
該辦法第四條第三款和第五款規定尊重知識產權、商業秘密,并提高生成式人工智能服務的透明度和可解釋性,這些措施即可避免算法“黑箱”的存在,以便能了解系統的決策過程和結果。算法是由商家和技術公司設計的,其過程中的不可解釋性就會形成算法黑箱,機器學習的思路和結論目前不完全具備可視性和可解釋性,因此帶來的一部分技術壁壘使人們無法破譯和解釋人工智能是如何作出決策和判斷的,這與透明性原則相抵觸,其科學性也就難以令人信服。
預防或避免算法歧視、不透明等弊端,最大限度減少算法“黑箱”可能造成的負面影響,建立與之配套的監管和治理措施,是推動生成式人工智能健康發展的技術關鍵,也是生成式人工智能未來發展方向的技術保障基礎。
三、生成式人工智能發展現狀及態勢
生成式人工智能的狹義概念是利用AI自動生成內容的生產方式,但是生成式人工智能已經代表了AI技術發展的趨勢,傳統的人工智能偏向于分析已經存在的事物,而現在人工智能正在生成新的東西,即所謂人工智能從感知、理解世界已然到了生成“創造”世界的階段。人類的某些創造性工作可能在不久的將來被生成性人工智能完全取代,同時,也有一些創造性工作會加速進入人機協同時代——人類與生成式人工智能技術共同創造更高效和優質的內容。生成式人工智能技術將會把創造和知識工作的邊際成本降至零,打通不同學科知識的壁壘,形成跨學科聯動,實現低成本甚至零成本的自動化內容生產,這一內容生產的范式轉變將升級甚至重塑內容生產供給,進而給依賴于內容生產供給的行業和領域帶來巨大影響,從而將引起整個應用生態體系的變化和調整。
當前生成式人工智能技術沉淀、產業生態已初步形成。根據人工智能生成畫作,文字生成圖片是目前人工智能繪畫的主流生成方式。未來五年,10%至30%的圖片內容將會由人工智能參與生成,這種方式將被廣泛應用于網絡游戲開發,同時極大限度降低資金投入成本。
互聯網向下一代技術升級演進的方向是從平面走向立體,即邁向3D互聯網時代,在虛擬空間建構仿真世界,而生成式人工智能將成為打造虛擬現實集成世界的基石。傳統的3D制作需要大量的時間和人力成本,而生成3D內容需要更大信息量的數據樣本支撐。例如一張高清平面圖片大概需要400萬像素點,而3D成像的實質差別在于其具有幾何立體特征,每個平面如若用400萬像素點表示,其本身蘊含的信息量就是數量級的差距。除此之外還有比如素材的光線、光源、材質等技術處理條件的制約,而借助人工智能生成高質量成像效果的3D成像也具有切實的可行性。英偉達研發的生成式人工智能模型GET3D可根據其所訓練的建筑物、汽車、動物等平面圖像類別即時合成3D幾何體,并具有高保真的紋理和復雜的幾何細節,該模型是使用從不同角度拍攝的約100萬張3D幾何體的平面圖像訓練而成的,優勢在于以常用圖形軟件應用格式創建,用戶可以輕松駕馭。從平面圖像生成3D模型的應用普及,有望激發每個人創作3D成像的動力,所產生的內容數據可以加速游戲和虛擬現實的應用開發,同時還需要生成式人工智能技術更長時間的探索和積累。
基于此,生成式人工智能已基本重構了內容生成領域的應用生態,以新的模式輔助創作者持續產生、迭代和驗證創意,以更低的成本、高效能的方式“創作”數字內容。
四、生成式人工智能的社會價值及知識產權風險
生成式人工智能的社會價值在于革新數字內容領域,并形成相關產業的應用生態結構,以更高效和低成本的技術替代基礎性工作,解放人類大量重復性、機械化的智力勞作,更多地投入到具有創造性的領域。在生成式人工智能的智能程度測試過程中,其表現超越人類程序員和數據集創造者的創造力,這是否能夠證明是其表達、思考、創造等自主意識的投射?答案必然是否定的,其根源在于其創造力是基于深度學習的“模仿式創新”,而非全然是從0到1的創造。
正是基于生成式人工智能的“模仿式創新”,其不具有真正意義上的創造性,而在應用實踐中極易引發新型的知識產權侵權風險。比如2017年的一個人工智能生成物的案例,微軟研發的生成式人工智能“小冰”通過訓練學習了中華人民共和國成立前519位詩人的作品集合,生產了第一部人工智能詩集。面對“小冰”可能造成的侵權風險,微軟以該訓練數據均來自于公開無版權權益問題的數據,或經授權使用的數據為由,主張其生成內容不具有侵權風險。同時,其生成內容同樣不具有通常意義上的獨創性,不構成著作權法意義上的作品。
由此可見,生成式人工智能的著作權侵權風險不在于其生成內容是否具有獨創性,而在于其原始素材或數據的取得是否征得著作權人的授權許可,其生成過程可能因為損害原著作權人所享有的修改權、保護作品完整權等人身權利,以及演繹權等其他權利而形成侵權風險;例如,2022年Podcast.ai仿生了已故的史蒂夫喬布斯,有部分觀點認為,該行為侵犯了已故之人的隱私權及其繼承人的代理權。
全球范圍內,在現行著作權法框架下人工智能生成物均無法受到必要性保護,亦無法在相關行政部門進行著作權登記確權;但從保障、激勵創作者權益的角度出發,具備人類作者充分干預的人工智能生成物可以參考著作權法中的演繹作品加以合理保護,而其創作過程應標注清晰的勞動投入比例,以此證明人類作者的干預程度。由此可見,人工智能生成物已不在現有著作權法可調整的框架范圍之內,應采用《網絡安全法》《數據安全法》《個人信息保護法》《科學技術進步法》等法律、行政法規進行規制。
綜上所述,生成式人工智能即將對現有社會結構產生多維度變革,既有加速人類社會發展進化的方面,也有潛在風險和挑戰的方面;面向人工智能時代,需要始終堅守“人是目的”,建立人機協作的新模態生產結構,形成基于正確價值導向的人機交互關系,構建人類智能和人工智能可持續發展的和諧社會。
(作者單位:中國版權保護中心)