中圖分類號:TP18;D920.0 文獻標識碼:A 文章編號:1000-5099(2025)04-0088-14
一、問題的提出
上世紀80年代起,算法的發展促進人工智能從數據中學習并實現性能提升,跨越了早期根據系統既定規則執行任務的階段[1]。生成式人工智能在算法迭代中誕生,并迅速在眾多領域得到應用。與人工智能不同,生成式人工智能指基于訓練數據生成新穎且有意義的文字、圖案和音頻等內容的技術[2]。生成式人工智能的運作可劃分為數據獲取—數據訓練—內容生成三個階段:以獲取的數據喂養算法模型,通過算法模型訓練生出全新內容,輸出的內容取決于獲取的數據。以往數據不正當競爭案件,如微博訴脈脈案①、大眾點評訴百度案②等大多聚焦于數據獲取或數據使用。生成式人工智能涉數據競爭行為產生的糾紛則貫穿數據流通的各個環節,從獲取的手段到使用的方式,再到生成的內容,均可能導致不同程度的齟齬。譬如,在我國生成式人工智能涉數據不正當競爭糾紛第一案——“奧特曼LoRA案\"中,一審法院認定用戶下載、轉發生成的內容不構成不正當競爭③,二審期間案涉公司又提出生成式人工智能模型“定向訓練\"行為涉及不正當競爭④。由此可見,該案件包含主體多樣、涉及環節眾多,深刻凸顯了生成式人工智能涉數據競爭行為的正當性認定難題。
誠如學者所言:“每一輪通用技術革命都會引發產業發展范式的深刻變革。”[3]2023 年7月我國發布的《生成式人工智能服務管理暫行辦法》第三條強調,生成式人工智能治理要堅持“安全與發展并重、促進創新與依法治理相結合的原則”4]。兩審法院關于“奧特曼LoRA案\"的判決,則充分體現了這一原則,均扭轉了我國以往涉數據不正當競爭案件的判定模式。在當前的司法實踐中,我國涉數據不正當競爭案件糾紛的司法判定模式可分為兩種:一是以權益受損推定行為不正當;二是以多元利益考量判定行為正當性[5]。對此,前者的判定模式誤解了權益受損系市場競爭常態之本質,后者的判定模式則缺乏對多元利益平衡的方法論關注。“奧特曼LoRA案”的判決對既有司法裁判模式進行了重構,一改權益侵害式判定范式并在方法論上做出了初步嘗試。然而,該案件關于行為在法律上是否具備正當性的判定理路依然存在不少缺憾,亟待予以反思并廓清思路。
當前國內外出現的生成式人工智能涉數據不正當競爭的案件有限,影響較為廣泛的僅有 Andersen v.Stability AI案①和奧特曼LoRA案。理論研究層面,由于數據極易產生規模效應,且此前我國學界關于生成式人工智能的競爭法研究大多聚焦于反壟斷領域②,行為正當性認定的系統性研究尚未形成完整框架。奧特曼LoRA案出現后,關于案件的討論也局限于對司法裁判的簡單評述③,而透過表象挖掘背后的理論癥結之研究尚付闕如。理論的發展必須緊隨實踐,生成式人工智能引發的數據不正當競爭案件與既往判例存在顯著不同,其訓練數據來源多樣、生成過程重組數據、模型結果真假難辨,導致傳統裁判路徑在正當性評價上出現適用偏差。鑒于此,本文將在反不正當競爭法語境下,結合生成式人工智能的本質特征剖析其所涉數據競爭行為的類型和特殊性,以“奧特曼LoRA案”為例,審視與反思其裁判理路困境,繼而提煉出類案在裁判理念、裁判范式和裁判規則三重維度的體系化完善路徑。
二、生成式人工智能涉數據競爭行為正當性判定的理論闡釋
生成式人工智能的介入使得傳統數據不正當競爭的認定愈發復雜?,F有裁判模式在面對生成式人工智能的特殊性時,顯露出諸多局限。通過對生成式人工智能涉數據競爭行為的類型化解構,深人剖析其內在邏輯的特殊之處,既可揭示其技術實質與法律屬性,又能助力于厘清不正當競爭行為在各環節中的法律邊界,進而為司法實踐提供有力指引。
(一)生成式人工智能涉數據競爭行為的類型化解構
生成式人工智能的技術流程可劃分為數據獲取、數據訓練和內容生成三階段。以此為基準,生成式人工智能涉數據競爭行為初步劃分三類:一是發生在數據獲取階段不正當數據獲取和阻礙數據獲取行為;二是數據訓練階段妨礙數據使用和超越授權范圍使用數據行為;三是內容生成階段數據不當利用行為?;谛袨檫壿嫷目剂?,阻礙獲取與妨礙使用實質上構成干擾行為,越權使用與不當利用系為濫用行為。由此,生成式人工智能涉數據不正當競爭行為的類型進一步解構為不正當數據獲取行為、數據干擾行為及數據濫用行為。
1.生成式人工智能不正當數據獲取行為
數據作為生成式人工智能的燃料[6]56,其獲取能力直接決定市場競爭力。部分生成式人工智能運營商為爭奪數據資源優勢,利用生成式人工智能實施不正當數據獲取行為,具體表現為不正當數據爬取和進一步衍生的數據劫持。
當數據爬取行為的規模和頻率異常、違反了Robots協議等情況下,該爬取行為可能構成不正當競爭。生成式人工智能的崛起更新了傳統數據爬蟲的模式,突破了其原有的范圍和數量限制。以典型的生成式人工智能數據爬取工具GPTBot和Claude 為例,其單月爬取量分別為5.69億次和3.70億次,占據了顯著份額[1]。Crawl4AI等智能爬蟲工具還能夠高效處理動態內容,通過大模型將數據轉換為適合生成式人工智能處理的格式,極大地提升了數據采集和處理的效率①。更具突破的是,生成式人工智能通過自動化的網絡爬取,對反爬蟲機制進行破解[13]。生成式人工智能爬取的數據可能包含他人享有權益且禁止爬取的部分,極有可能引發隱私泄漏風險。作為權益受損方卻由于技術壁壘,難以掌握抵御機制[14]。
當生成式人工智能的數據爬取行為進一步突破了第三方網站的限制措施、對其他經營者的網絡產品或服務構成了實質性替代時,則可能構成數據劫持。生成式人工智能介人下的數據劫持行為極大擴張了劫持的范圍和影響。以《紐約時報》訴OpenAI案為例,ChatGPT通過爬取數百萬篇付費文章構建知識庫,用戶可直接獲取完整報道內容,導致《紐約時報》官網訪問量下降[15]。OpenAI的數據劫持行為不僅侵占了《紐約時報》的流量,也切斷了內容創作者通過作品傳播獲得社會認可的價值鏈條,給《紐約時報》造成了巨大損失。
2.生成式人工智能數據干擾行為
隨著生成式人工智能技術商業化的加深,圍繞數據獲取和數據封鎖的爭議愈發引起相關行業和監管者的關注。在數據競爭行為中,干擾”主要體現為對數據獲取的阻礙和對數據使用的妨礙。生成式人工智能在數據干擾行為中兼具干擾方和被干擾方雙重身份。
作為干擾方,生成式人工智能極有可能生成假數據、假信息干擾競爭對手的決策并滲透輿論場。計算機科學中廣為流傳的\"垃圾進,垃圾出\"的觀點亦適用于生成式人工智能[16]8。生成式人工智能提供的答案由數據堆砌重組而成,其生成信息的可信度有賴于訓練所用數據集的質量。然而,生成式人工智能本身缺乏過濾不良信息的能力。Common Crawl作為目前最大的免費數據集,也是大型語言模型LLMs預訓練數據的重要來源之一。Common Crawl所獲得的數據本身具有局限性和偏見,而LLMs卻缺乏對過濾數據集中不當內容的優化方案[17]。不恰當的內容指向不正確的決策,生成式人工智能生成的不可靠信息可能成為一把“雙刃劍”。當經營者和消費者均使用生成式人工智能搜索相關信息時:一方面,經營者可能因為生成結果的偏差導致戰略決策失誤;另一方面,消費者可能因為具有偏見的消費建議對其他經營者留下負面印象,影響其他競爭者的商譽。
作為被干擾方,生成式人工智能自身極有可能因數據驅動的屬性陷入封鎖困境。一方面,上游數據庫為維護競爭優勢,可能通過限制生成式人工智能服務商獲取訓練數據;另一方面,人工智能服務商亦可與數據庫聯合,限制其他生成式人工智能服務商使用數據庫。在傳統數據不正當競爭中,類似LinkedIn案②中平臺試圖保護數據商業價值,限制競爭對手獲取數據的“封鎖”行為屢見不鮮。生成式人工智能的發展使數據價值倍增,但關于數據控制權的爭奪并未緩解。實踐中,微軟與OpenAI的合作中,一方提供數據,另一方提供智能處理能力的模式,形成新業態下的優勢互補[18]。但令人疑慮的是,微軟和OpenAI 皆為行業領頭羊,倘若雙方合作協議中達成了將數據封鎖在平臺內部的條款,那么將形成隱性的數據封鎖,引發排他性交易風險。
3.生成式人工智能數據濫用行為
在數據使用階段,生成式人工智能可能因數據濫用產生兩類典型行為:一是對數據的越權使用;二是對已獲取數據的不當利用。
數據越權使用主要指生成式人工智能未經授權或超越了授權范圍使用數據,將數據用于未經許可的訓練模型或業務場景。生成式人工智能訓練的數據主要來源于公開數據、私有數據、網絡爬取數據等[16]89,數據的質量和可信度存在顯著差異。生成式人工智能處理的數據規模遠超傳統合規審查機制的承載閾值。我國個人信息保護法中的“知情—同意”原則為生成式人工智能獲取語料庫設置了門檻,但在生成式人工智能處理海量數據的過程中,要逐一貫徹\"知情—同意”原則既效率低下又困難重重,凸顯了現有法律框架應對生成式人工智能問題的制度性不足[19]。由此,生成式人工智能訓練的數據庫在客觀上難以完全控制在授權范圍內?,F實中,使用未授權數據進行生成模型訓練可能導致不正當競爭。在Andersenv.StabilityAI案中,平臺將用戶上傳的畫作用于生成式人工智能繪畫訓練,導致生成的畫作風格與原作高度相似①。該行為不僅容易導致消費者混淆風格類似的生成式人工智能畫作,擾亂原創藝術家市場,還極有可能陷入版權糾紛。
生成式人工智能的技術原理,決定其輸出必然包含原始數據解構后再次重組的痕跡。此種數據重組的風險正是不正當競爭、版權糾紛、隱私泄露的癥結所在。生成式人工智能可深人解析他人數據特征,并批量生成其他內容。在此過程中,數據的不當利用意味著生成式人工智能:一方面可深入分析根據他人作品特征,生成足以產生混淆的產品,導致商業混淆;另一方面則可穿透重要數據,挖掘個人隱私。更為隱蔽的是,即便使用經授權用于訓練的數據,生成式人工智能仍可在算法的拆解和重組下生成侵犯個人隱私的結果,從而實現精準營銷。此類數據濫用行為,既是對市場競爭的扭曲,也是對消費者權益的貶損。
(二)生成式人工智能涉數據競爭行為正當性判定的特殊性剖析
生成式人工智能將競爭重心從數據采集和分析應用擴展到數據拆解和數據重組,形成了一種新型競爭模式。生成式人工智能的運行架構主要可以分為“數據獲取—數據訓練—內容生成”三個步驟,其運作機理決定了生成式人工智能涉數據競爭導致的風險、競爭模式,以及隨之而來的司法實踐問題均有別于傳統數據競爭。
1.海量數據獲取導致三重風險
高質量的訓練依賴海量數據喂養,生成式人工智能若不能通過合理途徑獲取數據,其模型性能將會極大衰減。為提升模型輸出質量,必須不斷擴充和更新訓練數據集,極有可能突破數據獲取、儲存、使用的合理邊界。因此,生成式人工智能的數據獲取將引發三重風險:一是數據獲取范圍突破邊界導致隱私泄露。相關企業可能為追求優質數據對數據源進行更寬泛的挖掘,訓練集的組成不再局限于經過嚴格篩選和脫敏處理的合規數據,個人隱私數據和敏感數據可能被投入模型訓練,增加了隱私泄露的風險。二是數據獲取手段不當催生各類糾紛。生成式人工智能通過網絡爬取和API接口等方式獲得數據,難以嚴格區分公開數據與隱私數據。倘若數據授權協議存在未明確某類數據能否被投入生成式人工智能訓練的模糊條款,將導致越權采集并引發不正當競爭糾紛。三是優質數據獲取壓力促成惡性競爭循環。在爭奪優質數據的商業競爭壓力下,企業對數據合規和隱私保護的忽視將形成一種“激勵機制”,導致超出授權范圍攫取數據的現象更為普遍。與傳統數據競爭中的基于固定場景的定向數據獲取不同,為提升算法性能,生成式人工智能平臺對數據的需求趨近于無限,以上突破原有數據獲取模式導致的三重風險,亦成為數據競爭模式躍遷的基奠。
2.數據訓練模式推動競爭躍遷
與傳統數據使用主要集中在靜態的數據分析不同,生成式人工智能在訓練數據過程中,通過模型對數據進行深度處理和不斷優化。此種情況下,競爭不僅局限于數據本身,更擴張為數據訓練、模型運作和生成內容的全面較量。具言之,生成式人工智能數據訓練可能在以下三個層面推動競爭模式躍遷。
第一,競爭重點從數據直接應用轉化為系統模型訓練。傳統數據競爭側重于數據的靜態積累與直接應用,即企業通過數據獲取和分析獲得優勢。生成式人工智能則將數據轉化為模型參數并生成對應內容。此種轉化不僅是對數據的簡單存儲和分析,而是通過復雜的算法提煉出有價值的信息,從而生成新的數據輸出,使競爭重點從“誰擁有最多的數據\"轉向“誰擁有更高效的訓練模型和生成能力”。
第二,競爭機制從數據規模獲取延伸到數據重構生成。生成式人工智能的進步依賴于不斷迭代的閉環訓練,即從大規模數據采集、語料體系預處理,到“模型預訓練—微調—反饋優化”[20],這一過程實現了數據與模型的動態交互。企業可以通過技術創新不斷突破數據使用的邊界,甚至在數據授權不足的情況下,通過算法重構來彌補數據資源的不足,從而在競爭中獲得更高的靈活性和更大的優勢。以技術為核心的競爭機制,促使競爭優勢從數據數量優勢延伸至算法創新和內容生成轉型。
第三,競爭范圍從單一環節擴張至數據流通全環節。生成式人工智能平臺的運作不僅依賴單一的數據占有或數據使用,而是通過開放API、平臺化服務以及跨行業合作,形成了從數據供給、模型訓練到內容生成的全鏈條競爭模式。傳統數據競爭糾紛往往誕生于單一流通環節,如“微博訴脈脈案\"①圍繞數據獲取、“大眾點評訴百度案”②聚焦數據使用。生成式人工智能涉數據競爭糾紛則涉及多個環節,如“《紐約時報》訴OpenAI案\"中,《紐約時報》不僅控訴OpenAI對文章的越權爬取,還指控其使用文章作為訓練數據[21]。生成式人工智能使數據競爭在“獲取—儲存—使用”的全環節滲透,使競爭從單一環節升級為整體,進一步加速了市場資源整合與競爭格局重塑。
3.模型輸出特性催生司法難題
生成式人工智能通過數據重構輸出新的內容,具有高度的創造性。在不完全授權的情況下,生成式人工智能可間接復現原始數據中的關鍵要素,造成隱私威脅?!半[性再現”不僅增加了數據授權管理的難度,也使得相關不正當競爭行為更難以被既有法律條款直接覆蓋。
在傳統數據不正當競爭糾紛中,行為模式的拆解相對清晰,責任方的構成也相對明確。當前相關案件裁判雖未統一范式,但也形成了較為一致的結論。反觀生成式人工智能涉數據不正當競爭糾紛,其復雜性體現為:“生成”本身既包括了最后生成的內容,也包含生成數據的來源和生成的過程,責任主體由數據提供者、算法設計者、生成式人工智能服務提供商等各個環節的參與者共同構成。在Andersenv.Stability AI案③中,生成式人工智能獲取母公司旗下圖庫作品,在未經授權的情況下將作品用于模型訓練,最終生成的作品還投人市場使用,案件原告也將模型開發者、生成式人工智能繪畫平臺、母公司圖庫一同起訴。生成式人工智能涉數據競爭糾紛中的不確定性和衍生問題給司法實踐造成極大阻礙(見表1)。
司法機關秉持的裁判理念是解決上述問題的關鍵。在傳統數據不正當競爭糾紛中,法院基于對既有競爭利益的保護忽視了商業模式的創新,短期內雖然維護了市場秩序,但長此以往必然對市場業態的良性發展造成阻礙。在我國生成式人工智能涉數據不正當競爭首案“奧特曼LoRA案”中,兩審法院秉持的“包容審慎\"理念給予生成式人工智能充足的發展和試錯空間①。鑒于“包容審慎\"理念在司法領域運用較少,其在具體裁判中的內涵構成尚不明確,法官對理念的主觀解讀可能造成裁判結果出現偏差,故而在現階段難以對裁判范式和具體裁判規則進行有效指導。
綜上所述,基于技術流程,生成式人工智能涉數據競爭行為具體可分為數據不當獲取行為、數據干擾行為和數據濫用行為。相較于傳統數據競爭,生成式人工智能的數據驅動屬性可能突破數據獲取邊界從而引發三重風險,并推動數據競爭從數據本身擴張至數據訓練、模型運作和生成內容各個環節,并且各環節涉及的復雜主體進一步催生新的司法難題。
三、生成式人工智能涉數據競爭行為的實踐與反思
隨著技術邊界的拓寬,生成式人工智能應用涵蓋了眾多場景。當前,我國專門針對生成式人工智能涉數據不正當競爭的司法判例僅有一例,但隨著生成式人工智能技術的商業化普及,相關糾紛將逐漸涌現。如前所述,生成式人工智能帶來了一系列司法難題。對此,本文將以國內首例生成式人工智能涉數據競爭糾紛判例——奧特曼LoRA案為樣本,以其所屬的收集、訓練他人作品并生成新的內容為具體場景,對該案的裁判理路進行分析,試圖通過以小見大的方式揭示生成式人工智能案件的司法認定難點。
(一)奧特曼LoRA模型不正當競爭糾紛案的理路觀察
基本案由:上海某文化發展公司(以下簡稱“文化發展公司”)是經授權獲得奧特曼系列形象的知識產權人,杭州某智能科技股份有限公司(以下簡稱“智能科技公司”)是生成式人工智能平臺的經營者。智能科技公司運營的生成式人工智能平臺使用的LoRA模型將用戶上傳的與奧特曼形象相似的圖片用于訓練,由此生成的圖片可任意下載、轉發。為此,文化發展公司訴稱,智能科技公司的生成式人工智能服務行為因違反誠信原則而構成不正當競爭。一審法院判決認定該行為不構成不正當競爭。對此,文化發展公司二審另主張對奧特曼作品進行“定向訓練”的生成和發布構成不正當競爭。二審法院再次判定該主張不成立。
奧特曼LoRA案作為我國生成式人工智能涉數據競爭第一案,司法機關裁判理念凸顯了司法機關對新興技術發展的特殊考量。一審法院在判決中著重闡釋了生成式人工智能技術的正向作用?;凇白杂筛偁帯钡慕嵌?,生成式人工智能通過個性化內容定制優化資源配置效率,以技術驅動市場創新;基于“公平競爭”的角度,本案中生成式人工智能的應用未對其他競爭者造成不當干擾,也未在實質上侵擾消費者的合法權益。二審法院從促進科技進步的角度出發,認為對生成式人工智能的行為認定宜采用相對寬松包容的認定標準。綜合以上裁判思路,兩審法院均未采取傳統數據不正當競爭的裁判路徑,亦未以不確定的風險作為生成式人工智能會產生負面影響的依據,而是以動態競爭觀衡量利益得失,將包容審慎的裁判理念貫穿審理始終。
案件爭議焦點在于智能科技公司的行為是否因違反《中華人民共和國反不正當競爭法》中的“商業道德”條款而構成不正當競爭?!吧虡I道德”條款作為涉數據競爭案件的正當性判定標準,其內容高度抽象,司法實踐中常采用行業慣例或是法官自創的路徑將其具體化。本案中,兩審法院均從反不正當競爭法“行為規制法”的屬性出發構建細化商業道德條款的裁判范式,但在具體范式選擇上存在差異。一審法院認為,判斷行為是否構成不正當競爭,關鍵在于其擾亂市場競爭秩序與否?;诜床徽敻偁幏ǖ恼w價值取向,一審法院將市場秩序解構為“自由競爭”和“公平競爭”兩個維度,以此為參照判斷行為的正當性。二審法院則在市場競爭秩序的基礎上,通過主客觀兩方面判斷其他經營者和消費者的合法權益是否受損。
裁判范式的進一步執行有賴于更為具體的裁判規則。兩審法院對裁判規則的選擇有所不同。一審法院以“技術中立”規則作為判定智能科技公司的行為是否破壞“自由競爭”和\"公平競爭”的參照。一審法院認為生成式人工智能的技術本身中立。一方面,競爭優勢的此消彼長是市場競爭常態,智能科技公司的行為并未對他人合法權益造成實質性損害;另一方面,智能科技公司經營的生成式人工智能平臺能夠有效增長用戶福利,促進文化事業發展。由此,一審法院認為智能科技公司并未利用生成式人工智能技術破壞市場競爭秩序,不構成不正當競爭。針對“定向訓練”構成不正當競爭的訴請,二審法院則以“最少且必要\"規則作為判斷智能科技公司的行為是否對其他經營者和消費者合法權益造成侵害的依據。二審法院認為,要求生成式人工智能服務商對輸入的每一份數據進行查驗不具有可行性,既會增加監管壓力,也會阻礙科技發展。此種情況下,生成式人工智能服務提供商所負有的注意義務應與其能力相適應。本案中,智能科技公司通過人工審核機制、內容安全審核服務、用戶反饋渠道等方式履行了注意義務,符合“最小且必要”,因此不構成不正當競爭。
由此可知,奧特曼LoRA案標志著我國司法機關對技術創新和市場秩序平衡思路進行了結構性調整。法院不再簡單沿襲競爭秩序受損或權益受損的傳統裁判理路,而是給予新興技術一定的發展空間,對后續案件裁判具有顯著示范意義。
(二)生成式人工智能涉數據競爭行為正當性判定的困境揭示
作為我國生成式人工智能涉數據競爭第一案,奧特曼LoRA案在無先例可循的情況下,突破了以往裁判理路,彰顯了司法實踐的適應性轉型。然而,類案缺失也導致案件裁判理路存在現實困境。
第一,在裁判理念層面。兩審法院對“包容審慎”裁判理念的適用彰顯了司法對科技創新的積極回應,但其內涵及構成要件的缺位可能對案件具體裁判造成困擾。2017年《政府工作報告》首次提出在制定新興產業監管規則時要秉持包容審慎原則[22]?!鞍輰徤鳌笔俏覈谛聵I態下探索監管模式的重要原則,當前學術研究也多聚焦于行政監管領域①。司法裁判層面的包容審慎理念尚未形成可操作框架,實際運用過程中可能出現主客觀雙重風險。主觀上,內涵與構成要件的缺位導致法官在案件審理過程中過于依賴主觀判斷,形成不同的解釋通路,致使同案不同判情況產生,動搖法律的可預期性和穩定性??陀^上,未經嚴密論證便將“包容審慎\"理念運用到生成式人工智能的司法裁判中,導致理論解釋難以清晰錨定新興技術行為的合法邊界,不法行為藏身于“包容審慎”中,實質弱化了司法對不正當競爭行為的剛性約束。
第二,在裁判范式層面,兩審法院雖通過不同的裁判范式將“商業道德”具體化,但仍包含主觀道德判斷,暴露出其與生成式人工智能特性的結構性錯配。一審法院以市場競爭秩序為切入點,構建“自由競爭”和\"公平競爭”兩個判斷基準。這種裁判范式在邏輯框架上具有自洽性,卻在具體論證環節存在疏漏。一審法院認為生成式人工智能顯著提高了創作效率,符合“效率優先”的自由競爭要求。但是,此種觀點存在的問題是:一方面,以“效率優先”為導向的自由競爭能促進生產力發展;另一方面,自由競爭是無法通過法律體系中的禁止性規定消除的競爭形態,瓜分市場和設置準人門檻都是自由競爭的典型后果[25]一審法院未結合案件具體情況對生成式人工智能平臺的行為進行客觀評價,模糊了技術創新與市場秩序的本質關聯。二審法院針對新提出的訴請轉向了主客觀結合判斷的范式。主觀上,二審法院認定生成式人工智能平臺不承擔數據逐條審查的義務,并以其設置的反饋機制推斷不存在主觀惡意。然而,法院未實際考察反饋機制的實質運作效能,生成式人工智能平臺可能并未建立配套處理機制或怠于處理反饋建議,將導致類似情況反復發生??陀^上,二審法院沿襲了一審法院從自由競爭和公平競爭兩個維度對案涉公司商業模式合法性和正當性的判斷,并未對其論證的缺漏進行補強。構建“商業道德”條款具體化的裁判范式的是當前數據競爭案件判決的難點。本案兩審法院一定程度上突破了既往范式對競爭利益的過度保護和對技術驅動的商業模式的簡單否定,卻尚未完全破解生成式人工智能引發的規范解釋困境。
第三,在裁判規則層面,兩審法院采取的裁判方式在說理過程中均表現出適用局限。一審法院即便強調了反不正當競爭法行為規制法的屬性,但運用的“技術中立”規則在實際操作中弱化了對具體行為的深人審查。司法實踐中,“技術中立\"主要以主觀過錯作為判斷依據,行為方無過錯時發生抗辯效力[26]。一審法院以“技術中立”切人,直接認定合理使用的技術及商業模式不會破壞市場競爭。一審法院既未進一步分析案涉平臺的主觀過錯,也未對技術的工具屬性有充分認知。生成式人工智能技術是競爭工具,本案正當性判定的核心應在于技術利用行為是否逾越法律邊界,而非單純依賴技術中立推定技術無錯。二審法院則采用\"最小且必要”規則來平衡其他經營者和消費者的合法權益?!白钚∏冶匾币巹t來源于“大眾點評訴百度案”,核心在于市場經營者應采取對其他經營者而言損害最低的競爭手段①?!白钚∏冶匾币巹t固然提供了相對可操作的衡量框架,但主要聚焦于分析對特定利益主體造成直接損害,忽略了對整體利益的系統性考量。具體而言,二審法院對“最小且必要”規則的適用存在雙重局限:一是法院以“海量數據\"作為辯解,降低了平臺應承擔的責任閾值,忽視了平臺通過使用大量未獲得充分授權的數據進行訓練,可能引發數據來源風險、算法風險、數據濫用風險等[27];二是二審法院對其他經營者與消費者合法權益的考量缺乏清晰界定,未能構建動態性、系統性的評估機制,難以全面衡量生成式人工智能在推動社會進步、產業升級及維護市場公平競爭方面所產生的效應。
結合上述分析,奧特曼LoRA案雖突破了以往限制,但裁判理路的實際運用仍面臨裁判理念內涵不明、裁判范式選擇存在分歧、裁判規則存在固有局限等重重阻礙。
四、生成式人工智能涉數據競爭行為正當性判定的理路廓清
生成式人工智能帶來的競爭模式躍遷與現行法律框架間的結構張力,導致司法機關在行為正當性認定的過程中面臨三重困境。裁判理路的系統性再造能有效實現技術治理中創新容錯與風險防控的有機統一。為妥善處理未來可能發生的類似案件,亟需針對已有困境對裁判理念、裁判范式和裁判規則的選擇與構建進行廓清。
(一)細化“包容審慎”裁判理念的內涵要件
《生成式人工智能服務管理暫行辦法》第三條指出,關于生成式人工智能的發展要堅持包容審慎[4]包容審慎理念實際上是“有效市場”和“有為政府”的深度結合,具體表現為“放得活”和“管得住”[28]156。奧特曼LoRA案兩審裁判暴露的裁判范式與裁判規則適用局限與張力,映射出“包容審慎\"理念在司法場域應用中內涵要件的缺位,進而導致包容邊界模糊、審慎程度不足。在“包容”層面,法院重點關注生成式人工智能技術的中立性,卻未明確技術創新與侵權行為的邊界。在“審慎”層面,二審雖引人“最小且必要\"規則,但平臺審查是否落實尚未可知。為進一步提升“包容審慎”理念在司法實踐中運用效果,可從以下三個方面構建“包容審慎”理念的內涵要件。
第一,確定市場失靈為干預邊界的理念邏輯?!鞍荨弊鳛榘輰徤骼砟畹暮诵膬r值取向之一,主張尊重市場的自我調節機制,并為生成式人工智能等新興業態預留充足的發展空間。市場競爭中,競爭優勢的此消彼長和競爭損害的產生是市場常態。市場機制未能有效消除壟斷和不正當競爭現象,難以實現公平的法律價值是市場失靈的典型表現[29。競爭法的規制是市場新業態發展過程中的法律底線和市場邊界,生成式人工智能自由發展抑或約束限制,二者邊界亦在于行為是否違反競爭法,是否導致市場不能有效調控而陷入失靈狀態[30]。司法機關作為被動角色,嚴格遵循“不告不理”,必然不能主動對市場主體行為進行審查。當案件進人司法流程,法院應充分維護生成式人工智能的發展空間以實現對“包容審慎”理念的貫徹落實,當且僅當市場確實進入失靈狀態時,方可果斷介入干預。
第二,審慎掌握行為判斷的司法尺度?!皩徤鳌弊鳛榘輰徤骼砟畹牧硪粌r值面向,要求司法機關在認定行為正當與否的具體過程中保持謙抑。評估生成式人工智能等新興產業中產生的不正當競爭糾紛時,需綜合考量是否違反基本法理以及是否對社會秩序造成顯著危害[31]。具體而言:在證據認定環節,需以嚴謹的舉證標準證明行為與競爭損害之間存在直接且實質的因果關系,同時確保所采集的證據具有客觀性、完整性和可驗證性;在規則適用層面,法院需綜合考量反不正當競爭法的基本原則和精神,充分考慮人工智能技術特性與市場創新需求,既不能簡單套用傳統規則,也不能片面追求技術創新效益。法律規則的穩定和科技創新的變動之間存在天然張力[32]。司法機關應通過多維度、綜合性的審慎分析,在確保技術發展的活力的同時,防止對市場競爭秩序造成損害。
第三,恪守否定評價的司法克制立場?!鞍輰徤鳌崩砟钫宫F“放”與“管”辯證結合的內涵,要求不過分憂慮科技創新帶來的市場風險,避免以風險為由對市場主體行為進行干預的非理性行為[28]157。在屏蔽視頻廣告類案件中,我國司法實踐長期側重保護既有商業模式,忽視了技術革新對市場生態的優化功能。德國聯邦最高法院在2018年的電視精靈案中指出,廣告屏蔽技術客觀上倒逼內容平臺提升廣告質量與用戶匹配精準度,最終通過市場競爭實現消費者福利的整體增進①。風險本是尚未發生之事,法律對技術風險的過度防御,可能反向抑制市場機制的自我優化。在“包容審慎”理念的指導下,法院不能僅因風險存在便給予行為否定性評價。換言之,法院對生成式人工智能競爭行為正當性的認定應保持克制,未有充分依據不應認定為不正當。
當前,司法實踐已呈現積極轉向。無論是我國的奧特曼LoRA案還是美國 Andersen v.StabilityAI案,法院均未對生成式人工智能涉數據行為給予否定性評價,充分彰顯了司法機關對創新包容和秩序維護的理性平衡。
(二)堅守“利益衡量”裁判范式的分析路徑
無論是一審還是二審的裁判范式,都未對“商業道德”條款的具體化嘗試。“商業道德”條款本身極為抽象,難以通過單純的行為判斷、主客觀考量進行判斷。經過了實踐和理論的不斷探索,司法實踐中出現了大量以利益衡量作為裁判范式的案件,對個人利益與公共利益①、人身權益和財產權益②等各類利益沖突進行比較衡量。利益衡量是對案件進行實質性判斷的法解釋方法,要求法院認定行為正當性時必須充分考慮裁判結果可能對各方利益造成的現實影響,同時謹慎甄別各方當事人主張的利益訴求是否客觀真實[33]。相較于抽象的商業道德范式而言,利益衡量范式能準確厘清核心利益,有效分析關涉各層級的利益種類,劃分利益的優先程度,從而實現各方利益的整體最大化[34]。
生成式人工智能涉數據競爭中涉及的利益相關方亦是責任相關方,主要包括數據提供方、生成式人工智能服務提供商、平臺用戶和其他市場競爭者。法院對各方利益的衡量兼具復雜性和挑戰性,必須明確利益核心進而拓寬衡量路徑,以準確衡量案件裁判可能帶來的法律效果、社會效果和經濟效果[35]。具體而言:
第一,數據提供方的利益核心在于維護數據涉及的知識產權、數據完整性及隱私安全,確保提供的數據不被未經授權或不正當方式利用。法院在裁判過程中,應對生成式人工智能平臺數據使用流程進行審查,重點考察是否存在數據濫用、越權使用或數據隱私再現的現象。一方面,法院要考慮是否存在因不正當數據利用導致市場失靈;另一方面,法院還要維護消費者和其他經營者對數據安全和公平競爭環境的信任,從而在整體上促成技術創新與公共利益協調發展的裁判結果。
第二,生成式人工智能服務提供商的利益核心在于保證技術創新和商業模式發展的充足空間,同時確保其在利用數據進行模型訓練與服務輸出時符合法律要求,不損害其他主體合法權益。在評估平臺行為時,法院應構建一個多維度利益評估框架,既要考察平臺利用數據進行模型訓練和服務輸出是否對數據提供者、終端用戶和其他市場競爭者造成直接或間接損害,又要權衡這些損害與平臺創新推動的整體社會效益之間的關系。通過權衡短期競爭損害與長期整體利益,確保裁判結果既能維護公平競爭,又不致妨礙技術創新。
第三,生成式人工智能平臺用戶的利益核心與平臺生成的內容相關。用戶依賴平臺獲得生成內容,以輔助決策、獲取信息或進行創作。生成內容的準確性、客觀性和合法性直接關系到用戶的使用體驗和權益。此外,平臺用戶的數據可能也參與到生成式人工智能的訓練中,平臺在數據采集、存儲和處理過程中應嚴格遵守隱私保護法律法規,防止數據泄露、濫用或未經授權的傳播。
第四,其他市場競爭者的利益核心在于市場公平競爭,保障其在技術研發和商業競爭中的平等參與。法院應綜合評估生成式人工智能平臺的行為對數據流通、技術研發和資源配置的影響,防止因數據封鎖而導致市場競爭失衡,進而阻礙其他競爭者的創新投入和商業發展的情況,確保裁判結果能促進數據開放和信息共享。
(三)拓寬“最少且必要”裁判規則的分析框架
反不正當競爭法作為“行為規制法”,跳脫了侵權法“權利侵害”的認定模式,強調對行為正當性的判定?!白钌偾冶匾币巹t作為利益衡量范式的具體展開,將市場經營者采取的競爭手段對其他經營者的損害是否最小,作為判斷行為正當與否的依據。二審法院運用“最少且必要”規則,衡量行為對利益相關方的影響,彌補了“技術中立”規則忽視反不正當競爭法作為“行為規制法”的缺陷。但“最少且必要”規則的作用面較窄,難以在生成式人工智能案件中系統衡量多方影響。面對數字經濟時代下的數據權屬、算法歧視等新型糾紛,理論與實踐均嘗試通過比例原則建立更為精細的利益衡量分析范式。從功能上看,“最少且必要”規則與比例原則存在邏輯關聯。前者聚焦競爭損害的最小化控制,后者則通過目的“正當性、適當性、必要性和均衡性”[36]四項子原則,構建層次分明的利益衡量框架。比例原則發端于德國警察法,是行政法中衡量干預適度性的重要原則[37]。近年來,比例原則的應用場域延伸至經濟法。在奧特曼Lo-RA 案中,針對生成式人工智能涉數據競爭中涉及的多方主體,司法機關可通過比例原則的四項子原則完善利益衡量具體路徑。需注意的是,比例原則的域外適用寬嚴有別,鑒于生成式人工智能產業發展是否會對競爭秩序造成損害尚未定論,比例原則適用過程中應當堅守謙抑性理念,對具體行為進行柔和審查[38]。
以奧特曼LoRA案為例,比例原則的適用可做如下推演:首先,生成式人工智能平臺利用數據進行模型訓練和服務輸出,其根本目的是推動技術創新、提高產品質量和滿足市場需求,符合公共利益和產業進步的要求。從整體上看,推動技術創新和提升服務效率是促進經濟發展和社會進步的正當目的,符合“目的正當性”的要求。其次,“適當性”原則要求所采取的措施應能有效實現既定目的,重點在于手段與效果的適配性。在奧特曼LoRA案中,平臺采集和利用大量數據進行模型訓練,旨在不斷優化算法性能和生成內容的質量,進而提升市場競爭力。這一做法能直接促進產品創新和服務改善,是適當且具有實際效果的?!斑m當”雖強調手段的有效性,但惡性手段不應包含在內。如前所述,生成式人工智能通過獲取海量數據帶來的三重風險,要求在平臺運行過程中對數據隱私、版權和信息安全進行合理保障,確保技術創新與合法合規之間取得平衡。即使生成式人工智能平臺難以對海量數據進行一一核查,但在具體裁判過程中,法院有必要對其采取的防范措施進行實質性檢驗,僅文字分析便下定論的結論可信度不足。再次,“必要性”原則要求在實現目標時,所采取的手段應為“最少且必要”,即不存在同樣能夠達到目標但侵害更小的替代方案,是對手段造成的損害程度的限制。奧特曼LoRA案中,平臺為了保證模型的高效訓練和優質輸出,不得不依賴大量數據作為支撐。有限的數據來源無法滿足創新和服務質量的要求,通過多方渠道獲取大規模數據可以被視為必要的手段。平臺獲取的數據應通過數據篩選、脫敏等技術,防范數據濫用和侵權風險,從而確保在實現創新目的的同時,對他人權益的影響降到最低,如此方能符合“適當性”原則要求。最后,“均衡性”原則要求在保護公共利益與限制個體權益之間實現合理平衡。在奧特曼LoRA案中,法院應在支持生成式人工智能技術創新和保護數據提供方、市場競爭者合法權益之間進行權衡。生成式人工智能平臺在推動技術進步和市場效率方面具有顯著積極效應。根據前文分析,生成式人工智能推動競爭模式躍遷,數據競爭從數據獲取演變為內容重構,極有可能出現隱私再現、版權侵權等現象?!鞍輰徤鳌崩砟钪笇碌乃痉ú门薪o予生成式人工智能發展時間和容錯空間。誠然,實踐中不應采取過度嚴格的干預措施扼殺技術創新和商業模式發展,但也必須嚴格防止生成式人工智能的數據使用對他人合法權益造成嚴重損害。新技術的發展不可避免觸碰到在先利益的邊界并造成一定損害。損害必然存在98
時,司法實踐的判斷焦點應當在于行為方提供的救濟措施是否能有效阻止損害造成不可彌補的影響。本案中,生成式人工智能平臺提供的舉報系統和下架服務,能及時阻斷損害擴散,因此符合“均衡性”原則。
比例原則在奧特曼LoRA案的司法審查中逐層遞進。在目的正當性層面,判斷生成式人工智能平臺的行為是否契合推動技術創新、促進社會進步的目的;在適當性層面,細究平臺獲取數據的行為是否有助于精準實現技術創新的目的;在必要性層面,衡量行為是否會造成不可逆轉的損害,以及救濟措施是否能有效阻斷損害擴散;在均衡性層面,既包容技術試錯空間,又守住權益保護底線。以上審查邏輯為生成式人工智能的行為劃定了鼓勵創新但不縱容侵權的司法邊界。
五、結語:平衡有為政府和有效市場
數據作為數字經濟時代的“石油”,圍繞數據資源搶奪造就的一系列新型不正當競爭糾紛衍生大量司法難題。生成式人工智能作為數據應用的典型代表,運行階段涵蓋數據獲取、數據訓練和內容生成,其數據競爭行為的正當與否難以判斷。當前司法實踐以包容審慎的理念為基礎,構建了與之適配的裁判范式和裁判規則。但由于缺乏類案指導,我國生成式AI不正當競爭首案——奧特曼LoRA案的一審和二審裁判仍存在理念不明確、范式不清晰、規則不統一等問題。為給后續類案提供指導,需要細化包容審慎裁判理念的內涵構成,明確利益衡量裁判范式的選擇,拓寬“最少且必要”裁判規則的分析框架,從而準確判斷生成式人工智能涉數據競爭行為的正當性。
生成式人工智能的技術迭代與法律規制產生的矛盾,本質上是平衡市場創新效率與市場秩序的命題,也是有為政府和有效市場的張力體現。理論上,有效市場依賴于競爭機制的正常運行,企業通過數據積累和算法優化提升市場競爭力,市場最終形成優勝劣汰的動態格局。但現實中,生成式人工智能企業可能利用數據優勢限制競爭對手獲取數據資源,從而削弱市場可競爭性。市場機制未必能自動調整競爭失衡,市場失靈時則需要政府適當介人。過度干預會抑制市場主體的自主創新動力。因此,司法裁判的關鍵在于法院應依據市場動態競爭情況,對數據競爭糾紛進行精準干預,既避免生成式人工智能平臺利用數據優勢形成不公平競爭,也避免過度干預導致技術創新受阻。唯有以“包容審慎”為理念指導,精準掌握司法干預尺度,方能實現行業創新活力與市場公平競爭的動態平衡的同時,推動生成式人工智能技術在法治框架內的可持續發展。
參考文獻:
[1]WACHK.,UONGC.D.,EJDYSJ..TheDark SideofGenerativeArtificial Intellgence:aCriticalAnalysisofControversiesand Risks of ChatGPT[J]. Entrepreneurial Business and Economics Review,2O23(2) :8.
[2]FEURRIEGEL S.,HARTMANNJ.,JANIESCH C..Generative ai[J].Business amp; Information Systems Engineering,2024(1):111.
[3]賀俊,龐堯.數字技術驅動的產業融合發展范式與面向融合范式的政策體系調整[J].湖南科技大學學報(社會科學版),2023(4):71.
[4]國家互聯網信息辦公室,中華人民共和國國家發展和改革委員會,中華人民共和國教育部,等.生成式人工智能服務管理暫行辦法[EB/OL].(2023-07-10)[2025-04-21].htps://www.gov.cn/zhengce/zhengceku/202307/content_6891752. htm.
[5]陳耿華,陳翰臣.數據不正當競爭行為判定的反思與完善[J].重慶郵電大學學報(社會科學版),2024(4):53-54.
[6]李希梁,張欽昱.生成式人工智能的反壟斷規制[J].電子政務,2024(5).
[7]王健,吳宗澤.生成式人工智能反壟斷論綱[J].法治研究,2024(6):130-147.
[8]雷浩然.生成式人工智能領域的壟斷風險及其治理路徑[J].中國流通經濟,2025(4):115-126.
[9]杭州互聯網法院.用戶生成奧特曼侵權圖片,AI平臺要擔責?杭州互聯網法院判決解析來了![EB/OL].(2025-02-10)[2025 -03 -25]. htps://mp. weixin.qq. com/s/ZgqsKlCToaQb9QW_JHwi0g.
[10]北京市律師協會.律師視點丨AI數據訓練使用他人作品的合理使用判斷——從中美兩國數據訓練著作權首案判決談起[EB/OL]. (2025 -04-08)[2025-04 -15]. htps://mp.weixin.qq.com/s/1UcchtT9UF5QvuinTB_lpg.
[11]ZECCHINI G.,MOORE AA.,UblM.. The rise of the AI crawler[EB/OL].(2025-03-10)[2024-12-17].https://vercel.com/blog/the-rise-of -the-ai-crawler.
[12]Crawl4AI. Open-Source LLM-Friendly Web Crawler amp; Scraper[EB/OL].(2024-10-14)[2025-04-15].Crawl4A1,https://docs. crawl4ai. com/.
[13]HUANG CJ..The SynergyofAutomated Pipelines with Prompt Enginering and Generative AI in Web Crawling[J/OL].(2024 -12 -29)[2025-04 -04].arxiv.org. htps://arxiv.org/abs/2502.15691.
[14]LIUE.,LUOE.,HANS..SomesiteIUsedTo Crawl:Awareness,AgencyandEficacyinProtecting Content CreatorsFromAI Crawlers[J/OL]. (2024-12-22)[2025 -03-15]. htps://arxiv.org/abs/2411.15091.
[15]ALLYNB..‘The New York Times’takes OpenAI to court.ChatGPT'sfuturecould be on the line[N/OL].(2025-01-14)[2025-03-21].NPR News.htps://www.npr.org/2025/01/14/nx-s1-5258952/new- york-times-openai- mi-crosoft.
[16]張濤.生成式人工智能訓練數據集的法律風險與包容審慎規制[J].比較法研究,2024(4).
[17]BAACK S..A Critical Analysisof the Largest Sourcefor Generative ai Training Data:common Crawl[J/OL].(2024-01-05)[2025-04 -01].ACM Digital Library.htps://dl.acm.org/doi/10.1145/3630106.3659033.
[18]BADRM.Unleashing the PowerofAI:the MicrosoftandOpenAIPartnership[J/OL].(2023-04-18)[2025-03-22].Uni-versityof Washington.htps://digital.lib.washington.edu/researchworks/items/7fea15-dcdb-4b67-8bl3-cd234e782bd8.
[19]瑪麗亞木·艾斯凱爾.合成數據:生成式人工智能數據訓練中隱私保護和數據利用并行的新路徑[J/OL].圖書館建設,(2024-12-20)[2025-06-11]. htp://kns.cnki.net/kcms/detail/23.1331. G2.20241220.0845.002.html.
[20]李耕,王梓爍,何相騰,等.從 ChatGPT到多模態大模型:現狀與未來[J].中國科學基金,2023(5):725.
[21]POPEHLR A..NYT V.OpenAI: The Times’s About-Face[J/OL].(2024-04-10)[2025-03-21].Harvard Law Re-view.https://harvardlawreview.org/blog/2024/O4/nyt-v-openai-the -timess-about -face/.
[22]中國政府網.政府工作報告(全文)[R/OL].(2017-03-16)[2025-04-05].htps://w.gov.cn/xinwen/2017-03/16/content_5177940. htm.
[23]劉權.數字經濟視域下包容審慎監管的法治邏輯[J].法學研究,2022(4):37-51.
[24]廖凡.論金融科技的包容審慎監管[J].中外法學,2019(3):797-816.
[25]貝爾納·克萊芒.自由競爭[M].黃傳根,譯.上海:商務印書館,2001:1.
[26]王雯慧,馬瑞麗.論技術中立原則在網絡知識產權侵權中的抗辯效力[J].華北水利水電大學學報(社會科學版),2018(5) :91.
[27]劉輝,雷崎山.生成式人工智能的數據風險及其法律規制[J].重慶郵電大學學報(社會科學版),2024(4):41-42.
[28]戚聿東,劉?。斯ぶ悄墚a業的包容審慎監管:理論內涵與實現路徑[J].蘭州大學學報(社會科學版),2024(4).
[29]盧代富.經濟法中的國家干預解讀[J].現代法學,2019(4):118.
[30]劉乃梁.包容審慎原則的競爭要義——以網約車監管為例[J].法學評論,2019(5):129.
[31]袁康,鄢浩宇.包容審慎視角下數據競爭法律制度的理念調適與范式革新[J].北京郵電大學學報(社會科學版),2022(3) :40.
100
[32]黃鏟.論我國人工智能領域包容審慎監管的法治維度[J].財經法學,2025(2):102.
[33]盧代富,張煜琦.從權益保護到利益衡量:數據抓取行為正當性認定的路徑優化[J].河南財經政法大學學報,2022(6) :66.
[34]任明艷.利益衡量如何在民商事案件中展開?[EB/OL].(2025-03-10)[2025-04-01].https://mp.weixin.qq.com/s/x6hFpOpy9_IGr4QCySqtvA.
[35]陳金釗,左飛.論利益衡量規則[J].河北法學,2025(5):33.
[36]Gesammelte S..Claus-Wilhelm Canaris[M].Berlin:De Gruyter,2O12:775.
[37]史欣媛.論比例原則在經濟法中的適用[J].現代法學,2022(2):36.
[38]史欣媛.屏蔽視頻廣告行為正當性判定的理路反思[J].廈門大學法律評論,2023(1):150.
(責任編輯:蒲應秋)
Legitimacy Determination of Data Competition Behavior Involving Generative Artificial Intelligence: a Review of the AI -Generated Ultraman Image Copyright Infringement Case
SHI Xinyuan',ZHENG Jinglei2 School of Law,Xiamen University,Xiamen,Fujian,China,361Oo5;2.Center for Financial Law, Xiamen University,Xiamen,Fujian,China,361005)
Abstract:Disputesarisingfromdatacompetition behaviorinvolvinggenerativeartificialintellgence(GAI)permeatevarious aspects fdata circulation.Basedonthetechnological processtages,such behaviorcanbe deconstructedinto threespecifictypes: improperdataacquision,datainterference,anddatamisuse.Incomparisontotraditionaldatacompetition,thedata-driven natureofGAIrendersitsriskbenefitstructuremorecomplexanddiverse,exacerbating thechallngeofdeterminingthelegitimacy of the involved data competition behavior.The firstcase in China involving GAI and improper data competition - the“Ultraman LoRAcase”—underscoresaperspectivethatscrutinizestherelatioshipbetweentechnologicalinovationandmarketcompeition throughadynamiccompetitivelens,wichisworthemulating.However,acloseexamiationofthejudicialreasoninginthiscase revealspracticalimpedimentssuchasunclearjudicialconceptual implications,structuralmismatches injudicialparadigms,anda deviationfromtheessnceofcompetitioninthejudgmentrules.Hence,futuredeterminationsof thelegitimacyofdatabehavior involvingGAIshouldupholdtheprincipleof“inclusivenessandprudence,emphasizingarational balancebetweeninovative inclusivityandorder maintenance,downplayingsubjectivemoralevaluation,adhering toa judgmentparadigm basedonbenefits assessment,broadeningthesopeof“mnimalandnecessry”rules,extendingtheirappicationframeworkthroughthepricipleof proportionality,andthusrealizing asystemicreconstructionof thelegitimacyofdatacompetionbehaviorinvolving GAI.
Key words :generative artificial intelligence ;data competition;legitimacy; Ultraman LoRA Case