張婷婷
青島科技大學,山東 青島 266061
人工智能的飛速發展,給人們的生活帶來了極大的便利,在這一領域最重要的進步之一是聊天機器人ChatGPT(Chat Generative Pre-trained Transformer,簡稱“ChatGPT”)的興起,它是由美國OpenAI 公司開發的一個大型語言模型,不僅能對用戶輸入的問題進行快速精準回答,還能生成編程代碼、電子郵件、論文、小說等各類文本,其上線不到一周的時間便突破了100 萬用戶的大關,成為繼戰勝世界圍棋冠軍的AlphaGo 后又一個具有劃時代意義的AI 產品。
1.生成內容的著作權問題
人工智能本身并沒有創造能力,而是通過大量資料的學習拼湊內容。用戶通過ChatGPT 平臺生成的文章或者圖片的版權到底屬于誰,目前這個歸屬定位是模糊的。筆者在閱讀了OpenAI 公司官網的“使用條款”后發現,該條款明確說明只要用戶在遵守法律規定、使用條款限制,并且對輸入內容具備所有權的情況下,OpenAI 就會將其在輸出內容中的所有權利、所有權和利益轉讓給用戶??梢?,OpenAI 公司是將ChatGPT 平臺所形成的內容的所有權讓渡給了用戶。2022 年12 月21 日,英矽智能創始人兼CEO Alex Zhavoronkov博士撰寫的探討雷帕霉素抗衰老應用的論文,發表于《Oncoscience》(腫瘤科學)期刊上,值得注意的是,ChatGPT 以共同作者的身份出現在了這篇論文上,這無疑是對ChatGPT 享有著作權的肯定。有關ChatGPT 是否享有著作權的問題也成為大家爭議的焦點。
在我國,關于著作權的所有規定中,并沒有將AI 機器人列入其中,但使用ChatGPT 最終形成的文本確實是由其生成的,并沒有用戶自我創造的過程,因此,如何界定著作權的問題亟待通過法律途徑解決。
2.生成內容侵犯他人知識產權的問題
ChatGPT 的回答來源于海量的信息庫,其生成的文本或者圖片很有可能是他人發表的經知識產權所保護的作品,如果直接被搜索到該文本或圖片的用戶拿來使用,這必然會侵犯他人合法的知識產權。根據《中華人民共和國著作權法》(以下簡稱《著作權法》)第二十四條,在合理使用他人作品而不構成侵權的十三種情形中,如果僅出于研究目的進行研發、訓練,則可以適用該合理使用情形,而基于商用目的或者為研發者帶來了直接的商業效益,則無法適用該合理使用情形。因此,ChatGPT 對海量信息挖掘處理在我國法律中并不屬于“合理使用”的范疇,并且很可能引發知識產權糾紛。但也有很多人主張ChatGPT的數據挖掘屬于對資源的合理利用,不涉及侵權問題。日本是最早對數據挖掘作出例外規定的國家。根據《日本著作權法》規定,允許為了計算機信息分析的目的(即從眾多作品或者其他大量信息中篩選出構成該信息的語言、聲音、影像或者其他要素,并進行比較、分類或者其他統計分析)在必要限度內將作品存儲在媒介上或者進行改編。根據該例外情形,企業為了商業目的復制他人作品并用于計算機信息分析可能構成合理使用的情形,而ChatGPT 對文本數據的商業使用恰好符合這一情形。[1]
作為一種語言模型,ChatGPT 需要訪問大量數據才能有效運行。這些數據不僅包括用戶進行的輸入,還包括關于他們的行為、偏好和其他個人細節的信息。而這些數據一旦泄露,不僅是對個人隱私的侵犯,還可能被有心之人非法利用,對社會乃至國家造成巨大損失。近日,有用戶分享了在聊天機器人ChatGPT 上看到了不屬于自己的聊天記錄。ChatGPT 的企業負責人表示,ChatGPT 近日被發現存在漏洞,用戶可以看到其他用戶與ChatGPT 對話的標題。2023 年3 月25 日,OpenAI 公司發文證實,部分ChatGPT Plus 服務訂閱用戶可能泄露了部分個人隱私和支付信息。無獨有偶,某星公司引入聊天機器人ChatGPT 不到20 天,便發生3 起涉及ChatGPT 誤用與濫用案例,包括兩起“設備信息泄露”和一起“會議內容泄露”,其中,半導體設備測量資料、產品良率等內容或已被存入ChatGPT 學習資料庫中。如果這些個人信息或者商業秘密泄露,可能會對個人或企業的信譽造成不良影響。
事實證明,ChatGPT 的確存在泄密的風險,在合理利用與侵犯隱私之間存在一個度的問題,而如何把握這個度,則需要法律對此進行規制。由于ChatGPT 是一個自然語言處理模型,它本身并不具備泄密的能力。但是,如果ChatGPT 被用于處理敏感信息,而且有人惡意利用ChatGPT 來泄露這些信息,那么應該有相應的法律規制來懲罰這種行為。此外,還應該有明確的隱私保護政策和技術措施來防止ChatGPT 被濫用或攻擊,以保護用戶的隱私和數據安全。
ChatGPT 在運行時首先會對用戶輸入的信息進行預處理,包括對單詞進行分詞、對詞性進行標注等,然后ChatGPT 會利用上下文信息和先前的對話歷史,對用戶輸入的意圖進行理解。最終ChatGPT 會從生成的回復中選擇最佳的一個,并將其返回給用戶。在這個過程中,ChatGPT 會考慮回復的相關性,語法正確性、連貫性等因素。用戶最終得到的回復,經過了ChatGPT 自主識別收集信息并處理的過程,雖然與普通搜索引擎相比,用戶得到的回復會更加迅速,但回答是否可靠有待考證。
我們在使用普通搜索引擎時,可以看到信息的來源。但是ChatGPT 生成的文本回答則看不到,我們不知道資料來自哪里,也就無法對其真實性進行考證。ChatGPT 的訓練需要大量的語料庫,而這些資料都是滯后的,特別是在詢問與時政相關的問題時,它無法給出有效真實的回答,其所提供的虛假信息很容易誘導他人。并且,用戶在使用時可以通過不斷輸入指令來對ChatGPT 進行“調教”,使其回答符合自己想要的形式,這樣就容易導致一些不法分子惡意“訓練”人工智能,使其提供詐騙信息、釣魚網站等內容,損害公民人身財產安全。[2]
1.明確生成內容的著作權歸屬
目前,對于ChatGPT 生成內容的著作權歸屬問題,有學者主張生成內容是歸用戶所有,由用戶享有對生成內容的著作權,也有學者認為Chat GPT 通過海量信息檢索整合而生成的內容理應歸ChatGPT 所有。
根據我國法律規定,文學、藝術和科學作品的作者享有對作品的著作權,而作品是指文學、藝術和科學領域內具有獨創性并能以一定形式表現的智力成果,所以,只要ChatGPT 所生成的內容是具有獨創性的智力成果,便符合我國《著作權法》對著作權歸屬的規定。雖然最終從ChatGPT得到的作品是ChatGPT 通過算法生成的內容,但實際上是用戶經過自己的思考,通過不斷輸入自己的想法引導ChatGPT 而得到的,從這個層面來講,ChatGPT 所生成的內容實際上是用戶的智力成果的體現。但是,如果簡單把ChatGPT 生成的內容直接歸屬于用戶所有,還會引發一個重要的問題是,當不同的用戶在輸入類似的問題時,可能得到的是相同的作品,那這種情況下,法律又該怎么界定著作權的歸屬?筆者認為ChatGPT生成的內容不應當被視為作品受到著作權法的保護。我國《著作權法》第二條規定,中國公民、法人或者非法人組織的作品,不論是否發表,依照本法享有著作權。該條表明只有公民、法人或者非法人組織才享有著作權,因此,ChatGPT 作為一個AI 機器人,并不享有著作權,并且其生成的內容是基于強大的語料庫的訓練,是在用戶的指令下完成的,它并不具備獨立思考的能力,因此其創作內容也不具有獨創性,不應當被視為作品保護。在不同用戶得到相同的生成文本時,這些用戶應當都有對其利用的權利,在此應當認定為ChatGPT 生成的內容是一種信息共享,而不是作品專屬。[3]
2.將數據挖掘納入合理使用范疇
在ChatGPT 應用的過程中,必然會有數據挖掘的過程。所謂的數據挖掘就是對已有的數據庫進行搜索,在數據庫中會存在他人依法受到知識產權保護的文學、美術、攝影作品等,當ChatGPT在對這些作品收集整理時,毫無疑問會侵犯到他人的合法權利。但是,如果僅僅因為數據挖掘會對知識產權造成一定沖擊,就全盤否定數據挖掘存在的合理性是非常不理性的。通過數據挖掘,ChatGPT 可以在短時間內對海量數據庫進行檢索并快速響應,它的檢索速度和能力是人類所不能比肩的,數據挖掘可以為我們在繁瑣的工作中節省大量的人力和物力。因此,將數據挖掘納入到合理使用的范疇是非常有必要的。在制度設計中可以從以下兩個方面入手:
第一,設立該制度的目的是鼓勵科研創新,在使用目的上不應局限于非商業目的,因為在實際應用中,很難區分是否屬于商業目的,并且基于商業研發需求也符合科研創新的目的;第二,表現形式是通過合法途徑獲取。作品使用人通過向著作權人支付一定的對價從而獲得對作品的使用權是著作權保護的基本方式,數據挖掘只有在通過合法途徑獲得的情況下才可以被認定為合理使用,如果是通過非法途徑獲得的,則需要對著作權人承擔侵權責任。[4]
我國法律對隱私權采取的觀點是一種“秘密說”,即隱私權針對的是未公開的信息,但是對于ChatGPT 等人工智能在無形之中收集的用戶信息并沒有明確的規定。隨著科技的不斷發展,人工智能也日新月異,傳統的隱私權的界定范圍已經不能滿足現代人維護自己合法權利的要求,因此,需要立法對隱私權的保護進行一定的完善。
第一,對隱私權的范圍進行擴張,法律應當跟隨時代潮流,適時改進一些滯后的規定,在傳統的隱私權范圍不能解決現代科技所帶來的問題時,就需要進行一定的擴張,將ChatGPT 等人工智能在應用時所可能涉及的問題納入隱私權的范圍。
第二,對用戶的權利進行明確。用戶對自己所輸入的信息享有處分權,ChatGPT 在處理收集的信息時,應當得到用戶的同意,用戶應當享有拒絕公開自己所輸入的信息的權利,如果未經同意,ChatGPT 將個人信息公開,則構成對隱私權的侵犯。
第三,對行業加強監管。ChatGPT 等人工智能系統還屬于新興事物,需要較強的專業知識,因此,有必要通過專門的監管機構對其監督,督促監管范圍內的企業按照法律規定和行業規范生產經營,在違反相關規范時進行追責。
為了防止不法分子趁虛而入,利用ChatGPT進行網絡犯罪活動,企業應當根據相關法律對于隱私權保護的規定,制定嚴格的行業規范,同時,法律也要進一步強化企業的責任。由于ChatGPT是開發者通過算法模型的訓練與控制運行的,對于開發者而言,第一,需要從源頭上對數據的來源可靠性進行篩查,過濾掉違法犯罪的信息;第二,在向用戶提供信息時,應當明確告知信息的來源,以便用戶查明真偽;第三,在用戶接收到可能存在詐騙、傳銷等違法犯罪信息時,平臺應當攔截并給予用戶一定的提示,防止用戶在使用過程中上當受騙。
現階段ChatGPT 雖然已經更新到4.0 版本,但依然還是處于弱人工智能向強人工智能的進化過程,并不具備獨立思考的自主意識,這就極易被不法分子進行訓練,利用其無自主意識的弊端實施犯罪,為防止此類事件的發生,筆者認為可以通過事前和事后兩種方式進行干預。事前是指人工智能行業在算法訓練時應加強對于ChatGPT等的系統倫理道德類的訓練,使其能夠精準判斷信息;對國家而言,則要嚴格行業準入制度,在ChatGPT 等類似系統上線前,應進行嚴格審查,可以與國家反詐系統相對接,避免犯罪發生。事后則是需要明確相關責任人,對研發公司、開發人員、網絡提供商、用戶等責任進行明確,確保在發生侵權糾紛時有法可依。
人工智能的發展日新月異,特別是ChatGPT的興起引發大家的廣泛關注,但我們在享受Chat-GPT 帶給我們便利的同時,也面臨著對于知識產權問題、隱私問題、虛假信息以及網絡犯罪等方面的安全風險。為防止ChatGPT 相關的網絡亂象的發生,應當從法律層面進行一定的規制,包括完善著作權和隱私權保護立法,強化行業責任,加強數據監管等措施。