先藕潔 劉胤衡
美國人工智能研究實驗室OpenAI推出的大型預訓練人工智能語言模型ChatGPT,正成為很多年輕人關注和熱議的焦點。
華中科技大學法學院副教授滕銳在接受采訪時表示,ChatGPT是大量不同的數據集群訓練出來的語言模型,無法確切對其內在的算法邏輯進行分解,所以不能確保在使用ChatGPT過程中,其所輸出的內容不會產生攻擊傷害用戶的表述。
“如果ChatGPT的回復是錯誤或虛假信息,會具有極大的誤導性,有潛在法律風險?!痹谒磥?,ChatGPT難免存在一些侵犯用戶隱私的內容。此外,若回復中存在過度借鑒他人作品的情況,使用不當就有可能侵犯他人的著作權。
北京京師(上海)律師事務所高級合伙人李陽律師分析,ChatGPT這類的AI軟件沒有獨立人格,不具備我國著作權法規范中“作者”的主體資格。AI軟件有可能使用未經授權的作品作為素材,只要是網絡上公開的數據和信息,就有可能成為被AI學習的數據。李陽認為,作者很難查清楚自己的作品是否被AI用來“學習”了,“權利人如果要進行維權,在當前法律體系下難度很大”。
滕銳指出,ChatGPT的內容本質,是基于它所擁有的數據進行表達意志的創作,不具備法律人格,不能承擔相應的法律責任,如果ChatGPT侵害了他人的著作權或泄露了他人隱私,由它的權利人或使用者來承擔相應的法律責任。
“推動構建人工智能治理體系,政府加強監管和研發者保持自律尤為重要?!彪J說,要避免ChatGPT引發數據安全問題,如泄露商業秘密及違背保密義務,需從法律層面明確ChatGPT產品的應用范圍,推進數據的分類分級,規定不同種類數據的保護級別和措施。
在武漢大學法學院教授孫晉看來,在人工智能大數據的時代背景下,數據隱私泄露問題愈演愈烈,ChatGPT作為數字技術的應用,開發者和使用者都是第一責任人。他提醒,由于ChatGPT的算法和算力均很強大,如果開發者或使用者濫用市場支配地位,會具有便利性和隱蔽性,會對反壟斷法帶來新挑戰。
滕銳認為,機器人走上更高智能階段的同時,人類利用機器人違法犯罪的現象也會出現,從刑法的角度來看,人工智能不具有刑法意義上的辨認和控制自己行為的能力,但可對機器人背后的自然人進行處罰。
目前,為了避免學生過于依賴人工智能類工具,防止作弊,多國學校已經發出禁令,禁止學生在學校內使用類似于ChatGPT的人工智能工具完成學習任務和考試?!斑@是警示年輕人,要明白人工智能技術是人類的輔助工具,并不能替代人類進行智力創作,如果年輕人完全依賴,會影響創新創作能力?!敝袊淖种鳈鄥f會總干事張洪波說。
在張洪波看來,人工智能工具可以幫助人類快速處理字數多、容量大的文本內容,但最終的智力創作成果,還是要人類自己來完成。開發者開發設計人工智能工具的目的,應該是讓人類學習、生產、生活更方便、快捷、準確,而不是懶惰和消極。孫晉也提醒,年輕人要注意,網絡不是法外之地,利用新技術時,不要觸碰道德和法律底線。
(選自《中國青年報》2023年2月17日,有刪改)
●訓練
1.對上述材料的理解與分析,不正確的一項是(? )
A.AI軟件如果“學習”了未經授權的作品,該作品的作者想在當前法律體系下進行維權難度很大。
B.ChatGPT如果侵害了他人的著作權或泄露他人隱私,不能承擔相應的法律責任,應由它的權利人或使用者來承擔相應的法律責任。
C.滕銳建議,在內容保護上,要定期將算法合規納入大數據安全體系,對其使用情況進行安全審計、評估驗證等。
D.如果年輕人完全依賴人工智能技術,會變得懶惰和消極,會影響其創新創作能力。
2.結合文本,分析ChatGPT存在哪些“坑”?
答: