鄭 婕
青島科技大學,山東 青島 266061
人工智能是智能學科重要的組成部分,它企圖了解智能的實質,并生產出一種新的能與人類智能相似的方式做出反應的智能機器。隨著現代社會科學技術的不斷發展,人工智能的水平逐漸提高,基礎理論與技術提升愈發完善,使得人工智能的運用漸漸擴大到社會的各個領域中。
隨著人工智能被廣泛應用到互聯網信息服務中,其作為“顛覆性創新”,從對生活的影響可擴大至對社會生產的影響,進而帶動經濟結構變革乃至整體產業革命,甚至重構經濟體系[1]。與其影響力對應,其引起的法律風險得到社會越來越多的關注,而有關法律風險幾乎都是由于準入制度的匱乏、市場監管的低效、信息披露的不足和法律責任的模糊所造成的[2]。因此學界圍繞人工智能各項問題討論的最終落腳點都離不開相應的政策和法律保障——當前尤其需要加強經濟法規制。
人工智能侵權是指人工智能系統在運行過程中,侵犯了他人的合法權益,例如,侵犯隱私、知識產權等。人工智能的侵權主要是由于準入制度的匱乏、市場監管的低效、信息披露的不足和法律責任的模糊所造成的,最終導致數據壟斷和歧視的問題突出,嚴重影響了社會公平和消費者權益[3]。主要表現在以下幾個方面:
在大數據帶來便利的同時,有些“精明”的商家或平臺充分利用大數據“殺熟”來使自己能更快更多地獲取利益。所謂“殺熟”是指商家利用大數據算法技術,對用戶或消費者的數據進行分析比較,并對消費頻率高且難以注意價格變化的消費者差別定價,使其承受更高的價格。“殺熟”對權利的侵犯主要從以下幾個方面體現:
1.公平交易權
《消費者權益保護法》第十條第一款規定:“消費者享有公平交易的權利。”所謂公平交易權的重要內涵之一就是要有合理的價格。但各個平臺通過運用算法的計算對不同消費者進行標記與分類,進一步向其展示同一商品的不同價格,明顯就違反了公平交易權的內在要求。
當平臺對消費者進行“殺熟”時,大部分消費者,尤其是平臺的老客戶由于多次在該平臺進行消費,因此無法輕易意識到平臺所顯示的價格變化。而平臺則利用這一點對消費者進行區分定價,使消費者無法享受到公平交易權,處于不平等地位。
2.知情權
由于算法通過數據的處理對消費者進行分類,并對其展示各種不同的價格,因此在不同時間打開購物軟件,同樣的一個商品價格出現波動的現象非常常見,但由于這種情況過多,且消費者極少認真注意,導致消費者往往無法獲得所購之物的原本價格。大數據正是通過這種向消費者隱瞞原價的方式來侵犯他們的知情權。
此外,目前大部分軟件在初始注冊時都需要用戶進行信息授權,但對于軟件方會將授權得到的信息做何用途往往不會詳細告知用戶,比如其可能會有涉及用戶隱私或電腦數據的操作[4]。而算法“殺熟”就是在收集到的信息的基礎上進行的,但顯然軟件方不會讓此用途被消費者知悉,這也可視為對知情權的侵犯。
3.自主選擇權
《消費者權益保護法》第九條第一款規定:消費者享有自主選擇商品或者服務的權利。第三款規定:消費者在自主選擇商品或者服務時,有權進行比較、鑒別和挑選。算法會根據消費者的瀏覽和購買記錄進行演繹推理,從而向消費者推送特定的產品,使得消費者在瀏覽軟件時,所見范圍被限制在了所推送的范圍內。隨著算法越來越精確,那么被推送的商品范圍就會越來越小,用戶就難以便利地進行比較、鑒別和挑選。這明顯是違反了《消費者權益保護法》中對消費者自主選擇權的規定。
在人工智能的應用越發普及的時代,對于人工智能生成物是否構成作品,有必要重新審視。著作權法所要保護的并不是自然界中所固有的、早已出現的物,而是通過想象所構思出來的、帶著人主觀情感的作品。由于腦科學至今未對“人如何創作”這一問題給出明確答案,因此目前來作人工智能與人類創作方式是否相似的判斷,是缺乏科學依據的。
但人工智能生成物的外觀,至少是很大一部分,跟人類創作行為的產物并無本質區別[5]。如果人工智能生成物可以通過原創性檢驗,那么其與“真正的”作品就更是相差無幾。而對于受眾來說,其難以分辨孰為作品、孰為人工智能生成物,而且,其無意也無需分辨孰為作品、孰為人工智能生成物。可以說,當人工智能生成物真的經受住市場的檢驗,而更多更廣地應用開來時,區分一個作品是否為人類作者創作就成為只有人類創作者與部分學者在意的事情。
如果認為人工智能生成物也可以享受與人類作品同等的保護,那么當人工智能生成物發生侵權問題,該如何判定,侵權責任又該如何承擔?事實上,人類社會之中的文學藝術作品都是“站在巨人的肩膀之上”的。AI 技術只是通過機器學習將信息攝入與重組推到了一定高度。因此人工智能系統可以生成創作作品,例如,文章、音樂、繪畫等,但這些作品往往是在使用他人的原創內容進行訓練和生成的。如果未經原作者授權或未支付合理的授權費用,就可能涉及知識產權侵權。
《民法典》明確將“不得利用信息技術手段偽造等方式侵害他人的肖像權”,作為侵害肖像權的一種典型形態予以規制。“利用信息技術手段偽造”是指利用信息技術手段編造或者捏造他人肖像,以假亂真,以達到利用不存在的事物來謀取非法利益的目的。
肖像權具有絕對性、專屬性與排他性等特征。從權利本身出發,個人有權拒絕他人將自己的面部長相應用于他人身體形象之上,亦有權拒絕他人在自己的身體圖像上添加其他人的長相。而顯然,目前人工智能所發展出來的人臉合成技術在未經所用形象主人許可使用的情況下,侵犯了其肖像權。
此外,隨著人工智能的發展,很多侵權行為或犯罪行為都借著人工智能產生了新手段。如最近漸漸增多的AI 詐騙,不法分子將所獲得的個人照片與音頻利用人工智能進行制作合成,最后造出一段看似該行為人求救要錢或者借錢的視頻或錄音,進而向其家人朋友聯系,通過放出該視頻或錄音引得家人朋友上當并轉錢。
部分軟件還上線“換臉”功能,即將他人的臉換到原視頻主人公的臉上,這類軟件若是為用戶提供換用戶本人的臉的服務,且未取得原視頻主人公授權,則可能對原視頻侵權;若行為人未經他人允許將他人的臉隨意換到視頻或照片上,也完全有可能構成侵權。
在人工智能侵權案件中,想要劃清侵權責任的分配,首先就是要明確權利主體身份。就目前的司法實踐來說,人工智能的侵權認定集中在人工智能對人類人身權與財產權的侵害方面,但對于人工智能或算法本身的行為則欠缺評判。為了能夠更好地厘清這類案件,進行更加清晰、合法、合理的責任分配,使這類新型案件的裁量結果能夠符合人民對司法公正的期待,就需要我們明確權利沖突的多方關系,分析不同主體的主觀意圖,動態追蹤其侵權事實,將侵權責任落實到具體行為人。而為響應這一要求,可將主體分為兩類,算法實施者和算法被實施者。
1.算法實施者
算法實施者主要牽涉三個主體:算法開發者、算法服務者、算法管理者。算法開發者是指設計算法技術的程序員,在案件中尚未涉及;算法服務者是使用算法技術為用戶提供服務的應用平臺;算法管理者是對算法的使用和運行具有控制力、支配力的主體。
2.算法被實施者
算法被實施者通常是指使用算法功能來完成生活消費活動的人,基于算法的學習能力消費者其實也參與了算法的開發與完善。在人工智能算法技術廣泛適用的情景下,所有參與其中的主體,其身份的界限是相對的,面對不同的侵權場景其身份也隨之發生變化。
由于算法實施者與算法被實施者之間存在利益失衡,以及算法侵權在責任認定中難以證明,因此對算法實施者加以監管約束是目前減少侵權行為發生成本最低、效率最高的做法。
1.規范企業行為
無論是涉及知識產權還是個人信息保護,政府要干預其算法技術遵守法律法規,由政府主動作為行使監管職權,可以審查企業的算法源代碼、數據集、模型等,做好預防和發展態勢分析。2021年12 月,國家互聯網信息辦公室、工業和信息化部、公安部、國家市場監督管理總局聯合印發《互聯網信息服務算法推薦管理規定》,在監管的主體上細化區分網信部門的權責,更創新性地提出了雙層次、多部門的聯合監管模式,由電信、公安、市場監管配合算法監管。
2.強化算法審查
由于算法的不可解釋性,使部分行為在現有法律框架下難以規制,我們應參照其他國家建立算法審查制度,對算法技術的內容進行確認和跟蹤。如,美國2021 年5 月制定的《算法正義和在線平臺透明度法案》,要求在線平臺應當對四類算法記錄保留5 年。
互聯網流量變現時代,平臺通過現金或流量補貼的形式鼓勵更多用戶使用平臺并進行內容創作[6],而平臺的算法設計可能存在侵權風險,算法被實施者具有了解平臺的算法形成機制的知情權,因此可以要求算法實施者向公眾公布算法的價值取向、建立依據、規則內容、運行邏輯、危險防范等相關信息,履行告知義務,并且可以基于個人請求進行詳細說明。同時,可以設置相應問答板塊進行算法技術的學習和監督。
為避免算法技術公開可能會造成的商業秘密泄露,可向公權力機關進行算法留檔,向社會大眾以及監管機構進行公開,網信部門應當進一步細化算法備案的時間節點,促使算法服務提供者在算法更新后及時、真實地進行動態備案。
人工智能時代,個人信息的經濟價值和商業價值急劇膨脹[7],其帶來的財產收益導致對其的侵權行為不斷,為有力規范這一行為,企業平臺不應只盡到“通知—刪除”的義務,而應采取與技術發展水平相當、與業務模式相符的措施,預防侵權行為發生。如對重點環節人工審查機制和多重技術審查,建立信用評價機制,對重復或多次侵權賬號做出暫停甚至終止服務的處置,以及對于生產經營性質的用戶,平臺應當加大技術檢測力度以減少侵權內容的傳播。
為了應對人工智能侵權問題,我國立法部門可以通過制定或完善相關法律法規,以確保人工智能的合法使用和侵權行為的追責。具體措施包括:
1.完善現有法律體系
我國可以完善現有的《知識產權法》《信息安全法》《消費者權益保護法》等相關部門法,以適應人工智能領域的侵權問題。例如,可以明確人工智能技術的專利保護范圍、商業秘密保護標準,以及個人信息的合法獲取和使用等方面的規定。此外,還可以考慮制定專門的人工智能法律法規,明確人工智能的定義、分類和適用范圍,為人工智能領域的侵權行為提供明確的法律依據。
2.加強隱私保護法律法規
隨著人工智能在數據處理和分析方面的廣泛應用,個人隱私面臨更大的風險。中國可以加強隱私保護法律法規的制定,明確個人信息的收集、使用和保護原則,加強對侵權行為的追責和處罰。
面對人工智能的強大與普及,在享受其帶來的紅利同時,需要對伴隨人工智能接踵而至的潛在風險、新型侵權方式,要靈活調整法律加以規制,使其更利于社會發展。目前,基于人工智能適用范圍的普遍性,其侵權范圍也擴大至許多方面,因此對法律適當做出相應解釋,以適用于此類侵權情況的處理、完善各方義務、劃清責任界限等任務迫在眉睫。需要在現行法律中尋找適宜人工智能侵權規制之路徑,引導人工智能更順利地推動社會經濟發展、為維護公平競爭的市場經濟秩序提供積極效應。