吳楠
[摘要]當前社會還處于弱人工智能時代,人工智能技術在各個領域發展得還不夠完善。在新聞傳播領域,人工智能技術是近年來發展最迅速、最具前景的技術應用之一,如智能推薦、自動化寫作等,在新聞內容采、寫、編、評等環節實現了智能化再造,為新聞傳播做出了一定貢獻,但其在新聞傳播中的法律挑戰也有所凸顯。因此,文章分析人工智能在新聞傳播中的法律挑戰,并提出相應的應對策略。
[關鍵詞]人工智能;著作權;隱私權;法律風險
現在,人工智能已經完全融入人們的生活,它的應用領域越來越廣泛,同時技術的迭代更新也越來越迅速,人和技術的共在關系變得越來越復雜、越來越深入[1]。隨著人工智能的飛速發展,其被更多地運用到新聞傳播中,給新聞研究帶來了新的活力,也給傳統的新聞生產方式帶來了很大的變化[2]。當前,人工智能技術為新聞傳播領域帶來了新的機遇,然而,隨著人工智能技術的廣泛應用,其法律挑戰也日益突出。
一、人工智能在新聞傳播領域的應用
人工智能在新聞傳播領域的應用已滲透到各個環節,包含新聞的選題、采訪和寫作等,它涵蓋了新聞上游的信息采集,中游的新聞寫作和編輯以及下游的新聞審核,這是一個完整的新聞生產流程的最核心的環節[3]。人工智能在新聞傳播領域的應用正在不斷擴展和深化,可以大大提高和增強新聞生產、分發的效率和準確性,也可以提高新聞報道的質量和社會影響力。人工智能在新聞傳播領域的應用主要包括以下方面。
(一)新聞采集
新聞采集是新聞線索的獲取環節,也是新聞生產以及新聞分發的基礎環節。借助人工智能大數據搜索,新聞采集可從新聞選題、新聞線索、新聞素材等方面進行集成,且通過大數據技術和傳感器,極大地提高信息收集的效率。例如,通過傳感器和大數據,人工智能可以覆蓋體育、財經、政治等各個領域,快速采寫數據新聞,并且根據不同媒體平臺和用戶群體對新聞進行優化和定制。
(二)新聞生產
人工智能給新聞生產帶來了多方面的沖擊,改變了生產主體的結構以及新聞內容的收集、制作和呈現。目前,人工智能在新聞生產的應用主要是由機器人依據預先設定的模板來分析和寫作內容并產出新聞,如騰訊平臺的Dreamwriter、新華社的快筆小新、今日頭條的Xiaomingbot等寫作機器人,都是在編程者預先設定的程序下依據相關的模板來自動生成新聞報道。人工智能應用于新聞報道大大提高了新聞生產的效率,使得新聞在極快的時間內進行傳播,且準確率大大提升。
(三)新聞分發
目前,人工智能在新聞分發環節中的應用主要通過對一些算法的分析來推薦相關新聞,對新聞進行自動播放和智能化傳播效果的分析等。人工智能可以通過對大數據的分析,為用戶提供準確的信息,從而滿足不同用戶的需要。當前,基于算法推薦技術的新聞發布平臺主要包括:今日頭條、一點資訊、每日快報、BuzzFeed等。這些平臺則是基于用戶日常的閱讀習慣對用戶的偏好進行自動分析,為用戶進行新聞推薦。
二、人工智能帶來的法律風險
人工智能生成的新聞大多建立在包括算法分析和數據庫中所產生的海量數據的基礎上,并基于大數據的選取和分析,利用新聞生產模板自主化生產新聞報道。因為人工智能沒有自我意識,不能進行獨立、客觀的推理,所以在自然語言理解上會有很大的偏差。也就是說,在選擇相關的數據時,人工智能不能自覺、高效地識別出某些可能侵犯他人隱私的信息,容易產生法律侵權問題。
(一)著作權問題
當人們在感嘆機器人已經擁有“創造力”時,他們又開始考慮人工智能生成物的所有權、使用權和知識產權等[4]。在新聞傳播領域,人工智能采用模板進行新聞創作等問題引發了社會各界的廣泛爭議,其中包括人工智能創作的“新聞”能否被界定為“作品”?能否受到著作權法保護?
人工智能歸根究底也只是依賴于研究人員預先設定的程序,依據相關算法來生成內容,并沒有自主意識,其生成內容是人類意志的產物,并沒有獨創性。那么,人工智能生成物是不是也是一種“作品”?人工智能的創作能否獲得著作權保護?如果人工智能生成物可以被認定為作品,那么由其產生的利益由誰獲得?這些問題目前還存在極大的爭議,因為人工智能并不是自然人,也沒有自然人所擁有的權利,所以其著作權歸屬問題尚未得到解決。目前,各國的版權法基本都是圍繞人工智能來構造和保護相關的客體的,但人工智能所生成的“作品”是否應享有著作權,是新聞生產亟須解決的問題。
(二)數據隱私問題
隨著智能時代的到來,人們對個人信息進行了數字化存儲、共享和利用,而隱私的界限逐步被限制在數據層次。大量的個人信息都變成了“數據”,要么是公開的,要么是半公開的。人工智能在新聞傳播中的應用需要大量的數據支持,包括用戶數據、新聞數據等。然而,這些數據隱私和安全問題是人工智能在新聞傳播中應用的一大挑戰。個人信息的數據化使得私人隱私與公眾領域的邊界變得模糊。一些不法分子可能會利用人工智能技術獲取用戶個人信息,從而造成用戶隱私泄露。此外,一些機構或個人可能會利用人工智能技術對用戶進行監控或追蹤,從而侵犯用戶的隱私權。比如,人工智能聊天機器人ChatGPT基于強大的自主學習與存儲技術,具有很強的數據挖掘功能,其高度智能化的性能建立在用戶的使用數據之上,利用持續的數據抓取來進行深度學習,因此其在獲得數據時不可避免地會遇到侵犯用戶隱私的問題[5]。從2023年2月開始,微軟公司和亞馬遜公司就明令禁止所有員工向ChatGPT分享信息,尤其是涉及公司機密的信息,以防止其泄露公司的機密。
在人工智能背景下,如何保障數據隱私是一個非常復雜和迫切的課題。針對這一問題,我國應從完善相關法律法規和政策、強化數據安全保護、促進算法公平、提升公眾認知等方面入手,積極應對,既促進人工智能的發展,又能對用戶隱私進行有效保護,從而促進科技與社會的和諧共存。
(三)算法偏見問題
人工智能算法已被廣泛地應用于推薦系統、智能客服、無人駕駛等領域。但是,伴隨算法的廣泛使用,其偏倚問題也日益凸顯。算法偏向性指由于數據集的偏差和算法設計上的不足而造成的不公平和不公正。這樣的偏差不僅會影響到算法的精度,而且會給整個社會帶來不良的后果。
人工智能的算法偏見問題也是人工智能在新聞傳播中應用的一大挑戰。一些算法可能會基于某些偏見對用戶進行個性化推薦,從而造成用戶接收到的信息不公平和不公正。此外,人工智能算法基于大量數據,而這些數據往往是由人類生成的,因此會存在一定的主觀性和偏見。如果數據集中的偏見被算法所學習,那么算法得出的結果也會存在偏見,因為人工智能算法往往是由人類編寫的,而編寫算法的程序員也可能會將自己的偏見帶入算法。這可能會導致算法基于某些偏見對新聞內容進行過濾或篩選,并對某些人群產生歧視或排斥,從而影響新聞傳播的公正性和客觀性。此外,人工智能算法往往是以歷史數據為依據進行預測的,這可能會導致“歷史重演”的問題:如果歷史數據中存在偏見,那么算法的預測結果也會存在偏見。
(四)責任歸屬問題
人工智能在新聞傳播中的應用可能會帶來責任歸屬問題。例如,當人工智能算法出現錯誤時,責任應由誰承擔,是算法開發者、使用者還是其他相關方?這些問題在法律上并沒有明確的答案。此外,當人工智能算法出現錯誤時,如何追究責任也是一個難題。首先,對人工智能生成的內容,我們需要明確其法律責任歸屬。如果人工智能生成的內容出現錯誤或誤導,責任應由誰承擔?此外,人工智能在新聞傳播中的角色和責任,也需要有明確的規范和標準。其次,我們需要考慮人工智能在新聞傳播中的隱私保護問題。隨著人工智能技術的應用,越來越多的個人信息被收集和處理,如用戶的偏好、行為習慣等信息。因此,相關部門需要制定相應的隱私保護政策和措施,確保用戶的隱私安全。最后,我們應注意到新聞發布過程中人工智能產生的道德問題。例如,人工智能算法可能會對某些人群產生歧視或排斥,這涉及倫理道德的問題。對此,相關部門需要制定相應的倫理規范和標準,確保人工智能在新聞傳播中的應用符合社會倫理和價值觀。總之,人工智能在新聞傳播中的責任歸屬問題是一個復雜的問題,相關部門需要從多個方面進行考慮和解決,只有通過建立和完善相應的法律、政策和規范,才能確保人工智能在新聞傳播中的應用符合社會倫理和價值觀。
三、人工智能在新聞傳播中的應對策略
如今,隨著人工智能技術的不斷完善,人工智能已滲透新聞行業的各個方面,不管新聞行業如何發展,人工智能對新聞行業發揮的作用是日益增強的,但也給新聞行業帶來極大的沖擊。為了確保新聞行業不斷向前發展,相關部門應對人工智能領域進行政策約束,盡快完善相關的法律法規,建立算法監測機制。同時,用戶也應大力提升自身的信息素養。只有做到國家、平臺、個人三效合一,才能使人工智能為新聞行業的向前發展繼續保駕護航。
(一)全面優化法律政策,構建堅實基石
作為一項尖端技術,人工智能進入新聞傳播領域的時間并不長,因此,新聞行業有關人工智能應用的法律法規還不夠完善。當前,為了解決因人工智能引發的法律難題,一些國家或地區已開展相關的立法及修訂工作,并制定新的政策及更為嚴格的規定[4]。面對人工智能技術的發展,我國應盡快制定關于個人隱私保護的法律和規章,使新聞傳播能夠與人工智能時代的新的道德需求相匹配。
目前,一些國家和組織已經開始探索對人工智能生成內容進行監管的路徑。例如,歐盟提出《人工智能的倫理準則》,該準則要求人工智能系統必須透明、公正,并且不能侵犯人類的權利和尊嚴。此外,一些國家開始探討對人工智能在新聞傳播中的應用進行規范,以確保其應用的合法性和道德性;一些國家也開始加強對人工智能技術的監管,建立人工智能倫理委員會等類似的機構,以加強對人工智能技術的監管和管理。例如,美國已經開始對人工智能技術實施出口管制,以防止其技術和數據被用于不正當的目的。
總之,針對人工智能在新聞傳播中的應用,相關部門需要制定相應的法律和政策,以確保其應用的合法性、透明度和道德性。這需要政府、企業和學術界共同努力,加強合作和交流,制定出符合各方利益的規范和標準。相關部門應厘清社會上已經出現的有關新聞隱私權、著作權以及新聞傳播倫理等問題,針對具體問題具體處理,使新聞傳播朝著正確的方向發展,讓人工智能技術可以依據法律服務于新聞傳播,推動新聞傳播向前發展。
(二)建立算法監測機制,重塑行業公信力
新聞行業針對人工智能建立算法監測機制,主要是利用人工智能技術對新聞內容進行自動化分析和處理。這種監測機制可以提高新聞生產的效率和質量,保證新聞的真實性和客觀性。具體來說,這種算法監測機制可以通過自然語言處理、機器學習等技術,對新聞文本進行實體識別、情感分析、語義消歧等處理,從而實現對新聞內容的全面分析和挖掘。通過這種算法監測機制,新聞行業可以更好地把握新聞事件的本質和影響,為用戶提供更加準確、全面的新聞報道。此外,這種算法監測機制還可以實時監測和評估新聞傳播效果,幫助新聞機構了解用戶的需求和反饋,優化新聞生產和傳播策略。同時,通過對比不同新聞源的信息,用戶可以有效發現新聞報道中的不實信息或偏見。
總之,人工智能在新聞傳播中的應用可以提高新聞生產和傳播的效率和質量,促進新聞行業的創新和發展。同時,這種算法監測機制也可以幫助新聞機構更好地履行社會責任,為用戶提供更加準確、全面的新聞報道。
(三)提升用戶媒介素養,共建和諧環境
媒介素養就是用戶能夠對信息進行正確的認知、獲取、分析、評價,甚至是生產。在智能社會中,新聞傳播信息種類繁雜且質量參差不齊,用戶直接接收這些信息需要具備良好的媒介素養[6]。新聞機構想要進一步提升用戶的媒介素養,可從以下方面入手。
第一,提高用戶信息識別能力。新聞機構可以通過開設相關課程或提供在線學習資源,幫助用戶了解人工智能的基本原理和應用范圍,提高用戶對信息真偽的辨別能力。同時,新聞機構也要加強新聞源的審核和把關,確保新聞報道的真實性和準確性。
第二,培養用戶批判性思維。新聞機構可以通過指導用戶進行深度的分析與思考,培養其批判思維。例如,新聞機構可以提供新聞報道的不同觀點和背景信息,讓用戶自行判斷新聞的真實性和價值。
第三,增強用戶信息素養。信息素養指用戶對海量信息的選擇、理解、質疑和評估的能力。新聞機構可以通過加強信息素養教育,幫助用戶正確理解媒介信息,理性對待不同媒介的觀點和
立場。
第四,建立用戶反饋機制。新聞機構可以建立用戶反饋機制,收集用戶對新聞報道的意見和建議,更好地把握用戶的需求和偏好,為用戶提供更加精準、個性化的新聞服務。
總之,提升用戶媒介素養是新聞行業的重要任務之一。新聞機構通過提高用戶信息識別能力、培養用戶批判性思維、增強用戶信息素養、建立用戶反饋機制等方面,可以有效地提高用戶的媒介素養,為新聞行業的可持續發展奠定堅實基礎。
四、結語
人工智能技術的不斷發展為新聞行業帶來無限的可能,既推動新聞行業不斷向前發展,也讓廣大新聞人感受到前所未有的沖擊。人工智能帶來的法律問題使新聞行業面臨挑戰,但新時代的新聞行業向前發展必然離不開人工智能技術的幫助,因此完善新聞法律體系迫在眉睫。同時,新聞人也要不斷學習、適應和利用好人工智能技術,并且要有意識地遵守新聞行業的法律法規,預防和規避新聞生產環節的風險,不斷推動新聞行業向前發展。
[參考文獻]
[1]黃悅悅.弱人工智能時代新聞倫理的失范問題及解決路徑[D].安慶:安慶師范大學,2022.
[2]謝宜東,劉奕琳.人工智能新聞寫作的著作權認定研究:以人工智能寫作領域第一案為例[J].漢字文化,2022(S1):284-285.
[3]王鳳翔,張夢婷.ChatGPT在新聞傳播領域引發的生態變革、前景應用與風險挑戰[J].市場論壇,2023(05):1-6.
[4]喻國明,侯偉鵬,程雪梅.“人機交互”:重構新聞專業主義的法律問題與倫理邏輯[J].鄭州大學學報(哲學社會科學版),2018(05):79-83.
[5]魏超,陳玉妍.人工智能時代新聞傳播倫理失范研究[J].傳媒論壇,2023(14):43-46.
[6]段永光.人工智能在新聞內容生產領域的應用研究[J].傳播與版權,2023(03):1-4.