● 畢文佳
隨著5G 時代的來臨,人工智能技術已普遍應用于新聞生產(chǎn)的各環(huán)節(jié)中。在人工智能媒體發(fā)展探索的過程中,倫理失范現(xiàn)象不斷產(chǎn)生。科技是一種能力,向善是一種選擇,本文將探尋智能新聞生產(chǎn)的困境及突圍路徑。
困境一:多元主體參與新聞生產(chǎn),內(nèi)容客觀性真實性失守。在新聞專業(yè)領域,新聞內(nèi)容需要客觀真實地反映事實,在以往傳統(tǒng)的“把關人”時代,新聞的真實性、客觀性主要依賴于新聞從業(yè)者的職業(yè)素養(yǎng)與道德操守。隨著新聞傳播領域的智能化轉(zhuǎn)向,越來越多的非新聞專業(yè)領域算法工程師、盈利目的明確的產(chǎn)品經(jīng)理、網(wǎng)絡新聞高頻互動轉(zhuǎn)發(fā)的受眾在平臺化的媒介生態(tài)中共生,對于算法的建構(gòu)偏向及新聞內(nèi)容生產(chǎn)分發(fā)都有著重要影響,算法的研發(fā)設計偏見使得多元參與主體的情感立場悄然介入,影響著新聞內(nèi)容的真實客觀。
困境二:算法不透明,個人數(shù)據(jù)隱私屢遭侵犯。算法設計依托的是機器自主學習技術,從數(shù)據(jù)輸入、數(shù)據(jù)產(chǎn)品輸出的流程來看,新聞內(nèi)容生產(chǎn)流程被納入人類無法識別的“生產(chǎn)黑箱”。算法新聞最重要的倫理問題是利益鏈條的“數(shù)據(jù)共享”,在萬物互聯(lián)的媒介生態(tài)下,個人數(shù)據(jù)隱私保護只是紙上談兵,用戶的年齡、性別、工作、愛好等信息會被精確記錄。
困境三:責任歸屬不明確,問責機制不完善。人工智能創(chuàng)作既不是作者主體基于情感而進行的個人創(chuàng)作,也不是簡單的復制粘貼,而是在數(shù)據(jù)分析和套用模板的基礎上產(chǎn)生的具有較大重復性的機器作品。……