□文│胡曙光 陳昌鳳
1956年達特茅斯“人工智能夏季研討會”上首次明確提出了人工智能的概念,經過幾十年的發展,人工智能在2016年迎來了收獲期,這一年被稱為“人工智能元年”,許多應用取得突破性進展,據麥肯錫預計,至2025年全球人工智能應有市場總值將達到1270億美元。[1]人工智能的發展也得到了各國政府的重視,2016年5月美國白宮成立了“人工智能和機器學習委員會”,2017和2018年人工智能連續兩年被寫入中國政府工作報告。一方面,人工智能正在一步步地由幻想變為現實,給多個行業和領域帶來顛覆性的影響。另一方面,人工智能是一個涉及計算機科學、生物學、數學、語言學、心理學、哲學等諸多領域的綜合性的學科,進一步發展會產生很多倫理問題。人工智能時代媒介生態和新聞業發生了哪些變化?帶來了哪些媒介倫理問題?如何從觀念和規范上進行引領?這是本文要探討的問題。
人工智能已經在多個行業中展露鋒芒,在新聞傳播業,人工智能的應用已越來越普遍,如算法運用、機器人寫作、自然語言的生成和處理、語音文本之間的相互轉換、傳感器新聞等等,給傳媒生態帶來了巨大的變化,人工智能正在改寫“新聞”的定義。[2]
自杰弗里·辛頓(Geoffrey Hinton)2006年提出深度學習(Deep learning)以來,人工智能算法的瓶頸被突破,語音識別、圖像識別、語義理解上的算法設計思路被顛覆。算法技術的發展使得在海量信息流中通過算法推薦定點投放信息的模式受到越來越多的追捧,新聞分發的權力由大眾媒體轉移到了算法平臺,由人移交給了人工智能。算法推薦的運作邏輯是這樣的:當用戶第一次使用某平臺時,該平臺會對用戶進行“畫像”,將用戶的年齡、職業、興趣愛好等信息標簽化,推送與之相符合的信息,此后用戶的閱讀行為都會被精準記錄下來,包括打開某新聞的停留時間,鼠標的上拉下滑等細節,通過算法的分析不斷提高推送信息的精準度。這會帶來兩個方面的問題:一是信息繭房效應,指的是我們在信息選擇的過程中,偏向于選擇與我們價值觀相符,能愉悅我們的信息,久而久之就會將自己像蠶一樣困在繭房之中,只沉迷于自己贊同的信息,桑斯坦認為,信息消費者過濾所讀所看所聽的力量,正變得越來越強大。[3]算法的成熟和人工智能日益增長的運算能力使得在海量信息中定點推送迎合受眾口味的信息成為可能,這種信息選擇偏向會加劇信息繭房效應。二是算法操控問題,利·巴里瑟(Eli Pariser)在其著作《過濾泡 :互聯網沒有告訴你的事》(Filter Bubble: What the Internet is Hiding from You)中提出了一個“過濾泡”(filterbubbles)的概念,直指算法操控問題,在他看來,用戶接收到的信息往往會受到檢索歷史、閱讀行為和習慣等影響,這都會受到算法的操控。[4]由于“過濾泡”過濾信息的依據是用戶的個人喜好和閱讀記錄等,那些不符合用戶喜好或與用戶價值觀相左的信息有可能自動被過濾掉,用戶在某些特定情境下的信息獲取也有可能被當做興趣愛好記錄下來,這會導致用戶獲取全面信息可能性的喪失或者與真正感興趣的信息失之交臂的情況的出現。幸運的是,開始有媒體意識到了上述兩個問題,如衛報的專欄“刺破你的泡泡”(Burst Your Bubble)和2016年華爾街日報推出的“紅推送,藍推送”(Red Feed, Blue Feed)就旨在給用戶推送與其立場觀點相左的信息,從而進行技術糾偏。
近年來,美國最早將機器人寫作引入新聞生產領域并廣泛應用于財經、體育、突發災害新聞的報道,美聯社使用自動觀點(Automated Insights)公司開發的語言大師(Wordsmith)平臺撰寫的財經信息和洛杉磯時報使用地震機器人(Quakebot)系統寫就的地震報道引起了人們的廣泛關注。我國的機器人寫作擎始于騰訊的夢幻寫手(Dream writer)于2015年9月撰寫的題為“8月CPI漲2%創12月新高”的一篇新聞稿件,此后,相繼出現了新華社的“快筆小新”,第一財經的“DT稿王”,“今日頭條”的“張小明”等寫作機器人。雖然就目前來講,機器人寫作存在著缺乏深度、缺乏特色且僅局限于某些個別領域等缺點,但其24小時待命的工作狀態和超強的時效性仍給新聞業界帶來了不小的沖擊。不僅如此,機器人寫作背后的機器工具理性和人的價值理性之間的沖突也值得我們關注——機器人寫作是不摻雜人類感情的,新聞稿件的生成完全依賴于數據和算法,這更多地表現為一種工具理性,即對信息的真實、準確、完整的追求。然而,人是有情感需求的,在很多時候會把尊嚴、愛、理想、信念等價值追求放在第一位,這是人的價值理性。這種價值理性通常有不同程度的模糊性,很難轉化為精確的系統和算法設計,因此,也就很難被機器人寫作所理解。
人工智能發展的三大基礎——超強的運算能力、海量的數據以及精準的算法中除了超強的運算能力與計算機的硬件發展水平關系更為密切外,其余兩個都離不開數據。人們持續的互聯網使用行為和購買行為等積累了海量的數據,這些數據成為人工智能自主學習的基礎。同時,精準算法的獲得也需要在大數據的基礎上進行反復實驗,比如前述在算法領域取得突破性進展的深度學習(Deep learning)就對數據量提出了更高的要求,數據為人工智能提供著資源和支持。云棲智庫在報告中也提到,現階段制約人工智能領域重大突破的關鍵,并不是算法不夠先進,而是缺乏高質量的數據集。[5]為了跟上人工智能的發展步伐,媒體紛紛組建數據分析團隊,開發數據分析工具成了媒體近年來的新興業務之一。媒體開發的數據分析工具主要分為兩類:一類是主要針對本媒體的用戶和數據的分析工具,如金融時報開發的Lantern和紐約時報開發的Stela,這類數據分析工具的目的是為了讓記者更多地了解用戶,從而更有效地進行內容生產;一類是開放給所有內容生產者的分析工具,如臉書(Facebook)的Facebook insight和“今日頭條”的“媒體實驗室”,這類分析工具在給內容生產者提供創作方向借鑒的同時,試圖建立人與信息之間的高效連接。和機器人寫作類似,數據分析工具的開發和利用同樣存在著片面強調數據的工具理性的隱患,此外,還有著“唯數據論”和“數據獨裁”的風險。
按照發展層次的不同,人工智能可劃分為專用人工智能、通用人工智能、超級人工智能三個階段。目前,應用于新聞傳播領域的人工智能還只停留在專用人工智能層面,雷·庫茲韋爾(Ray Kurzweil)預測,隨著技術的發展,未來20年內機器可能通過人工智能的自我完善,達到“奇點”,從而根本性地重塑人類未來,[6]我們要對人工智能未來的發展中可能會出現的問題保持警惕。
近年來,國內外互聯網巨頭紛紛布局人工智能,谷歌接連收購 Schaft、DeepMind、 Nest(分別為機器人公司、人工智能初創公司和智能家具公司)等數家公司,IBM收購了長于深度學習技術的Alchemy API公司,Facebook收購了致力于機器翻譯和語音識別的MobileTechnologies公司,百度與寶馬簽署合作協議共同研發自動駕駛技術,騰訊投資了機器識別公司Diffbot和開發可穿戴智能設備的真時科技公司。在人才引進上,各大公司也毫不含糊,谷歌引入了深度學習的開拓者Geoffrey Hinton,Facebook引入了提出“人工神經網絡”理論的Yann LeCun;不僅如此,這些互聯網巨頭還紛紛打造各自的人工智能開源平臺,這些平臺允許用戶在平臺上使用其算法系統,獲得開源代碼,這種開源核心的目的在于擴大市場和吸引人才,開源會使人工智能的發展加速,但是起主導作用的仍然是大公司和行業巨頭,從烏鎮智庫發布的全球企業人工智能專利影響力(2011-2015)來看,微軟、IBM、谷歌等互聯網巨頭名列前茅,不少傳統巨頭企業也出現在榜單中。[7]不難看出,人工智能未來的發展與大型商業公司的布局息息相關,然而,商業公司是追逐利益的,普遍遵循著資本邏輯與市場邏輯,不同的公司研發人工智能的著力點都不盡相同,要警惕人工智能發展方受到商業公司天然的逐利傾向的影響。美國政府注意到了這一問題,其在《國家人工智能研究與發展戰略計劃》提到,人工智能的應用領域和長期研究缺乏短期盈利作為投資動力,因此可能無法得到足夠多的重視。對于周期長、風險高的研究項目,短期內政府應是資金的主要來源。[8]此外,成熟的商業公司一般都有著自己獨特的價值追求和企業文化,也會在不知不覺中影響人工智能的發展,舉例來說,谷歌新聞(Google News)算法中判斷新聞排名的核心取向是“新聞價值”和新聞源的質量,但Facebook 的新聞欄目動態信息(News Feed)算法的核心卻是 “朋友和家人第一”(Friends and Family First),帶有強烈的社交媒體的風格,企業文化對人工智能未來的發展可能帶來的影響也同樣值得關注。
保障新聞業和新聞工作者的安全(包括數字安全)是保障更廣義的數字時代表達自由的必要條件。而且新聞工作者的含義,在世界范圍內正在擴展——聯合國教科文組織牽頭的《聯合國就新聞工作者安全和有罪不罰問題的行動計劃》正式確認:那些新媒體和社交媒體平臺上的內容制作者也應當像傳統的專業新聞從業者一樣得到保護。聯合國教科文組織的報告《保障新聞工作者的數字安全》全面研究了數字時代新聞從業人員所面臨的技術、制度、經濟、政治、法律以及心理方面的諸多挑戰和風險:比如“①數字時代的網絡監控、數據存儲能力和數字攻擊技術變得越來越廉價和普遍;②數字安全工具通常不太容易使用,而商業化的數字安全工具又比較昂貴,開放源的數字安全工具通常缺乏可持續的商業模式;③類似阻斷服務攻擊(Denial of Service Attack)、地理位置跟蹤技術(Location Tracking)等數字攻擊方法會對記者、新聞線人以及媒體組織本身造成人身傷害和經濟損失;④很多新聞從業人員和他們的新聞線人還不能熟練使用數據匿名和加密技術來保護自己;⑤對新聞從業人員發起數字攻擊的來源多樣,既可能是政府也可能是非政府行為者。”[9]
美國傳播學者蒂奇納(P. Tichenor)等在1970年提出了“知識溝”假說,認為社會經濟地位高的人能比社會經濟地位低的人更快地獲取信息,隨著技術的發展,二者的知識差距將呈擴大而非縮小趨勢(Tichenor,Donohue&Olien,1970),此后該假說不斷發展,相繼出現“信息溝”“數字鴻溝”等理論。而人工智能是一個涉及面廣的復雜學科,人工智能技術的發展需要大量資本、技術、數據的積累,對人工智能的理解涉及多學科的背景知識,未來人工智能溝可能會出現并逐漸擴大。事實上,人工智能溝的產生已經初現端倪。一方面,正如美國總統執行辦公室在報告中指出的那樣,人工智能是一種“巨星偏向型”(superstar-biased)的技術進步,它所帶來的裨益可能只歸于社會上很小比例的一群人,人工智能技術的創新提高了那些從事抽象思維、創造性任務以及解決問題人員生產力,導致這些崗位的需求增長;而人工智能驅動的自動化會使得一些技術含量低的工作被人工智能替代,發展造成的不平等在一定程度上有所增加。[10]另一方面,從全球范圍來看,目前人工智能的發展集中于美國、中國、歐洲等少數國家和地區,呈現不平衡的狀態。據烏鎮智庫2017年公布的烏鎮指數,2010-2016年中美歐新增的人工智能企業數占全球總數的75%,2016年美國的人工智能融資規模占到了全球總額的64.49%。
從互聯網到移動互聯網再到物聯網乃至未來的人聯網,連接都是個至關重要的問題,人工智能是解決連接技術瓶頸的關鍵,未來經過人工智能的大發展,我們可以輕松實現虛擬空間和現實空間的無縫連接,甚至可能連接到人的心靈空間,人類與人工智能之間的壁壘正在慢慢消解。但是,當人類通過智能穿戴設備使自身的感官能力大大延伸,通過人工智能的連接達到人與機器的深度結合時,我們將會面臨一個問題——我們的意識還完全是自己的嗎?我們將面臨一個“人之所以為人”的價值挑戰。
經典馬克思主義理論將生命定義為“生命是蛋白體的存在方式,這個存在方式的基本因素在于它和周圍外部自然界的不斷新陳代謝,而且這種新陳代謝一停止,生命就隨之停止,結果便是蛋白質的分解”。[11]這是從生命的物質實體性出發給出的定義。如果要從生命的功能性和信息特質等出發探討生命的本質,情況就會復雜的多,人工智能可以自主學習,對外界的刺激有反應,可以自我進化,具備多項生命系統的特征,那么,從某種意義上說,可不可以說人工智能是某種生命體呢?當人工智能代替人工作時,我們期望其能像人類一樣遵守道德法律秩序,遵循正式或非正式的社會規范,如果未來將人工智能視為某種生命體的話,是否該賦予其相應的權力呢?我們又將面臨關于生命本質問題的挑戰,這個問題也直接影響傳播倫理。
人工智能不僅使傳媒生態發生巨大的變化,給其他行業也帶來了顯著影響,只不過因行業的不同呈現形式有所不同,人工智能未來的進一步發展可能帶來的影響亦已初現端倪。由于人工智能是頗具顛覆性的技術,其發展方向一旦發生偏移,后果將不堪設想。需要從以下三個方面進行引領。
第一,對數據進行規范,提升數據的開放性。互聯網的發展建立起了大數據,用戶的互聯網使用行為和購買行為等構成了大數據的重要組成部分,而大數據帶來了人工智能的大發展,人工智能發展的基礎在數據,想要引領人工智能的發展首要任務就是對數據進行規范,提高數據的質量和準確性,目前人工智能發展的數據來源主要是自籌數據、公共數據和產業協同數據,這些數據由于體量過于巨大且來源不一,存在著不少的數據冗余,對其進行有效的規范將會顯著提升人工智能未來的發展和表現。數據的開放不單是一個技術問題還是一個價值問題,如果人工智能測試的資源僅僅掌握在少數企業手里,那么大眾的福祉將會被削弱,人工智能的發展也將受到限制,因此要確保公眾能夠享用高質量的人工智能測試數據集,然而要求逐利的商業公司公開數據顯然不現實,這就需要政府和公共服務部門進一步開放數據。
第二,制定標準評估人工智能技術,保證人工智能技術的安全性。人工智能在發展的過程中,的確會對某些領域構成威脅,引發一些倫理問題和法律問題,但是人工智能的安全問題才是根本性的,如果不加以重視,可能會威脅到人類文明。機器人索菲亞(Sophia)“毀滅人類”的言論和Facebook實驗室的人工智能鮑勃(Bob)和愛麗絲(Alice)用人類所不能理解的代碼對話的行為都曾引起了人類對人工智能發展的恐慌。為了使人工智能更加安全地發展,必須定期評估人工智能技術,而要有效地評估就必須制定標準。這個標準應該是由政府、業界、學者(即包括人工智能的技術專家,也要包括相關人文社科領域的學者)所共同制定的,這樣才能保證標準的普適性。
第三,強調人本精神,將價值理性整合進人工智能的基礎架構。技術的進步并不是孤立的,而是一個不斷選擇與發展的過程,技術進步的背后起決定作用的還是人,技術進步的背后也必須保留人類的基本價值觀。人工智能更多地表現出一種工具理性,而人類行為卻常常會依據價值理性,這種價值理性很難轉化成精確的算法設計。不僅如此,不同的文化、宗教信仰間對價值判斷的標準不盡相同,因此,當人工智能面臨不同的價值體系時可能會陷入選擇困境。在專用人工智能階段甚至通用人工智能階段,人工智能還沒有自己的意識和追求,它對價值的判斷都是人類所賦予的,只有人類自身強調人本精神,把價值理性整合進人工智能的基礎架構,用對正義、善良、公平的價值追求來控制和教育人工智能,人工智能才能向人類所期望的方向發展。
注釋:
[1] 數據源自2017年3月麥肯錫公司全球總裁鮑達民在中國發展高層論壇上所做報告
[2] 徐來,黃煜.“新聞是什么”——人工智能時代的新聞模式演變與新聞學教育之思[J].全球傳媒學刊,2017(4)
[3] 凱斯·桑斯坦.網絡共和國——網絡社會中的民主問題[M].上海:上海人民出版社,2003
[4] Eli Pariser, The Filter Bubble: What the Internet Is Hiding from You[M].Penguin, 2011
[5] 云棲報告:人工智能——未來的取勝之道,2016年10月
[6] 雷·庫茲韋爾.奇點臨近[M].北京:機械工業出版社,2011
[7] 參見烏鎮智庫推出的《烏鎮指數:全球人工智能發展報告(2016)》
[8] The National Artificial Intelligence Research And Development Strategic Plan[EB/OL].https://www.nitrd.gov/PUBS/national_ai_rd_strategic_plan.pdf
[9] 胡獻紅.世界信息社會峰會視野中的國際傳媒發展[J].全球傳媒學刊,2017(3)
[10] 參見美國白宮于2016年12月20日發布的《人工智能、自動化與經濟報告》
[11] 恩格斯.反杜林論[M].北京:人民出版社,1970