趙瑜
近期讀到一則信息,說中國公司在人工智能方面有非常突出的表現。證據之一,青島有家公司專門從事某種功能不可言說的機器人定制。和國外同類產品相比,這款機器人價格是人家的一半,功能卻特別齊全,據說如果你好聲好氣地和她商量,美麗的機器妹子能幫你洗碗。我對該類機器人的主營業務并不感興趣,但是鑒于自己對家務的敵視程度,非常期待該公司進一步“不務正業”,開發該款機器人洗衣做飯、端茶送水等功能。私認為,家庭主婦可是比宅男更值得拯救的群體。
剛才說的人工智能產品恐怕不是大多數人的剛需,但是我們的確日益習慣機器介入人類生活。單從新聞傳播行業來看,人工智能或者說算法等技術,已經開始深刻地改變了人類信息傳播的格局。當傳統媒體還在努力破題如何轉型升級轉變為界面友好、具有互動價值的在線平臺時,完全不懂新聞、不懂傳播的工程師們卻用長篇累牘的數學公式,把“推送”這門生意做得比“生產”更加風生水起。人比人,氣死人啊。
也許是人們習慣用過去的思維看待新生事物,也許是新聞傳播關乎社會秩序,新技術在新聞傳播領域的擴散往往引發社會的倫理焦慮。近日被頻頻關注的“今日頭條”也許分外委屈,畢竟公司自認為該產品絕非新聞平臺,而僅僅是信息的聚合平臺。新聞&信息!別看工程師不懂新聞傳播,他們還是敏感發現這兩個關鍵詞的內涵并不相同,受到的管制程度,也不相同。
新聞和信息的區別,這個議題過于本體論,咱們可以先擱置一下。目前老百姓和社會精英對類似的新聞聚合類產品產生一定的疑問,首先在于信息安全問題。對此可能工程師們又得不服了,你自個兒曬美食、曬萌娃、曬人生理想,你自己公開的,憑什么不讓咱數據挖掘呢?大數據告訴我們,數據達到一定量之后,就會產生質變。零散的信息傳播也許對個人隱私的曝光尚屬于可控范圍,但是當機器開始條分縷析地聚合和分析個人行為,它終有一天會比你更了解自己。我們愿意讓機器如此了解自己嗎?誰又給了機器或者說技術這樣的權力?
一部分老百姓恐怕覺得,多大點事兒啊?我一小百姓,銀行卡也沒多少錢。分析我?隨便!好吧,再給大家講兩個故事。一個發生在2012年,美國Target公司開發了一個分析項目,通過數據挖掘的方式能夠判定顧客是否懷孕。他們通過算法,確定一位少女懷孕,把與妊娠有關商品的優惠券寄給了這位少女。這倒霉孩子的爸爸為此大發雷霆,沖過去把人家公司總經理大罵了一頓。新聞媒體也覺得這公司不太地道,有些看似貼心的服務,其實是在侵害當事人隱私權,可能引發不必要的名譽損害。所以說,曬年度賬單的孩子們,長點心吧!
還有一個故事知名度就比較高了,是大名鼎鼎的Facebook。根據媒體分析,在2016美國總統大選投票日之前三個月,Facebook 上關于大選的虛假新聞,比真實的新聞更受關注。在網絡上流傳的二十大假新聞的轉發率達870 萬,而《紐約時報》《華盛頓郵報》等美國主流媒體的二十大選舉新聞的轉發率卻只有740 萬。難怪希拉里團隊憤憤不平地認為是Facebook影響了選舉結果。
目前美國大約三分之二的成年人通過Facebook看新聞,這一平臺事實上成為美國人獲取新聞的主要渠道。假新聞泛濫,起因在于2016年Facebook調整了新聞推送算法,把最高權重給了用戶的親友,而不再優先展示傳統媒體的新聞報道。一個小小的改變,甚至可能影響美國大選的輿論走向,說明算法本身就是一種權力結構,掌握它的人不能不慎重對待。
新聞倫理這事兒,看著學術,其實真心會影響社會構建與社會公正。專業新聞生產機構的存在,本質在于讓老百姓們放心,有一批受過專業訓練的人,會幫我們鑒別真偽,并提供看待新聞事實的參考觀點。就像普利策先生說過的:“倘若一個國家是一條航行在大海上的船,新聞記者就是船頭的守望者”。
至少現在,我不放心把守望者的角色交給算法。
二次元電視報告
媒介技術的發展已經可以構建一個比現實更真實的擬態環境,我們即將面對的媒體環境是一個消滅了二次元和三次元差異的世界,是一個幾乎重構了時間和空間的場域。當越來越多的年輕人聲稱不再看電視的今天,我們對“電視是什么”產生了諸多新的困惑。那就讓我們嘗試用更多元的眼光看電視,來一次多次元頭腦風暴。來,年輕人,讓我們一起!聊聊電視。