李錚
在ChatGPT時代,計算機算法和人工智能越來越多地融入我們的生活,近日大家不斷地參與機器對話,不亦樂乎。對此德國波茨坦大學心理學家和行為科學家格爾德·吉仁澤認為:“這些算法可能正在以我們不完全理解的方式,改變我們的世界和行為。”格爾德·吉仁澤曾任某個人類發展研究所適應行為和認知中心主任,在他的最新著作《如何在智能世界中保持智能》中,他講述了許多關于算法如何塑造我們的未來的一些觀點。
如果你有一個定義明確的目的,且需要計算機來分析,那么深度神經網絡等復雜算法肯定比人類表現更好。例如游戲中的國際象棋和圍棋,它們的出子效率和步驟成熟和穩定,且還在不斷進化,已經有先例證明,人類目前已經在這兩個項目中落敗。
但是,如果你有一個不穩定的問題——例如,你想預測一種病毒何時被清除,比如冠狀病毒,那么就不要寄望于算法可以幫我們解決這個問題。人類思維的方式相對比較簡單,識別一兩個重要的線索而忽略其余的,但機器不是,機器可以并行計算,但機器對于生物醫學的復雜性發展也是無能為力的。在定義不明確的問題中,算法數據沉積過多,不一定能帶來好的結果。
深度神經網絡有“很多層”,但歸根到底它們仍然是計算機器。在ChatGPT技術的幫助下,它們可以做的比以往任何時候都多,比如繪畫,生成以假亂真的圖片,撰寫論文,但這并不意味著它們能像人類那樣理解文本,甚至也會涉及隱私泄露,比如我們用于生成圖片的素材可能會讓我們的自拍照被他人窺探。隨著系統復雜度的增長,機器也會暴露一些弱點,即便如同微軟這種老牌軟件公司,數據泄露的事件也屢見不鮮,攻擊者在其龐大的代碼庫中找尋嚴重的漏洞,這些都是短時間內無法消除的。
雖然現在人類工程師為人工智能的行為做出了很多框架,但我覺得人工智能工作的透明度依然非常重要,程序員可以對算法技術進行修改,并引導它們具有“自己思考”的能力,但人類還沒到過度依賴它們的程度,我個人認為目前還沒有比一群低薪工人更好的算法。
比如神經網絡算法最常見的“黑盒算法”中,因為人們無法從外部得知神經網絡模型究竟是如何完成訓練的,使用了一個預測準確率為97%的貓臉識別模型,結果這個算法有時會將小狗的臉部照片歸納到小貓中。由于神經網絡算法的這一不確定的特性,導致一些場景并不適合使用神經網絡算法,比如銀行不會使用神經網絡算法來評判用戶是否具備信用,因為一旦出現預測錯誤,銀行根本無法溯源找到評判錯誤的原因,也無法向客戶做出合理的解釋。
所以就人工智能的技術該如何管理,把它限制在我們認為靠譜的范圍內,現在還言之尚早。目前,互聯網大公司的算法皆為商業訴求所主導,互聯網產品以“使人上癮”為訴求,推送信息以“投其所好”為標準,倫理道德與社會責任幾乎完全缺席。
要想改變現狀,不再讓醫療搜索占坑、臉書泄密等事件再度發生,必須推動立法,對這些互聯網大公司的產品背后的算法進行“審計”和監督——關于數據挖掘的算法,可以規定可供挖掘的數據類別和限度;關于個性化定制推薦的算法,可以規定要求“事實檢查”或者明確提醒用戶信息的真實性有待核實;關于過濾算法,可以規定特定行業(如醫療)的企業在使用社交媒體廣告服務時的資格檢查。
關注對算法的“審計”和監管,而非對內容的審核,才有利于在未來逐步建立一套有例可循的“算法法律”。
如果你的樓下有一家提供免費咖啡的咖啡館,每個人都去那里,其他咖啡館都破產了,其實是很悲哀的事情,你缺少了與人交流的機會。我們現在生活的任何公共場所,墻上有攝像機和麥克風,記錄你所說的每一個字,就像電影《全民公敵》里面,后臺有超算對你說的話和行為舉止進行分析,看你是否具有犯罪意圖,我相信大部分人對此感到反感。
我們已經看到有過多基礎設施被互聯網所“裹挾”,但并非好事,事實上有些對我們的正常生活已經構成了困擾甚至威脅。就像電動車,主機廠在輔助駕駛還在完善的階段,就大吹特吹其為自動駕駛,自動二字讓相當部分的駕駛員放松了警惕,造成馬路上的一些車禍。
總的來說,我更希望人們意識到,將數據和自己的安全交給科技公司的算法并不是一個好主意,科技公司利用它從廣告商那里賺錢,但付出慘痛代價的卻是普通老百姓。