郭靜原
出道2個月便獲得1億活躍用戶的ChatGPT正遭遇“不測”。3月底,一群人工智能領域重量級專家和行業高管聯名簽署了一份公開信,呼吁暫停開發比GPT-4更強大的AI系統至少6個月,稱其“對社會和人類構成潛在風險”。3月31日起,意大利禁止使用ChatGPT,德國、加拿大等國也紛紛出手,表示出于數據保護方面的考慮,將禁止使用ChatGPT或對人工智能采取更加嚴格的監管。
他們擔心什么?是人工智能技術在信息泄露等方面可能造成的社會性風險。這種風險還會隨著其龐大的用戶規模進一步放大,危害個人隱私和數據安全,一旦被別有用心的人利用,帶來的惡劣影響難以想象。而在不遠的未來,由算法所引發的偏見和歧視,還將影響人工智能判斷的公平性。
人們的普遍認知里,每一次科技革命都會使社會生產力獲得巨大飛躍,促進生產生活方式發生改變,從而推動世界經濟的發展,也提高了人民的生活水平。然而,隨著科技發展不斷深入,觸及的未知領域也日漸增多,人們在享受科學技術帶來便利的同時,也極易掉入由技術編織的美麗陷阱。只有用好規則和法律的利劍,才能斬斷人工智能技術野蠻生長的藤蔓。
當前,人工智能存在的倫理問題已經引發全球關注。聯合國教科文組織近日發表聲明,行業自律尚不足以避免這場科技倫理危機,呼吁各國政府盡快實施該組織通過的首份人工智能倫理問題全球性協議——《人工智能倫理問題建議書》。建議書提供了工具,以確保人工智能的發展嚴格遵守法律,避免造成危害,并在危害發生時啟動問責和補救機制。
我國也在抓緊制定與科技倫理相關的規范和標準。日前,科技部發布關于公開征求對《科技倫理審查辦法(試行)》意見的公告。辦法提出,從事人工智能的單位,研究內容涉及科技倫理敏感領域的,應設立科技倫理(審查)委員會,并引入專家復核程序,部分算法模型、自動化決策系統需要專家復核。
科技向上更要向善,以不動搖人類生存為基礎,確保科技方向符合全人類共同的價值取向,才能為人類文明進步提供不竭動力。數字時代的人工智能革命正在全球范圍內迅速傳播,而ChatGPT引發的一系列爭議,恰恰說明保護數據隱私、規避偏見和歧視等問題,將成為人工智能深度融入社會生活的重要前提。
政府、相關組織機構和企業等需加強合作,平衡好科技創新效率和倫理監管力度,特別是要對科技活動主體的社會責任與行為準則進行規范,避免人工智能技術被濫用,讓科學技術成果更好地造福于民。