
隨著人工智能(AI)模型越來越擅長模仿人類行為,區分真正的互聯網用戶和模仿他們的復雜系統變得愈發困難。
真正的問題在于當這些系統被用于傳播虛假信息或進行欺詐等惡意目的。這讓我們難以信任在網上遇到的內容。
來自OpenAI、微軟、美國麻省理工學院和哈佛大學等的32位研究人員組成的團隊提出了一個潛在的解決方案——一種名為“人性認證”的驗證概念。這些認證可以證明持有者是真實的人,并且不需要獲取用戶的其他信息。該團隊在本月初發布在arXiv預印本服務器上的一篇未經同行評審的論文中探討了這一想法。
“人性認證”依賴于AI系統仍無法繞過最先進的加密系統,也無法在現實世界中假裝成人類。
要獲得這種認證,人們需要親自前往某些機構,如政府或其他受信任的組織,提供如護照或生物識別數據等證明自己是真實人類的證據。一旦獲得批準,他們將收到一個可以存儲在設備上的單一認證,就像目前可以將信用卡和借記卡存儲在智能手機的電子錢包應用中一樣。
在網上使用這些認證時, 用戶可以將其提供給第三方數字服務提供商, 后者可以使用一種名為零知識證明的加密協議來驗證。這將確認持有者擁有“ 人性認證” , 而不會披露任何其他不必要的信息。
過濾掉平臺上沒有經過驗證的用戶可能在很多方面都很有用。比如,人們可以拒絕沒有“人性認證”的線上交友配對,或者選擇不查看任何沒有明確由真人發布的社交媒體內容。
美國麻省理工學院的博士生托賓·邵斯參與了這一項目,他表示,研究團隊希望鼓勵政府、公司和標準機構未來考慮采用這種系統,防止AI欺騙失控。
“Ai無處不在。它會產生很多問題,但同時也會有很多解決方案被發明出來。”托賓·邵斯說,“我們的目標不是向世界強加這個方案,而是探討關于我們為什么需要它以及如何實現它。”
目前已經存在一些可能的技術選擇。例如,Idena聲稱自己是第一個基于區塊鏈的“人性證明”系統。它的工作原理是讓人類在短時間內解決一些對機器人來說很難的難題。而備受爭議的Worldcoin項目,通過收集用戶的生物識別數據,宣稱自己是世界上最大的隱私保護人類身份和金融網絡。它最近與馬來西亞政府合作,通過掃描用戶虹膜生成一個代碼,來提供在線“人性證明”。這個方案與“人性認證”的概念類似,每個代碼都通過加密保護。
然而,該項目因使用欺騙性營銷手段、收集超出其承認的個人數據,以及未能獲得用戶的有意義同意而受到批評。在今年早些時候, 中國香港和西班牙的監管機構禁止Worldcoin運營,并且其在巴西、肯尼亞和印度等國家的業務也已暫停。
所以說,仍然需要新的概念來解決AI混淆人類的問題。AI工具的快速普及引發了一個危險時期,互聯網用戶對線上內容的真實性變得高度懷疑。AI與Deepfake領域專家、Meta和英國政府顧問亨利·阿賈德表示:盡管驗證人性身份認證的想法已經存在了一段時間,但這些“人性認證”似乎是對抗不斷增加的懷疑情緒的最現實的手段之一。
但這些認證面臨的最大挑戰是如何讓足夠多的平臺、數字服務和政府接受它們,因為他們可能會對遵循一個自己無法控制的標準感到不安。“為了讓這個系統有效運作,它必須被普遍采用,”亨利·阿賈德說,“從理論上講,這項技術非常有吸引力,但在實踐中、在復雜的現實世界中,我認為會有相當大的阻力。”
專注于超真實deepfake生成技術的AI公司Synthesia的安全主管馬丁·塔卡曼表示,他同意“人性認證”背后的原則在線驗證人類的必要性。然而,他不確定這是否是正確的解決方案,或是否具有可操作性。他還對誰來運行這樣的方案表示懷疑。
“我們可能最終會進入一個世界,在這個世界里,我們將進一步集中權力,將對我們數字生活的決策集中化,賦予大型互聯網平臺更多的控制權,決定誰可以在線存在以及出于什么目的。”馬丁·塔卡曼說,“考慮到一些政府在采用數字服務方面的糟糕表現,以及日益增長的專制傾向,期望這種技術能在本世紀末被大規模和負責任地采用,是否切合實際?”
目前,Synthesia正在評估如何將其他“人性認證”機制整合到其產品中,而不是等待跨行業的合作。他表示,該公司已經有了幾項措施。例如,它要求企業證明自己是合法注冊的公司,并且會禁止并拒絕向違反規則的客戶退款。
可以肯定的是,我們迫切需要區分人類和機器人的方法,并鼓勵技術和政策領域的利益相關者之間的討論是朝著正確方向邁出的一步。未參與項目的美國南加州大學計算機科學教授埃米利奧·費拉拉說。
“我們離一個未來已經不遠了,如果情況不加以控制,我們將基本無法區分我們在線上與之互動的是其他人類還是某種機器人。必須采取一些措施,”埃米利奧·費拉拉說,“我們不能像前幾代人那樣對技術的認知過于天真。” (綜合整理報道)(策劃/多洛米)