谷歌DeepMind推出了一款新的水印工具,用于標記圖像是否由人工智能生成。
該工具名為SynthID,目前僅對谷歌人工智能圖像生成工具Imagen有效,用戶可以在谷歌云的機器學習平臺Vertex上使用該工具。
用戶將能夠使用Imagen生成圖像,然后選擇是否添加水印。谷歌希望它能幫助人們判斷人工智能生成的內容是否被當作真實內容,或者有助于保護版權。
在過去的一年里,生成式人工智能模型的流行也帶來了人工智能生成的深度偽造、非感官色情和版權侵權案例的激增。
水印技術是一種將信號隱藏在人工智能生成的文本或圖像中的技術,它已成為遏制此類危害的最普遍方法之一。
2023年7月,美國白宮宣布已獲得OpenAI、谷歌和Meta等領先人工智能公司的自愿承諾,它們將開發水印工具,以打擊人工智能生成內容的錯誤信息和濫用。

在2023年5月的谷歌I/O大會上,谷歌首席執行官桑達爾·皮查伊表示,該公司正在構建自帶水印和其他技術的模型。谷歌DeepMind是第一家公開推出此類工具的大型科技公司。
傳統的水印是在圖像上添加可見覆蓋層,或者將信息添加到其元數據中。但谷歌DeepMind研究副總裁布什美特·科里表示,這類方法是“脆弱的”,當圖像被裁剪、調整大小或編輯時,水印可能會丟失。
SynthID是使用兩個神經網絡創建的。一個使用原始圖像,然后生成一張看起來幾乎相同的圖像,但有些像素經過了微妙的修改。這創建了一個人眼看不見的嵌入圖案。
第二個神經網絡負責捕捉這些圖案,并告訴用戶它是否檢測到水印,懷疑圖像有水印,或者發現它沒有水印。科里說,SynthID的設計方式意味著,即使圖像被截屏、編輯、旋轉或調整大小,水印仍然可以被檢測到。
芝加哥大學趙教授說,谷歌DeepMind并不是唯一一家研究這種水印方法的公司。趙教授曾參與研究防止藝術家作品被人工智能系統抓取的系統。
類似的技術已經存在,并在開源人工智能圖像生成器Stable Diffusion中使用。Meta也對水印技術進行了研究,盡管它尚未推出任何公開的水印工具。
科里聲稱,谷歌DeepMind的水印比之前為圖像創建水印的努力更能抵抗篡改,但仍然不能完全免疫。
但趙教授持懷疑態度。“隨著時間的推移,很少或根本沒有水印是無法攻破的,”他說。早期對文本水印的研究發現,它們通常在幾個月內就很容易被破壞。
他補充道,攻擊者在破壞水印方面有利可圖。例如,聲稱深度偽造的內容是某個犯罪或事件的真實照片證據,但實際上是莫須有的指控。
趙教授說:“攻擊者會試圖將深度偽造圖像宣傳為真實圖像,或將真實照片抹黑為偽造照片。這可能為他們帶來很多好處,所以他們會無所不用其極,包括裁剪、有損壓縮或改變顏色等手段。”
盡管如此,Partnership on AI的人工智能和媒體完整性項目負責人克萊爾·萊博維奇表示,谷歌DeepMind推出的工具是一個很好的第一步,可能會在該領域更好地分享哪些技術有效,哪些技術無效。
她說:“這件事的復雜性,不是我們無所作為的理由。”
科里告訴《麻省理工科技評論》,水印工具是“實驗性的”,并表示該公司希望在該工具更廣泛地推出之前,觀察人們如何使用它,了解它的優勢和劣勢。
他拒絕透露谷歌DeepMind是否會讓該工具更廣泛地用于除Imagen以外的生成式人工智能圖片工具。他也沒有說明谷歌是否會在其人工智能圖像生成系統中添加水印。
初創公司Hugging Face的人工智能研究員薩沙·路馳尼認為,這限制了該工具的實用性。她補充道,谷歌決定保留該工具的所有權,這意味著只有谷歌才能嵌入和檢測這些水印。
路馳尼說:“如果你在圖像生成系統中全面添加水印組件,那么像深度偽造色情之類的東西所帶來的危害和風險就會更小。”