很多人說過,ChatGPT經常會有理有據地胡扯,特別當它回應一些嚴肅的知識性問題時,會憑空編造事實,甚至杜撰不存在的文獻。
例如,我讓ChatGPT給我介紹一下青銅器利簋,它開始一本正經地胡扯,說這件青銅器是商王帝乙為了祭祀自己的父親文丁所鑄,還詳述了其內壁的銘文,說是商王希望得到祖先靈魂的庇佑什么的。然而,這根本就是胡扯,利簋這件文物我在博物館里親眼見過,此物為西周貴族為了紀念武王推翻商朝而鑄,其銘文也和祭祀商王毫無關系。
我問AI這些都是從哪兒看來的,它咔咔給我列了一大堆文獻,《殷墟發掘報告》《商代青銅器銘文研究》之類的。看著是那么回事,其實又在胡扯。前一篇文獻的作者是中國社會科學院考古研究所,AI說是中山大學考古學系;后一篇文獻的作者是嚴志斌,AI說是李學勤。當然,這樣的嚴肅文獻里也根本不會有AI捏造的內容,AI只是搞出了一個引用的假象。
當話題進行到這兒時,這就是一個關于AI幻覺的老生常談,網上討論過很多次了;然而,我最近看了一個視頻,是關于一項新發布的數字人技術,這項技術可以將一幅靜態人物照片轉化為視頻,效果驚人。比如,系統以一張靜態照片為素材,生成了一段演講視頻,不僅神態、語氣、口型、肢體動作極其自然,連頭發和首飾的晃動都符合物理規律。若是用街邊拍攝的人物照片為素材,根本看不出破綻。
假如這類技術普及以后,有個團伙為了販賣自己偽造的文物,用知名專家的照片偽造一段講座視頻,令其講述團伙虛構的歷史,擴散到短視頻平臺上,再用AI虛構的歷史生成大量的虛假文獻乃至照片和視頻,投放到網上搞信息污染,發酵一段時間,會發生什么?
或是有一天,當你在看短視頻時,突然刷到一個你熟知的專家在搞講座,說了一段歷史,你之前沒聽過,心中覺得奇怪,到網上一查,發現文獻還挺多,作為證據的照片和視頻能搜出一大堆,還有官媒采訪現場的錄屏。若是到了這種程度,除非直覺敏感的專家或者相關研究的親歷者,絕大多數人都會被帶到坑里,不知不覺間就在腦海中植入了這段虛構歷史的記憶。等未來的某一天,這個團伙把偽造的文物拿出來招搖過市時,你會心想:“嗯,這東西靠譜,之前看專家提到過,官媒還報道了呢。\"其實,一切都是AI編的,根本不存在。
發現了嗎?AI能虛構從文本到照片乃至視頻的一切內容,并且令其彼此印證、互相支撐,可謂天羅地網、環環相扣,其制造的幻覺在強度上和之前編點文字故事不可同日而語,除非你親自向專家本人求證,或者到現場實地考察,否則就會被AI創造出的假象玩得死死的。
但現實中,有渠道、有機會、有能力、有意愿親自驗證事實的人有多少呢?就算前面說的這四點你都有,你能每件事都驗證嗎?稍微不留神,被AI污染的記憶就不知不覺鉆進腦子里了。
(摘自2025年3月5日《北京青年報》)