王淏

摘要:隨著計算機技術的不斷成熟,許多方便的計算機技術被運用在我的在我們生活中,但在這一背景下也滋生了許多不法網絡行為,深度造假就是其中之一。深度造假利用機器學習,對信息源進行拆分,替換,能達到以假亂真的效果。 現階段,大部分民眾是通過自己眼睛,常識去判斷信息的真實性,深度造假這一技術會讓絕大部分民眾的信息識別能力大幅下降,沒有辦法準確識別信息是否真實,本文通過對deepfake進行算法解析,并模擬多次fakeapp進行數據模型訓練,從多次實驗模擬中進行歸納總結,可出結論;深度造假在對生命周期進行學習時,只能模擬大體上的生命特征,但無法模擬細小的生命周期,如眨眼頻率,表情鮮活度。因此可以利用該特點對深度造假軟件進行取證。
關鍵詞:深度造假;生命周期;deepfake;信息真實
1 引言
1.1 研究背景
隨著時代的不斷進步,大數據的應用越來越廣泛,人工智能即AI應運而生,逐漸被應用在各個領域。然而隨著人工智能技術的不斷成熟,普及,隨之帶來的是一系列安全問題。目前國外已經出現的“深度造假”就是人工智能的一個體現。該程序是利用給程序進行不斷的數據學習,數據的大量“喂食”讓程序進行一個數據模擬。
1.2 研究現狀
深度造假是利用一個程序的反復學習,加深學習,收集大量的數據資料推導出模型,并利用模型進行造假活動。“深度造假”看上去與真人并無差別但是其本質上就是模型模仿的過程。就像美國紐約大學法學兼職教授保羅·巴雷特說,簡單來講,“深度造假”就是借助深度學習手段制作的虛假視頻。深度學習系統可以從多個角度研究目標人物的照片和視頻,然后模仿其行為和說話模式,從而制造出具有說服力的虛假內容。[1]這種“深度造假”的危險在于,這種技術可以讓人相信原本并不真實存在的東西是真實的。
1.3 研究內容
本文從人工智能的本質出發對其證明,探討了試圖證明神經網絡的算法,模擬了深度學習所產生的深度造假運行形式,并通過列舉了一系列范例揭示了人工智能取證系統可以針對哪一點進行取證。
2 deepfake實際運行模擬實驗
為了驗證本實驗猜想,本文對深度造假進行了模擬實驗,模擬deepfake的運行過程,首先我們需要下載CUDA,CuDnn,VS2015等文件,并將其安裝在電腦中 ,接著下載fakeapp,并在其原路徑下壓解CORE文件。
由此將fakeAPP的日志環境,運行條件搭建好,接下來進行視頻素材人物解析,
注;本文在實驗中采用了抖音軟件中某知名網紅視頻,以及演藝圈某知名明星視頻作為實驗素材,(本人聲明以下為實驗數據,結果視頻第一時間刪除,并承諾一切相關視頻不得用于商業用途。)接著打開fakeapp的軟件界面;
選中GET DATESET 出現如下界面,將實驗素材放入程序中,這一步的目的是將視頻分割成圖片,然后從圖片中提取臉部。這個環節只需要填寫兩個地方,一個是Vidoe視頻路徑,一個是幀率FPS,默認為30。之后開始運行;
接著用同樣的方式操作FTM.mp4,最好得出兩個視頻素材的圖片,面部特征數據具體過程和上述過程一致,最后得出如圖; 接下來進行第二步,訓練模型模型是很重要的一個數據分析,也是一個極其消耗時間的東西。訓練模型對電腦配置的要求也是比較高。本文實驗時不具備高配置實驗環境,因此用時3天建立了一個訓練模型,Mode是模型的保存路徑? Data A: 被換的人臉Date B: 拿去換的人臉,
輸入路徑之后,點擊TRAIN開始訓練。稍等片刻下面就會顯示Loss A:xxxx ,LossB:xxxx 。 同時Model 目錄下除了四個文件。同時還會跳出一個有很多臉的預覽窗口。如圖;
這一個環節是非常耗時間的,一般需要幾天時間,在這期間我們可以關注上圖紅框內的數值,當兩者的數值差在0.01到0.02之間時,人臉預覽圖越來越清晰,第二列第三列和第一列一樣清晰,這時候這個訓練過程基本上就已經結束了,接下來我們就可以開始第三步的準備工作,首先將訓練模型整理好,檢查文件路徑,即可開始第三步,生成視頻。生成視頻的過程分為幾個步驟。首先,輸入Model 路徑。Video路徑 頻率(30)然后,點擊Create。然后程序自動開始,處理過程可分成4個階段。生成圖片、截取臉部、合成圖片、合成視頻。如圖所示;
以上為其中一個實驗過程,本次實驗選取時間,空間為環境變量進行多次實驗模擬,通過6次實驗模擬,得出以下圖表。
本實驗通過對模型訓練的時間進行控制,來進行實驗,從而來得到以上數據,通過以上數據可以看出模型訓練時間越短誤差值越大,其合成的視頻清晰度,相似度越低。而生命周期特征則是無論訓練時間如何變化,一直在5~6之間來回波動,該實驗說明了模型訓練的時間長短并不影響生命周期特征的變化。這說明了deepfake對生命周期的模擬是一個定值,不能精準模擬,而模型訓練的時間長短只會影響其結果的清晰度與相似度。因此可以得出結論;人工智能取證系統針對深度造假的取證方向受生命周期尺度因子變化而變化,即;深度造假在對生命周期進行學習時,只能模擬大體上的生命特征,如;眨眼,表情等,但無法模擬細小的生命周期,如眨眼頻率,表情鮮活度。因此可以利用該特點對深度造假軟件進行取證。
3 結論
通過實驗模擬算法解析,我們發現,訓練模型受到時間,環境的影響,其會使得其清晰度,相似度受到改變。而其生命周期特征是在一個特定的值來回波動。從實驗總結得出結論;人工智能取證系統針對深度造假的取證方向受生命周期尺度因子變化而變化,即;深度造假在對生命周期進行學習時,只能模擬大體上的生命特征,如;眨眼,表情等,但無法模擬細小的生命周期,如眨眼頻率,表情鮮活度。因此可以利用該特點對深度造假軟件進行取證。
參考文獻:
[1] 李鬼變李逵!“深度造假”視頻危害日益加劇,劉霞-《科技日報》-2019.