摘要:當前社會的不斷發展和科技的不斷進步、大數據智慧庫的不斷完善,使AI技術逐漸滲透到各行各業當中,尤其對新媒體平臺的發展有重要的影響。新媒體蓬勃發展的今天,信息的數量呈現爆炸式增長,大數據的數據存儲不斷完善,各類AI產生的新功能為人們帶來全新體驗。AI技術的快速發展為新媒體平臺帶來巨大的利益,也為新媒體的信息安全帶來了問題,傳統的信息安全維護架構已經不足以應對AI技術帶來的安全威脅。本文從信息安全角度來分析AI技術在新媒體領域的問題并提出應對措施。
關鍵詞:AI技術;新媒體;信息安全;問題與對策
隨著大數據和AI技術在新媒體平臺的深入應用,新媒體的信息安全問題也逐漸浮現,AI技術被濫用造成公眾恐慌、大數據信息泄露、利用AI換臉進行詐騙等都是新技術發展帶來的負面事件。如何正確運用AI技術、增強新媒體信息安全是未來新媒體領域重點解決的問題。
一、AI技術在新媒體信息安全領域的利弊分析
(一)AI技術在新媒體領域的應用
AI技術是人們借助計算機科學、心理學、哲學和語言學等學科,模擬人的意識與思維信息過程,實現不同領域高層次應用的技術。AI技術的快速發展為新媒體平臺的運營帶來極大的便利,在其應用于新媒體傳播以后,新媒體傳播渠道管理者可以記錄受眾的行為,并在對受眾的行為進行分析的基礎上,為不同受眾構建不同的專屬圖表。[1]利用大數據的數據庫和AI的智慧篩選、精準投送來提升客戶對新媒體平臺的滿意度,從而使客戶更加信賴新媒體平臺,為平臺增加收益。
AI對于圖像的處理和語音的識別也為新媒體平臺的圖像處理等提供了幫助。AI技術模擬人類的聽覺和視覺,可以清楚地表達出用戶的思想,而音頻和圖像的輸出是新媒體平臺重要的表現形式。以抖音為例,在抖音的視頻創作平臺上已經引進了AI擴圖和AI語音的功能,用戶可以利用這些功能來進行圖片的擴充和變換,將自己的聲音配成AI語音,富有趣味性的同時又能表達出他們的意思。現階段的AI技術已經在語言與圖像識別領域取得了一定的優勢,在未來的大數據時代,AI技術會與新媒體平臺進行更深層次的融合,為新媒體平臺提供更加精確、符合用戶畫像的圖像處理和語音識別能力。
AI具有很強的學習能力。在大數據時代,新媒體平臺面臨的是復雜的互聯網環境,人們為適應時代變化而不斷調整新媒體的運營方向和內容,這是一個人類和AI相互學習的過程,AI可以通過計算機模擬來預測新媒體的未來發展趨勢,人們通過AI技術的發展來加強自我的深度學習,以此讓新媒體平臺朝著更高的方向發展。
不僅如此,AI技術在新媒體平臺上開始模擬人類行為。以新浪微博為例,近期新浪微博推出了AI智能回復助手羅伯特,會在用戶的微博下進行評論,評論內容會隨著博主發布的內容而變化。從反饋結果來看,羅伯特的評論回復大都緊扣發布內容,并且言論與人類相似,幾乎達到人類思維的地步。從ChatGPT開始,AI進入一個全新時代,目前越來越多的公司會利用AI來開展工作,在新媒體平臺上,用AI創作的文案和視頻收獲了較多的瀏覽收益,利用AI思維所創作的內容在邏輯處理上并不亞于人類的創作,雖然部分AI作品會在形式上如畫面、人物聲音處理等方面存在些許漏洞,但總體而言,AI的技術創作為新媒體傳播提供一條全新思路。
(二)AI技術在新媒體信息安全領域的弊端
AI的簡易操作也為不法分子帶來可乘之機。在大數據時代,信息數據價值不斷提高,黑客對國家、企業、商業等機密的監聽、盜取事件不斷增加。[2]黑客偷取信息數據需要專業的技能和知識,而ChatGPT的快速發展不僅方便人們進行翻譯等工作,也方便了黑客的偷取信息技術,借助ChatGPT的深度學習能力和海量數據的積累融合,只需對ChatGPT提出基本要求,便可編寫惡意軟件,威脅信息數據安全。在AI技術盛行之前,想要偷取信息技術,黑客要不斷學習專業的知識來攻擊防火墻,這對于人的學習能力和智商都有一定的考驗,因此,黑客的數量可以得到控制。但隨著AI時代的到來,AI可以代替黑客進行攻擊,這對黑客的技能要求大大降低。毫不夸張地說,只要掌握基本計算機和AI技術知識,人人都可以成為黑客,這就給信息安全造成巨大的困擾。
同時AI技術的快速發展也會引發更為先進的黑客攻擊,利用AI來進行網絡攻擊,可以加速破解速度,使黑客可以快速獲得大數據中的數據信息并加以利用。一些不法分子會利用AI來增強自己的網絡系統,給軟件維護增加難度,阻止網絡安全部門的追蹤,給國家信息安全、個人信息安全造成威脅。不法分子利用AI技術肆意窺探大數據中的信息,也會給人們造成恐慌,大量的個人信息被竊取,人們的隱私無法得到保障,形成一種隱私公開化的錯覺,使越來越多的人開始質疑AI技術和新媒體、大數據的發展,負面情緒的堆積勢必會導致爆發,形成反AI主義,與社會發展的方向相違背,不利于社會的穩定發展。
AI技術的學習能力驚人,基于深度學習而打造的 “深度偽造”技術可以憑空捏造一段視頻或對話,在短時間內讓人無法分辨真假,再加上AI技術在新媒體平臺的深層融合,加大了虛假信息的傳播范圍。在現實生活中,通過AI換臉、換聲音等方式來實現詐騙的事件層出不窮。2019年3月,有犯罪分子利用AI技術模仿英國某能源公司德國母公司CEO的聲音,成功詐騙了22萬歐元。當AI不斷模糊真實與虛假的界限,誰都無法預見科技會將我們帶到何處,而且任何人都有可能是受害者。[3]AI未知的學習能力在不法行為者的利用下,時刻威脅著新媒體的網絡信息安全,因此,對于AI技術的規范是必要的,也是刻不容緩的。
二、AI技術在新媒體信息安全領域的對策分析
(一)加強網絡基礎設施建設,更迭AI技術創新
面對AI技術的違法濫用,增強網絡基礎設施的建設是必要措施。網絡安全部門要合理設計建立網絡拓撲結構,監督防護內部操作系統,通過安裝防火墻等手段,提高系統防護手段,對信息傳輸進行加密處理,利用大數據的數據庫,將每位用戶的信息分類存放至存儲系統,再通過安全系統進行加碼保護,對于國家、企業等機密信息更要建立單獨的存儲系統來維護,通過多重防火墻建設,采用AI技術與人工驗證雙重保險來保障機密信息的安全。網絡基礎設施建設是保障信息安全的基本性操作,只有做好網絡設施建設,才能與違法分子相抗衡。
傅瑩認為 “沒有科技創新就沒有國家安全,美國能夠在國際競爭中保持優勢,很大程度上有賴于其科技創新力量”。[4]面對AI技術造成的信息安全問題,我們也應該不斷更新AI新技術加以解決,在現有的信息安全技術的積累上,不斷創新AI新技術,發展AI安全信息方面的技能,提升信息安全的抵御力,為信息安全提供可靠的新技術支撐。
(二)建立AI追蹤系統,采用人工雙核驗
隨著ChatGPT等技術的不斷成熟,越來越多精致的AI作品出現在新媒體平臺上。AI技術的改進受到大多數人的歡迎,AI換臉等特效也被人頻繁應用。在將AI技術用于娛樂的時候,大部分普通人并不會在意,對AI技術缺乏深層認識的他們沒有意識到,AI技術的使用會將個人信息留在AI數據庫中,這也加劇了不法分子利用AI來違法犯罪的行為,AI數據庫的安全受到了威脅。因此,數據庫要打造信息安全系統,為每位用戶的AI數據進行加密保護,防止黑客利用AI技術來偷取用戶的AI數據庫信息。
不僅如此,AI技術在原來的系統基礎上應建立追蹤系統,同時采用人工、AI雙重核驗機制,當AI技術被拿來進行掃臉、錄音等核驗行為時,會自動開啟追蹤系統,將使用AI技術的人的信息進行數據調查,同時啟動人工核驗查詢,確保操作的合法性。通過建立AI追蹤系統和人工雙重核驗,可以從犯罪的源頭上進行打擊,在一定程度上阻止AI的違法濫用。
(三)整合大數據技術,共建網絡監督系統
互聯網的迅速發展不僅給人們帶來了很多便利,也給不良信息的傳播帶來了途徑。人工審核具有人員限制、速度慢、反應不及時、存在知識漏洞等缺陷,會讓部分負面信息逃過審核,在新媒體平臺上快速傳播,帶來一定的不良影響。大數據時代的到來、AI的快速發展會很大程度上限制違法信息的傳播。相較于人工審核,AI技術可以在大數據龐大的數據庫基礎上,利用關鍵詞、敏感詞等來自動搜索相應的信息數據,并迅速做出反應,以此進行高效的網絡信息審核。目前,AI技術已經投入審核系統中,雖然部分用戶反映AI技術存在 “一刀切”行為,但從長遠發展來看,AI技術會大大提高新媒體平臺的效率,幫助用戶糾正錯別字、違規詞等,利用自動檢索和生成系統來幫助受眾快速生成他們需要的作品。可以在AI審核的基礎上,形成以AI技術審核為主、人工審核為輔的雙重審核機制。
在大數據環境下,新媒體平臺可以借助大數據技術鼓勵受眾行使自身的監督權,并對一些嚴重危害社會穩定的謠言及虛假信息進行控制。[5]在未來新媒體傳播領域的發展中,AI技術應整合大數據系統,共建網絡監督系統,通過違禁詞語的檢索來排查不良信息的入侵,并且執行更為嚴密完整的算法,在快速檢測是否違禁的同時還要檢索完整信息來判斷是否為誤判,以此來提高效率,為用戶帶來更好的體驗,保護用戶的信息安全。
(四)推動AI技術立法,加強國際安全合作
AI技術發展速度迅速,國內國外對于AI技術的研究和運用都進入新的階段。但利用AI進行高科技犯罪的案例也逐漸增加,而AI本身的技術含量高,反追蹤能力強,給破案造成了一定的難度。因此,要積極推動以AI技術立法為核心的法律法規新領域建設,為信息安全建設制定與時俱進的法律法規,將網絡信息分類標準進行合理的細化,以網絡信息安全為總法框架,探索AI技術對新媒體信息安全領域的潛在危害和合理規范化界限,降低AI技術為國家和社會帶來的負面影響。同時,要加強AI技術相關的國際安全合作,推動構建人類命運共同體建設,重視AI技術帶來的新媒體信息安全問題,推動AI國際立法,預防犯罪分子利用AI技術進行跨國犯罪的行為。
(五)利用新媒體平臺進行AI技術安全宣講教育
新媒體平臺是有效宣傳AI技術利益與弊端的平臺。在互聯網時代,人們對于網絡的依賴性越來越嚴重,世界經濟論壇發布的 《2022年全球風險報告》將 “數字依賴和網絡脆弱性”列為全球六大風險之一,其中95%的網絡安全問題是由人為的錯誤導致的,由此可以推斷出新媒體網絡信息安全與人存在相輔相成的聯d229b074de55d2654a642b880d03978bf40a5c70d97ceae9785b66b786f8d110系。可以利用這種聯系來解決AI技術的弊端,利用人們在新媒體平臺上獲取信息的依賴來宣傳AI技術安全教育,在新媒體數據潛移默化的影響下,讓AI技術的安全宣傳教育深入人心,逐漸加強人們對AI技術的多方面認識,提高網民自身的信息安全防范意識,減少網絡信息安全受到侵害的頻率。
三、結束語
隨著互聯網的不斷推進,人類進入大數據時代,AI技術漸漸滲透到我們的日常生活,影響我們的行為和思維方式,也逐漸在新媒體領域中起到主導作用。因此,AI技術帶來的信息安全問題會不可避免地給人們的日常生活帶來麻煩。為了消除AI技術所帶來的弊端,要整合大數據,建立完善的智慧審核和數據安全系統。同時,要建立起AI的自我追蹤系統,通過AI和人工的雙重審核,從源頭上切斷不法分子利用AI技術進行違法犯罪行為的渠道。相關的AI技術立法和國際合作、公眾的AI技術安全意識提高也是必要的,用戶的及時監督反饋也為AI技術的修正提供了建議。AI和大數據技術的整合利用勢必會為新媒體的信息安全方面帶來層層防御保護,保障國家和個人的信息安全。
參考文獻:
[1] 侯承.大數據和AI技術在新媒體傳播渠道中的運用探討[J].科技傳播,2018,10(10):98-99.
[2] 劉恒,王偉,靳文虎,等.AI時代網絡信息安全問題及對策:以ChatGPT為例[J].網絡安全技術與應用,2023(11):160-162.
[3] 易艷剛.AI換臉打開潘多拉魔盒[J].青年記者,2019(27):96.
[4] 傅瑩.AI對國際關系的影響初析[J].國際政治科學,2019, 4(01):1-18.
[5] 趙子蒙.大數據和AI技術在新媒體傳播渠道中的應用分析[J].新媒體研究,2017,3(22):26-27.