人工智能面臨的安全問題可能超出很多人的想象。中國網絡空間安全協會副理事長杜躍進博士表示,人工智能在為時代發展帶來深遠影響的同時,也面臨著嚴峻的安全問題,唯有讓人工智能和安全有機融合,才能讓人工智能有一個光明的未來。
杜躍進指出,智能化對“壞人”也意味著“機會”。當今社會是互聯互通的,網絡攻擊可以從虛擬空間滲透到物理空間,其危害是空前的。他列舉了人工智能安全的“七宗罪”。
一是硬件層面。很多人工智能元器件在物理層面缺乏安全保障,哪怕只有一段線路沒有進行電磁屏蔽,也會給物理干擾留下機會。
二是軟件層面。任何軟件都有漏洞,它們可以被攻擊者利用,實現代碼執行、控制流劫持、信息泄露等目標。
三是協議層面。很多專用通信協議設計缺乏安全考慮。

中國網絡空間安全協會副理事長 杜躍進
四是數據層面。大數據時代有一個“黑箱悖論”,即只知道計算的結果但不知道原因。人工智能離不開數據,但數據本身有可能被“污染”,這時人工智能就像被“投毒”了卻沒人知道。
五是業務層面,算法本身可以被欺騙、誤導。當人工智能越來越多地被用于控制相關業務時,可能會產生致命性的影響。
六是應用動機層面。壞人有可能更早、更深地看到人工智能帶來的機會,用人工智能技術做危害他人或社會的事情。
七是機制設計層面。人工智能用于大規模社會治理的時候,由于社會系統的復雜性,可能因為模式設計考慮不充分,最后導致事與愿違的結果。
杜躍進博士指出,人工智能安全問題不能僅從技術的角度考慮。例如從倫理的角度,如果我們不能建立一個人工智能的正確的價值規范,人工智能可能被壞人用來做危害人類利益的事情。從社會復雜性的角度來看,人工智能的應用往往針對一個個需求點而實施,但因為社會的復雜性,這種單點思維可能會導致技術在推廣實施中事與愿違。
因此杜躍進呼吁,人工智能安全問題需要來自安全、通信、社會學、法律等領域的機構、企業、專家共同參與、解決。
杜躍進還強調,人工智能同樣也是當下解決安全問題的利器。在大安全時代,無論是過去的安全痼疾,還是線上線下層面的安全問題,都可能因為人工智能的應用而找到突破口。安全行業一定要充分認識到,我們真正的對手不是其他競爭廠商,而是那些網絡攻擊者、破壞者。能否幫助客戶、大眾抵御網絡攻擊,遏制危害,才是衡量安全企業成功與否的關鍵。