8月9日,在第十一屆互聯網安全大會(簡稱“ISC 2023”)上,中國工程院院士鄔江興發表了題為“動態異構冗余構造賦能AI應用系統內生安全實驗”的演講,引起了廣泛的關注和討論。
鄔江興教授首先指出,AI應用系統在各行各業都有分布,跟人類的社會生活息息相關,但是目前很多企業在使用AI應用系統時,面臨著安全性無法保障的問題。他認為,AI應用系統的安全問題可以分為內生安全問題和非內生安全問題,其中內生安全問題又可以分為個性問題和共性問題。個性問題是指AI算法模型本身存在的黑盒特點、數據依賴性、不可逆性等導致的不可解釋性、不可判定性、不可推論性等問題。共性問題是指AI應用系統軟硬件環境中存在的漏洞、后門等常見的網絡安全問題。
鄔江興教授進一步分析了當前網絡安全理論與方法的天花板問題,即在面對未知的未知或已知的未知的情況下,傳統的網絡安全范式無法有效解決AI應用系統中存在的內生安全個性問題和共性問題。他提出了一個新的思路,即利用內生安全理論中的動態異構冗余(DHR)構造方法,賦能AI應用系統內生安全實驗。他解釋了DHR構造方法的原理和機制,即通過功能等價異構冗余環境發現差模或有感共模擾動,并進行評比或糾錯,從而阻斷和控制內生安全問題發展成為內生安全事件。
鄔江興教授還展示了在理論研究和工程實踐方面取得的成果,包括對AI應用算法個性化問題的特異性分析、基于DHR構造方法的AI應用系統內生安全實驗原理驗證、紫金山實驗室創辦的首個網絡安全實驗廠等。他表示,將在今年四季度舉辦第六屆國際精英挑戰賽,并新設了AI應用系統安全賽道,這是世界上首次針對AI應用系統內生安全問題進行人機對抗的比賽。他呼吁更多的專家學者和企業界人士參與到AI應用系統內生安全研究和實踐中來,共同推動AI時代的網絡空間安全發展。