AI安全“上強度”:以魔法破魔法丨AI安全觀察④

21世紀經濟報道記者孔海麗 北京報道

在人工智能大模型的助推下,全球新一輪科技革命和產業變革正在醞釀,但也衍生了一些擔憂,數據安全、終端安全以及個人的數字主權面臨更大的挑戰。

“攻擊組織藉助AI的學習與分析能力,持續深入剖析防禦機制,不斷優化和精進其攻擊策略,甚至能夠實現攻擊策略的自動部署與執行,加劇了網絡安全領域的挑戰。”有網絡安全行業從業人士表示,AI大模型的能力如果不能被善意利用,所帶來的安全威脅無疑也是翻倍的。

近日,多位專家在第六屆C3安全大會上指出,AI網絡安全要求我們重新審視傳統的安全防護措施,來應對AI算法發起的更爲隱蔽、精準的網絡攻擊——“以AI制AI,以魔法破魔法”,利用AI技術來應對AI驅動的網絡安全威脅。

中央網信辦網絡安全協調局二級巡視員張勝表示,近年來,中央網信辦同相關部門相繼出臺了《網絡安全法》、《數據安全法》、《個人信息保護法》、《關鍵信息基礎設施安全保護條例》等系列法律法規,《網絡安全審查辦法》、《生成式人工智能管理辦法》等重要制度以及數百項網絡安全國家標準,基本構建起網絡安全政策法規體系的四樑八柱。他認爲,人工智能與網絡安全的深度融合,要從加強網絡安全人才與創新、重視數據資源建設與共享等方面繼續展開。

“數據正在成爲最重要的資產,大模型如同現代冶煉廠,在鑄造出這個時代的‘鋼鐵’。操作系統、行業大模型與‘雲網安’共同構成新時代數據的基礎設施。” 亞信聯合創始人田溯寧說,數據經濟新時代正在拉開全球新一輪競爭。

AI大模型的機遇和風險

AI技術助力千行百業智能化升級,但任何跨越時代的科學技術,都可能成爲一把懸於正義與邪惡之間的雙刃劍。在鼓勵AI創新的同時,更要規範其健康發展,如何讓其成爲有利工具,讓AI向善,成爲業界討論激烈的話題。

在中國工程院院士、清華大學智能產業研究院院長張亞勤看來,信息安全的範疇需要擴大,包括AI模型安全、數據安全、參數安全,也包括可控性、可解釋性,以及AI的邊界性等。

談到AI對產業的影響,他認爲,這其實構建了一個全新的生態,構建了新的操作系統,AI大模型就是人工智能時代的操作系統,在這之上,會有很多新的應用。“除了通用大模型,每個產業都還會有深度的垂直行業大模型,這個生態將比PC互聯網高兩個數量級,比移動互聯網高至少一個數量級。”

張亞勤認爲,新的人工智能是信息智能、物理智能和生物智能的融合。AI大模型的能力極其強大,未來可能創造出很多發展機遇,但也蘊含着不少潛在風險——例如信息智能的風險、AI本身隱含的安全風險以及可控性、可信性、邊界等問題;例如幻覺的問題、深度僞造的問題,或是當大模型技術的應用範圍拓展至更廣更深的領域時的失控和被利用的風險等。

他建議,在推動大模型相關技術進步的同時,也應未雨綢繆地做好防範工作,確保技術向善。具體包括,要把AI模型分級,參數越大的大模型治理要求越高,準確標識AI生成的內容,呼籲行業主體把至少30%的投資用於風險的研究以及安全的保障,設立非常具體的紅線邊界等。

智譜AI總裁王紹蘭也出現在C3安全大會現場。他表示,大模型作爲新一代技術,技術突破與落地應用速度非常快,可能是之前的十倍、百倍,而大模型帶來的產業變革,也將是傳統速度的百倍之高。他說,大模型在各個行業的應用並不是線性化的,而是裂變式的,並且前沿技術攻關與規模化應用是並行的,這取決於大模型的涌現能力。

談及AI大模型的未來,王紹蘭認爲,多模態是一個重要趨勢,另一個重要趨勢是大模型智能體的能力,或許大模型將學會PDCA循環,自己訓練自己,讓大模型智能體真正變成生產力。

大模型安全與安全大模型

應對大模型時代的數據安全問題,行業裡有兩個並行方案,一是關注大模型算法的安全,比如算法的公平性、可解釋性、算法對抗性以及對齊等問題;二是大模型應用安全防護技術,針對漏洞防護、路徑檢測及響應、agent框架安全、數據泄露等問題,並提供紅隊攻防服務。

亞信安全高級副總裁陳奮解析了近期由AGI技術驅動的持續升級的網絡攻擊與網絡犯罪。他指出,AGI工具將黑客生成新威脅的時間由之前的“數個月”縮減至幾小時甚至幾分鐘;同時,攻擊者開始利用大模型迅速發現軟件與服務中存在的漏洞;通過人臉深度僞造來實施網絡詐騙犯罪的案例也越來越多。更嚴重的,攻擊者的目標正由傳統的數字資產轉向AI算力基礎設施和大模型。據陳奮透露,亞信安全監測到,短短一年時間,針對大模型的攻擊手段已涌現出40種不同的類型。

“網絡安全的攻防,從原來人和人之間的對抗,已經升級到AI和AI之間的對抗,只有AI驅動的網絡安全防護檢測技術,才能識別AI驅動的黑客攻擊技術。”陳奮說,網絡安全保護的對象也發生了變化,未來保護企業的資產就從傳統的資產演進爲保護企業的AI中心。

AI界已經在行動。微軟在今年5月份已經正式商用了Microsoft Copilot for Security,旨在“幫助用戶以機器的速度進行防禦”;谷歌去年也發佈了網絡安全專有大模型,已經應用到雲安全能力中心;全球網絡安全巨頭Paloalto、Crowdstrike已經在安全運營平臺上集成了大模型的安全運營能力。在AI浪潮推動下,Paloalto已經成爲全球首家市值突破千億的安全公司,Crowdstrike,從去年至今市值已經增長了超過1倍,也逼近千億美元。

“在中國,80%以上的網絡安全公司都在將大模型技術集成到網絡安全產品中,30%的公司已經開始做大模型安全的研究,也出現了一些安全創業的浪潮。”陳奮表示,亞信安全也不例外,其Security for AI計劃包含了全新研發的保護算力雲基礎設施安全、大模型應用安全防護、大模型紅藍對抗測試等服務;AI for Security計劃則聚焦網絡安全行業垂直大模型的研發及運行於其上的智能體和安全應用。

亞信安全發佈了網絡安全行業領域自研大模型——信立方。據瞭解,信立方大模型可以執行網絡安全行業的精準問答、複雜的告警日誌解讀、深度的網絡安全事件分析等專用場景。

此外,國內其他安全廠商也正在試水安全領域的垂直大模型,例如奇安信推出了Q-GPT和大模型衛士、深信服有安全GPT2.0,啓明星辰等廠商也都推出了相關產品。

在AI技術飛速發展的浪潮下,AI安全問題至關重要。但即便像OpenAI這樣的巨頭,也被曝出“超級對齊團隊”疑似解散,並沒有分給AI安全足夠的資源與關注度,其他更多追趕其後的AI企業,在平衡技術與安全的問題上則面臨更大的經濟壓力。

值得注意的是,AI安全並不是一個可選項,而是必選項,業界不得不爲之投注更大的精力與資金。