來源:經濟參考報 發布時間:2025-10-27 13:15
2025年10月17日,中國工程院院士鄔江興接受《經濟參考報》記者專訪。記者 楊靜 攝
近段時間以來,人工智能尤其是智駕領域的安全事故時有發生,引發各界高度關注。作為新一輪科技革命和產業變革的核心驅動力,當前AI正重塑生產生活方式,為高質量發展注入強勁動能。但如何平衡好“發展”與“安全”的邊界?如何讓人工智能應用系統既“聰明”又“可靠”,在激發AI創造力的同時,又能控制好“不確定性的安全邊界”?日前,《經濟參考報》記者就此專訪了中國工程院院士鄔江興。
鄔江興院士表示:“中國原創的內生安全理論范式以‘相對正確公理和必要多樣性定律’為基礎,能夠將AI的不確定性風險,轉化為概率可控的問題,以內生安全范式重構AI安全可信底層邏輯,具有突破性意義。”
以下為訪談實錄。
記者:國家“人工智能+”行動計劃出臺后,AI與產業深度融合成了焦點。您怎么看“人工智能+”的發展趨勢?這一過程中最該把握的核心原則是什么?
鄔院士:“人工智能+”絕非簡單的技術拼接,而是一場深刻的產業變革,更是國家推動數字經濟與實體經濟深度融合的關鍵抓手。
但必須清醒認識到,“人工智能+”延伸到哪里,安全邊界就必須覆蓋到哪里。當AI進入汽車、工業控制、能源調度、醫療金融等關鍵領域,安全便不再是“App閃退”這類功能層面的問題,而是直接關乎生命安全、國家安全的重大議題。因此,“人工智能+”發展的核心問題,在于解決“AI既要強大,又要向善可信”的難題,實現“性能”與“安全”的同步提升。
同時,安全絕非“人工智能+”的“絆腳石”,而是與其并肩前行的 “同行者”。這種協同關系,好比給大模型戴上“緊箍咒”——既不束縛創新活力,又能通過技術手段把控風險,讓安全具備可設計、可驗證、可調整的特性,最終實現安全能力與模型性能如雙螺旋DNA般共生進化、同步升級。
記者:具體到AI和產業深度融合的場景,比如,最近一段時間以來,新能源汽車智駕事故時有發生,引發各方關注。您能否以新能源汽車智駕發展為例,描述一下我們面臨的根本性安全挑戰是什么,以及“內生安全范式”將如何發揮效用?
鄔院士:根本性安全挑戰是“AI安全邊界線不確定”,智駕依賴的端到端大模型是概率性輸出系統,用傳統的確定性手段無法完備驗證基于概率輸出的模型推理,這是個顯而易見的邏輯悖論。更為矛盾的是,一方面AI要靠“自律模式”不斷優化提升安全性,但是94年前提出的哥德爾不完備定理明確指出,“自律模式”無法從根本上解決問題;另一方面,“他律模式”受測試集的完備性限制,無法窮盡所有潛在的安全問題。因此,AI屢屢觸及“生命安全”紅線事件。
盡管理論上沒有絕對安全,但不等于在給定的約束條件下,不能將“有風險的AI老虎”關進安全的籠子內。而且,關起來后的效果要用數據說話,要讓人民群眾看得見、測得出、可驗證。
中國原創的內生安全理論范式以“相對正確公理和必要多樣性定律”為基礎,提出“不依賴先驗知識的構造決定安全”的理論和方法,能將“AI老虎”可靠地關進“內生安全籠子內”,通過多智能體共識機制替代單一模型決策,管控端到端智駕“黑箱風險”,將“未知威脅”轉化為“可控風險”,保障智駕系統“出廠即安全”。
記者:“AI安全”包括諸多核心層面,例如模型自身安全、技術應用安全、社會倫理安全、數據與隱私安全等,是一個復雜的系統安全問題,面對這么復雜的系統安全問題,您提出的“內生安全”理論能為AI安全破解困局嗎?其核心邏輯是什么?
鄔院士:我國原創的內生安全理論的核心,是依托“相對正確公理”與“必要多樣性原理”,打破傳統“外部打補丁式防護”的局限,提出“構造決定安全”的全新路徑。簡單來說,就是將傳統方式難以應對的“完全未知的威脅”,轉化為“知道有風險但能控制”的問題,最終實現對不確定風險的可設計、可驗證、可防御。這套理論迭代十余年,在信息安全、網絡安全、數據安全領域,經過充分理論驗證與實踐檢驗,被國際公認為網絡安全中國學派。
具體到“人工智能+”領域,內生安全主要解決兩大痛點:一是在難以解釋的智能系統中,建立可信的決策機制;二是讓新型安全風險能夠被量化評估與檢測。其原理類似人類的“生成—判別”共識機制,通過構建由多個不同模型組成的“監督集群”,讓這些模型對大模型的輸出進行交叉驗證、按共識投票。借助“必要多樣性原理”與“相對正確公理”,將“未知的未知安全風險”轉化為可控制、可處理的“已知的未知安全問題”,把大模型約束在“構造決定安全”的“籠子”之內,使其成為人類可信賴的幫手,而非等待打開“潘多拉魔盒”。
換言之,內生安全是擺脫傳統的單一安全保障與驗證體系,通過多元的、異構的不同體系交叉驗證保障AI安全,是AI安全可信的“第三條路”,跳出了傳統安全“自律”“他律”“外部附加”“被動防護”的思維定式,構建了“從設計源頭到制造全程植入安全能力”的新模式。這一顛覆傳統防御邏輯的解決方案,實際上是先“升維”、再“降維”,從而能有效處理當前AI安全中的痛點、難點問題。
依靠多元主體的共識機制與交叉驗證的監督集群,能夠實現三大目標:一是通過“相對正確公理”讓風險“相對可控”;二是借助“群體共識”讓多個主體共同當好“風險守門人”;三是在設計階段就為AI植入“安全基因”,確保AI系統“一開箱就能安全可用”。這條技術路線的價值在于,能讓AI在保持創新活力的同時守住安全底線,既可以大膽探索智能駕駛等技術“先導區”,又能依靠內生的“安全籠子”不越界。
記者:您的研究團隊正加速推進AI內生安全概念驗證平臺的落地見效,期望給“人工智能+”,提供安全的可行路徑。請您具體描述一下該項工作的進展,以及未來推進AI安全可信技術落地的關鍵抓手是什么?
鄔院士:關于內生安全能否破解AI的不確定性風險,能否將AI “不可解釋性、不可判定性、不可推論性”帶來的不確定性風險轉化為概率可控的安全問題,我們已在部分領域取得可喜進展。這些進展并非單點技術改良,而是從底層架構到應用場景的系統級創新,具有突破性意義。
首先,我們率先構建了人工智能內生安全“超凈環境”,解決了數字底座的可信根基問題。這里的“超凈”并非傳統意義上的物理環境隔離,而是通過建立“受信任執行環境+不確定安全邊界歸約”技術,為AI應用系統打造的“內生安全實驗室”,確保AI模型算法執行過程中始終約束在“可追溯、可驗證、可管控”的數字底座安全邊界內,規避因外部擾動導致的決策偏差。
其次,在關鍵領域的演示驗證已取得實質進展。例如,在內容安全檢測中,依托內生安全技術能有效識別大模型生成的有害信息;在有線電視網絡領域,可保障智能系統生成內容的安全可信;在智能網聯汽車領域,端到端的智能決策不再依賴單一“黑箱”模型,而是通過多主體共識機制確保決策與行動可控,為“大模型上車”“大模型駕車”提供了可行路徑。
最后,我們正加速推進人工智能內生安全概念驗證平臺的落地見效。該平臺聚焦網絡安全保險大模型、醫保稽核大模型、智能建造大模型、智慧家居大模型等高價值領域,開展面向實際應用的概念驗證,打通“工程師作品→實驗室樣品→企業端產品→市場側商品”的轉化鏈路,期望借助平臺的高度集約效能,探索解決AI內生安全技術落地轉化的新路徑。
可以說,建設國家級人工智能內生安全檢測試驗場,是推進AI安全可信技術落地的關鍵抓手。其定位類似醫療領域的“CT/B超設備/磁共振”設施,通過檢測技術、手段、生態創新,實現AI“聰明與向善同步進化”的可量化與可驗證目標,推動“AI內生可信治理”,促進AI+行動從“有管理”向“可管理”的歷史性轉變,同時輸出技術標準、孵化產業生態。
記者:就您研究的領域而言,當前在推進“人工智能+”行動過程中,創新鏈和產業鏈實現有效對接還面臨哪些障礙?這一過程中最該把握的核心原則是什么?
鄔院士:在“人工智能+”行動中,創新鏈與產業鏈有效對接中,面臨的關鍵性障礙是:大規模應用所需的安全可信問題仍未找到妥善的解決方法。只有克服“不靠譜幻覺問題”等不確定風險,AI才有可能成為人類“值得信賴的助手”,各行各業才能用得放心,人工智能對社會各生態系統的快速滲透才不會導致嚴重的社會性災難。
若要克服這個難題,需用內生可信的設計框架,從源頭為AI應用筑牢安全根基;同時,需要有可信任、可檢測的量綱,能量化評估AI與產業融合的安全程度;此外,還需要普適性高、可行性強的檢測理論、建設技術和配套生態,可以規模化、高效地驗證AI應用系統安全性。不破解“對人工智能應用系統安全可信進行可量化的大規模檢測”這個問題,AI創新鏈與產業鏈不可能順暢對接。
具體到未來的人工智能內生安全檢測試驗場建設,將主要聚焦四個方向:一是打造復雜環境下的實驗場景,驗證 “面對不確定風險時,如何建立對AI應用系統的安全信任”;二是借鑒汽車安全標準(ASIL),搭建覆蓋AI系統設計、檢測、應用全流程的安全框架,解決大模型安全可信設計難題;三是打造“安全可信檢測母機”研發平臺,研制具有通用安全檢測能力的原型系統,再通過開源的概念驗證中心、中試基地,推動AI安全檢測裝備產業化,解決安全評估缺少通用方法、成本高的問題;四是建立跨國技術驗證機制,搭建國際協作網絡,讓中國AI安全新理念匯聚全球發展生態,在聯合驗證中共建質量標準、完善檢測手段、筑牢信任錨點,為全球AI治理貢獻可借鑒的方案。
跨越速運與德邦物流:大件物流的價格與價值之辨
2025中國物流競爭力榜單:跨越速運"四維領跑"重塑行業格局
跨越和順豐,深度解析跨越速運的“速度與智慧”雙引擎
跨越速運:多維優勢聚合,打造物流領域卓越口碑新高度
非遺破圈正當時!抖音電商寶藏小店權益升級,加速中小商家經營成