• <delect id="xlj05"><acronym id="xlj05"></acronym></delect>
    
    

      <dl id="xlj05"></dl>
      <dl id="xlj05"><table id="xlj05"></table></dl>
    • <delect id="xlj05"><acronym id="xlj05"></acronym></delect>
      中國電商物流網(wǎng)-電子商務與物流行業(yè)融合媒體!電子商務物流行業(yè)門戶網(wǎng)站!
      快遞網(wǎng)點 郵編查詢 行政區(qū)劃 高鐵時刻 高鐵票價 高鐵車次
      貿(mào)易資訊
      免費注冊 登錄
      中國電商物流網(wǎng)
      企 業(yè)
      產(chǎn) 品
      商 務

      鄔江興院士:以“內(nèi)生安全”范式重構(gòu)AI安全可信底層邏輯

      來源:經(jīng)濟參考報  發(fā)布時間:2025-10-27 13:15

      2025年10月17日,中國工程院院士鄔江興接受《經(jīng)濟參考報》記者專訪。記者 楊靜 攝

      近段時間以來,人工智能尤其是智駕領域的安全事故時有發(fā)生,引發(fā)各界高度關(guān)注。作為新一輪科技革命和產(chǎn)業(yè)變革的核心驅(qū)動力,當前AI正重塑生產(chǎn)生活方式,為高質(zhì)量發(fā)展注入強勁動能。但如何平衡好“發(fā)展”與“安全”的邊界?如何讓人工智能應用系統(tǒng)既“聰明”又“可靠”,在激發(fā)AI創(chuàng)造力的同時,又能控制好“不確定性的安全邊界”?日前,《經(jīng)濟參考報》記者就此專訪了中國工程院院士鄔江興。

      鄔江興院士表示:“中國原創(chuàng)的內(nèi)生安全理論范式以‘相對正確公理和必要多樣性定律’為基礎,能夠?qū)I的不確定性風險,轉(zhuǎn)化為概率可控的問題,以內(nèi)生安全范式重構(gòu)AI安全可信底層邏輯,具有突破性意義�!�

      以下為訪談實錄。

      記者:國家“人工智能+”行動計劃出臺后,AI與產(chǎn)業(yè)深度融合成了焦點。您怎么看“人工智能+”的發(fā)展趨勢?這一過程中最該把握的核心原則是什么?

      鄔院士:“人工智能+”絕非簡單的技術(shù)拼接,而是一場深刻的產(chǎn)業(yè)變革,更是國家推動數(shù)字經(jīng)濟與實體經(jīng)濟深度融合的關(guān)鍵抓手。

      但必須清醒認識到,“人工智能+”延伸到哪里,安全邊界就必須覆蓋到哪里。當AI進入汽車、工業(yè)控制、能源調(diào)度、醫(yī)療金融等關(guān)鍵領域,安全便不再是“App閃退”這類功能層面的問題,而是直接關(guān)乎生命安全、國家安全的重大議題。因此,“人工智能+”發(fā)展的核心問題,在于解決“AI既要強大,又要向善可信”的難題,實現(xiàn)“性能”與“安全”的同步提升。

      同時,安全絕非“人工智能+”的“絆腳石”,而是與其并肩前行的 “同行者”。這種協(xié)同關(guān)系,好比給大模型戴上“緊箍咒”——既不束縛創(chuàng)新活力,又能通過技術(shù)手段把控風險,讓安全具備可設計、可驗證、可調(diào)整的特性,最終實現(xiàn)安全能力與模型性能如雙螺旋DNA般共生進化、同步升級。

      記者:具體到AI和產(chǎn)業(yè)深度融合的場景,比如,最近一段時間以來,新能源汽車智駕事故時有發(fā)生,引發(fā)各方關(guān)注。您能否以新能源汽車智駕發(fā)展為例,描述一下我們面臨的根本性安全挑戰(zhàn)是什么,以及“內(nèi)生安全范式”將如何發(fā)揮效用?

      鄔院士:根本性安全挑戰(zhàn)是“AI安全邊界線不確定”,智駕依賴的端到端大模型是概率性輸出系統(tǒng),用傳統(tǒng)的確定性手段無法完備驗證基于概率輸出的模型推理,這是個顯而易見的邏輯悖論。更為矛盾的是,一方面AI要靠“自律模式”不斷優(yōu)化提升安全性,但是94年前提出的哥德爾不完備定理明確指出,“自律模式”無法從根本上解決問題;另一方面,“他律模式”受測試集的完備性限制,無法窮盡所有潛在的安全問題。因此,AI屢屢觸及“生命安全”紅線事件。

      盡管理論上沒有絕對安全,但不等于在給定的約束條件下,不能將“有風險的AI老虎”關(guān)進安全的籠子內(nèi)。而且,關(guān)起來后的效果要用數(shù)據(jù)說話,要讓人民群眾看得見、測得出、可驗證。

      中國原創(chuàng)的內(nèi)生安全理論范式以“相對正確公理和必要多樣性定律”為基礎,提出“不依賴先驗知識的構(gòu)造決定安全”的理論和方法,能將“AI老虎”可靠地關(guān)進“內(nèi)生安全籠子內(nèi)”,通過多智能體共識機制替代單一模型決策,管控端到端智駕“黑箱風險”,將“未知威脅”轉(zhuǎn)化為“可控風險”,保障智駕系統(tǒng)“出廠即安全”。

      記者:“AI安全”包括諸多核心層面,例如模型自身安全、技術(shù)應用安全、社會倫理安全、數(shù)據(jù)與隱私安全等,是一個復雜的系統(tǒng)安全問題,面對這么復雜的系統(tǒng)安全問題,您提出的“內(nèi)生安全”理論能為AI安全破解困局嗎?其核心邏輯是什么?

      鄔院士:我國原創(chuàng)的內(nèi)生安全理論的核心,是依托“相對正確公理”與“必要多樣性原理”,打破傳統(tǒng)“外部打補丁式防護”的局限,提出“構(gòu)造決定安全”的全新路徑。簡單來說,就是將傳統(tǒng)方式難以應對的“完全未知的威脅”,轉(zhuǎn)化為“知道有風險但能控制”的問題,最終實現(xiàn)對不確定風險的可設計、可驗證、可防御。這套理論迭代十余年,在信息安全、網(wǎng)絡安全、數(shù)據(jù)安全領域,經(jīng)過充分理論驗證與實踐檢驗,被國際公認為網(wǎng)絡安全中國學派。

      具體到“人工智能+”領域,內(nèi)生安全主要解決兩大痛點:一是在難以解釋的智能系統(tǒng)中,建立可信的決策機制;二是讓新型安全風險能夠被量化評估與檢測。其原理類似人類的“生成—判別”共識機制,通過構(gòu)建由多個不同模型組成的“監(jiān)督集群”,讓這些模型對大模型的輸出進行交叉驗證、按共識投票。借助“必要多樣性原理”與“相對正確公理”,將“未知的未知安全風險”轉(zhuǎn)化為可控制、可處理的“已知的未知安全問題”,把大模型約束在“構(gòu)造決定安全”的“籠子”之內(nèi),使其成為人類可信賴的幫手,而非等待打開“潘多拉魔盒”。

      換言之,內(nèi)生安全是擺脫傳統(tǒng)的單一安全保障與驗證體系,通過多元的、異構(gòu)的不同體系交叉驗證保障AI安全,是AI安全可信的“第三條路”,跳出了傳統(tǒng)安全“自律”“他律”“外部附加”“被動防護”的思維定式,構(gòu)建了“從設計源頭到制造全程植入安全能力”的新模式。這一顛覆傳統(tǒng)防御邏輯的解決方案,實際上是先“升維”、再“降維”,從而能有效處理當前AI安全中的痛點、難點問題。

      依靠多元主體的共識機制與交叉驗證的監(jiān)督集群,能夠?qū)崿F(xiàn)三大目標:一是通過“相對正確公理”讓風險“相對可控”;二是借助“群體共識”讓多個主體共同當好“風險守門人”;三是在設計階段就為AI植入“安全基因”,確保AI系統(tǒng)“一開箱就能安全可用”。這條技術(shù)路線的價值在于,能讓AI在保持創(chuàng)新活力的同時守住安全底線,既可以大膽探索智能駕駛等技術(shù)“先導區(qū)”,又能依靠內(nèi)生的“安全籠子”不越界。

      記者:您的研究團隊正加速推進AI內(nèi)生安全概念驗證平臺的落地見效,期望給“人工智能+”,提供安全的可行路徑。請您具體描述一下該項工作的進展,以及未來推進AI安全可信技術(shù)落地的關(guān)鍵抓手是什么?

      鄔院士:關(guān)于內(nèi)生安全能否破解AI的不確定性風險,能否將AI “不可解釋性、不可判定性、不可推論性”帶來的不確定性風險轉(zhuǎn)化為概率可控的安全問題,我們已在部分領域取得可喜進展。這些進展并非單點技術(shù)改良,而是從底層架構(gòu)到應用場景的系統(tǒng)級創(chuàng)新,具有突破性意義。

      首先,我們率先構(gòu)建了人工智能內(nèi)生安全“超凈環(huán)境”,解決了數(shù)字底座的可信根基問題。這里的“超凈”并非傳統(tǒng)意義上的物理環(huán)境隔離,而是通過建立“受信任執(zhí)行環(huán)境+不確定安全邊界歸約”技術(shù),為AI應用系統(tǒng)打造的“內(nèi)生安全實驗室”,確保AI模型算法執(zhí)行過程中始終約束在“可追溯、可驗證、可管控”的數(shù)字底座安全邊界內(nèi),規(guī)避因外部擾動導致的決策偏差。

      其次,在關(guān)鍵領域的演示驗證已取得實質(zhì)進展。例如,在內(nèi)容安全檢測中,依托內(nèi)生安全技術(shù)能有效識別大模型生成的有害信息;在有線電視網(wǎng)絡領域,可保障智能系統(tǒng)生成內(nèi)容的安全可信;在智能網(wǎng)聯(lián)汽車領域,端到端的智能決策不再依賴單一“黑箱”模型,而是通過多主體共識機制確保決策與行動可控,為“大模型上車”“大模型駕車”提供了可行路徑。

      最后,我們正加速推進人工智能內(nèi)生安全概念驗證平臺的落地見效。該平臺聚焦網(wǎng)絡安全保險大模型、醫(yī)�;舜竽P�、智能建造大模型、智慧家居大模型等高價值領域,開展面向?qū)嶋H應用的概念驗證,打通“工程師作品→實驗室樣品→企業(yè)端產(chǎn)品→市場側(cè)商品”的轉(zhuǎn)化鏈路,期望借助平臺的高度集約效能,探索解決AI內(nèi)生安全技術(shù)落地轉(zhuǎn)化的新路徑。

      可以說,建設國家級人工智能內(nèi)生安全檢測試驗場,是推進AI安全可信技術(shù)落地的關(guān)鍵抓手。其定位類似醫(yī)療領域的“CT/B超設備/磁共振”設施,通過檢測技術(shù)、手段、生態(tài)創(chuàng)新,實現(xiàn)AI“聰明與向善同步進化”的可量化與可驗證目標,推動“AI內(nèi)生可信治理”,促進AI+行動從“有管理”向“可管理”的歷史性轉(zhuǎn)變,同時輸出技術(shù)標準、孵化產(chǎn)業(yè)生態(tài)。

      記者:就您研究的領域而言,當前在推進“人工智能+”行動過程中,創(chuàng)新鏈和產(chǎn)業(yè)鏈實現(xiàn)有效對接還面臨哪些障礙?這一過程中最該把握的核心原則是什么?

      鄔院士:在“人工智能+”行動中,創(chuàng)新鏈與產(chǎn)業(yè)鏈有效對接中,面臨的關(guān)鍵性障礙是:大規(guī)模應用所需的安全可信問題仍未找到妥善的解決方法。只有克服“不靠譜幻覺問題”等不確定風險,AI才有可能成為人類“值得信賴的助手”,各行各業(yè)才能用得放心,人工智能對社會各生態(tài)系統(tǒng)的快速滲透才不會導致嚴重的社會性災難。

      若要克服這個難題,需用內(nèi)生可信的設計框架,從源頭為AI應用筑牢安全根基;同時,需要有可信任、可檢測的量綱,能量化評估AI與產(chǎn)業(yè)融合的安全程度;此外,還需要普適性高、可行性強的檢測理論、建設技術(shù)和配套生態(tài),可以規(guī)�;�、高效地驗證AI應用系統(tǒng)安全性。不破解“對人工智能應用系統(tǒng)安全可信進行可量化的大規(guī)模檢測”這個問題,AI創(chuàng)新鏈與產(chǎn)業(yè)鏈不可能順暢對接。

      具體到未來的人工智能內(nèi)生安全檢測試驗場建設,將主要聚焦四個方向:一是打造復雜環(huán)境下的實驗場景,驗證 “面對不確定風險時,如何建立對AI應用系統(tǒng)的安全信任”;二是借鑒汽車安全標準(ASIL),搭建覆蓋AI系統(tǒng)設計、檢測、應用全流程的安全框架,解決大模型安全可信設計難題;三是打造“安全可信檢測母機”研發(fā)平臺,研制具有通用安全檢測能力的原型系統(tǒng),再通過開源的概念驗證中心、中試基地,推動AI安全檢測裝備產(chǎn)業(yè)化,解決安全評估缺少通用方法、成本高的問題;四是建立跨國技術(shù)驗證機制,搭建國際協(xié)作網(wǎng)絡,讓中國AI安全新理念匯聚全球發(fā)展生態(tài),在聯(lián)合驗證中共建質(zhì)量標準、完善檢測手段、筑牢信任錨點,為全球AI治理貢獻可借鑒的方案。

      Copyright © 2012-2026 sd56.net.cn All Rights Reserved 中國電商物流網(wǎng) 版權(quán)所有
    • <delect id="xlj05"><acronym id="xlj05"></acronym></delect>
      
      

        <dl id="xlj05"></dl>
        <dl id="xlj05"><table id="xlj05"></table></dl>
      • <delect id="xlj05"><acronym id="xlj05"></acronym></delect>
        刘玥被躁120分钟视频,好爽好紧高h视频,国内网友自拍操大码肥熟视频 | 天天日日日日,善良丰满的少妇h,免费看一级黄色大片 | 涩久久,国内女人喷潮完整视频,欧美丝袜性爱 | 青娱乐自拍视频,丰满护士巨好爽好大乳动漫,国产真实伦子伦老人 | 亚洲性情,91国产对白刺激,搞逼综合网 |