Gartner報告|提出Guardian agents新概念 以AI制AI

    現時各行各業都在使用自主性更高的 AI 代理(AI Agent),提升工作效率及執行指令的準確度。不過,企業管理者在部署 AI 代理之餘,也開始擔心背後的安全風險。市場調查公司 Gartner 發表的最新調查報告,便提出「以 AI 制 AI」的方式,協助企業應用 AI 時加上一層保護罩。

    Agentic AI 帶來新安全威脅

    所謂的 AI 代理是指一種具備自主決策和學習能力的 AI,能夠在複雜環境中獨立執行任務,具有廣泛的應用場景,例如生成式聊天機械人就是其中一種,有助企業推動業務創新和增長。在 Gartner 剛發表的調查報告內,顯示已經有 24% 的企業管理者承認他們已部署了多種 AI 代理,另約有 4% 更表示同時採用超過十多種。在未部署的企業中,約有 50% 表示正在搜尋或試驗 AI 代理,並有 67% 企業管理者表示會在 2026 年底前部署至少一種代理 AI。雖然自主性高的 AI 代理非常有用,但它們也會帶來新的網路安全風險。

    Gartner 指出,隨著代理式 AI(Agentic AI)急速發展,新的安全威脅亦會變得普遍,例如輸入操控和數據污染,這些安全威脅可讓 AI 代理做出錯誤的判斷或產生不道德的結果。此外,因為 AI 代理需要登入不同的系統及存取資料,預計黑客亦會瞄準它們儲存的帳戶登入憑證發動攻擊。專家指雖然過往主要透過人類監控 AI 代理的行為,但現在的趨勢是企業會同時部署多種 AI 代理工作,而這些 AI 之間的溝通速度又快,單靠人類監管而不合時宜。

    Guardian agents 可分為三種類

    針對這項安全問題,Gartner 提出 Guardian agents 的概念,簡單來說即是用 AI 代理去監控和管理其他 AI 代理。而 Guardian agents 又可以細分為三種,分別是幫忙檢查 AI 生成時有沒有不該出現的內容的審閱者(Reviewers);負責監視 AI 代理行為,如有可疑就會發出警告的監控者(Monitors);以及負責調整或阻止 AI 代理作出越權行為的保護者(Protectors)。

    Guardian agents 就像是為其他 AI 代理加上一層自動的安全防護罩,讓企業在使用 AI 提升效率的同時,也能更加安心,減少突發狀況發生。而 Gartner 預計去到 2030 年,將會有約 10% 至 15% 企業部署這種 Guardian agents,以應付同時間部署多種 AI 代理時帶來的安全風險。

    資料來源:https://www.itpro.com/technology/artificial-intelligence/enterprises-are-worried-about-agentic-ai-security-risks-gartner-says-the-answer-is-just-adding-more-ai-agents