Akamai專家見解|當AI出錯 誰來負責?

    在客戶會議、業界活動,以及我幾乎每日讀到的新聞中,我瞭解到一件事:當我們一步步實現 AI 新時代的願景,同時也應警覺這項技術帶來的安全難題。

    許多重大安全事件至今仍歷歷在目,這些事件都是未適當保護 AI 所致。在這些惡意的 AI 操弄事件中,最知名的就是美國加洲沃森維爾的雪佛蘭汽車經銷商聊天機器人事件。一名男性說服聊天機器人以 1 美元,將全新 Tahoe 休旅車賣給他。

    這起事件發生幾個月後,在 2024 年 2 月,加拿大法院宣判加拿大航空敗訴,須為 AI 聊天機器人向消費者提供的錯誤資訊負責。

    當然,這些例子只是問題的開始。目前,世界各地的企業,或許正將新的 AI 弱點,帶入自家環境而毫無自覺。這將造成相當嚴重的後果。許多企業可能因此重創聲譽和利潤,並因未遵循法規而受到懲處,甚至損失在一開始用來導入 AI 所投入的大筆資金。

    在最近的健康檢查中,醫師問我 AI 代理程式是否能用來做筆記。我們聊的話題不只是我的健康,還有週末的規劃、我女兒選擇的大學等等。因此我很好奇,這些資訊都會去哪裡?就連醫師自己真的知道嗎?這當中是否可能違反 HIPAA (美國健康保險流通與責任法案) 規定?

    全球各地的會議室和董事會正提出這些疑問:我們使用 AI 的方法安全嗎?我們建構 AI 的方式安全嗎?

    如果沒人問這些問題,就更應該提出。AI 帶來一波期待和創新。然而,全新型態的網絡安全弱點也隨之而來,既有的安全解決方案無法適切應對。這個情況導致 AI 長及其開發團隊,與資安長之間的關係變得緊張:

    • 前者急著部署新的 AI 應用程式與商業模式
    • 後者仍不知道該從哪裡著手防範還未知曉的威脅

    當企業正大舉投資 AI,然而,創新競賽也同時打開了新的攻擊大門,可能干擾 AI 運作並損害品牌聲譽。立即下載報告:https://tinyurl.com/jr2nn4ww

    您將瞭解:

    • 企業 AI 應用程式面臨的新興威脅,例如提示注入,惡意輸出和機密資料外洩
    • 保護 AI 應用程式,監控威脅並維持 AI 系統運作的關鍵能力
    • Akamai 全新解決方案,專為協助企業保護其 AI 應用與大型語言模型 (LLM)而打造:Firewall for AI
    #AI #AI出錯 #Akamai

    相關文章