專家專欄

    生成式人工智能(GenAI)已逐漸滲透我們的日常生活,而我們也正步入「智能體 AI」(Agentic AI)時代。這場新一輪的 AI 技術革新,將重新塑造企業營運的核心架構。根據谷歌雲端在其《2025 年人工智慧商業趨勢報告》中的預測,AI Agent 將成為企業運營的重要組成部分,AI 應用將從基礎的聊天機器人,進化為能夠處理複雜任務的多智能體系統,大幅提升企業內部的生產力與效率。

    史丹福大學、麻省理工學院與美國國家經濟研究局(NBER)聯合研究發現,AI 輔助能使員工的效率平均提高 15%。此外,根據 Gartner 的分析,到 2028 年至少有 15% 的日常工作決策,將由 AI Agent 自主完成,而這一數字在 2024 年還是零。AI Agent 技術的發展正朝着著更靈活、功能更全面的方向邁進,從而打造出能勝任多種工作的智慧系統。

    AI 智能體的核心特徵,是能模擬人類的思維與行為,猶如人類的「分身」,能精準理解指令並執行任務。「智能體工作流程」(Agentic Workflow)正是這項技術的核心,其基礎是大型語言模型(LLMs)的深入應用,使 AI 不但能理解人類語言,還能掌握上下文的細節並洞察使用者需求。

    假設一家企業的設計部需向市場部提交圖片,AI 將首先詢問圖片需求的具體類型(如風景、人物、卡通或旅遊等),然後分配合適的 AI 模組完成設計工作。接着,AI 會自動檢查並優化設計結果,最後將成品遞交使用者審批並提交至市場部。這一過程並非單一 AI 模型的工作,而是多模組系統高效協作的結果。

    只需適當訓練 AI 模組,它們就能成為全天候工作的「AI 員工」,特別適合處理重複性高且耗時的任務。人類員工只需用簡單語言描述需求,AI 員工便能快速完成相應工作,從而讓人類員工有更多精力聚焦在策略規劃與創新上。現實中,國際人力資源公司德科集團(Adecco)已經成功運用「AI 員工」協助招聘工作,包括匹配候選人、調整簡歷、發送面試邀請以及準備相關問題,從而釋放 HR 的時間來應對更多策略性挑戰。

    更進一步,經過專業化培訓後的「AI 員工」甚至能勝任專業崗位。清華大學智慧產業研究院已着手打造「專業 AI 員工」,並進行內部測試,目前已有 42 位「AI 醫生」能在短短幾天內完成數萬名患者的診療,隨着診療案例的累積,其診斷精準度也能持續提升。

    筆者團隊也正在正進行專案開發,訓練「AI 員工」成為初級機電工程師,負責監控與管理例如電壓、電流及流量等參數,以改進大廈的能源使用方案。這種應用不但提升了能源效率,也減輕工程師處理繁瑣數據的負擔,讓他們能專注於更具價值的分析與決策。

    雖然 AI 的應用潛力無限,但它的本質應是協助人類,而非取代人類。在未來的職場中,AI 與人類將相輔相成,共同推動工作流程的優化與創新,進一步釋放人類的創造力,專注於更高層次的研究、開發與規劃,從而助力科技與社會的持續發展。

    作者:思路富邦集團(SagaDigits)創辦人陳智銓(Arthur)
    欲觀看更多 Arthur 撰寫的文章,可按此瀏覽。

    現時網絡威脅環境不斷演變同擴大💥,AI 嘅應用亦改變網絡威脅形態,以及企業保護數碼環境嘅方式🛡️。要有效應對呢啲挑戰,就必須有穩健嘅防禦策略!

    💡立即參加 Palo Alto Networks 年度盛事 ── Ignite on Tour 香港站,同行業專家一齊交流實施 Zero Trust、AI / ML 同 Precision AI™ 嘅最新策略💬,幫你:

    👉抵禦由 AI 驅動嘅攻擊
    👉 確保員工安全使用
    👉 保障 AI 開發過程中,代碼同軟件供應鏈安全
    👉 簡化網絡營運管理複雜性

    活動詳情
    主題:Reimagining Cybersecurity with Precision AI™
    日期:2025 年 3 月 14 日
    時間:9:00AM - 5:00PM
    地點:香港合和酒店

    立即報名

    2024 年香港網絡安全事故協調中心(HKCERT)處理的保安事故總數,已經超過 12,000 宗,創下歷史新高。然而,私隱專員公署與生產力促進局聯合公布的「香港企業網絡保安準備指數」卻顯示,本地企業的網絡安全準備,平均僅維持於「具基本措施」級別 ,可見各行業普遍未有足夠決心防禦日益猖獗的網絡攻擊。事實上,隨著人工智能(AI)的應用日漸普及,全球企業在 2025 年,將要面臨更大的網絡安全風險,所以環球雲端交付及網絡安全平台 Akamai 提醒各界在防範網絡攻擊措施方面,必須有更周全的考慮和更嚴格的執行。

    GenAI令網絡攻擊更高效

    Akamai 行政總裁兼聯合創始人 Tom Leighton 在早前的國際傳媒訪問中指出,目前仍屬發展初期的生成式人工智能(GenAI),對網絡安全的潛在影響力,已首先體現在攻擊者一方。黑客現可借助系統,訓練開發出非常複雜的惡意軟件和相關變種,成功逃避目標機構的防禦措施。此外,GenAI 還令非常逼真的深偽技術橫行,讓黑客輕易偽造聲音、影像和文字去假冒別人身分,並透過電郵、視像通話等不同媒介欺騙目標,提升攻擊的滲透率和影響範圍。

    據 Akamai 專家團隊的預測,利用這類 AI 工具發動的勒索事件,將會在 2025 年繼續肆虐。黑客的手段更會由「雙重勒索」,演變為主要配合分散式阻斷服務攻擊(DDoS)進行的「三重勒索」,甚至最終會直接通知受害機構的客戶、員工或其他相關人士其敏感資料經已被盜取的「四重勒索」。

    API漏洞引發企業AI系統危機

    Tom 同時強調,身處 AI 時代的企業既要防範黑客以 AI 工具發動網絡攻擊,亦應加緊保護轄下的 AI 系統。他認為,隨著涉足人工智能(AI)領域的企業日趨頻繁透過應用程式介面(API)接入調用大型語言模型(LLM)等機器學習模型,鑒於過程中可觸及的數據多不勝數,這些 API 便默默成為黑客的另一常用攻擊面。尤其企業多未能徹底掌握自身 API 的外露情況,使黑客有機可乘,向 LLM 作出提詞注入(Prompt Injection)、模型阻斷服務攻擊(Model Denial of Service)等不同模式的攻擊。這個趨勢也推動了 Akamai 致力於開發針對 API 環境,特別是涉及 GenAI 應用的保護機制。

    雖然大家應與時並進,加強關注 AI 對黑客攻擊手段以及系統防護策略的影響,但企業不能就此而忽略網絡安全的基本法則。其實有否 AI 的存在,黑客都會不斷利用釣魚訊息或 API 入侵等種種手段攻擊系統,揮之不去。因此,Akamai 專家團隊特別提出以下建議,協助企業為應對新一年的網絡安全威脅作好準備。

    Tom 在 2024 年中曾經到訪香港,在一個午餐會上跟來自金融服務業、零售業、娛樂業、電信業、交通運輸業、公共設施和高等教育等關鍵行業的 10 多位高管,分享了人工智慧對網絡安全環境的影響,高管們也分享了他們對網絡安全和合規性的看法。在 2025 年,Tom 也會計劃再訪大中華區,和客戶作更多交流。 

    2025年六大措施馬上實行

    • 嚴格執行穩健的基本安全措施,例如重新審視並更新公司的修補程式管理及事故反應策略,亦要不斷加強員工培訓,包括提升員工防範黑客勒索攻擊的意識
    • 企業必須強化備份方案,務求能夠在受襲後迅速回復正常運作,盡量減少損失
    • 識別、監管及保護系統中的所有 API,消除相關漏洞
    • 利用「微分段」(Micro-Segmentation)技術執行極為精細的分段存取控制,從而減少內部攻擊面和阻止惡意攻擊横向移動
    • 落實措施保護轄下 AI 系統,包括 LLM 及相關數據。
    • 同時在具備物聯網(IoT)功能的消費產品與企業方案採取更高效的網絡安全措施,防範針對 IoT 的攻擊


    今天準備克服未來挑戰

    企業積極迎接 2025 年新挑戰之際,社會各界亦應高瞻遠矚,認清網絡安全的潛在問題和未來發展路向。Tom Leighton 便坦言,AI 技術或許能在快速診斷攻擊類型方面,為人類提供一些幫助,但在可見未來,該技術還是不能取代專業人才。社會對網絡安全、人工智慧,乃至整個 STEM(即科學、科技、工程及數學)領域專才的需求依然非常迫切。與此同時,Akamai 專家團隊亦預期,由於量子運算(Quantum Computing)技術能夠以短時間破解傳統的加密算法,有朝一天將令現有的加密體系變得脆弱,使大量敏感數據面臨外洩風險。故此,當下社會各界務必開始尋求共識,制定大眾認可的後量子加密標準和推行日期。     

    在 2025年 Akamai 將會隨著業務版圖的不斷擴展,繼續依託其全球分散式邊緣網絡平台深化 API 安全,企業安全,雲安全以及雲運算的產品及服務。其中,2024 年年底 Akamai 對 Edgio 部分資產的收購已宣佈完成,這將使 Akamai 能夠為需要強大安全性的企業組織提供機器人管理和網絡應用防火牆。同時 Akamai 香港區也在增加人手,在 2025 年上半年將與在地合作夥伴一起探索新的使用場景,以全面、專業、高效的服務協助香港企業實現更快速、更高效的資源部署,應對各種營運挑戰並實現降本增效的目標。而市場部也安排了多場客戶活動,希望多跟客戶交流和進一步強化品牌。

    中國初創公司 DeepSeek 開發的人工智能模型最近榮登科技界的熱門話題,最大原因莫過於開發商聲稱 DeepSeek V3 的訓練成本只花了約 558 萬美元,佔 GPT-4o 的二十分之一,令人懷疑西方科技公司投放於訓練 AI 的成效。

    不過鋒頭一轉,DeepSeek 很快成為被圍攻的對象,例如 OpenAI 指控對方違反使用守則,盜用其數據訓練 AI 模型;網絡安全供應商則深入研究 DeepSeek 的安全性,將其潛在風險逐一揪出,讓人不得不重新思考這種 AI 技術可能帶來的風險。

    在提供 ChatGPT 這類生成式 AI 模型時,研究人員除了要訓練 AI 理解用家的問題及指令,並提供準確無誤的答案外,還會限制 AI 回答某些類型的問題,當中最主要的原因是出於安全性、倫理和法律考量。

    首先,AI 模型可能會被用來生成有害內容,例如暴力、仇恨言論或違法活動指引等,其次在處理敏感話題如醫療、法律或財務建議時,可能會因缺乏專業知識而提供不準確或誤導性的資訊,因此研究人員才必須限制此類問題,以免造成潛在的傷害或法律責任,並讓用家能夠安心地使用這些工具。

    這些考量絕非憑空想像,因為現時網絡犯罪份子已廣泛使用「暗黑版」生成式 AI 去編寫惡意程式,又或高針對性的釣魚內容,所以研究人員才會爭相針對 DeepSeek 進行安全測試。

    DeepSeek存安全防護漏洞

    不過,多間安全機構發表的研究結果就令業界非常不安,首先是 Palo Alto Networks 的 Unit 42 研究團隊表示 DeepSeek 的 V3 和 R1 模型的防護措施存在明顯漏洞,研究人員只用了幾種簡單的「越獄」方法,便成功繞過模型的安全限制,引導 DeepSeek 回答出製作鍵盤記錄器、盜竊機密數據甚至燃燒彈的詳細步驟及方法。

    未能阻止任何有害提示

    其次是 Cisco 安全團隊針對 DeepSeek R1 模型進行的測試,輸入多種包含網絡犯罪、生化武器、毒品、虛假訊息及欺凌內容的提示詞時,都可 100% 令 DeepSeek 提供相應的回答,意味著它未能阻止任何一個有害提示,抵抗率幾乎為零。

    數據庫可通過互聯網隨意訪問

    此外,安全服務供應商 Wallarm 亦就 DeepSeek 的內部運作進行測試,並發現用家能夠從中提取有關用於訓練和精煉模型的詳細訊息,研究人員指出這些訊息一般是受到保護,避免外人了解模型的性能、弱點及管理方法,而且研究人員更發現 DeepSeek 的數據庫竟可通過互聯網隨意訪問,可見開發商並無做足基本的安全措施。

    雖然 DeepSeek 的訓練成本為業界帶來極大衝擊,不過,在安全性方面似乎就未能獲得業界認同,而且相信針對 DeepSeek 的合法性及安全性的研究只是剛剛開始,最終能否保持開局時的聲勢,抑或會由天堂直插地獄,就要繼續留意事態發展。

    資料來源:https://www.zdnet.com/article/deepseeks-ai-model-proves-easy-to-jailbreak-and-worse/