最新發展|Akamai推出全球首個AI Grid智能協調系統 助企業邁向Web4.0

    隨著人工智能 (AI) 的應用成為具備自主執行能力的代理角色,互聯網正邁向與 AI 更深度融合的 Web4.0。Akamai Technologies 率先在全球部署 NVIDIA AI Grid,利用創新智能工作負載協調系統,將日益重要的 AI 推理工作負載,從孤立的 AI 工廠,擴展至統一的分散式網格上執行,使企業用戶能同時以環球網絡的規模與本地運算的反應速度,執行代理式及物理 AI。

    按照此新延展策略,Akamai Inference Cloud 分散式架構上由好幾千顆 NVIDIA RTX PRO 6000 Blackwell Server Edition GPU 組成的叢集負責處理各種 AI 請求,而作為 AI Grid 核心的智能協調系統就成為所有 AI 請求的實時中介,並憑藉 Akamai 優化應用程式表現的專長,顯著降低每個 AI Token 的成本、反應速度 (TTFT) 以及所需吞吐量。

    Akamai 香港及澳門區域經理黎志豪表示:「如果企業想控制AI應用成本和減少延遲,它們那些與實時視像、物理 AI,又或是高度並發的個人化體驗相關的 AI 推理便得在用戶接觸點,而非中央運算叢集進行。Akamai 的 AI Grid 智能協調系統正正讓這些企業的 AI 工廠可以用合理的成本,於適當的時間,把 AI 推理工作負載路由至我們全球分散式基建的 4,400 個節點加以處理,完美革新 AI 部署方式。」

    突破成本與反應速度局限

    現在,企業已可透過 Akamai 的龐大環球邊緣覆蓋存取微調或稀疏模型,為各式大小的 AI 工作負載帶來巨大的成本與效能優勢,包括:

    • 成本規模效益:企業藉著將工作負載自動與適當的運算層配對,大幅降低推理成本。同時,協調器應用語義快取 (semantic caching) 和智能路由等技術,將請求導向規模合適的資源,從而為高端任務的工作負載保留優質的 GPU 運算週期。採用開源架構的 Akamai Cloud 會負責提供充裕的出口流量額量,以支援大規模數據密集型 AI 運作。
    • 實時反應能力:Akamai 覆蓋 4,400 多個節點的分散式邊緣網絡能夠通過集成式快取記憶、無伺服器邊緣運算和高性能連接,在用戶接觸點處理請求,免除了往返源站雲端所造成的延遲。
    • 核心的生產級AI:大型語言模型、持續後訓練和多模態推理工作負載皆需要由專用基礎設施提供的持久高密度運算。Akamai 基於數千顆 NVIDIA RTX PRO 6000 Blackwell Server Edition GPU 的叢集,將為最大負荷的工作負載集中運算力,與分散式邊緣相輔相成。

    運算從核心移至遠端邊緣

    此外,Akamai 利用 NVIDIA AI Enterprise 套件、NVIDIA Blackwell 架構與 NVIDIA BlueField DPU 進行硬件加速,從而加強網絡傳輸和安全,有效管理涵蓋邊緣及核心位置的複雜服務等級協議 (SLA):

    • 邊緣 (超過 4,400 個網站):為物理 AI 和自主式代理提供快速回應,並利用語義快取及諸如 Akamai Functions (基於WebAssembly運算) 和 EdgeWorkers 等無伺服器服務,於用戶接觸點提供模型親和性和穩定性能。
    • Akamai Cloud IaaS與專用GPU叢集:核心公共雲基建負責支援大規模工作負載的遷移與成本節約,而由 NVIDIA RTX PRO 6000 Blackwell GPU 驅動的 Pod 叢集則能處理繁重的後訓練和多模態推理。

    推進實時AI新浪潮

    Akamai Inference Cloud 備受運算密集型和延遲敏感型行業的歡迎並獲得率先採納:

    • 遊戲:電玩工作室藉此提供僅有毫秒級延遲的 AI 驅動非玩家角色 (NPC) 互動,有助保持玩家的沉浸式感受。
    • 金融服務:金融機構可以利用該網格在由用戶登入到首屏展示的關鍵時刻,執行極其個人化的欺詐檢測和營銷推介。
    • 媒體和視像:廣播公司使用分散式網絡為世界各地的觀眾執行由AI驅動的轉碼和實時配音。
    • 零售和商務:零售商採用該網格運行店內 AI 應用及銷售點的員工生產力工具。

    在企業需求的帶動下,該平台更獲得多間主要技術供應商的肯定,當中包括涵蓋一所專為企業 AI 基建打造、位處都市邊緣的數據中心內的多 GPU 叢集,價值二億美元及為期四年的服務協議

    由AI工廠擴展到分散式網絡

    AI 基建以往是指那些在個別中樞地點作大規模部署、為 AI 訓練而優化的 GPU 叢集。然而,隨着推理成爲主要的工作負載,加上 AI 代理的興起,這種中央運算模式就如早期互聯網在低延遲應用方面般遇到了延展限制。

    Akamai 透過分散式網絡、智能協調機制和專用系統,協助企業克服了互聯網的延展困境,成功將密集運算從核心分散到網絡邊緣,讓內容和情境脈絡盡可能靠近數碼接觸點。該策略既令企業改善了用戶體驗,亦提升了它們的投資回報率。現在,Akamai Inference Cloud 將這已獲驗證的架構——分散式網絡、智能協調機制和專用系統應用於 AI 工廠,把密集運算從核心分散至邊緣。 這不僅有助於企業部署具備情境脈絡感知能力且反應靈活的 AI 代理,開啟新一波的業務擴張與增長,同時亦推動孤立的 AI 工廠演變成為環球分散式設施,為業界繪出 AI 基建新藍圖。

    #AI #AIGrid #Akamai #NVIDIA #Web4

    相關文章