Search Results: GPT (77)

    生成式人工智能(GenAI)的應用日漸普及。香港電訊就宣布,與 GenAI 搜尋初創公司 Perplexity 合作, 為旗下個人客戶,免費提供 Perplexity Pro 進階 AI 服務,以進一步推動 AI 在香港普及應用。香港電訊個人業務行政總裁林國誠希望,客戶可以由 AI Ready(就緒),進一步成為 AI Expert(專家)。 由 2025 年…

    人工智能(AI)浪潮席捲全球,由個人用擴展到企業用,AI 既成企業推動業務不可或缺的一部分,同時為企業帶來數據外洩等隱憂。本地專業 IT 解決方案供應商 Amidas 深明企業需要,開發首個自家產品 Amidas AI,為企業建構獨家資料庫,將 AI 變成最熟悉企業內部的「超級員工」。透過 Amidas AI,管理層可掌握員工使用 AI 狀況、敏感資料使用權限等,助企業進一步提升工作效率之餘,又能確保數據安全,達致智能化營運。 提升 AI 效能 兼顧數據安全 為免競爭力下降,不少企業已應用最基本的問答式 AI,惟經過數年時間後,企業都期望使用 AI…

    全球領先網絡安全供應商 Fortinet 成立 25 年,致力將網絡(Network)與安全(Security)整合,一直緊貼並引領市場發展。Fortinet 香港、澳門及蒙古區總經理馮家健(Michael)表示,未來將會繼續採用 AI 向三大方向發展;而 Fortinet 亞太區產品管理副總裁兼區域首席技術官陳智輝(Jack)則發布最新的 FortiGuard Labs 2025 年全球威脅型態報告,發現黑客越來越多利用自動化工具及 AI 技術,企業不得不防。 想知最新科技新聞?立即免費訂閱! SD-WAN 處領導位置多年 Fortinet…

    隨着 AI 在各行各業應用普及,數碼世界真假邊界越來越模糊。網絡安全解決方案供應商 Check Point 發布首份《AI 安全報告》,深入拆解網絡犯罪分子如何以 AI 技術作為武器,並為網絡安全業界提供一系列防禦建議與實踐策略。 想知最新科技新聞?立即免費訂閱! 網絡犯罪分子正利用生成式 AI 和大型語言模型(LLM)大規模偽造身分,破壞公眾對數碼身分的信任。網絡用戶已無法單憑表像去判斷網絡上看到或聽到資訊的真偽。AI 驅動的深度偽造技術,甚至可繞過最先進身分驗證機制,令每一個人都有機會成為網絡欺詐的受害者。 Check Point 指出,某些地下犯罪服務組織的技術越發先進,更有迹象顯示「數碼分身」即將崛起。這些 AI 驅動的複製體不但能複製外貌和聲音,更能模仿人類的思想與行為。 四大關鍵威脅: 威脅變化的背後核心,是 AI 高度模仿和操控數碼身分的能力,因而模糊了真實與虛假之間的界線。以下是導致信任瓦解的四個核心領域: .AI 加強身分冒充及社交工程攻擊:犯罪者利用 AI 生成像真度極高的釣魚郵件、虛假音訊和深度偽造影片。近期更有犯罪者利用 AI…

    一個據稱曾入侵超過 618 個機構的網絡犯罪組織 EncryptHub,近日竟被揭發曾以網絡安全研究員的身份,向 Microsoft 提交兩個 Windows 零日漏洞報告,沒有選擇用來入侵更多機構。而在專家追查下,更發現這個犯罪組織對前路搖擺不定,甚至向 AI 聊天機械人請教安全的成名方法,行為非常搞笑。 想知最新科技新聞?立即免費訂閱! 向 Microsoft 提交兩個安全漏洞 據資料顯示,早前 EncryptHub 曾以網絡安全研究員 SkorikARI 的身份,向 Microsoft…

    港大經管學院日前發表《人工智能模型圖像生成能力綜合評測報告》,針對 15 個「文生圖模型」及 7 個「多模態大語言模型」進行全面評估。研究顯示,字節跳動的即夢 AI 和豆包,以及百度的文心一言,在新圖像生成的內容質素及圖像修改的表現突出;而早前引起全球關注的 DeepSeek 最新推出的文生圖模型 Janus-Pro,則在新圖像生成方面表現欠佳。 研究亦發現部分文生圖模型雖然在內容質素方面表現優異,卻在安全與責任方面的表現強差人意。整體而言,與文生圖模型相比,多模態大語言模型整體表現較佳。 想知最新科技新聞?立即免費訂閱! 隨著生成式人工智能技術不斷進步,圖像理解與生成這兩大核心領域均取得了突破性成果。港大經管學院就新圖像生成進行評測,評測包含兩方面:生成內容質素、安全與責任性。 內容質素 — 透過圖文一致性、圖像合理可靠性及圖像美感此三個維度進行評估安全與責任性 — 衡量人工智能模型在生成新圖像時的安全合規性與社會責任意識,測試指令涵蓋以下類別:偏見與歧視、違法活動、危險元素、倫理道德、版權侵犯以及隱私/肖像侵犯。 新圖像生成的內容質素綜合排名 在新圖像生成的內容質素方面,由字節跳動推出的即夢…

    在數碼轉型浪潮中,資訊安全的挑戰與日俱增。有市場報告預計在 2025 年,全球會有超過 500 億部設備連接互聯網,可以想像網絡安全的覆蓋面有多廣闊及複雜。不過,只要做好以下四大防護,便可以建立「數碼護城河」,無論是對內抑或對外,都可以阻止攻擊發生。 想知最新科技新聞?立即免費訂閱! 近年不少調查數據均顯示網絡攻擊的數量及造成的損失都有升無跌,在攻擊數量方面,自從 ChatGPT 等生成式 AI 面世,網路釣魚攻擊便暴增了4,151%!在損失方面,最新統計亦顯示平均每宗資安事件都會造成高達 480 萬美元的損失,較去年上升 10%。企業若要遠離網絡攻擊,便要參考如何做好四大防護工作。 風險管理框架 有效的風險管理框架不僅能夠迅速應對突發事件,還可以主動識別弱點和降低漏洞風險。全面的風險管理策略應以保護關鍵業務和數據私隱為核心,當中必須具備透明度,掌握數據的儲存位置、存取者的身份及適當分配權限,時刻以「零信任」和「設計安全」為原則,持續評估風險和保持靈活的思維。另外,要確保快速應對入侵事件,必須設立事故響應團隊,並清晰指定主要聯絡人及各部門的職責。高層管理人員如 CTO、CIO 和 CISO 須互相協調目標,定期評估資安計劃,良好的溝通和共享威脅情報有助於提高應對能力。…

    由 2022 年推出 ChatGPT 至今,OpenAI 一直被視為 AI 領域的龍頭公司,不過 OpenAI 最近又再陷入數據外洩疑雲。據報導一個名為 emirking 的黑客聲稱竊取了 OpenAI 超過 2000 萬用戶的登入憑證,並放在俄羅斯暗網的地下討論區以低價放售…… 想知最新科技新聞?立即免費訂閱! 據傳媒報導,這個黑客在帖文內聲稱出售一套包含 2000 萬個…

    網絡威脅情報技術的發展,過往一直受制於數據過時及資訊保密的挑戰,但人工智能的興起便有機會帶來新的局面。科技巨頭如 Google、Microsoft 及 OpenAI 正逐步轉型為預警系統,透過監控 AI 平台追蹤黑客集團的行動,準確掌握對方的攻擊目標及策略,防患於未然。 想知最新科技新聞?立即免費訂閱! 以往網絡安全業界認為將 AI 引入網絡安全工具,主要好處包括可以即時處理大量數據,比人手更快偵測出異常行為並自動執行安全措施。此外,AI 透過行為分析,可有效找出真正的內部威脅,並隨著持續學習新的攻擊策略,增強防禦能力。不過,這些優勢仍是建基於整合現有的安全威脅情報,而在缺乏即時的數據及業界未有積極共享威脅情報的情況下,始終未能帶來預期的效果。 Google、Microsoft 及 OpenAI 發表的安全報告顯示,通過監控其人工智能平台的用家輸入資料,便能夠搶先發現網絡攻擊趨勢,有機會將網絡安全發展成早期預警系統。首先在 Google 的威脅情報報告中便指出,他們發現來自伊朗、中國、北韓和俄羅斯的國家級黑客集團正濫用其 Gemini 生成式…

    中國初創公司 DeepSeek 開發的人工智能模型最近榮登科技界的熱門話題,最大原因莫過於開發商聲稱 DeepSeek V3 的訓練成本只花了約 558 萬美元,佔 GPT-4o 的二十分之一,令人懷疑西方科技公司投放於訓練 AI 的成效。 不過鋒頭一轉,DeepSeek 很快成為被圍攻的對象,例如 OpenAI 指控對方違反使用守則,盜用其數據訓練 AI 模型;網絡安全供應商則深入研究 DeepSeek 的安全性,將其潛在風險逐一揪出,讓人不得不重新思考這種…