近年推同科技有關嘅產品,只要加人工智能或 AI 字眼,身價即時上升。不過到底點先算係人工智能?然後機器學習(Machine Learning,簡稱ML)功能又係咩嚟呢?擁有機器學習功能就一定有 AI?下面就為大家一次過解答。 要解釋人工智能同機器學習嘅分別,首先就要回一回帶重溫歷史。如果有睇過幾年前《解碼遊戲》呢部戲,男主角 Alan Turing 一直都俾人叫做「電腦之父」,其實佢亦係第一個提出人工智能概念嘅人。佢喺上世紀 50 年代寫咗篇論文,用一個簡單測試去分辨機器識唔識得思考。方法好簡單,只要將相同問題搵人同電腦解答,得出嚟嘅答案係分唔到由邊個解答,就代表部電腦能夠思考擁有智慧,後世就叫呢個做 Turing Test。 呢個測試好有代表性,因為佢將人工智能嘅概念規範化,不過直到今時今日,都未有人可以百分百做到一部符合 Turing Test 要求嘅電腦,所以為咗貼地少少,有人就將人工智能定義收窄少少,只要電腦可以自行完成單一工作,而且做得比人類好,就叫人工智能喇!然後喺呢個狹義嘅人工智能定義下,又衍生咗機器學習呢個分類。1959年,當時喺 IBM 做工程師嘅 Arthur…
Search Results: 人工智能 (413)
單係電話騙案已經好難防備,如果再加埋人工智能嚟扮聲扮口音,中招風險肯肯定大增。以為好難攞到你把聲?少年,你太年輕了。 而家最多人討論嘅欺詐科技,一定係 Deepfake 技術,透過 AI 模擬技術,就可以令浸浸、朱克伯格等名人,喺影片中講出你想佢講嘅說話,要製造災難性假新聞真係一啲都唔難,跟車太貼嘅個案亦只會愈嚟愈多。不過,現階段模擬像真度都仲有啲瑕疵,小心留意絕對可以發現唔自然嘅地方。 語音分析提升像真度 如果唔睇畫面,淨係聽聲又如何?相信會仲多人中招。好似今年三月英國一間能源公司嘅 CEO,就因為收到德國母公司上司一通電話,就將 200 萬港幣轉咗去匈牙利供應商嘅戶口。呢個 CEO 事後話騙徒唔單只把聲同佢上司一模一樣,而且仲連語氣、口音都無分別,所以就咁上當,如果唔係對方幾分鐘內又再要求過數令佢起疑,隨時會二次中招添。 欺詐案調查專家 Rudiger Kirsch 喺收到承保嘅保險公司委托,經調查後發現今次唔單只係一般電話騙案,仲係加入咗人工智能元素。由於保險公司從未處理過同 AI 有關嘅個案,所以先搵佢幫手。佢話自己都測試過一啲黑客用嚟模擬語音嘅軟件,像真度極高,而且唔難買到,所以預期呢類騙案會大幅增加。 其實上年網絡安全公司…
Fact check 真係好緊要,不過假新聞發佈速度咁快,唔係下下都 check 到。試諗下,新聞都咁難 Fact check,如果換成一條片,要睇下佢有無造假,就更加需要大量功夫啦! 科技發展得咁快,而家開個手機 app 都可以隨時換臉,要變成明星定一隻兔仔都冇難度,最火熱嘅話題叫 deepfakes,就算真人無講過佢說話,都可以用 A.I. 將影片加工,做到真嘅一樣。其中一個 deepfakes 高手德籍華人科學家黎顥,最近接受訪問時就話佢愈做愈驚,仲喺上月中國大連舉行嘅世界經濟論壇搞咗個攤位,俾嚟參加論壇嘅國家元首同富豪「體驗」一下換面係幾咁容易,希望藉此提醒佢哋關注 deepfakes 問題。 黎顥接受訪問時話,原來好細個已對電腦影像有興趣,12 歲睇《侏羅紀公園》,對電腦可以畫出世界上唔存在嘅恐龍表示非常震驚,所以佢一直立志要從事電腦影像嘅工作,喺端士讀完碩士就加入咗電腦影像行業,代表作係後前製作幫《狂野時速7》加入大量 Paul…
上星期一份針對港台加密趨勢嘅調查報告顯示,近半數(48%)港台企業認為員工疏忽係數據安全嘅最大威脅。由於員工嘅安全意識不足,就算企業已安裝防火牆、防毒軟件,亦可能只係阻截到外來攻擊,但就未必能阻止員工「主動」製造漏洞,防止機密外洩。 過時防禦策略 唔少企業管理者可能都會問,點解投入咗大量資源喺網絡保安上,都仲係咁唔安全?其實同採用產品嘅防禦策略有好大關係。傳統網絡防禦方法係透過比對病毒數據庫資料,當發現網絡上出現被標記嘅行為,例如有病毒或惡意軟件企圖喺端點電腦進行安裝,又或有大量數據由內部網絡送出,先會觸發保安系統進行攔截。不過,黑客深明當中漏洞,於是透過改變攻擊模式,例如毋須安裝惡意軟件的無檔案惡意程式(Fileless Malware),或以不定時、每次只傳出少量數據嘅傳送模式等,將惡意傳輸隱藏於企業正常嘅網絡活動之中。更重要嘅問題係,當有事故發生,即使網絡保安系統有 log ,要喺短時間內以人肉搜尋方式完成作業,相信就連網絡保安專家都要投降。 分析行為調整防禦策略 其實只要借助 User and Entity Behavior Analytics (UEBA) 自動化記錄分析工具,唔單只可以好快咁搵出端點電腦嘅微細異常行為,更可以將事故發生時每部電腦及登入帳戶正在進行嘅活動,包括睇緊嘅網站、開緊嘅電郵,以及同網絡內電腦嘅互動,全部清清楚楚咁展示出嚟,對防止惡意軟件擴散及預防事故發生,都有好大嘅幫助。喺「Edvance Beacon 2019」安全峰會上,網絡保安專家將會親身示範點樣借助呢啲分析工具,去鎖定有問題嘅網絡活動,無論係內聯絡抑或雲端應用,都可以通過中央介面管理。作為企業管理人,又或係網絡安全把關者,就要即刻報名參加,喺採用自動化防禦產品前,都可以向人工智能借鑑,留意返一直遺漏嘅地方,緊急調整企業防禦策略,減少保安事故發生! Edvance Beacon 2019日期:2019…
近年常常聽到「人工智能」一詞,好像潮語一樣,並代表著「高科技」的意思。一些產品含有自動調節功能,就以誇張宣傳手法說是「人工智能」,這根本不符合「人工智能」的定義。 「人工智能」已有幾十年歷史,早在八十年代初,電腦科學家便開始設計能學習和模仿人類行為的程式。在電影裏,如《Terminator》、《Matrix》或《Ex Machina》所描述的「人工智能」,都擁有觀察和感知能力,並可以做到推理和解決問題,這類可稱為「強」人工智能,但是現今技術水平仍未有效實現。 目前的科學研究工作都是集中在「弱」人工智能這部份,並取得重大突破。智能是從何而來呢?讓我們先理解「人工智能」、「機器學習」和「深度學習」的區別和關係。 「人工智能」的領域中,「機器學習」是其中一種方法;在「機器學習」的技術中,通過使用大量樣本作訓練而積累的智能,就稱為「深度學習」。 在使用電腦的過程中,大家會不知不覺地留下大量數據及電子足跡,這給予「深度學習」在訓練時所需之用;此外,系統運算速度的提升,令「機器學習」時間大大加快。綜合這兩個主要因素,終於令「機器學習」成熟起來,在「人工智能」的應用邁進了一大步。 同樣,近年一些高端網絡安全產品也採用「機器學習」去處理大量電腦使用者的日常行為,並作深入分析。即使黑客成功盜取了用戶的帳號及密碼,保安系統也會跟用戶日常使用方式作出對比,如發現有明顯偏差,就會發出警示或作出攔截。一幕幕兵賊鬥智(人工智能)的場面,已在網絡安全領域中展開。
隨企業加快數碼轉型與混合雲環境的普及,微分段(microsegmentation)不再只是進階的網絡安全策略,而是成為零信任(Zero Trust)架構中不可或缺的核心。 Akamai Technologies 的 Guardicore Segmentation 解決方案,近日榮獲 Gartner 選為「客戶之選」,推薦率高達 99%,反映客戶對其管理介面、可視化、銷售及售後服務,均予以高度評價。 微分段防橫向移動 成混合雲安全關鍵 當攻擊者一旦成功入侵網絡環境,能否阻止其橫向移動,往往成為防止重大損害的關鍵。尤其是在混合雲和多環境基礎架構下,為有效防禦威脅,網安團隊需要具備更高層次的可視性與政策控管能力,微分段便成為了不二之選。微分段方案不但要擁有強大防禦效能,亦須在日常運作中切實可行、易於操作。 Gartner® Peer Insights™最新發布的《Voice of the Customer》報告,屬首次針對微分段類別發布的年度評價,乃基於全球經驗證的客戶評論而定。 客戶評分高達…
2026 年央視春晚的機械人武術表演成為熱話,數十台人形機械人與武術演員同台,動作整齊、步伐一致,確實令人眼前一亮。這場演出讓大眾見識到中國在機械本體、運動控制與群體協調領域的快速進展,也引發業界內外無限遐想。 想睇更多專家見解,立即免費訂閱! 然而,作為一家專注應用落地與產業化的科技公司負責人,我更關心的不是「跳得有多齊」,而是「這些機械人有多聰明」。掌聲過後,真正值得追問的問題是:它們有多少是具身智能,有多少只是將動作編寫得更精準? 表演是壓力測試,不是終點 首先必須肯定,春晚的舞台從來不易駕馭。要在億萬觀眾面前完成高難度表演,對機械人的可靠性、同步性、抗干擾能力都是極致考驗。從這個角度看,這場「秀」其實是一場高規格的壓力測試,成功展示出中國機械人技術在結構化場景中的控制能力,對工廠、倉儲等環境的應用同樣具有參考價值。 但問題在於:「動得好」與「用得起、用得穩、用得懂」之間,存在一道根本分野。控制能力可以透過大量排練與精準編程來實現,但真正的具身智能要面對的,是充滿不確定性的現實世界。正如不少工程師社群觀察到,這類表演很可能建基於預設程式的固定套路——機械人能自我平衡,但行為仍以編排為主,並非真正理解環境並自主決策。 就在剛剛過去的農曆新年,南京一場企業年會上,人形機械人表演後需要工作人員抱離現場,這段影片在網上引起熱議。我認為,這類片段的價值不在於「嘲笑誰翻車」,而在於它們提醒我們:現階段許多展示仍停留在「可控場景」的成果,一旦離開場控、標定、重複排練與人工介入,真正的商業考驗才剛剛開始。 我們要的不是更整齊,而是更聰明 具身智能不是一句口號,它至少包含三個層次的現場能力:感知(知道發生甚麼)、理解(知道這代表甚麼)、決策(知道接着做甚麼),並將決策安全地落實到物理世界。如果機械人仍主要依靠人手操控,或只能在固定腳本中執行指令,那麼即使它再精準,也只是在「表演級自動化」上更進一步,離真正的商業應用仍有距離。 更現實的問題是:即使控制與機械本體達標,如果無法在複雜動態環境中穩定自主運作,企業就需要為「例外處理」配置大量人力,最終單位經濟效益很難成立。所以我更願意把春晚看作「上半場」——它證明了本體與控制的進步;但「下半場」的勝負手,仍在於 AI 大腦與場景落地。當全球都在為這個「大腦」苦惱時,這正是香港切入的絕佳時機。 香港近三年:政策已鋪路,角色要更清晰 如果香港要在這一輪機械人商業化浪潮中找到自己的位置,最務實的切入點不是與別人比拼硬件量產,而是將香港打造成「可把 AI 大腦裝進不同機械人本體」的研發與轉化中心。 回看過去三年,特區政府其實已做出一系列「可落地」的鋪路動作,足以支撐業界把研發做深、把試點做大:從 2024 年投入…
墨西哥政府近日爆出大規模數據洩漏事件,一名黑客被指利用 Anthropic 的 Claude 人工智能聊天機器人,成功從多個政府機構竊取約 150GB 官方數據,引發國際社會對 AI 被武器化的高度關注。根據《彭博》報導,這宗攻擊行動自 2025 年 12 月開始,歷時約一個月,主要鎖定納稅人紀錄及政府員工憑證,對當地資訊安全構成嚴重威脅。 想知最新科技新聞?立即免費訂閱! 負責調查事件的網絡安全公司 Gambit Security 表示,攻擊者將 Claude 用作「攻擊輔助工具」,讓…
人工智能的發展加速科技創新,開啟新一輪的生產力革命。從生成式 AI (GenAI)到近日爆紅的代理式 AI (Agentic AI )助手 OpenClaw(前稱 Clawdbot / Moltbot),這股 AI 浪潮正重塑企業的營運模式,迎來無限商機,但同時亦為企業帶來網絡安全和合規性的挑戰。 香港電訊(HKT)作為本地數碼轉型的推動者,率先將 Agentic AI 技術融入企業應用場景;並且結合世界級頂尖網絡安全公司 Palo Alto Networks…
個人資料私隱專員公署聯同環球 60 個私隱或資料保障機構,發表《AI 生成影像及私隱保障聯合聲明》。對人工智能(AI)系統能在當事人不知情及未經同意下,生成可辨識個人的逼真照片、影片及其他關於真實人士的有害內容表達關注,提醒所有開發及使用 AI 內容生成系統的機構,必須合法開發及使用 AI 系統,並採取一系列有效措施,以保障資料當事人,特別是兒童及弱勢群體的基本權益。 想知最新科技新聞?立即免費訂閱! 聯署機構包括來自加拿大、法國、德國、意大利、韓國、新西蘭、新加坡和英國的私隱或資料保障機構。聯署行動由環球私隱議會國際執法合作工作分組發起及統籌。 個人資料私隱專員鍾麗玲表示,近期利用 AI 系統生成個人(尤其涉及兒童)的不雅或惡意照片及影片的情況,引起香港及世界各地監管機構關注。私隱專員公署作為環球私隱議會國際執法合作工作分組聯席主席,與全球各地的私隱或資料保障機構攜手合作,訂立國際性基本原則,對機構合法、安全地開發及使用 AI 生成內容提供指引。《聯合聲明》亦提醒所有機構,在開發及使用 AI 生成內容時,須遵從適用的資料保障及私隱法例。 聯署機構提醒,所有開發及使用 AI 內容生成系統的機構,必須合法地開發及使用…