Search Results: Fake (43)

    美國 FBI 的 IC3 部門發表 2023 年網絡犯罪報告,去年網絡犯罪造成的損失高達 125 億美元,較 2022 年報告增加 22%。當中最令人頭痛的是商業電郵詐騙(BEC),約佔總損失的五分之一。而其中一個令 BEC 詐騙大增的原因,相信與深度造假(deepfake)人工智能技術有好大關係。 想知最新科技新聞?立即免費訂閱! BEC 造成 29 億美元損失 這次公布的數據中,當局開宗名義指出所有數據都是基於執法部門的發現或受害者上門求助,其他未有求助或被發現的個案估計還有更多。而基於這些數據顯示,BEC…

    利用 AI 繪製的圖像可謂幾可亂真,不過近日有網絡不法分子利用深度偽造(Deepfake)技術,將社交媒體上的相片及影片,移花接木成色情內容。FBI 警告這類網絡色情勒索(Sextortion)的案件有所增加,提醒大眾在網上公開相片時要小心。 想知最新科技新聞?立即免費訂閱 ! 儘管是一些普通的日常相片及照片,放到網上後,卻成為了不法分子用作勒索的素材。 FBI 表示,截止 2023 年 4 月,此類案件有上升趨勢,但未說明收到多少投訴,只指出犯罪集團已有數以千計的同類計劃,受害人更包括不少未成年人士。 或要求受害人傳送真裸照 根據受害者表示,不法分子多數會要求受害者支付贖金或其他物品(如禮品卡),否則便向其家人或朋友發布,又或者要求受害人發送真實的裸照或影片作為交換。有不法分子會跳過勒索部分,將用 AI 製作的假影片直接發布到色情網站,對受害人造成滋擾,甚或要求受害者支付費用,換取刪除已上傳的相片及片段。 專家建議在網上發布相片或影片時,應只向私人朋友分享,至於作為家長,則應該留意子女的網上活動,不時在網絡搜索及檢視子女的資料。 資料來源:https://www.bleepingcomputer.com/news/security/sextortionists-are-making-ai-nudes-from-your-social-media-images/

    網絡安全行業人手短缺,加上在疫情下大家都習慣遙距工作,因此企業要聘請相關人才並不容易,傾向會接受讓對方在家工作。美國 FBI 專家就警告,不法之徒利用企業求才之心,利用 Deepfake 技術隱藏身份遙距面試的個案大增,一旦對方成功獲聘,便可名正言順進入公司內部網絡,猶如引狼入室。 這次警告由 FBI Internet Crime Complaint Center (IC3) 發出,當局發言人說近來接獲的 deepfake 求職個案有上升趨勢,部分企業更因引狼入室,被對方在內部網絡偷去大量機密資料,當中包括職員的個人私隱資料、公司財務文件、數據庫資料等,造成難以估計的損失。發言人說由於企業聘請的職位多於 IT 部門有關,對方在受聘後便可獲得權限,管理公司的系統及資料庫而不會受到懷疑,因此成為詐騙集團入侵企業的新方法。特別是現時不少企業也接受遙距面試,令受騙機會大增。 專家解釋,詐騙集團首先從網上取得從事 IT 行業的人的資料,包括對方的樣貌、工作履歷等,然後借用來向目標企業發出求職信,即使目標企業在篩選時會初步審查所交資料的真確性,由於資料屬實,因此容易通過第一關審查。如企業人事部對求職者有興趣而又接納視像面試,騙徒便會利用…

    Deepfake 換臉技術可說是炮製假消息的利器,而最新一個涉及加密貨幣交易平台 BitVex的騙案,網絡騙徒就利用 Tesla 創辦人 Elon Musk 及女股神 Cathie Wood 來宣傳,並保證投資者可以獲得 30% 回報,企圖騙取受害者入錢參與。雖然騙案不算成功,但不妨了解一下如何識破 Deepfake 騙局。 虛假加密貨幣交易平台 BitVex 騙局於五月被開展,騙徒使用了多個新的 YouTube 頻道,配合一些騎劫回來的帳戶,發放多段…

    透過人工智能技術編輯影片、相片或聲音檔案,達到以假亂真嘅 Deepfake 技術,由於效果實在太逼真,容易喺社會上散布虛假訊息,所以一直係全球政府及社交平台首要解決嘅問題。特別係美國總統大選在即,呢啲虛假訊息隨時可以令選情逆轉添!就喺呢個時候,Microsoft 宣布推出一套可以偵測 Deepfake 內容嘅工具 Microsoft Video Authenticator,借助人工智能去分析影片或相片中嘅瑕玼,再提供可信度俾用家自行判斷內容真偽,絕對有助打擊虛假訊息嘅散播。 點解 Deepfake 技術咁得人驚?因為佢都係利用人工智能深度學習嚟製造虛假內容嘅技術,一方面人工智能會自行產生愈嚟愈精細嘅內容,同時間另一組人工智能就會愈嚟愈精準咁識破虛假內容,喺兩套人工智能嘅競賽下,虛假內容自然愈嚟愈像真,好多時肉眼已分唔到真假。而 Microsoft 呢套工具,亦同樣使用人工智能技術,用咗 FaceForensics++公開嘅 1000 組 Deepfake 資料庫以及 Facebook…

    「你已被限制出境……」 嚟自「入境處」嘅預錄語音詐騙電話,相信大家聽完都唔會上當。但若然今日你收到電話,傳嚟老闆嘅聲音,指示你幫公司轉帳到其他戶口,相信唔少自稱 Small potato 嘅順命打工仔都會乖乖照做?殊不知⋯⋯一切都係黑客嘅最新釣魚攻擊— AI 偽冒語音術! 咩係 AI 偽冒語音? 之所以偽冒到其他人,原理在於人工智能的深度學習技術,有別「入境處」所用的傳統文本語音轉換技術(Test-to-Speech,簡稱 TTS),AI 系統每日只需分析一個人幾分鐘嘅錄音檔,湊夠兩個鐘就可以偽造出極似「真人」嘅合成語音。日常應用大家都應該唔陌生,例如 Apple Siri,Amazon Alexa,以及汽車導航系統等生活例子。 而黑客則將之演變為「語音釣魚」詐騙術!由於現時 AI 合成語音技術可謂垂手可得,想要各大軟件甚至製作 AI…

    Deepfake 換臉技術嘅專家估計,距離完美造假換臉影片出現嘅時間只得返半年至一年,點解?因為佢睇完內地開發嘅 ZAO app 之後,覺得有修正嘅空間囉。 南加州大學 Computer Science 系副教授 Hao Li 一向係 deepfake 技術嘅專家,最近就為 MIT 科技會議炮製咗示範片段,俾 MIT Technology Review 總編 Gideon Lichfield,喺台上展示即時換臉技術嘅發展去到邊個階段。Lichfield…

    網絡安全研究員發現,網絡騙徒最近借死人過橋賺錢的情況有上升趨勢,而且他們還先進地研究 Google 搜尋分析結果,再透過人工智能產生訃文,以 SEO 污染技術增加惡意網站被搜尋的機會,最終賺取網絡廣告費。不過,嚴格來說這些騙徒又沒有發死人財,因為「被喪生」的知名人物,很多時根本尚在人間! 想知最新科技新聞?立即免費訂閱! 有齊配相提高可信性 今年初,CNN 報導了一個無故被車禍喪生的知名女作家 Deborah Vankin 的詐騙事件,原來她的朋友通過社交平台及網站貼文,發現了有關她遇車禍離世的報導,報道中的主持人雖然只輕描淡寫 Deborah 的遇害消息,但內文中卻有她、車禍現場、殯儀館中的棺材、燃點的蠟蠋等配相,大大提升事件的可信性。 經調查後,發現原來受害者不止她一個,因為這已成為近來網絡騙徒的熱門賺錢手法,透過捏造名人逝世的消息,吸引網民轉載消息,到訪貼有訃文的網站及相關影片,除了靠流量賺取廣告費,還有些網站會在訪客的瀏覽器彈出對方電腦設備已中毒的視窗,引誘對方下載防毒軟件,同樣可賺取廣告費以至產品分成,騙徒如有心,當然還可誘使這些受害者下載內含木馬病毒的檔案。 先查證免急於 RIP Secureworks Counter Threat…

    網絡釣魚(Phishing)及商業電郵詐騙(BEC)攻擊無日無之,專注電郵安全的本地網絡安全公司Green Radar,發布 2023 電子郵件威脅指數(Green Radar Email Threat Index,下稱 GRETI),年度指數比去年高,反映電郵威脅風險持續上升。報告又揭露黑客頻密的進化手法,包括假冒香港終審法院、將二維碼(QR Code)「搓圓撳扁」等,藉此提高詐騙成功率。 想知最新科技新聞?立即免費訂閱! 根據 2023 年本地數據分析,GRETI 年度指數為 69.7 分,比去年 66.5 分略為上升,本年度的網絡釣魚(Phishing)及商業電郵詐騙(BEC)攻擊繼續處於「高」風險級別水平,企業及機構應保持警惕。 Green…

    網絡安全機構 Group-IB 發表調查報告,揭露一個以騙取泰國及越南市民人臉數據及身分證明文件的中國黑客組織 GoldFactory 的詐騙手法。黑客會誘騙目標人安裝 iOS 或 Android 木馬程式,從而暗中盜取這些資料,再利用 deepfake 技術去進行金融詐騙。研究員指現時攻擊仍然持續,香港用家亦要小心防範。 Deepfake 深度造假技術相信大家都耳熟能詳,早前香港就有一間跨國公司的員工受騙,導致公司損失過億港元。而這次被 Group-IB 研究員發現的黑客組織 GoldFactory,過往亦有開發一系列的惡意軟件,如 GoldDigger、GoldKefu 等,但在最新的惡意軟件 GoldPickaxe 中,還加入了盜取目標人物的生物辨識數據的功能。…