【Deepfake技術】日常相驚變「甜相」 FBI警告小心網絡色情勒索

    利用 AI 繪製的圖像可謂幾可亂真,不過近日有網絡不法分子利用深度偽造(Deepfake)技術,將社交媒體上的相片及影片,移花接木成色情內容。FBI 警告這類網絡色情勒索(Sextortion)的案件有所增加,提醒大眾在網上公開相片時要小心。

    儘管是一些普通的日常相片及照片,放到網上後,卻成為了不法分子用作勒索的素材。

    FBI 表示,截止 2023 年 4 月,此類案件有上升趨勢,但未說明收到多少投訴,只指出犯罪集團已有數以千計的同類計劃,受害人更包括不少未成年人士。

    或要求受害人傳送真裸照

    根據受害者表示,不法分子多數會要求受害者支付贖金或其他物品(如禮品卡),否則便向其家人或朋友發布,又或者要求受害人發送真實的裸照或影片作為交換。有不法分子會跳過勒索部分,將用 AI 製作的假影片直接發布到色情網站,對受害人造成滋擾,甚或要求受害者支付費用,換取刪除已上傳的相片及片段。

    專家建議在網上發布相片或影片時,應只向私人朋友分享,至於作為家長,則應該留意子女的網上活動,不時在網絡搜索及檢視子女的資料。

    資料來源:https://www.bleepingcomputer.com/news/security/sextortionists-are-making-ai-nudes-from-your-social-media-images/

    #AI #Deepfake #Sextortion #色情勒索

    相關文章