【大選年】OpenAI打擊假消息假圖像政策 阻惡意利用AI散播不實選舉訊息

    OpenAI 剛發表一個新計劃,不過這次並非有什麼新的服務,而是要強化公司旗下產品如 ChatGPT、DALL-E 的資訊準確性,因為今年全球共有 50 多個國家舉行總統大選,此舉有助打擊不法分子利用生成式 AI 去製作可用於誤導或阻止選民投票的訊息。實際上如何操作?一齊睇睇。

    禁止製作冒充候選人的聊天機械人

    2016 年美國總統大選,特朗普的勝出,令社會大眾開始察覺社交平台訊息的影響力,例如 Facebook 在事後就指控俄羅斯方面利用其平台,發表了 8 萬多條有影響投票意向的訊息,而且部分內容更屬不實資訊,因而每到大選之年,各界也會關注社交平台的影響力。來到今年,最關注的問題便是生成式 AI,而YouTube及 Meta 兩大平台,已表示會實施人工智能標籤政策,讓用家更容易發現圖像或影片的真實性,不過成效仍有待觀察。

    作為生成式 AI 的龍頭大哥,OpenAI 這次的行動,便旨在阻止不法分子濫用 ChatGPT、DALL-E。發言人表示,希望通過提升準確的投票資訊、執行有分寸的政策及提高使用透明度,加強 AI 工具的安全性。在執行方面,OpenAI 將會禁止用家使用其技術,去製作一些冒充真實候選人或政府的聊天機器人,以及與 National Association of Secretaries of State 合作,將用家對選舉資訊的查詢,全部引導至一個無黨派網站 CanIVote.org,讓選民能夠從網站獲取正確的投票資訊。另外,在生成式圖像 DALL-E 方面,公司亦會在由人工智能生成的圖像上加添數碼水印,永久標注圖像來源,讓選民更易知道圖像是否經過 DALL-E 修改。

    實際執行效果成疑

    對於 OpenAI 的自發性舉動,美國政界自然表示歡迎,例如 Brennan Center for Justice 民主項目顧問就讚賞有積極打假作用,但就懷疑實際執行時,ChatGPT 如何能全面過濾所有誤導訊息。再者,不少人指出 OpenAI 只是其中一間生成式 AI 科技公司,除非其他同業也採用類似的指導方針,否則依然無法阻止不法分子利用 AI 去誤導選民。

    比較有效的做法是立法監管,不過即使有三分之一的美國州份已通過或提出打擊深度造假的法案,但現時聯邦法院對相關項目仍然停滯不前。反觀歐洲,歐盟在一月初終於達成立法監管人工智能的臨時協議,當中便有監管聊天機械人等生成式 AI 的條文,例如要求高風險 AI 工具在上市前需進行模型評估、對抗性測試、報告嚴重事件等,並強調透明度和技術文件的編制。如有違規,罰款將從 750 萬歐元或營業額的 1.5% 起跳,但如何平衡生成式 AI 的發展與限制,相信將會是政府及業界要面對的挑戰。

    資料來源:https://www.securityweek.com/heres-how-chatgpt-maker-openai-plans-to-deter-election-misinformation-in-2024/

    相關文章:【2024年預測】Fortinet:生成式AI及CaaS興起 攻擊更輕易

    #AI #ChatGPT #CyberSecurity #DALLE #OpenAI #生成式AI #網絡安全 #選舉

    相關文章