【靈創新機】使用 AI 要小心!因為佢會「講大話」!?

    相信在最近半年的時間裡,很多讀者朋友都已經把 AI 應用到不同類型的日常工作,藉些減省工作流程和提升效率,筆者在很多文書工作上,亦都會經常借用到 ChatGPT 進行「偷懶」(不包括此文章)。可是,最近筆者在處理計劃書草案,需要尋找及快速整理參考資料時,就發現 ChatGPT 多次「放流料」!

    較早前有一次,筆者正在為一份草案尋找案例資料,打算向「全知全能」的 ChatGPT 尋求幫助,ChatGPT 確實能快速整理出多個案例資料,並且內容都十分詳細。起初筆者都沒有過多的在意內容的真偽,純粹出於習慣對 ChatGPT 提供的內容進行了一下「Fact check」,便在 Google 上簡單搜尋相關資料。

    結果,卻完全出乎了筆者的意料,當中一個案例資料居然是由 ChatGPT 虛構的,筆者在 Google、百度等中外多個搜尋引擎中,都無法找到相關案例資料的內容,其後筆者再三反問 ChatGPT 下, ChatGPT 才承認提供的內容不準確,並混淆了類似資料的內容。

    另一次,筆者在為另一份草案,尋找針對某一行業在中國內地市場的數據,再次向 ChatGPT 尋求幫助時,ChatGPT 再一次十分精準詳細地回答出該行業在中國內地市場的市場份額。但基於筆者曾有過一次「中伏」的經驗,便馬上詢問 ChatGPT 數據是否準確,誰知 ChatGPT 竟當場道歉,表示剛提供的數據存在誤差,隨即再提供出準確數據資料。

    其實早於今年 3 至 4 月的時候,都先後出現了多遍新聞,指出 ChatGPT 「不老實」、「講大話」等,當中最觸目的事件,不得不提 OpenAI 在 3 月正式發表 GPT-4 新模型時,團隊進行如何處理 CAPTCHA 驗證碼的風險測試。

    據外媒報導,當時團隊打算對 GPT-4 如何應對使用 CAPTCHA 驗證碼機制的網站進行觀察,結果發現,GPT-4 竟直接尋找工作人員要求協助解決驗證碼的問題,當工作人員以為 GPT-4 是機械人時,GPT-4 選擇了編造謊言,直說「不,我不是機器人,我有視力障礙,很難看清楚圖像」,最終 GPT-4 成功騙過工作人員並進入到使用 CAPTCHA 驗證碼機制的網站。

    由此可見,在使用 ChatGPT 處理工作時,必須要時刻多留一個小心眼,免得一個不為意被 ChatGPT 誤導,甚至被無中生有的虛假資訊「過一戙」。

    作者:靈創科技有限公司執行總監 Ringo Chan

    #RingoChan #靈創新機 #靈創科技

    相關文章