AI查核事實成趨勢 專家警告:不是可靠資訊來源

印度與巴基斯坦上月爆發4天衝突,各種錯誤資訊爆增,社群媒體用戶求助人工智慧(AI)聊天機器人來驗證,卻陷入更多謬誤。這凸顯AI作為事實查核工具有多不可靠。

法新社報導,隨著科技平台刪減真人事實查核員,用戶愈來愈常仰賴AI聊天機器人來搜尋可信資訊,例如xAI的Grok、OpenAI的ChatGPT和谷歌(Google)的Gemini。

科技大亨馬斯克(Elon Musk)的X平台內建AI助理Grok,用戶經常就某個資訊的真偽向Grok提問,反映出社群媒體用戶立即分辨虛實的趨勢日漸成長。

但答覆本身往往充斥錯誤資訊。

Grok錯誤認定一段蘇丹首都喀土穆(Khartoum)機場的舊影片,是近期印巴衝突中針對巴基斯坦努爾汗(Nur Khan)空軍基地的飛彈攻擊。由於Grok在沒有關聯的回答中提到極右翼陰謀論的「白人種族滅絕」一說,正再次受到詳查。

另一段呈現尼泊爾一棟建築物起火的不相干影片,被錯認為「可能」顯示巴基斯坦軍方回應印度攻擊。

假消息監管機構「新聞守門人」(NewsGuard)研究員沙迪吉(McKenzie Sadeghi)告訴法新社:「在X和其他大型科技公司減少投資真人事實查核員的同時,(用戶)愈來愈仰賴Grok查核事實。」

她警告:「我們的研究一再發現,AI聊天機器人不是可靠的新聞和資訊來源,尤其是突發新聞。」

「新聞守門人」研究發現,10款主要聊天機器人容易重複錯誤資訊,包括俄羅斯的假消息敘事,以及與近期澳洲大選有關的錯誤或誤導性說法。

哥倫比亞大學(Columbia University)陶氏數位新聞中心(Tow Center for Digital Journalism)近期研究8款AI搜尋工具後發現,聊天機器人「通常不擅長拒絕回答自己無法準確回覆的問題,而是提供不正確或臆測的答案」。

法新社在烏拉圭的事實查核員拿一張AI生成的女子照片向Gemini提問,Gemini不僅證實照片真實無誤,還捏造這名女子身分的細節,以及可能的拍攝地點。

長期以來,在極為分化的政治氛圍中,真人事實查核一直是極具爭議的議題,尤其在美國,保守派倡議人士堅稱這種查核方式打壓言論自由,專門審查右翼言論;專業查核員則大力否認這類指控。

AI聊天機器人的品質和準確性,依訓練方式和程式設計而異,因此令人擔心這些機器人提供的答案可能受到政治影響或控制。

國際事實查核聯盟(International Fact-Checking Network)負責人霍蘭(Angie Holan)說:「我們已看到,在真人程式設計師具體變更指示後,AI助理會捏造結果,或提供有偏見的答案…我特別關切的是,Grok在收到提供事先授權答案的指示後,不當處理有關非常敏感事務的要求。
Google新聞-PChome Online新聞


最新科技新聞
人氣科技新聞
行動版 電腦版