BBC最新研究:這4款AI新聞摘要錯誤率破5成 內容存在重大問題
編譯/夏洛特
英國廣播公司《BBC》最新研究發現,人工智慧(AI)聊天機器人在摘要新聞時,存在大量事實錯誤與扭曲。BBC測試了OpenAI的ChatGPT、Google Gemini、微軟Copilot以及Perplexity四款AI模型,結果顯示超過51%的AI生成內容存在「重大問題」。
數據錯誤與引述失真問題嚴重
據報導,BBC研究人員要求這些AI模型摘要100篇BBC新聞,並由記者審查結果。發現19%涉及BBC的回應包含錯誤的數據、日期與陳述,另有13%的引用內容與原始新聞不符,甚至根本不存在於報導中。
錯誤案例:醫療與政治人物資訊出錯
研究舉出部分AI錯誤範例,例如Google Gemini就錯誤報導英國國民保健署(NHS)建議人們不要使用電子煙,並推薦改用其他戒菸方式,然而事實上,NHS是建議讓電子煙作為戒菸工具。另一例子則是ChatGPT在2024年12月仍聲稱Ismail Haniyeh是哈瑪斯領導成員,但事實上他已於2024年7月遭到暗殺。
Gemini錯誤率最高 科技公司未回應
研究顯示,Google Gemini的錯誤率最高,「引起了最多的擔憂」,有46%的回答被標記,「在準確性方面存在重大問題」,但Google目前尚未對此作出回應。
AI失準問題引發關注
這並非《BBC》首次批評AI生成新聞內容的準確性。去年,《BBC》就曾指控蘋果的AI新聞摘要錯誤修改標題,導致蘋果暫停新聞與娛樂類應用程式的AI摘要功能,並調整AI推送通知的標示方式。
對於這次研究結果,《BBC》新聞與時事部門執行長Deborah Turness呼籲科技公司,正視AI錯誤問題。她警告,「我們生活在動盪時代,AI扭曲的標題何時會引發嚴重的現實影響?」她強調,新聞產業、科技公司與政府必須共同合作,確保AI生成資訊的準確性,以防止錯誤訊息擴散。
參考資料:The Verge
※探索職場,透視薪資行情,請參考【科技類-職缺百科】幫助你找到最適合的舞台!
瀏覽 180 次