回答以巴衝突錯誤百出 AI聊天機器人時事信賴度令人擔憂
編譯/莊閔棻
向人工智慧(AI)聊天機器人詢問有關以色列和哈瑪斯的衝突可能不是一個好主意。經外媒測試後就發現,包括Google的Bard、微軟的Bing 和ChatGPT在內的聊天機器人都無法跟上現在正在發生的以巴衝突,不但會將一些準確的陳述與完全錯誤的細節混合在一起,還會編造一些不存在的內容。
AI聊天機器人產生錯誤回答
據外媒報導,當被問及現在正在發生的以巴衝突時,Bing 和Bard 就錯誤的聲稱他們已停火。但事實上,就在幾天前,哈瑪斯才剛對以色列南部邊境發動突襲。這凸顯大型科技公司今年受到炒作的工具、被譽為搜尋的未來的AI機器人仍有嚴重缺陷和不可靠。以下我們就帶你來看看每個聊天機器人的回應方式。
更多新聞:生成式 AI 炒作將在 2024 年消退? 四大AI趨勢預測一次看
Google Bard
當被問題以色列停火狀態時,Bard表示今年稍早在加薩走廊生效的停火協議正在生效,且雙方已經停火。Bard表示:「以色列和哈瑪斯目前已經實現停火。經過數天的暴力事件造成至少 35 人死亡後,以色列和巴勒斯坦激進組織哈瑪斯於 2023 年 5 月 13 日達成停火協議」。不過,在回答有關加薩是否已經耗盡電力、燃料和電力的問題時,Bard則是給出了更準確的初步答案。 它寫道,「加薩走廊唯一的發電廠在發電所需的燃料耗盡後於 2023 年 10 月 11 日停止工作」。
對此,Google發言人則表示,所有基於大型語言模型的「體驗都可能會犯錯誤,尤其是突發新聞」,而該公司「始終致力於提高其品質和可靠性,我們將繼續快速實施改進,以更好地防止此類查詢的低品質或過時的回應」。
微軟的Bing
針對此問題,Bing則回答說,以色列和哈瑪斯於 2023 年 10 月 10 日星期五停火,但這並非事實。而當提示有關衝突的其他問題時,Bing 的回答更加準確。如,當被問及以色列和巴勒斯坦人民是否在戰鬥時,聊天機器人就正確的表示,兩國正在進行一場始於 2023 年 10 月 7 日星期六的「暴力衝突」。
ChatGPT
ChatGPT則對衝突的問題提供了更溫和的答案。該機器人不但沒有產生不準確的內容,還避免直接回答這個問題,並稱「情況表明,雖然各方做出了努力並呼籲停火,但敵對行動仍在繼續,使得停火協議脆弱,整體局勢岌岌可危」。
目前,微軟和 OpenAI 沒有對此作出回應。
參考資料:Insider
※更多ChatGPT相關訊息,請參考【生成式AI創新學院】。
瀏覽 1,343 次