假消息越滾越大!Google和微軟聊天機器人互相引用錯誤訊息

編譯/莊閔棻

人工智慧技術的快速發展,加上網路的到訊息的便捷,為錯誤資訊創造了一個可以迅速、輕鬆傳播的環境。而現在,Google和微軟的聊天機器人互相引用彼此的錯誤可能會加劇這個情況。

根據《The Verge》的報導,我們可能正在陷入一場人工智慧錯誤訊息傳播的大規模遊戲中。基於聊天機器人無法衡量可靠的新聞來源,常常誤讀內容,並錯誤的給出回覆,這讓虛假資訊很容易在網路上放大和扭曲。而現在,更嚴重的是,隨著聊天機器人越來越多,現在,他們甚至也在互相引用對方的錯誤。

我們可能正在陷入一場人工智慧錯誤訊息傳播的大規模遊戲中。基於聊天機器人無法衡量可靠的新聞來源,常常誤讀內容,並錯誤的給出回覆,這讓虛假資訊很容易在網路上放大和扭曲。示意圖:RF123

雖然說,聊天機器人都有引用來源的能力。但事實上,它們無法判斷哪些是可靠的來源,而哪些不是。記者舉例說,當微軟的Bing聊天機器人被問及,Google的Bard是否已經被關閉時,它有時會回答說是的,並引用一篇新聞文章作為證據。然而,該文章卻是一則推特內容,有關Bard自己回答說,Bard已經被關閉的錯誤內容。也就是說,Bing引用了Bard自己的錯誤。

而這也有可能會反過來發生。簡單來說,就是當聊天機器人給出錯誤的答案,這些答案有可能會被傳播到網路上,接著,另一個聊天機器人就有可能去引用這些錯誤的答案,造成雪球越滾越大,一發不可收拾。

雖然這一切聽起來很可笑,但卻有潛在的嚴重後果。鑑於人工智慧語言模型無法可靠地分清事實和虛構,還會常常產生「幻覺」,因此聊天機器人有可能透過與用戶的互動,放大虛假聲明和各種陰謀論來傳播錯誤資訊。也就是說,如果聊天機器人對用戶的查詢提供了錯誤的答案,用戶可能會與他人分享該資訊,從而進一步傳播錯誤的資訊。

雖然這些公司可以在他們的聊天機器人上貼上盡可能多的免責聲明,告訴我們它們只是「實驗」、「助手」,絕對不是「搜尋引擎」,但這是一個脆弱的防禦。我們都知道大家會如何使用這些系統,而到現在,我們也已經看到它們是如何傳播錯誤訊息的,無論是編造從未寫過的新故事還是告訴人們不存在的事情。

參考資料:The Verge

瀏覽 9,974 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button