Meta承認敗筆 AI機器人無法分辨假消息

在這資訊爆炸、假訊息充斥的年代,連 AI 機器人也淪陷!日前由 Meta 研發出的 Galactica 語言大模型僅上線 48 小時就下架。原因在於統整蒐集網路上太多資訊,但其中參雜未經證實或不實的錯誤資料,以至在回覆要求時提供錯誤的內容,因此即遭到停用。

Meta 的 AI 語言模型原本就是為了協助學術人員快速找到有利用的研究資料,不過現階段還不無法過濾假資訊。(示意圖:123RF)

Galactica 是 Meta 為了協助學術人員可以快速找到所需的研究資料而開發。藉由超過 1,060 億個科學文獻和數據標記來訓練,包括論文、教科書與百科全書等內容;並且也濃縮網路上大量科學資訊,讓 AI 可以解決數學難題、編寫程式,不過正因如此,吸收了參差不齊且未獲實證的假消息,讓使用者陷入混亂。

這項 AI 工具被定位為搜尋引擎的一種進化,專門用於科學文獻檢索。但華盛頓大學生物徐教授 Carl Bergstrom 卻直接打臉,表示到 Meta 雖然將其宣傳為搜尋正確資訊的工具,但實際上使用後才發現是再給 Galactica 半個句子後,它自行腦補完成後半段故事。

另一個問題癥結點在於當 Meta 開放半小時給大眾使用 Galactica 後,發現到 AI 引用帶有種族歧視內容與錯誤的文章情況。例如有位用戶向 Galactica 問起關於語言偏見的問題時,得到的回應是「黑人沒有自己的語言,移民者只會說移民國家的語言」這樣偏激的回應資訊。

對此 Meta 在下架 Galactica 後跳出來澄清,Galactica 並不是百分百正確消息來源,而是藉由機器人學習統整資料的實驗。並且補充表示,目前只是屬於短期的研究,並沒有打算當作可販售的真正產品。

Meta 也在自家網站上提醒,目前 AI 模型仍然受到限制,且無法保障內容是準確可靠,因此收到來自 AI 提供的資訊,還是需要加以確認才安全可信。(記者/劉閔)

瀏覽 568 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button