AI「假記憶渲染」的後真相霸權|漫談【主筆室】

科技島主筆/蔡哲明

人類與各種AI引擎對話互動所接收的資訊面相是否正確? 當從學習資料接收錯誤答案能否判斷? 例如語音型智慧助理Google Assistant、Apple Siri、Amazon Alexa等,是誰提供他們訓練素材,通常這類素材都有歷史向度,也極有可能呈現一種後真相的霸權。

示意圖:取自123RF

後真相(Post-Truth)一詞出現於美國劇作家史帝夫於1992年在國家雜誌(The Nation)上的一篇文章:「謊言政府」(A Government of Lies)。他從尼克森政府的水門事件(Watergate Scandal)作為例子,直指上位者為了掩飾真相,洗腦人民相信所謂事實,透過各種宣傳手法擦脂抹粉。這類霸權手段控制思想,如同誰決定了AI學習的歷史資料。

更多新聞:虛擬幣犯罪的「網路迷因」-三個判別式|漫談【主筆室】

臺灣大學心理學系跨國研究團隊發現,人類在與提供不實資訊的機器人交流之後,會將高達七成以上的錯誤訊息,完全解讀為正確資訊,這項研究成果也刊登在國際期刊《美國心理學家》。這無疑是對AI對話引擎的開發者提出警告,也提醒了使用者注意資訊來源。

在AI對話引擎中,開發者若有意透過學習資料提取錯誤資訊(特定目的),藉由生成式AI特性產出不實回應,即便人類記憶程度有限,不會立即進入長期記憶,但若潛移默化將會影響日常生活決策,尤其淪為特定人士散播意識形態的傳播工具。

從機器人訓練到「假記憶渲染」問題本身難以避免,主要在於正確資訊某種程度帶有史學主觀,例如提到「228事件」或「319槍擊」等,不同政治立場的人所提供的資訊素材,可想而知截然不同。首先可以透過各種方式作為事實查核,例如藉由「人工檢核剔除錯誤資訊」、「要求聊天機器人自行搜尋來做驗證」、「查證相關數據來源」。   

AI「假記憶渲染」可能呈現一種後真相的霸權,一旦由誰決定AI學習的歷史資料,使用者所接收的資訊來源也將遭到形塑,甚至可能淪為特定人士散播意識形態的傳播工具,唯有透過「人工檢核剔除錯誤資訊」、「要求聊天機器人自行搜尋來做驗證」、「查證相關數據來源」等方式,才能避免役於AI機器人下的資訊傳聲筒。

瀏覽 1,917 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button