AI生成的政治資訊與民主的挑戰|專家論點【張瑞雄】
作者:張瑞雄 台北商業大學前校長/叡揚資訊顧問
隨著人工智慧(AI)技術的發展,其在政治資訊環境中的角色愈加引人關注。從2024年美國總統大選到其他國家的選舉,AI生成的「深偽」(deepfake)技術引起了社會對假資訊擴散的廣泛憂慮。但這些技術雖然能創造高度擬真的假影音,卻不是選舉中假資訊問題的唯一元兇。
首先,深偽技術之所以引起如此大的社會關注,是因其創造逼真假內容的潛力。在2024年美國大選中,一系列針對副總統賀錦麗(Kamala Harris)和其他候選人的深偽影片試圖影響選民對政治領袖的看法,不過根據對78個選舉相關深偽案例的分析,真正具欺騙意圖的案例僅佔一半。許多深偽內容,例如候選人使用AI改善選舉宣傳材料,並不具備明顯的誤導性,甚至在某些情境下有助於促進資訊透明,例如記者使用AI化身規避政府打壓。
但AI生成內容的潛在危害不可低估,它增強了所謂的「說謊者紅利」(liar’s dividend),使得政客能輕易將真實但不利的內容描述為AI生成的假內容,進一步降低了公眾對新聞媒體的信任。
值得注意的是,並非所有的假資訊都需依賴AI技術。「廉價偽造」仍然是更為常見的手段,例如透過簡單的圖像編輯或聲音處理即可達成類似的效果。例如在一段演講中巧妙地刪去關鍵詞,以呈現出截然不同的含義。在美國,類似手法的案例出現頻率是AI深偽的七倍。
因此AI的低成本特性雖然降低了假資訊的創作門檻,但並未改變假資訊的分發模式或其在選舉中的基本影響力。反而需求端的驅動力量,例如受眾對迎合其既定世界觀的資訊的渴求,才是真正推動假資訊擴散的根本原因。
研究顯示,假資訊的主要受眾往往是那些已經對其內容傾向接受的群體。這些人對符合自身世界觀的內容持較低的懷疑態度,甚至會主動擴散明知為假的信息,這使得假資訊的影響力在特定族群內顯得尤為顯著。
此外,社交媒體的演算法進一步強化了「回音室效應」(echo chamber),使得假資訊能在特定群體內迅速傳播。這表示假資訊的挑戰不僅是技術問題,而是與更廣泛的政治兩極化、媒體信任危機,以及社交媒體的商業模式息息相關。
要改善假資訊氾濫,僅僅聚焦於技術管控是不夠的。過去對技術的恐慌,例如針對生成式AI可能引發的假資訊浪潮的擔憂,已被證明過於悲觀。相反地,我們需要認識到結構性挑戰,例如新聞業的衰退、選民教育的不足,以及選舉規範的薄弱,才是假資訊問題的核心所在。
AI生成的政治資訊無疑為民主制度帶來了前所未有的挑戰,但簡化地將假資訊問題歸因於AI技術,無異於忽視其背後更深層的社會與政治問題。正如歷史所示,假資訊問題的解決需要結構性變革,而非寄望於某種技術的限制。
未來我們應超越對技術的恐慌,轉而關注如何塑造一個更具包容性與韌性的資訊環境,從而保障民主的核心價值。畢竟技術不應是破壞民主的工具,而應成為其堅實的後盾。
瀏覽 50 次