小心AI滲透政治|專家論點【張瑞雄】
作者:張瑞雄(前北商大校長)
在政治競選活動造假是常見的事,目的或是詆毀對手,或是提捧自己。尤其現在社交媒體發達,假訊息往往在被澄清之前已經被千萬人看過,傷害也已經造成。
今年的選舉,生成式人工智慧(GAI, Generative AI)讓造假變得更容易和更逼真。上個月,根據民意調查數據目前排名第二的共和黨總統候選人,佛羅里達州州長德桑蒂斯的支持者在一則廣告中使用GAI生成的聲音模仿川普,使其看起來像是前總統正在攻擊自己的共和黨人。
當然,GAI的生成是基於川普在「真相社交」社交媒體網站上的真實文章,但使用前總統的聲音和他自己的詞稿比播音員在宣傳影片中講話更有效或更像真的。
在德桑蒂斯的另一則廣告中,川普總統擁抱福奇博士,這也是GAI生成的圖像。福奇是川普冠狀病毒特別工作組的前成員,眾所周知,福奇在新冠肺炎大流行初期成為一個爭議人物,德桑蒂斯競選團隊顯然試圖將川普與福奇聯繫起來以獲取政治利益。
僅僅因為競選活動使用了GAI,並不意味著政治正在將其武器化。GAI在政治活動中的使用主要有四種,其中只有第一種在性質上是完全負面的。
第一是深度造假和偽造:這是最具潛在破壞性的。任何時候,任何虛假信息都具有破壞性,屬於骯髒伎倆的範疇。現在更令人不安的是,GAI使更多人有可能生成虛假圖像,因此我們可能會更頻繁地看到這種情況。
第二是幫助撰寫廣告和信件:GAI能幫助競選人員撰寫廣告和信件,雖然內容可能包含虛假或歪曲事實,但這並不是什麼新鮮事,早在GAI出現之前,競選工作人員就有在書面文件中歪曲事實。
第三是提高大規模宣傳的速度和個人化內容:最有效的競選活動通常擁有關於潛在選民(尤其是潛在捐助者)的細節數據庫,GAI可以針對每個潛在支持者進行個人化接觸,且可大量進行。
第四是執行趨勢和情緒分析以尋找契機:GAI可以閱讀網路上大量的評論文章和讀者反映,並分析出網民對於某個廣告或文宣的意見,並據以作下次活動的參考。且這些基本上都可以自動化且速度快,不像傳統民調那麼費時和費錢。
可以預見GAI在愈來愈頻繁在選舉中被利用,這些利用深度造假技術製作的與音和影片,透過社交媒體傳播,會為想要了解真相的選民創造一個非常困難的數位環境。
政府應該趕快制訂GAI用於政治或選舉活動的規範,至少應該強制標示宣傳資料是否是用AI所創造的,還有是否可以用GAI來產生真人的影像或聲音,或者只能用來產生文宣內容,這些都是要人民持續關注。
雖然競選活動的骯髒伎倆一直存在,但GAI讓每個人都可以使用使這些骯髒伎倆,所以未來我們一定會看到更多這樣的東西,選民必須保持警覺性,不要輕易受騙。
瀏覽 1,095 次