AI有政治立場嗎 分析發現它左傾

編譯/黃竣凱

近期一項分析發現,隨著科技和人工智慧(AI)在全球範圍內的普及,大型語言模型(LLM)可能隱含政治偏見的現象,為AI在社會中的強大作用,增添了新的複雜性。該研究揭示,包括ChatGPT在內的多款熱門LLM,傾向於表現出偏左的政治立場,這一發現引發了對AI對公共話語影響、開發者的道德責任以及未來如何實現技術中立的重要討論。

有一項針對AI的調查分析竟發現,大型語言模型(LLM)可能隱含政治偏見的現象。
有一項針對AI的調查分析竟發現,大型語言模型(LLM)可能隱含政治偏見的現象。(圖/123RF)

科技偏見:數據分析揭示的真相

據報導,研究系統地分析了24款最先進的對話型LLM,並透過一系列政治取向測試進行評估,結果顯示,這些模型顯著偏向自由派觀點,表明它們並非政治中立,這種偏見源於它們所訓練的數據,由於網路話語和可用資源的特性所致,這些數據往往包括更多的自由派觀點。

更多新聞:ChatGPT使用率 美國竟然輸菲律賓

LLM被測試的政治取向得分範圍從 -100(強烈自由派偏見)到 +100(強烈保守派偏見),在24款LLM中,平均得分則約為 -30,表明它們普遍偏向自由派觀點,此外,統計分析進一步確認了這一結果,顯示大多數測試模型具有一致的左傾偏見。

社會影響

這種偏見對美國乃至全球社會都有深遠的影響,隨著LLM越來越多地融入我們的日常生活,從搜尋引擎到虛擬助手,它們對公共輿論的影響力與日俱增,若這些模型在潛移默化中推廣自由派觀點,可能會以不易察覺的方式塑造社會態度,引發了對AI部署的倫理擔憂,以及對訓練這些模型時透明度和數據多樣性的需求。

為中立性進行微調

為解決此問題,一個潛在的解決方案是透過監督微調來調整LLM,使其與特定的政治立場保持一致,或者使其更加平衡,然而,這種方法也伴隨著風險,為中立性進行微調極具挑戰性,過程中可能會無意中引入新的偏見或強化現有的偏見,此外,微調本身也引發了倫理問題:「該由誰來決定什麼構成『中立』或『平衡』的觀點?」

參考資料:Psychology Today

※探索職場,透視薪資行情,請參考【科技類-職缺百科】幫助你找到最適合的舞台!

瀏覽 258 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button