Google聊天機器人Gemini的政治正確|快評【主筆室】
科技島主筆/蔡哲明
搜尋引擎龍頭谷歌(Google)正式推出AI聊天機器人Gemini引發話題,為了鞏固科技領域的霸主地位,能與OpenAI ChatGPT互別苗頭,卻被用戶發現錯誤百出,甚至充滿政治正確。
「政治正確」源自美國流行詞彙,雖與政治並無直接關係,是指階層之間的彼此尊重,爾後成為各領域中對偏見的批判詞彙。Gemini處理種族問題發生爭議,對於用戶要求產生謬誤,無法按照史實描繪形象,因而顯示「政治正確」下的錯誤解答。
用戶要求Gemini顯示華人或黑人夫婦圖像都能完成指令,但當命令生成白人夫婦卻遭拒絕,Gemini表示「無法根據特定的種族和膚色生成人物圖像」,說是為了避免持續傳播有害的刻板印象,卻對其他種族大開方便之門,這場爭議損害公司聲譽,導致谷歌飽受「政治正確」的批評。
政治正確產生不準確的歷史圖片,發現Gemini有意識地避開生成白人資訊,例如生成「二戰德軍」圖片出現了由黑人、亞裔女性穿著德軍軍裝的照片 ,顯然已與歷史脈絡嚴重不符,使用者在請該AI模型描繪歷史人物圖片時,Gemini更被認為是在消除「種族階層」與「性別歧視」的歷史。
Gemini產生不符歷史脈絡的生成圖片,Google可能背後替使用者的prompt添加「種族多樣性」指令,導致像是「醫師肖像」的prompt變成「原住民醫師肖像」,Google隨機選擇附加術語,反而讓「多樣性」取代了「真實性」。如今Google暫緩 Gemini 生成人物功能,避免AI助長「矯枉過正」的社會問題。
Google聊天機器人Gemini充滿政治正確在於有限度的多樣化,嚴重促成錯誤解答,違反歷史飽受批評,在消除「種族階層」與「性別歧視」下,反而助長另一AI政治正確。
瀏覽 4,140 次