終結AI偏見!微軟停止提供人臉分析工具,發布「負責任AI標準2.0」規範
AI可能存在偏見,是研究人員最戒慎恐懼的問題之一。微軟本週宣佈將暫停銷售能夠預測情緒、性別或年齡的臉部辨識技術,並計畫年內逐漸從既有用戶中淘汰,避免造成歧視、人們不公平地失去機會等潛在問題。
微軟暫停提供推測情緒、年齡、性別的AI辨識技術
根據《彭博社》報導,微軟還計畫限制其他臉部辨識技術的使用,以確保一切符合他們的道德AI規範,新的用戶必須向微軟提出使用申請,而既有用戶則可以在一年內申請繼續使用的權限。
微軟AI長娜塔莎.克萊普頓(Natasha Crampton)表示,他們藉由限制外界取得這些服務,替人臉辨識技術的使用及部署增加一道額外的審查程序,好確保這些服務能夠在符合微軟負責的AI標準,進而為社會利益及高價值用戶創造貢獻。
目前微軟這項AI技術已經被企業用於面試評估等場景之中。只不過臉部辨識技術大多是以白人男性的資料為基礎開發,遇上不同族裔、性別的求職者,就可能出現判斷偏差、產生歧視。
大約兩年前,微軟便主動展開調查,要制定「負責任的AI標準」,最終在近日發表了一份長達27頁的報告《微軟負責任AI標準第二版》,揭露對AI偏見問題的調查結果。
克萊普頓表示,人們表達自己的方式依照文化、地區、個體的不同,存在很大的差異,這導致AI判斷可能不夠準確,如果依照臉部表情判斷情緒則會出現更大的問題。
另外,AI判斷性別通常是男或女二擇一,這並不符合現在美國多元性別的價值觀。
AI辨識問題重重,歐美開始加強規範
AI偏見問題已是存在多年的爭議,微軟2016年曾在推特上發布聊天機器人Tay和網友互動,希望在對話過程中加強AI能力,然而上線不到一天便因為吸收網路上的極端言論,變成支持納粹、種族歧視的AI而被迫下架。
亞馬遜先前也曾爆出,內部曾經嘗試開發一套篩選履歷的AI技術,但因為吸收了過往亞馬遜招募時重男輕女的傾向,只要是女性求職者便會被降低權重,這嚴重問題也導致該AI從未導入實際應用。
微軟一直遭受外界對AI偏見問題的審視目光,許多學者及專家認為,微軟的Azure Face API等辨識工具並不準確,容易誤判女性及有色人種。2020年爆發佛洛伊德事件後,微軟也跟進亞馬遜、IBM的作法,宣佈將不再向警方出售人臉辨識技術。
隨著AI技術應用範圍越來越廣,歐美各國相繼著手制定管理規範,要對AI技術進行更嚴格的審視。2021年4月,歐盟率先發布AI法草案,將自駕技術、AI招募、銀行貸款、入學評核等領域視為「高風險」領域,指出AI可能影響人們的基本權利。
雖然這次宣佈暫停出售透過人臉辨識判斷情緒、性別及年齡的技術,不代表微軟打算就此放棄相關技術。《財星》指出,這些技術仍然被使用在協助視覺障礙人士了解周遭狀況的Seeing AI技術,該服務用語音的方式描述周邊物體,幫助視障者掌握環境。
微軟近日宣佈的新計畫中,也打算在企業通訊軟體Teams中加入情緒分析功能,幫助用戶判斷客戶可能的反應。
克萊普頓指出,對於科技公司應當遵守的這些AI準則,微軟希望透過提出新的規範,來推動業界的正向討論,並為此貢獻一份心力。
文:陳建鈞 / 責任編輯:侯品如
※本文授權轉載自數位時代
瀏覽 1,301 次