AI辨識惹爭議 人工智能或存偏見
AI一詞早在1950年代便已出現,近年來,隨著資料量的增加、先進的演算法和運算能力與儲存技術的進步,使AI技術的發展風靡全球,廣泛運用於醫療、零售、批發等行業。
然而,由於AI訓練過程需要吸收大量數據,再透過這些資料進行自我學習,一但提供的資料不夠全面,或工程師沒有想方設法避免歧視,AI推導出的結果便很容易帶有偏見。
例如微軟所推出的AI臉部辨識技術,目前多被運用於企業的面試之中,不過由於此項技術大多是以白人男性的資料為基礎開發,遇上不同族裔、性別的求職者,就可能出現判斷偏差。
微軟也因此展開調查,在近日發表了一份長達27頁的報告《微軟負責任AI標準第二版》,揭露對AI偏見問題的調查結果,並宣布暫停銷售能夠預測情緒、性別或年齡的臉部辨識技術,避免造成歧視、人們不公平地失去機會等潛在問題。
無獨有偶,清華大學資工系助理教授郭柏志與麻省理工學院、哈佛大學跨國研究發現,當採用先進的AI深度學習演算法來判讀X光片及電腦斷層掃描時,電腦竟可以從這些醫學影像分辨出患者是黑人、白人或亞洲人,並影響判斷的準確率。
郭柏志說,我們原來以為人類才會歧視,電腦應該是最公平的,但沒想到電腦也默默地提取了人類沒教它的資訊,包括人種及性別等,「如何去除歧視,是我們下一階段要努力的目標。」(記者/白水曉)
圖片來源:123RF
瀏覽 1,090 次