不再是神秘黑盒子 新突破讓AI「可解釋」
編譯/莊閔棻
人工智慧(AI)的神秘面紗似乎已經被揭開。瑞典優密歐大學(Umeå University)電腦科學系的 Kary Främling 教授,就開發了可解釋的AI突破性模型,有望揭開AI「黑盒子」本質的神秘面紗,徹底改變各部門對AI決策的理解和透明度。
AI不透明的問題
據報導,Främling 的「上下文重要性和效用方法」(CIU)方法提供了一種解決方案,為AI建議和決策提供全面解釋,使AI更容易被專家和公眾接受並對其負責。儘管AI和機器學習在政府、醫療保健、商業和工業環境中已經無所不在,但其決策過程的不透明,常常引發人們對AI問責和理解的擔憂。
CIU 方法
Främling 的 CIU 方法則提供了一種解決方案,為AI建議和決策提供全面的解釋。CIU 方法可以詳細分析影響AI輸出的因素,讓用戶能夠了解其決策背後的基本原理,並識別驅動這些決策的具體變數。Främling 教授表示,「對於確保AI系統的透明度和信任來說,可解釋的AI非常重要,特別是當它們越來越融入我們的日常生活。」
CIU 的開發靈感
Främling 開發 CIU 方法的靈感源自於實際應用,如優化工業廢棄物儲存位置。Främling 教授指出,「在選擇廢棄物儲存的最佳位置等情況下,我們必須為AI驅動的決策提供清晰合理的解釋,而CIU 方法則透過分解輸入變數,並評估它們對最終結果的影響促進這一點。」
CIU 的擴展
預計CIU 方法將擴展到各個領域,包括醫療保健、金融和治理,透過使用戶能夠以用戶友好的方式分析和解釋AI輸出,CIU 方法將促進AI驅動的決策過程中的問責性、公平性和包容性,縮小AI能力和人類理解之間差距,為更加透明和值得信賴的AI生態系統鋪平道路。
參考資料:techxplore
瀏覽 1,990 次