不再是神秘黑盒子  新突破讓AI「可解釋」

編譯/莊閔棻

人工智(AI)的神秘面紗似乎已經被揭開。瑞典優密歐大學(Umeå University)電腦科學系的 Kary Främling 教授,就開發了可解釋的AI突破性模型,有望揭開AI「黑盒子」本質的神秘面紗,徹底改變各部門對AI決策的理解和透明度。

瑞典優密歐大學電腦科學系的 Kary Främling 教授,開發了可解釋的AI突破性模型。圖取自techxplore

AI不透明的問題

據報導,Främling 的「上下文重要性和效用方法」(CIU)方法提供了一種解決方案,為AI建議和決策提供全面解釋,使AI更容易被專家和公眾接受並對其負責。儘管AI和機器學習在政府、醫療保健、商業和工業環境中已經無所不在,但其決策過程的不透明,常常引發人們對AI問責和理解的擔憂。

更多新聞:聯合國首部AI決議不具強制性   開創監管先例受重視

CIU 方法

Främling 的 CIU 方法則提供了一種解決方案,為AI建議和決策提供全面的解釋。CIU 方法可以詳細分析影響AI輸出的因素,讓用戶能夠了解其決策背後的基本原理,並識別驅動這些決策的具體變數。Främling 教授表示,「對於確保AI系統的透明度和信任來說,可解釋的AI非常重要,特別是當它們越來越融入我們的日常生活。」

CIU 的開發靈感

Främling 開發 CIU 方法的靈感源自於實際應用,如優化工業廢棄物儲存位置。Främling 教授指出,「在選擇廢棄物儲存的最佳位置等情況下,我們必須為AI驅動的決策提供清晰合理的解釋,而CIU 方法則透過分解輸入變數,並評估它們對最終結果的影響促進這一點。」

CIU 的擴展

預計CIU 方法將擴展到各個領域,包括醫療保健、金融和治理,透過使用戶能夠以用戶友好的方式分析和解釋AI輸出,CIU 方法將促進AI驅動的決策過程中的問責性、公平性和包容性,縮小AI能力和人類理解之間差距,為更加透明和值得信賴的AI生態系統鋪平道路。

參考資料:techxplore

瀏覽 1,990 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button