AI風險了解嚴重不足 MIT出手解決

編譯/夏洛特

為了為人工智慧(AI)監管和風險評估,提供全面的參考依據,麻省理工學院(MIT)研究人員,開發了一個名為「AI風險資料庫」的項目,收錄了700多項AI風險,並按照因果因素、領域和子領域進行分類,為政策制定者、行業從業者和學術界提供了寶貴的研究資源。

為了為人工智慧監管和風險評估提供參考依據,麻省理工學院研究人員開發了一個名為「AI風險資料庫」的項目。
為了為人工智慧監管和風險評估提供參考依據,麻省理工學院研究人員開發了一個名為「AI風險資料庫」的項目。(圖/123RF)

現有風險框架存在重大遺漏

據報導,MIT研究員Peter Slattery表示,開發這一資料庫的初衷,是為了理解AI安全研究中的重疊和差異,並指出,現有的風險框架,往往只涵蓋了資料庫中識別出的風險的一小部分,可能對AI的發展、使用和政策制定產生重大影響,儘管人們可能認為,大家對AI風險已達成共識,但MIT的研究結果卻表明並非如此。

更多新聞:2024 年必知的10 大 ChatGPT 替代方案

現有框架對AI風險的關注度不均

MIT研究團隊發現,現有的風險評估框架,對不同類型的風險關注度不同,平均AI危險框架,只提到了其確定的 23 個風險子域中的 34%,近四分之一的框架覆蓋率,甚至還不到 20%,且沒有任何文件或概述,提及所有 23 個風險子領域,即使是最全面的,也僅涵蓋了 70%,其中更是只有44% 涵蓋了假訊息問題,同時,雖然有超過50% 討論了AI可能導致的歧視和失實陳述,但僅有12%提到了「資訊生態系統污染」問題,顯示出現有了解的不足。

AI風險資料庫助力提高監管效率

Slattery強調,這個資料庫可以為研究人員和政策制定者,提供一個基礎,幫助他們在進行具體工作時節省時間、提高監管效率,MIT實驗室負責人Neil Thompson表示,研究團隊計畫在下一階段研究中,使用這個資料庫來評估不同AI風險的應對情況,識別組織反應中的不足之處。

風險資料庫可能無法完全解決監管挑戰

然而,專家也指出,僅僅達成對AI風險的共識可能不足以推動有效的監管,許多AI系統的安全評估仍存在顯著局限性,單靠風險資料庫可能無法完全解決這一問題,儘管如此,MIT研究團隊的努力,無疑為全球AI監管提供了重要參考,這個全面的AI風險資料庫的出現,有望為相關討論和決策提供更加科學和系統的依據。

參考資料:Tech Crunch

※探索職場,透視薪資行情,請參考【科技類-職缺百科】幫助你找到最適合的舞台!

瀏覽 134 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button