Google提出AI安全框架 6大核心關鍵盼建立標準

記者/竹二

近期開打的AI大戰,雖然讓人們感受到人工智慧的好用之處,但所帶來的資安風險也令人憂心。Google在端出了自家的Bard AI 之後,在風險的部分也提出的建議,他們發展了AI人工智慧的全新框架Secure AI Framework(SAIF),希望能進一步讓大家都能負起責任,打造預設狀態下就已相當安全的AI系統。

Google發表安全AI框架Secure AI Framework,包含6個核心元素。(圖/截取自Google)

Google在近日發表了安全AI框架Secure AI Framework,包含6個核心元素,擴大AI生態體系的安全基礎,將資安事件的偵測及回應能力延伸到AI,並打造AI的自動化防禦能力,協調平台等級的控制能力,以確保整體組織的安全性,藉由控制器來調整緩解並形成更快的AI回應,以及建立AI系統周遭商業環境的風險脈絡等。

根據Google的說明,他們期許SAIF得以協助AI產業設立各種安全標準。Google表示,他們會有SAIF發想,是來自軟體開發流程的安全最佳作法,像是供應鏈的審核、測試與控制,結合對AI系統特有的安全趨勢與風險的理解,他們認為,一個橫跨公私領域的安全框架,可以確保負責任的業者捍衛支援AI進步的技術,方便導入預設就是安全的AI模型。

Google認為組織也因針對AI的部署展開「端到端」的風險評估,像是商業風險的評估,針對特定類型應用程式的資料沿襲、驗證及操作行為的監控,以及建構可驗證AI效能的自動化檢查能力。

據了解,除了SAIF之外,Google也將與其他組織合作,共同開發美國國家標準暨技術研究院(NIST)的AI風險管理框架,以及業界第一個AI認證標準 ISO/IEC 42001 AI Management System Standard,並協助客戶及政府評估與緩解AI的安全風險,並持續對外分享各種有關AI安全性的研究與心得。

瀏覽 459 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button