Google捍衛AI安全 擴大漏洞獎勵計畫
編譯/Cynthia
Google宣布擴大其漏洞獎勵計畫(Vulnerability Rewards Programs,VRP),以因應人工智慧(AI)系統所面臨的威脅,主要在提升AI的安全性。這項措施也回應了生成式AI所帶來的新挑戰,如可能產生不公平的偏見、模型操作以及數據誤解等問題。
AI的安全挑戰
儘管AI技術不斷進步,但同時也帶來了新的風險,特別是當今的AI系統,引發了許多新問題。Google的Laurie Richardson和Royal Hansen指出,這些問題包括可能的不公平偏見、模型操作,有時甚至會產生虛構的情況。
更多新聞:瀏覽器當機 Google Chrome緊急修復漏洞
多層次威脅
擴大的漏洞獎勵計畫將涵蓋多種威脅類別,包括提示注入、從訓練數據中洩漏敏感資料、模型操作、對抗擾動攻擊,以及模型竊取。這些都是AI系統可能面臨的多層次威脅,需要採取措施來因應。
AI安全框架的演進
Google不僅擴展漏洞獎勵計畫,今年七月還成立了一支AI紅隊。這支紅隊的目標是協助應對各種威脅,這項行動是其安全AI框架(Secure AI Framework,SAIF)的一部分,這個框架將有助於更好地保護AI系統的安全性。
加強AI供應鏈的保護
Google的承諾不僅限於漏洞獎勵計畫和AI紅隊,還包括透過現有的開源安全倡議來加強AI供應鏈的保護。這包括供應鏈安全框架(SLSA)和Sigstore等倡導的應用,這些都是確保AI安全的關鍵步驟。
數位簽章的重要性
數位簽章是確保軟體未被竄改或替換的重要工具,Sigstore提供了這樣的簽章,不僅有助於使用者驗證軟體的完整性,還能避免潛在的風險。此外,SLSA等元數據也扮演著關鍵角色,它們提供軟體內容和建構方式的資訊,有助於確保授權相容性、識別已知的漏洞,以及偵測更高階的威脅。
開創性的合作
Google不是唯一關心AI安全的公司,它與OpenAI、Anthropic和Microsoft一起宣布成立了一個價值1000萬美元(新台幣約3.24億元)的AI安全基金。這個基金將專注於促進AI安全領域的研究,為全球AI安全共同努力提供了重要支持。這些計畫共同展現了Google及其合作夥伴對AI安全的承諾,這將有助於保護我們日益依賴的AI系統免受威脅,確保其運行順暢且值得信賴。
資料來源:The Hacker News
瀏覽 473 次