英國全球首創AI安全標準曝光13項準則如何改變未來?
編譯/Cynthia
2025年1月,英國政府正式公布AI安全實務準則(AI Code of Practice),這是全球首創的AI安全標準,目標是確保AI技術安全發展,並建立國際基準。該準則由英國國家網路安全中心(NCSC)與產業專家共同制定,並透過歐洲電信標準協會(ETSI)推廣,期望成為全球AI產業的安全依據,涵蓋AI的設計、開發、部署、維護與終止,適用於AI軟體開發商、企業AI部署者及AI服務供應商。雖為自願性質,但附有詳細實施指南,幫助企業落實AI安全管理。英國希望透過這套標準降低AI被濫用的風險,推動全球AI技術的安全發展。
確保AI安全可控
英國AI安全準則包含13項核心原則,全面強化AI技術的開發與應用安全。這些原則要求企業提升AI風險認知,並確保AI系統具備安全性、功能性與穩定性,避免成為網路攻擊目標。此外,準則強調人類監管責任,確保AI運作可控、不脫離人類掌握。企業需妥善管理AI相關資產,包括API、數據、模型及訓練管道,同時加強軟體供應鏈安全,防止惡意攻擊。為了確保AI系統透明可追溯,企業應建立審核機制,清楚記錄數據、模型與提示詞,避免AI被不當使用。最後,準則要求企業定期測試AI安全性、監控系統行為,並妥善處置AI模型與數據,降低AI濫用風險。
更多新聞:英業達、VicOne、Skymizer三方合作,共推智慧座艙GenAI網路安全解決方案
AI安全13項原則
這13項AI安全原則涵蓋風險管理、技術安全與人類監管,確保AI系統在各層面符合安全標準。
- 提高AI風險認知:企業應推動AI安全培訓,提升員工對潛在風險的認識,防範攻擊。
- 確保AI安全與效能:AI在開發與運行過程中,應符合功能、安全與效能標準。
- 建立AI風險評估機制:定期評估AI風險,預測並管理潛在威脅,並擬定應變計畫。
- 落實人類監管責任:確保AI決策有人類監督,避免AI產生不可控的影響。
- 追蹤與保護AI資產:強化AI相關數據與系統連結的安全,確保模型與數據完整性。
- 強化基礎設施安全:確保API、數據、模型與訓練過程安全,防止內外部攻擊。
- 確保軟體供應鏈安全:企業應檢視所有軟體元件與供應鏈,避免安全漏洞。
- 建立AI審核機制:確保AI使用的數據、模型與提示詞可追蹤與監控,提升透明度。
- 定期進行安全測試:持續評估AI系統安全性,降低外部攻擊風險。
- 確保AI安全部署:明確AI的數據存取權限,確保使用者管理透明。
- 提供安全更新與風險緩解措施:定期修補安全漏洞,降低AI風險。
- 監控AI系統行為:記錄AI日誌,確保系統符合安全與法規要求。
- 妥善處置AI資料與模型:確保敏感數據與模型能安全銷毀,防止外洩。
AI安全標準推動全球發展
英國政府透過AI Opportunities Action Plan積極推動AI創新與安全,期望AI安全準則成為全球標準。英國國家網路安全中心(NCSC)表示,該準則不僅能提升AI系統防護力,還能促進AI產業發展。英國政府認為,確保AI安全將有助於鞏固其在全球AI領域的領導地位,並提升國內企業的國際競爭力。此外,這項標準可能影響全球AI監管政策,成為歐洲及其他國家的參考依據。未來,AI安全標準將持續發展,企業、政府與研究機構需共同合作,確保AI在安全環境下運行,防範技術遭惡意利用,保障社會安全與隱私。
※探索職場,透視薪資行情,請參考【科技類-職缺百科】幫助你找到最適合的舞台!
瀏覽 184 次