小撇步大作用   AI潮流中防止敏感資料外洩

編譯/Cynthia

AI技術快速發展讓大型語言模型(LLMs)成為焦點,但也帶來機密外洩的風險。根據最新的OWASP報告「OWASP 大型語言模型前 10 名」(OWASP Top 10 For Large Language Models),強調保護機密免受AI事故的影響,應特別注意如何有效守護私密資訊、面對機密外洩的挑戰。

定期更新並限制權限,透過堅守最小權限原則,能有效防範「不安全的輸出處理」和「過度權限行為」的風險。示意圖。圖/123RF

GitHub數位風暴與AI技術漏洞

數位安全公司GitGuardian在GitHub的公開提交中,發現了超過1000萬個機密,不得不思考「AI的方便是否伴隨著潛在的安全疑慮?」Copilot AI編碼工具的「prompt injection」技術更曾因此外洩超過2700個機密,突顯AI事故的可能性。

更多新聞:微軟攜手OpenAI  揭露最新AI資安隱憂

第一項防範步驟是定期更換機密(如密鑰、密碼等),並善用GitGuardian的「Has My Secret Leaked」工具,主動確保即時發現機密外洩。

數據清理與訓練準則

OWASP的「敏感資訊揭露」提醒我們,語言模型在回應中可能意外洩露機密數據。為了確保語言模型不知道敏感數據,第二項建議是進行數據清理。在訓練LLM之前,使用開源工具或付費服務進行數據掃描,排除可能的敏感資訊。

這不僅是防範意外洩漏的手段,同時是在數據訓練過程中保護機密的有效途徑,確保機密資訊不會因為語言模型的回應而外洩。

定期更新與權限控制

第三項建議是定期更新並限制權限,透過堅守最小權限原則,能有效防範「不安全的輸出處理」和「過度權限行為」的風險,減低LLMs被滲透的可能性。在AI時代,應謹慎運用LLMs,施行合適的安全措施,確保其最大效益。

雖然大型語言模型為數位時代帶來無限可能,但其安全性仍需特別關注,謹守使用LLMs的慎重原則,同時實施保護措施,確保機密資訊不會因為AI事故而不經意外洩。

資料來源:The Hacker News

瀏覽 246 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button