三星員工外洩機密反思 使用ChatGPT兩重點勿輕忽
編譯/鄭智懷
4月初,由於接連爆發三起員工將程式碼、晶片測試與會議紀錄上傳ChatGPT,導致洩密之故,三星(Samsung)宣布恢復解禁不到一個月的ChatGPT使用禁令。專家指出,上述的案例提供良好的教訓,建議各單位未來的管理重點應著重於控制輸出與限制輸入內容,而非一昧禁用。
數據管理公司 BigID資安長Tyler Young指出,大型語言模型(LLM)開發的目的是依據學習到的數據資料回答使用者的問題,因此可能導致在無意間洩密的問題。而針對此現象,業界目前已提出專有名詞「對話式人工智慧洩漏」(conversational AI leak)
Tyler Young強調,只要是與ChatGPT連結,任何產生、儲存或處理數據的系統都有洩密風險。換言之,只要控制不當,所有類型的數據與資料都有可能受到影響。
資安服務商Code42的執行長Joe Payne認為,鑒於大型語言模型技術與工具開發與使用已蔚為風潮,一昧禁用並無法徹底解決問題。Tyler Young也提出類似觀點,並進一步指出更好的方法是開發者在一開始就「控制發送到模型的數據、能建立地連接,以及何者能使用該模型。」換言之,就是由開發者劃清工具能回應與不能回應的內容之界線。
而另一個解決方案則是由使用方限制輸入內容。Tyler Young建議,各單位應避免完全禁用如ChatGPT等大型語言模型工具,而是清楚界定可以使用該工具的身分與權限,同時明文規定能夠輸入的數據類型與內容。
資料來源:Cybernews
※更多ChatGPT相關訊息,請參考【生成式AI創新學院】。
瀏覽 582 次