專家警告:不要與 ChatGPT分享「這些資訊」
編譯/夏洛特
隨著人工智慧(AI)繼續徹底改變工作流程,吸引更多人使用,著名內容管理系統公司首席安全專家兼工程副總裁Sebastian Gierlinger就發布了一些警告性建議,強調儘管 OpenAI 的 ChatGPT、Google 的 Gemini、Anthropic 的 Claude 和 Perplexity AI 等生成式 AI 聊天機器人可顯著提高生產力,但也需要提高警覺並負責任地使用,並切記不能輸入某些資訊。
據報導,Gierlinger指出,與AI聊天機器人的互動就像使用社群媒體一樣,與這些AI系統的對話並不完全私密,在互動過程中共享的個人詳細資訊,都有可能被用於訓練未來的模型,讓新系統獲得這些資訊,如若分享有關假期計畫或財務的細節,都可能會無意中洩露個人資訊,並建議「不要與聊天機器人分享不會在 Facebook 上發布的資訊。」
更多新聞:Apple Intelligence 登場WWDC 新 AI 工具令人失望
Gierlinger警告,最好不要與機器人分享包括個人財務資訊、過於具體的個人資訊、公司機密資料、醫療健康資訊和無法在社交媒體上公開的資訊。
個人財務資訊
Gierlinger表示,不要與機器人分享財務狀況、收入、資產、負債等詳細資料,因為這些資訊可能被用來計算一個人的淨資產,而成為詐騙的目標。
過於具體的個人資訊
任何過於具體的個人資訊,如詳細的假期計畫、住址、工作行業、父母的職業等也不應該告訴AI機器人,Gierlinger擔心,這些資訊可能會被系統用來訓練未來的模型,進而在某種程度上洩露個人隱私。
公司機密資料
涉及公司業務的敏感資訊,如薪資、員工資料、財務績效、業務策略等也不應輸入,Gierlinger強調,一但這些資料洩露,可能對公司造成重大損害。
醫療健康資訊
此外,任何涉及個人健康狀況的資訊也是一個危險訊號,特別是在使用未經充分安全驗證的家庭自製 AI 聊天機器人時,因為這些數據可能會被不當使用或洩露,造成隱私問題。
無法在社交媒體上公開的資訊
最後,Gierlinger建議用戶在分享資訊之前,問自己是否會將這些內容發布在 Facebook 上,若答案是否定的,那麼就不應該將這些資訊上傳到 AI 聊天機器人。
參考資料:Insider
瀏覽 8,677 次