不可不知   如何避免使用ChatGPT等AI工具的重大風險

編譯/夏洛特

隨著生成式人工智慧(AI)工具在個人和商業領域中的廣泛應用,讓許多消費者都愛不釋手,但大家也都忽視了這些工具可能帶來的重大隱私風險,從OpenAIChatGPTGoogleGemini,再到微軟的Copilot軟體和蘋果的新AI工具,各種AI工具如今都觸手可及,使用者數量迅速增加。然而這些工具在使用者數據的使用和保存上,都有不同的隱私政策,許多情況下消費者都不清楚他們的數據是如何或可能被使用的。

隨著人工智慧(AI)工具在個人和商業領域中的廣泛應用,因此大家都忽視了他們可能帶來的重大隱私風險。
隨著人工智慧(AI)工具在個人和商業領域中的廣泛應用,因此大家都忽視了他們可能帶來的重大隱私風險。(圖/123RF)

據報導,企業管理顧問Red Clover Advisors的首席執行長兼隱私顧問Jodi Daniels表示,根據不同的工具,消費者可以控制的範圍也不同。她指出,「並沒有一個適用於所有工具的通用的隱私數據收集退出選項,」而AI工具的普及及其在個人電腦和智慧型手機中的應用,讓這些問題變得更加重要。

更多新聞:使用 ChatGPT 應避免的 3 個錯誤

訓練AI模型和個人資料在網路上不當發布是完全不同的事情,若資料不小心發布,消費者可能可以將其刪除,然後它就會從搜尋引擎中消失,但一但某些資訊進入AI模型,就很難將其抹除。

消費者在生成式AI時代保護隱私的幾種方法

好消息是,使用者仍有一些方法可以自保。

危險訊號

在選擇工具之前,消費者應仔細閱讀相關的隱私政策,弄清楚自己的資訊是如何被使用的、是否有關閉數據共享的選項、是否可以限制數據的使用範圍和保存時間、數據能否被刪除、是否需要經過繁瑣的過程,才能找到退出設置等。

Daniels指出,若無法輕易找出這些問題的答案,或在提供者的隱私政策中找不到答案,那就應該提高警覺,因為大家「不能假設公司會做正確的事情,每家公司都有不同的價值觀,每家公司賺錢的方式也不同。」

避免在大型語言模型中輸入敏感數據

一些人對於在生成式AI模型中輸入敏感數據非常信任,但瀏覽器公司Aloha Browser的創始人Andrew Frost Moroz建議大家,不論是個人還是工作相關,都不要輸入任何類型的敏感數據,因為「你無法確切知道這些數據會如何被使用或被濫用。」

使用OpenAI和Google提供的資料刪除選項

需要注意的是,一些生成式AI工具可能有提供禁止資料被收集的選項,如,Gemini就允許用戶設置數據保留期限或刪除某些數據;此外,ChatGPT用戶也可以選擇,不要讓公司使用用戶的數據訓練模型。

為搜尋的生成式 AI 設定較短保留期

即使使用AI搜尋某些類型的資訊也可能會侵犯個人隱私,因此如果可能的話,為AI工具設定一個較短的保留期也是一個好方法,並在獲得所需資訊後刪除聊天記錄,如此一來,儘管公司仍擁有伺服器日誌,但此方法可以幫助降低第三方使用用戶帳戶的風險,並還可以降低敏感資訊成為模型訓練資料的風險。

參考資料:CNBC

瀏覽 211 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button