不想讓世界知道的東西 別與ChatGPT分享

編譯/于文浩

示意圖:123RF

專家警告說,即使網站說不會使用用戶輸入數據,還是不要太相信這些人工智慧網站比較好。他們指出,即使這些公司說不會,但人工智慧聊天機器人仍有收集大量的消費者個人資訊的可能性。

根據《Insider》的報導,專家對於OpenAI「無痕模式」都還是持保留態度。畢竟只要是輸入過的內容就會留下痕跡,而我們大多數的人對於後台到底是怎麼運作的也不理解。而先前,該公司在解釋「無痕模式」時就表示,為了「監控濫用」,他們仍將儲存新的ChatGPT對話長達30天,但存在哪也沒有說清楚。

投資人工智慧的投行Glasswing Ventures創始人兼管理合夥人Rudina Seseri就強調說:「我在這裡重申最佳做法:絕對不要與ChatGPT分享你不想讓世界知道的東西。」她說:「這並不是基於對OpenAI的任何惡意,或者任何大型語言模型。而是如果你把數位世界看成是一個『平面』。『平面』越多,接觸面越廣,利用的機會就越多。」

就隱私、數據和其他事項提供諮詢的律師事務所威利賴恩 (Wiley Rein) 合夥人Duane Pozza也說,對於普通用戶和處理機密資訊的公司來說,輸入機密資訊的風險可能很高。因此,他們也應該考慮自己的政策,及要如何在工作中使用這些工具。

在ChatGPT推出時的用戶就知道,所有的對話都可能會被「人工智慧培訓師」看到,並被警告說不要輸入敏感資訊。而為了應對越來越多的擔憂,在2023年 4月,OpenAI推出了「無痕模式」,讓用戶在使用其ChatGPT聊天機器人時可以選擇讓系統不要保存聊天記錄。在一篇文章中,該公司解釋說,當用戶關閉這一設置時,系統將不會保存用戶以前的對話,也不會使用這些對話來幫助訓練其AI模型,而且該公司將在30天后刪除任何在這種較高隱私模式下的對話。但這是否真的安全還有待時間查驗。

在過去十年中,隨著社群媒體網站的興起,網路上的用戶數據隱私一直是消費者保護審查的關注點。然而,相信大家也都有無意間被手機「偷聽」到我們對話的經驗,因此,對於我們在網路上輸入的訊息可能都還是要慎重一點才好。

參考資料:Insider

※更多ChatGPT相關訊息,請參考【生成式AI創新學院】。

瀏覽 13,671 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button