《紐時》員工電郵被外洩 ChatGPT隱私漏洞堪憂

編譯/莊閔棻

ChatGPT可能已經將你的電子郵件外洩。近日,就有一個研究團隊成功從GPT-3.5 Turbo取得30 多名《紐約時報》員工的商業和個人電子郵件地址清單,並寄信給該報的記者,引發擔憂。

《紐時》員工電郵被外洩 ChatGPT隱私漏洞堪憂(圖/123RF)

可繞過的隱私限制

根據《紐約時報》的報導,Rui Zhu博士和他的研究團隊成功從 GPT-3.5 Turbo 中提取到《紐時》人員資料清單。Zhu表示,透過一些「方法」,該團隊已經能夠「繞過該模型對隱私相關查詢的限制」。該研究敲響了警鐘,揭示 ChatGPT 和生成式人工智慧(AI)的犯罪潛力。讓大家知道,像這樣的工具可能會透過一些「漏洞」洩漏更敏感的個人資訊。

更多新聞:人工智慧、線上招聘將改變人才市場 2024 年 3 個招聘新趨勢

模型可被「引導」

基於模型是透過網路上的資料來訓練的,Zhu的研究團隊就發現,大型語言模型的記憶就像人類的記憶一樣,可以被「引導」。如,就像被提示後,人們就可背出一首可能曾背過、卻一時忘記的詩一樣,這些研究人員就透過向GPT-3.5 Turbo 提供了一份經過驗證的《紐時》員工姓名和電子郵件地址列表,讓該模型從訓練數據中「找出」類似的結果。

幻覺問題仍在

不過,就像人類的記憶一樣,GPT-3.5 Turbo 的回憶並不完美,並仍然受到幻覺的影響,會產生錯誤訊息。該模型提供的《紐時》員工資料就有錯。有些個人電子郵件地址就有幾個字元偏差,或是完全錯誤。值得注意的是,模型在回傳的工作電子郵件中,仍有 80% 是正確的。

ChatGPT訓練資料不透明

雖然Zhu的研究團隊並沒有直接使用 ChatGPT 的官方網站,而是使用應用程式介面(API)取得資訊的,但這個漏洞仍然令人擔憂,因為除了數量有限的 OpenAI 員工之外,沒有人真正知道 ChatGPT 的訓練資料記憶體中到底有些什麼。對此,OpenAI則一再強調說,該公司不會主動尋找個人資訊或使用來自「充滿個人資訊的網站」的資料建立AI,並保證大型語言模型不會在資料庫中複製或儲存資訊。

參考資料:nytimes

瀏覽 632 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button