噓!你想保密的事 別告訴聊天機器人

編譯/莊閔棻

隨著科技界競相開發和部署一批強大的新人工智慧聊天機器人,廣泛採用在一些公司、監管機構和行業觀察人士中,引發了一系列新的數據隱私問題。

根據《CNN》的報導,律師事務所Fox Rothschild LLP的隱私和數據安全業務聯合主席Mark McCreary說:「像ChatGPT這樣的隱私問題,怎麼強調都不為過,這就像一個黑盒子。」

噓!你想保密的事 別告訴聊天機器人。示意圖/123RF

McCreary說,當用戶向這些工具輸入資訊時,「你不知道它將如何被使用」。而這讓所有公司都很關注。隨著越來越多的員工隨意採用這些工具來幫助處理工作郵件或會議紀錄,McCreary說:「我認為公司商業機密被丟進這些不同的人工智慧的機會只會增加。」

波士頓諮詢集團的首席人工智慧道德長Steve Mills也表示,大多數公司圍繞這些工具的最大隱私擔憂是「敏感資訊的不慎洩露」。Mills說:「所有這些員工做的事情可能看起來非常無害,比如,總結一個會議的筆記。但在把會議記錄貼到提示中時,你突然就有可能送出了一大堆敏感資訊。」Mills補充說,如果就像這些工具背後的許多公司所說的那樣,人們輸入的數據將被用來進一步訓練這些人工智慧工具,那麼你就已經「失去了對這些數據的控制,而被別人掌握了。」

ChatGPT背後由微軟支持的公司OpenAI就在其隱私政策中說,他們從使用其服務的人那裡收集各種個人資訊。該公司表示,他們可能使用這些資訊來改進或分析其服務,進行研究,與用戶溝通,以及開發新的程式和服務等。隱私政策規定,除非法律要求,否則他們可以在不進一步通知用戶的情況下,向第三方提供個人資訊。

日前,OpenAI還發表了一篇新的文章,概述了其對人工智慧安全的做法。 該文章稱:「我們不使用數據來銷售我們的服務、廣告或建立人們的檔案。我們使用數據來使我們的模型對人們更有幫助。如,ChatGPT透過對人們與它的對話進行進一步的訓練來提升。」

而Google的隱私政策似乎更謹慎一些,其對其生成式人工智慧用戶還有額外的服務條款。該公司表示,為了幫助改進Bard,同時保護用戶的隱私,「我們選擇一個對話子集,並使用自動化工具協助刪除個人身份資訊」。該公司表示,這些樣本對話由訓練有素的審查員審查,並將保存長達3年,與用戶的Google帳號是分開的。不過該公司也警告說: 「不要在與Bard對話中加入可用於識別你或其他人的資訊。」

參考資料:CNN

瀏覽 10,900 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button