隱私?安全?員工成長?企業禁用 ChatGPT 為哪樁?
編譯/夏洛特
雖然 ChatGPT 的功能令人印象深刻,但基於隱私、安全、員工成長問題,已經有數家重量級公司對員工使用 ChatGPT 下達禁令。2023年5月,三星禁止員工使用ChatGPT和其他生成式AI工具。 隨後,2023 年 6 月,澳洲聯邦銀行、亞馬遜、蘋果和摩根大通等公司也紛紛效仿。一些醫院、律師事務所和政府機構也禁止員工使用 ChatGPT。
以下是公司禁止員工使用ChatGPT的五個主要原因:
- 數據外洩
ChatGPT 需要大量數據才能有效訓練和運行。根據 OpenAI ,每一則透過ChatGPT輸入的數據,都有可能落在OpenAI員工的視線中,並用來改進他們的系統。因此,為避免數據洩露,許多公司都會選擇限制員工使用 ChatGPT 。
- 網路安全風險
目前尚不清楚 ChatGPT 或聊天機器人是否真的容易遭受網路安全風險,但其在組織內的部署可能會讓攻擊者擁有更多可以利用的潛在漏洞。
- 創建個人化聊天機器人
雖然 ChatGPT很強大,但它也仍然有產生假的、誤導性資訊的可能性。 因此,許多公司都推出自己公司專用的AI聊天機器人,並禁止員工使用ChatGPT。
- 缺乏監管
目前ChatGPT 仍然缺乏監管,並將使使用的公司和個人暴露在風險之下。如果沒有精確的監管條件管理 ChatGPT 的使用,公司在使用AI聊天機器人時就可能會面臨嚴重的法律後果。此外,缺乏監管也會削弱公司的責任感和透明度。大多數公司都難以對向客戶解釋AI語言模型的決策流程和安全措施。因此,由於擔心可能違反隱私法和行業特定法規,公司也會禁止員工使用 ChatGPT。
- 員工的過度依賴
雖然AI很方便,但其也可能阻礙人們進行批判性思考的能力,並讓人懶惰及抑制創造力。因此,很多公司不贊成員工使用ChatGPT。
參考資料:makeuseof
※更多ChatGPT相關訊息,請參考【生成式AI創新學院】。
瀏覽 30,680 次