誰寫的文本?OpenAI 傻傻分不清楚!

編譯/莊閔棻

就連人工智慧(AI)新創公司OpenAI自己似乎也無法判斷,文字到底是出自人類還是AI聊天機器人。日前,該公司表示,基於準確率低,他們將停用用來區分文字是來自人類還是AI的「AI 分類器」(AI classifier)工具。 早先,在2023年2月,為幫助教授分辨學生文章是否由 AI 產生,OpenAI推出了AI 分類器。

人工智慧(AI)新創公司OpenAI自己似乎也無法判斷,文字到底是出自人類還是AI聊天機器人。(圖/123RF)

據外媒報導,OpenAI 承認說,AI分類器從來都不擅長捕捉AI生成的文本,還警告說它可能會出現誤報,並將人類編寫的文本標記為AI生成的。這似乎是近一步承認說,他們也沒有辨別人類和AI生成內容的好方法。OpenAI表示,他們決定從 7 月 20 日起終止 AI 分類器,且他們「正在努力收取回饋,研究更有效的文本來源偵測技術。」

更多新聞:承認GPT「變笨」 OpenAI:模型更新方式不夠完美

OpenAI 表示,在終止AI 分類器的同時,他們還計畫開發和部署一個「使用戶能夠了解音頻或視覺內容是否是 AI 生成的機制」。 不過,目前還沒有關於這些機制的更多消息。

自OpenAI推出ChatGPT以來,多個領域都對AI生成的文本和藝術發出警告。教育工作者就非常擔心學生不再學習,而會讓 ChatGPT 幫他們寫文章。出於對準確性、安全性和作弊的擔憂,紐約的學校甚至禁止人們在校園內使用 ChatGPT。此外,AI傳播的錯誤資訊的能力也一直是一個令人擔憂的問題。研究就表明,AI生成的文本(例如推文)可能比人類編寫的文本更有說服力。

到目前為止,各國政府都還沒提出一個控制AI的方法,只是要求各家AI公司要「自我監管」。但照現在的狀況看來,似乎沒有人知道要如何應對這一切,而就連最初掀起生成式AI熱潮的OpenAI可能也正在失去其信任和安全領導者的地位。

參考資料:The Verge

瀏覽 685 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button