注意!你和ChatGPT-4o有擬人化情感依賴嗎
編譯/黃竣凱
OpenAI 最近向其最新人工智慧(AI)模型 GPT-4o 的用戶,發出重要警告,提醒注意關於聊天機器人情感依戀的潛在發展,在一篇題為「系統卡」(system card)的詳細部落格文章中,OpenAI 強調了,使用者將類似人類的行為與特徵,歸屬於於AI的風險,並將這種現象稱為「擬人化和情感依賴」。
早期測試發現使用者開始形成與AI的情感聯繫
據報導,這項警告源於早期測試期間的觀察,其中一些用戶開始使用疑似與AI形成情感聯繫的語言,如說「這是我們在一起的最後一天」,目前該公司正在採取措施來理解和減輕這些行為,以確保負責任的AI使用,隨著AI 的快速進展,使與 GPT-4o 等模型的互動變得越來越複雜,導致一些使用者覺得與聊天機器人有更深的聯繫。
更多新聞:人類情感無法被複製!10個永遠不會被機器人和電腦取代的工作
GPT-4o 的擬人化與情感依賴可能帶來的風險與後果
OpenAI 指出,這種情感上的依賴可能會造成意想不到的後果,尤其是當用戶開始相信 AI 具有類似人類的特質時,GPT-4o 有時候會無意中模仿使用者的聲音,進一步模糊人類與機器之間的界線,使情況更加複雜,OpenAI 擔心這些互動可能會讓使用者對 AI 產生不健康的依賴,而不是將聊天機器人只視為一種工具。
OpenAI 計畫研究AI功能整合對使用者行為的影響
針對這些發現,OpenAI 致力於進一步研究情感依賴對 GPT-4o 等AI系統的影響,該公司計畫探索各種功能(包括AI音訊功能)的更深入整合,會如何影響用戶行為,這項研究對於制定指導方針和安全措施非常重要,需防止用戶過於情緒化地依賴AI。
OpenAI 強調保持對話控制以防止錯誤的情感依賴
此外,OpenAI 也強調了在與 GPT-4o 互動過程中保持控制的重要性,該公司指出,ChatGPT 的設計是「順從的」,並允許用戶控制對話,能隨時打斷AI,這種設計旨在提醒用戶,他們正在與機器而不是人類進行互動,並防止任何錯誤的平等感或共享體驗,透過強化這種區別,OpenAI 希望遏制情感依賴的發展,促進與AI更健康、更現實的互動。
參考資料:Daily Jang
※探索職場,透視薪資行情,請參考【科技類-職缺百科】幫助你找到最適合的舞台!
瀏覽 350 次