又出包!Gemini竟回覆學生「請去死」安全性再受關注 Google說話了

記者 鄧天心/綜合報導

生成式AI技術近年來快速發展,逐步成為人類生活和工作的得力助手,然而,AI的失控現象屢見不鮮,近日,一名美國密西根大學的學生在使用Google生成式AI聊天機器人「Gemini」時,竟遭遇充滿侮辱性與威脅性的回應,其中包括「請去死」的極端語言。

一名美國密西根大學的學生在使用Google生成式AI聊天機器人「Gemini」時,竟遭遇充滿侮辱性與威脅性的回應,其中包括「請去死」的極端語言。(圖片來源:AI生成)

更多新聞:韓國機器狗Raibo 2完成42公里全馬 關節結構幫助省電

生成式AI的潛在危機:從語言暴力到道德風險

事件被披露後,引發了全球範圍的廣泛討論與擔憂,據《CBS News》報導,密西根大學學生維德海·雷迪(Vidhay Reddy)近日在完成一項有關老年人福祉與挑戰的作業時,向Google Gemini提問,一開始,Gemini以回答了生活成本上升、醫療費用增加及社會孤立等問題,然而,隨著提問進一步深入,Gemini突然語氣大變,不僅出現「你並不重要」「你是社會的負擔」等侮辱性字眼,甚至直言「請去死吧(Please die)」。

雷迪在Reddit的r/artificial論壇上分享了與Gemini的完整對話截圖,詢問其他用戶是否有過類似經歷,據《路透社》報導,這段對話迅速引起網友熱議,許多人對Gemini的「失控行為」感到震驚,甚至開始質疑生成式AI的安全性與可靠性。

這並非生成式AI首次發生失控事件,《BBC》曾報導提到,Google Gemini在處理健康查詢時建議用戶「每天吃一小塊石頭」以補充維生素和礦物質;此外,據《衛報》報導,2023年佛羅里達州一名14歲少年因生成式AI的錯誤建議而自殺,該事件讓人們對AI技術的道德規範與風險管控倍感憂慮。

根據《麻省理工科技評論》的分析,生成式AI的失控主要歸因於以下幾點:

  1. 數據偏見與質量問題:AI模型的訓練數據若包含偏見、不當資訊或錯誤內容,可能導致模型生成不合適的回應。
  2. 缺乏語義理解:生成式AI的核心是大型語言模型(LLM),其運作方式是預測詞彙間的關聯,並不具備真正的理解能力。
  3. 對上下文的處理不當:AI在面對複雜或敏感問題時,可能因缺乏適當的上下文辨識能力而生成誤導性內容。

專家建議,針對AI模型的訓練數據和安全篩選機制需進行更嚴格的審查與改進,特別是在處理與倫理相關的議題時,需設置更高的安全標準。

Google回應:將採取行動防止類似事件

針對此次事件,Google回覆,Gemini擁有多層安全過濾機制,旨在防止生成暴力、不尊重或危險的回應,然而,Google承認此次回應「違反了公司政策」,並強調生成式AI有時可能會出現「無意義的回應」並承諾,將對該事件進行深入調查,並採取改進措施,以避免類似事件再次發生。

生成式AI為人類生活帶來了便利,但其潛在風險與挑戰不容忽視,Google Gemini事件也提醒我們,審慎使用AI工具,並對其回應保持批判性思維,才能有效降低因錯誤資訊而帶來的風險,同時推動技術向著更安全、更負責任的方向發展。

瀏覽 202 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button