Google員工:Bard 「比沒用還糟糕」 是「病態騙子」
編譯/莊閔棻
在內部訊息中,搜尋引擎巨頭Google的員工似乎對Bard的推出很不滿。他們反覆批評該公司的聊天機器人Bard,並給該系統貼上「比沒用還糟糕」、「病態的騙子」的標籤,也懇求公司不要推出該系統。然而這些都被Google忽略了。
根據外電綜合報導,Google的內部討論截圖顯示,在測試該機器人後,一名員工稱Bard是「令人討厭的」、另一名員工則稱其為「病態的騙子」。其他人還認為這個人工智慧聊天機器人可能有潛在的危險。據悉,一名員工甚至懇請Google在推出其聊天機器人之前三思而行。然而,最後Google還是公布了Bard。
《彭博社》指出,在2月份的一條內部消息中,有一位員工寫道:「Bard比沒用還糟糕,請不要公布它」,該消息被近7000人瀏覽。在這些內部討論中,一名員工指出Bard會經常給用戶提供危險的建議。如,聊天機器人給的降落飛機建議就可能會導致飛機墜毀。然而,該公司甚至 「否決了一個內部安全小組提交的風險評估」。根據該評估,該系統還沒有準備好讓大家普遍使用。
負責評估Google新產品的安全和道德的員工表示,他們的雇主不鼓勵他們做出任何拖延其人工智慧技術發展的嘗試,他們說這會降低他們的士氣。雖然一位Google發言人說:「負責任的人工智慧仍然是公司的重中之重,我們將繼續投資於致力於將我們的人工智慧原則應用於技術上。但據報導,員工指出,為了盡快發布能夠擊敗OpenAI的ChatGPT的聊天機器人,Google高層正在忽略人工智慧的道德責任。
前Google經理Meredith Whittaker說,隨著微軟等科技巨頭繼續發布自己的人工智慧聊天機器人,這些公司將如何處理其人工智慧工具的道德問題仍然存在。但現在,「人工智慧的倫理問題已經退居次位。而如果道德沒有被放在利潤和增長之上,那麼它們最終將無法發揮作用。」
據報導,《The Verge》在測試後發現,Google的Bard在實用性和準確性方面一直不如其競爭對手,也就是微軟的Bing聊天機器人和OpenAI的ChatGPT。
參考資料:The Verge、Insider、bloomberg
瀏覽 661 次