Google Bard來了!紐時:Bard比ChatGPT更謹慎
編譯/莊閔棻
Google終於發布了大家引頸期盼的新的聊天機器人Bard了。雖然說Google是為了與微軟及其合作夥伴、舊金山新創公司OpenAI的類似技術競爭,但Google在人工智慧的發布方面一直都很謹慎,而對於這次Bard的發布似乎也是。
不過,目前該技術只開放給少數的英國和美國人,但為了讓大家能更了解這個新的機器人,以下是《紐約時報》專欄作家對Bard提出的一些了解:
- 它承認自己的缺陷
雖然大家都知道人工智慧會犯錯,而且是常常,但通常我們都是聽用戶轉述才知道。而這次Google的Bard在一開始就告訴你它會犯錯。在使用者畫面上,Google寫道:「我是Bard,你的創意和幫助的合作者。我有局限性,不會總是做對,但你的反饋將幫助我改進。」
與OpenAI的ChatGPT和微軟的Bing聊天機器人一樣,Bard也是基於一個大型語言模型(L.L.M.),並透過分析網路上的大量數據進行學習。這代表它有時會犯錯,而且會編造一些東西。在聊天之前,Bard建議了一些提示,包括「解釋為什麼大型語言模型有時會犯錯」。
- 它是為一系列休閒用途設計的
Google強調說,Bard並不是要成為一個搜尋引擎,而是一個實驗性系統,旨在向人們展示他們可以怎麼使用這種聊天機器人。在該項目兩位負責人Sissie Hsiao和Eli Collins撰寫的一篇文章中,他們謹慎地將Bard描述為「一個早期實驗……旨在幫助人們提高生產力,加速他們的想法,並激發他們的好奇心。」他們還將Bard描述為一個讓用戶 「與生成式人工智慧合作」的產品。
- 它比ChatGPT更謹慎
先前,在測試使用OpenAI的ChatGPT的最新版本時,當人工智慧研究員和教授Oren Etzioni問機器人說: 「Oren Etzioni和Eli Etzioni之間是什麼關係?」時,它正確地回答說Oren和Eli是父子關係。
但當被問及同樣的問題時,Bard拒絕回答。 它說:「我對這個人的了解是有限的。我還能做什麼來幫助你處理這個請求嗎?」Google研究副總裁Eli Collins說,機器人會經常拒絕回答關於特定人物的問題,因為它可能產生關於他們的不正確資訊,該現象被研究人員稱之為「幻覺」。
- 它不希望引導人們出錯
聊天機器人經常對網址產生幻覺,先前就有很多ChatGPT編造網站的故事傳出。而當Bard被要求提供幾個討論最新癌症研究的網站時,它拒絕了。Collins說,Bard傾向於避免提供醫療、法律或財務建議,因為這可能導致錯誤的資訊。
- 它並不是每次都給出相同的答案
像類似的技術一樣,Bard在每次輸入提示時都會生成新的文本。它可能以許多不同的方式回答同一個問題。
- 它也對一些回答附上了來源連結
就像微軟的Bing聊天機器人,以及其他新創公司的類似技術一樣,Bard有時會對其答案附上了來源連結,以便用戶審查其來源。該機器人因為擁有Google龐大的網站索引,因此其答案可以包含網路上最新的消息,這是目前其他機器人沒有的。
- 它並不總是知道到自己在做什麼
報導指出,當被問及美國歷史上最重要的時刻時,聊天機器人回答說是美國革命時,然後引用了一篇英文和中文混合寫的奇怪文章。而當被問及為什麼引用該文章時,Bard堅持說它引用了維基百科。
參考資料:The New York Times
瀏覽 1,416 次