你敢發問它敢說!ChatGPT 如何決定要說什麼?

編譯/莊閔棻

ChatGPT 和其他由人工智慧(AI)驅動的聊天機器人因為可以像人一樣,用流利、語法正確的語言和人類對話,讓很多人感到震驚。(示意圖/123RF)

ChatGPT 和其他由人工智慧(AI)驅動的聊天機器人因為可以像人一樣,用流利、語法正確的語言和人類對話,讓很多人感到震驚。但專家表示,不要誤以為ChatGPT精彩的演講帶有思想、情感和自主意識,因為聊天機器人的工作方式更像是一台執行數學計算和統計分析的機器,它們只是以根據上下文使用正確的單詞和句子而已。

  • 聊天機器人是如何運作的?

OpenAI 的 ChatGPT 等 AI 聊天機器人基於「大型語言模型」(LLM)建造,大型語言模型則是透過網路上的各種文字和線上資訊(通常是人類生成的內容)進行訓練的。這些模型透過閱讀大量文本,學習各種知識和語言的使用方式,並進而能對人類的問題作出回應。

專家表示,透過接受一系列單詞的訓練,這些系統就能了解語言和知識之間的關聯。 因此,所有這些吸收的知識不但可以讓大型語言模型知道各種知識,還可以幫助它們了解語言的模式以及單字通常是如何使用和組合在一起的。

不只如此,人類也可以進一步培訓聊天機器人,並讓其根據自己的需求進行回覆。如,美國西北大學電腦科學教授Kristian Hammond就說:「你可以透過告訴機器人說:『這是有毒的,這太政治化了』,並限制它不要產生某些東西」。

  • 要注意聊天機器人不知道的事情

雖然機器人很萬能,但它也不是全能,並可能有它也不知道的事,只是我們無法預測它在不知道的狀況下會給出什麼回覆。在這種狀況下,機器人可能會根據其所知道的資訊進行推斷,也就是說,和人類一樣,它們會根據自己知道的做出「猜測」。

但和人類不一樣,機器人他們不會告訴你它們是在猜測。相反,他們會「義正嚴辭」的將這些資訊當作事實來呈現,並造成所謂的「幻覺」問題。而當人類把這些資訊當成真實的相信時,就可能會產生大問題。加州大學聖巴巴拉分校電腦科學副教授William Wang就說:「該模型還不能很好地理解已知和未知」。

參考資料:Insider

※更多ChatGPT相關訊息,請參考【生成式AI創新學院】。

瀏覽 658 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button