Sam Altman:GPT-4 只是AI 革命冰山一角
編譯/莊閔棻
在日前的訪談中,談到關於人工智慧和GPT模型的挑戰和未來時,OpenAI首席執行長Sam Altman指出:你無法預見未來。而當談到語言模型GPT是否「太清醒」(woke)或太有偏見時,他承認說GPT確實有偏見,而且很可能永遠如此。
根據外電綜合報導,Sam Altman現在人工智慧還在一個很早期的階段,我們都不知道之後會發生什麼事。而他還說,可能不會有沒有完全沒有偏見的GPT出現。
談到GPT的缺點時,Sam Altman表示,GPT-4還在早期,而就像電腦一樣,我們永遠不知道未來會發生什麼事。他說:「之後我們回頭看的話,會說GPT-4一個非常早期的人工智慧。它很慢、有毛病,很多事情做得不是很好,但最早期的電腦也是如此,不過,即使花了幾十年時間,它們(電腦)仍然指出了一條在我們生活中真正重要的道路。」
而當被問及「GPT是不是太清醒了?」的問題時,Altman首先說,「清醒」一詞的含義在不斷變化,因此他不認為這是一個正確的形容。他回答說:「老實說,我幾乎不知道清醒是什麼意思了。我找了一陣子,但我覺得這個詞已經變形了。所以我會說,我認為它(GPT)太帶有偏見了,而且會一直偏下去。」
Altman繼續解釋說,他認為,永遠不會有一個完全沒有偏見的GPT版本,因為偏見是模型所訓練的數據集固有的。然而,他也強調,為了減輕偏見並提高其準確性,OpenAI已經對該模型進行了重大改進。Altman說:「我們將嘗試讓默認版本盡可能地中立,但如果你必須為不止一個人這麼做的話,盡可能地中立並不是那麼中立。」
Altman表示,他希望讓GPT及其模型被認可為是一個推理引擎,而不只是一個數據庫。Altman說:「學者、專家和推特上人們會說,不,你在誤用這個詞。但我認為大多數使用過這個系統的人都會說:『好吧,它在這個方向上確實做了一些事情。』」
參考資料:entrepreneur、Business Today
瀏覽 472 次