OpenAI CEO :巨型AI模型時代已經結束
編譯/莊閔棻
OpenAI首席執行長Sam Altman表示,隨著成本限制和收益降低,人工智慧模型變得越來越大的時代即將結束,而人工智慧將以其他方式進展。
根據外電綜合報導,在麻省理工學院近日的活動中,Altman表示,人工智慧模型的下一步,不會透過擴大模型來達成。他認為,我們現在已經處於「巨型模型」的尾聲,而「我們將以其他方式使它們變得更好。」但目前還不清楚未來的進步將來自哪裡。
對於訓練和運行大型語言模型(LLMs)來說,需要花費長期高昂的費用來購買圖形處理器(GPU)。據報導,人工智慧聊天機器人ChatGPT就需要超過10,000個GPU來訓練,還需要更多的資源才能持續運行。
而隨著成本的飆升和收益的平緩,經濟規模開始對越來越大的模型產生了影響,讓很多公司無法負擔人工智慧模型。因此,之後,人工智慧的進展很可能將來自於改進模型架構、提高數據效率,及推動演算法技術,來擴大其能力。換句話說,在過去的十年中,無限的數據、計算和模型規模重塑人工智慧的時代終於要結束了。
Altman的聲明,可以說是在開發和部署新的人工智慧競賽中的意外轉折。曾在Google從事人工智慧工作的Cohere公司聯合創始人Nick Frosst表示,他也同意Altman的想法,並認為擴大模型規模不是長久之計。他說:「有很多方法可以讓模型變得更好、更有用,而且很多方法都不涉及向模型添加參數。」Frosst說,新的人工智慧模型設計或架構,以及基於人類回饋的進一步調整,是許多研究人員已經在探索的、有希望的方向。
這些語言模型中的第一個、於2019年公布的GPT-2,一共有15億個參數。當時,與以前的系統相比,這個數字非常大,部分原因是OpenAI的研究人員發現,擴大規模使模型更加協調;而在2020年宣布、GPT-2的繼任者GPT-3則又更大,有高達1,750億個參數。當時,該系統可以生成詩歌、電子郵件和其他文本的廣泛能力,讓研究人員相信可以將自己的人工智慧模型推向類似甚至更大的規模。
因此,在ChatGPT於11月首次亮相後,技術專家們就猜測,GPT-4將是一個令人眩暈的規模和複雜的模型。然而,當OpenAI最終宣布新的人工智慧模型時,該公司並沒有透露它有多大,這也許就像Altman說的,規模不再是最重要的。當被問及訓練GPT-4是否花費了1億美元,Altman回答說:「不止如此。」Altman還說,「大小是對模型品質的錯誤衡量(標準)。」
參考資料:Venture Beat、Wired
瀏覽 727 次