Llama 3後勢看好 和GPT-4 比較結果令人驚喜
編譯/黃竣凱
Meta 的新大型語言模型 Llama 3 有8B(80億參數)和70B(700億參數)可供選擇,並已作為開源提供給 AI 社群。儘管與 GPT-4 相比,Llama 3 較小、只有700 億參數,但它也已被證明是一個引人注目的模型。
贏過GPT-4
在進行邏輯推理能力測試的magic lift測試中,Llama 3就給出了正確答案,而GPT-4模型則未能提供正確答案。考慮到兩個模型之間訓練參數數量的顯著差異,這一結果尤其令人驚訝,Llama 3 只接受了 7萬個參數的訓練,而 GPT-4則接受了 170萬個參數的訓練。
更多新聞:最好的開放式模型之一 Meta 強勢發布 Llama 3
Llama 3 回答完美
在另一個針對簡單邏輯問題的測試中,Llama 3 和 GPT-4 則都表現出了準確性。然而,最突出的是 Llama 3 能夠嚴格遵循使用者指南生成句子,如當要求系統提示產生 10 個以「mango」結尾的句子時,Llama 3 成功產生了全部 10 個句子,超過了 GPT-4 的表現,後者則少生成了兩個句子。
不輸GPT-4
雖然Llama 3 目前不支援長上下文視窗,只支援8,000 單詞的上下文長度,但它在檢索能力 NIAH 測試中表現良好。例如當要求將一個隨機語句插入8,000 單詞長的內文中,並要求模型定位資訊時,Llama 3就在短時間內找到了文字,但GPT-4也以同樣的方式找到了。
Llama 3的挑戰
雖然 Llama 3 已經在大量測試中證明了自己的能力,但與 GPT-4 相比,它在解決數學問題任務上面臨挑戰。然而Meta 強調,Llama 3 經過大量程式碼示例的訓練,因此它在程式設計方面也應該表現良好,因此可能還需要更進一步的測試。
參考資料:Analytics Insight
瀏覽 1,419 次