打敗Google和蘋果  Meta率先將強大 AI 應用於手機

編譯/夏洛特

Meta近日宣布,他們已成功將其人工智慧(AI)模型Llama的縮小版,應用於智慧型手機和平板電腦,這一成就讓Meta在行動裝置AI技術上超越了Google和蘋果。此舉不僅讓智慧型手機具備運行強大AI的能力,還展現了Meta對行動端AI發展的開放式策略。

Meta宣稱已成功將其人工智慧模型Llama的縮小版,應用於智慧型手機和平板電腦。
Meta宣稱已成功將其人工智慧模型Llama的縮小版,應用於智慧型手機和平板電腦。(圖/取自Meta官網

壓縮Llama3.2模型速度提升

據報導,Meta發表的壓縮版Llama 3.21B和3B模型,不僅能在記憶體使用量減少一半的情況下運行,運行速度更比以往快了四倍,根據Meta的測試,這些模型的運算性能幾乎等同於大型模型,使手機也能處理複雜的AI任務,讓用戶隨時隨地享受強大的AI功能。

更多新聞:Meta爆發AI魂 Llama 3.2產品應用一把罩

Meta的「量化」壓縮技術

這項技術突破的關鍵在於Meta採用了「量化」壓縮技術,並結合了量化感知訓練(QLoRA)與SpinQuant,使這些AI模型在不影響準確性的前提下,減少了運行所需的計算資源,讓AI模型無需依賴大型數據中心的運算資源,能夠直接在行動裝置上運行。

在Android手機上表現出色

在One Plus 12 Android手機上的測試顯示,壓縮模型的大小減少了56%,記憶體使用下降了41%,且文本處理速度超過了兩倍,使AI模型在行動端的性能大幅提升,滿足了大多數行動應用對於文本處理的需求,並有望應用於更多場景。

與高通和聯發科合作加速AI普及

此外,Meta此次也仍採取開放策略,與高通(Qualcomm)及聯發科(MediaTek)合作,讓其AI模型能在不同價格和性能的Android裝置上高效運行。相較於Google和蘋果將AI深度整合於系統中的封閉式策略,Meta的開放方式讓開發者不受限於系統更新,能更快推出AI應用。

壓縮版Llama擴展應用市場

Meta將壓縮版Llama模型,開放至Hugging Face及其Llama網站上供開發者使用,打破平台門檻,讓開發者更便捷地開發行動端AIApp,這種做法類似於早期行動App的開放時代,有望促進行動AI應用的爆發性成長。

參考資料:VentureBeat

※探索職場,透視薪資行情,請參考【科技-職缺百科】幫助你找到最適合的舞台!

瀏覽 1,019 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button