加速開源AI和機器學習  Google Cloud 與 Hugging Face 強強聯手

編譯/莊閔棻

Google母公司Alphabet的雲端運算部門Google Cloud表示,為簡化公司Google雲端中人工智慧(AI)軟體的開發,已與AI新創公司 Hugging Face 建立合作夥伴關係,讓開發人員無需支付 Google Cloud 訂閱費用即可建立、訓練和部署 AI 模型。隨著微軟和Alphabet 等公司推出專注於消費者的生成式AI工具,為增強現有產品、滿足內部需求,大大小小的企業都開始部署自己的AI。

Google母公司Alphabet的雲端運算部門Google Cloud表示,為簡化公司Google雲端中人工智慧(AI)軟體的開發,已與AI新創公司 Hugging Face 建立合作夥伴關係。(圖/123RF)

據外媒報導,Google Cloud 和Hugging Face 宣布建立新的策略合作夥伴關係,允許開發者將Google Cloud 的基礎設施用於所有Hugging Face 服務,並支援Hugging Face在Google Cloud上的模型培訓和服務。現在,使用 Hugging Face 平台的開發人員將能夠「經濟高效」地使用Google的張量處理單元 (TPU),和該公司使用圖形處理單元(GPU)建立的超級電腦。

更多新聞:強者聚集!輝達、微軟、OpenAI等公司與美國政府合作進行AI研究計畫

換句話說,Google Cloud 和 Hugging Face 將密切合作,幫助開發人員在 Google Cloud 上更快、更有經濟地訓練和服務大型 AI 模型。其中一些好處包括:

  • 輕鬆使用Google Cloud 的服務

兩者的合作為開發人員只需在Hugging Face 平台上點擊幾下,即可透過Google的Vertex AI 來訓練、調整和提供Hugging Face 模型的服務。如此一來,他們就可以輕鬆地利用Google Cloud 專門構建的端到端機器學習作業(MLOps)服務來建構新一代AI應用程式。MLOps是一組用於自動化和簡化機器學習工作流程和部署的實踐工具。

  • 支援開源管理平台Google Kubernetes Engine (GKE

兩家公司的合作也將支援開源管理平台 Google Kubernetes Engine (GKE) 的使用,讓 Hugging Face 上的開發人員可以透過GKE 進行模型的各種操作,包括訓練(training)、調校(tuning)及提供服務(serving)。同時,開發人員還可以利用 Hugging Face 專用的深度學習容器(Deep Learning Containers),在 GKE 上進行這些操作。深度學習容器是預先配置深度學習相關軟體和工具的環境,使用戶可以更方便地進行機器學習和深度學習任務。

  • 開放Google Cloud 最新一代AI 加速器Cloud TPU v5e 的使用權限

此外,Google和Hugging Face還將為更多開源開發人員提供最新一代AI 加速器Cloud TPU v5e 的使用權限。與之前的版本相比,每美元的效能提升高達 2.5 倍,推理延遲降低高達 1.7 倍。

  • 在未來增加對輝達A3超級電腦虛擬機器(VM)的支持

未來Google也將為Hugging Face增加對輝達 A3 VM 的支持。A3 VM由輝達H100 Tensor Core GPU 提供支持,與上一代相比,訓練速度提高 3 倍,網路頻寬提高 10 倍。

  • 提供簡單計費方式

最後,Hugging Face也能利用 Google Cloud Marketplace 進行簡單的管理和計費。 Google Cloud Marketplace 是一個提供各種雲端服務和應用的平台,企業和開發者可以透過這個服務輕鬆地訪問和使用不同的雲端解決方案。在這種情境下,Hugging Face 托管平台的各項服務,如推論(Inference)、端點(Endpoints)、空間(Spaces)、自動訓練(AutoTrain)等,都可以透過 Google Cloud Marketplace 進行管理和計費,代表使用者可以透過 Google Cloud Marketplace 的界面輕鬆管理他們在 Hugging Face 平台上的資源,同時使用 Google Cloud 的計費系統追蹤和支付相關的費用。

Google Cloud執行長的說法

Google Cloud執行長 Thomas Kurian表示,「Google Cloud和 Hugging Face 都希望讓生成式AI對開發者來說更容易使用、更具影響力。這種合作關係確保 Hugging Face 上的開發人員將能夠訪問 Google Cloud 專門構建的 AI 平台 Vertex AI 以及我們的安全基礎設施,這可以加速下一代 AI 服務和應用程序的發展。」

Hugging Face 執行長全力支持

Hugging Face 執行長 Clement Delangue 則表示。「從最初的《Transformers》文獻到預訓練模型 T5 和 Vision Transformer,Google一直處於AI進步和開放科學運動的最前端。透過這項新的合作關係,我們將使Hugging Face 用戶和Google Cloud 客戶能夠輕鬆利用最新的開源模式,以及來自Google Cloud 的領先優化AI 基礎設施和工具(包括Vertex AI 和TPU),進而提高開發人員建立AI模型的能力。」

參考資料:ReutersprnewswireThe Verge

瀏覽 920 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button