AI運用福音 由繁化簡機器學習流程非難事
人工智慧計算編排供應商Run:ai於3月籌資7500萬美元,而Run:ai也正和MLops平台供應商Weights & Biases (W&B)以及Nvidia合作。透過這樣的三方合作的效益,希望能幫助數據科學家更輕鬆地操作整個機器學習的工作流程,因為這通常會是複雜的操作,使用者需要有機器學習優化的硬體,同時也要有能力協調硬體上的工作負載,以及會運用機器學習操作技術(MLops)管理模型。
Run:ai執行長Omri Geller表示,數據科學家可運用Weights & Biases來規劃和執行所設計的模型,而Run:ai也為了協助企業在雲原生環境中使用Nvidia的硬體,利用了Kubernetes容器編排平台來處理機器學習工作負載。
圖/123RF
Run:ai在Nvidia的GPU資源上可以協調工作負載,目前已被設計為Kubernetes的插件(plug-in),可讓Nvidia GPU資源虛擬化,另外Run:ai能夠管理虛擬GPU的配額,確保工作負載能訪問所需的資源。Weights & Biases的業務發展副總裁Seann Gardiner就表示,這次的合作可利用Weights & Biases的訓練自動化和Run:ai協調GPU資源的優勢。
Nvidia產品管理高階總監Scott McClellan則提出三方結合的優勢,認為Run:ai和Weights & Biases雙方具有可互補的技術,若數據科學家使用Nvidia的人工智慧企業容器(AI enterprise containers),就不必再親自協調和部署,而目前兩家供應商已納入Nvidia的平台中提供軟體和工具,協助企業提高AI可用性。
總而言之,對Nvidia來說,這是為了幫助企業們解決初次發展人工智慧項目時會面臨的其中一項關鍵挑戰。對於未來的機器學習工作流程的操作也將越來越容易。(編譯/施毓萱)
資料來源:
瀏覽 1,355 次