微軟攜手甲骨文 提升Bing AI運算GPU需求
記者/竹二
微軟近年來積極佈局生成式AI,因此就更需要更多運算資源來滿足爆炸性成長的AI服務,而甲骨文有數以萬計的NVIDIA A100和H100 GPU可以供租用,因此促成雙方共同攜手合作。
微軟攜手甲骨文,提升Bing服務需求
甲骨文日前宣布與微軟達成多年協議,微軟使用Oracle Cloud Infrastructure(OCI)的AI基礎設施、Microsoft Azure AI的基礎結構來推理AI模型,透過適用於Microsoft Azure的Oracle Interconnect,微軟可以使用Azure Kubernetes Service(AKS)等服務大規模編排OCI的運算,以滿足Bing對話式搜尋成長的需求。
更多新聞:微軟公布新抓漏計畫 針對Bing AI功能祭出漏洞獎勵
微軟自從導入OpenAI的技術後,Bing Chat輸入文字提示、問題與查詢,就會嘗試產出文字內容、尋找資訊,甚至產生各種風格的圖片,這背後支援的大型語言模型不僅需要大量GPU叢集進行訓練,還需要大規模推理,而甲骨文的GPU叢集有助於完成這些理工作。
微軟AI運算需求漸增,甲骨文可高效處理
甲骨文則表示,OCI Supercluster可以擴展至4096個OCI運算裸機執行個體,配備32768個A100 GPU或16384個H100 GPU,還有PB級高效能叢集檔案系統儲存,得以高效處理大規模的應用程式。
根據網站流量分析工具StatCounter的數據顯示,2023年10月Bing在所有平台的全球搜尋市占率為3.1%,遠輸給Google市占率91.6%。雖然如此,但微軟在AI方面的需求顯然越來越大,以至於他們要將Bing搜尋引擎所用的機器學習模型,轉移到甲骨文的GPU叢集上,好滿足未來的使用需求。
瀏覽 716 次