強強聯手!微軟和Open AI共創AI時代
編譯/李寓心
近期,由Open AI研發的ChatGPT帶起一陣AI風潮後,不僅提高人們對AI的認識,也使各家科技公司再次將目標轉移至AI技術的發展。而微軟的雲端服務Azure,也透過AI和雲端的結合,使Azure成為能運作大規模AI模型的「大平台」。
隨著AI研究人員開始使用更強大的GPU,來處理高複雜性的AI工作負載,進而發現AI模型相當具有潛力,同時,還可處理多種的語言模型任務。然而,這些模型需要大規模的運算技術,才能有進一步的發展。據微軟高效能和AI產品負責人Nidhi Chappell說:「我們從研究中得知,模型越大所需的數據越多,訓練時間也就越長,但相對地,模型的準確性越高。」
因此,這一發現也為AI技術的發展,帶來強大的推動力,以尋求更大規模的AI模型為目標。但在發展模型的同時,也意味著除了需有大型的基礎設施之外,還需要能夠長時間穩定運行的技術。所以,2019年微軟和Open AI建立合作夥伴關係,以合作開發新的Azure AI超級運算技術,加速AI技術的突破,不僅實現大型語言模型的可能,也使AI的優勢,得到全球廣泛的回響。
在Azure中建構的超級運算技術,其基礎設施還包括,數以千計的NVIDIA優化的GPU,以NVIDIA的Quantum InfiniBand為平台,超高速處理,高解析度模擬、超大型資料集和多種高度平行的演算法,是世界上唯一可完全卸載的網路內算平台,提高雲端基礎設施的效能,降低成本和複雜性。
對此,微軟AI副總裁Eric Boyd也表示,如今,針對大型語言模型訓練優化的Azure,其基礎可透過雲端中Azure AI超級運算功能的獲得,由NVIDIA提供GPU、網路硬體和虛擬化軟體的組合,可視為對下一波的AI創新,提供所需的運算能力。他補充說:「正因為我們看到在發展大型訓練模型時,所需的技術進一步與Open AI合作,提供彼此缺乏的關鍵技術。」
微軟雲和AI小組的執行副總裁Scott Guthrie,最後說道:「只有微軟的Azure提供的GPU、InfiniBand網路和獨特的AI基礎設施,能構建這類AI模型所需的技術,也就是Open AI選擇與微軟合作的原因。現階段的Azure正是開發和操作,大型AI模型工作負載的好地方。」
資料來源:Microsoft
瀏覽 786 次