GPU和AI快速演進如何應用地端與雲端?
編譯/戴偉丞
人工智慧趨勢正在推動GPU等基礎設施的大量需求,此類基礎設施得使AWS、Azure等雲端供應商加速運算,進而改變傳統基礎設施的部署策略。然而,這些基礎設施卻像是一把雙面刃,在電力需求上帶來前所未有的負擔。因此面對人工智慧所驅動的種種趨勢,在地端部署系統和大規模公有雲之間,以及新興GPU和人工智慧之間,該如何組合是個值得思考的問題。
公有雲+GPU=AI專用雲端
關於公有雲的優勢,除眾人所熟知的即時存取、快速啟動、快速適應、動態擴展等特性外,更有基於Kubernetes、容器化管理工具等新技術。同時由於GPU不斷升級,公有雲已具備更為快速的人工智慧效能、人工智慧開發工具、預先訓練的網絡,乃至於簡化人工智慧應用程式的開發過程。市面上AWS Lambda、Scaleway及CoreWeave等GPU雲端供應商將自己定位為人工智慧專用雲端,適用強大運算能力以及平行處理能力的應用程式,藉此提供它們所謂比大規模雲端更快的效能及更低的延遲。
地端滿足分秒必爭需求
延遲問題一直是雲端在資料傳輸方面的重點。雖然對於多數企業並不會形成太大的問題,但是對於生成式人工智慧、數位金融、太空科技、自動駕駛、生命科學等行業而言,對於時間的誤差,可謂是「失之毫釐、差之千里」。對此,地端伺服器可以透過升級後的GPU、平行檔案系統以及光纖網路,提供敏感數據資料保護以及快速傳輸數據的要求,進而更經濟且高效率地滿足法規範要求以及數據主權的需求。
雲端進門容易出門難
對於多數企業級用戶而言,進入雲端的門檻並不高,但是隨著使用公有雲服務的時間拉長,鑑於大型語言模型訓練、深度學習、機器學習等需要大量數據的技術,資料在遷入、遷出公有雲、私有雲、混合雲的過程中,形成了相當高昂的費用。數據顯示,超過八成的組織希望將部分運算和儲存資源轉移到私有雲或是非雲端的環境。其中,多數將部分資料與應用程式轉移到地端設備的原因係鑒於公有雲的成本持續上漲。
資料來源:Forbes
瀏覽 334 次