量子運算 能加速機器學習嗎?

編譯/李寓心

在雲端技術的發展及進步下,人們擔心訓練新大型語言和基礎人工智慧模型的運算能力,會隨著模型的擴增,輸出的方式越複雜,使運算需求越高。因此,近期英國量子運算公司Orca與Nvidia合作,研發出一個混合系統,透過量子處理器和標準GPU的使用,加速和改良機器學習的過程,提高量子處理器的輸出質量和加快訓練時間。

據報導,在混合系統幫助下,Nvidia標準的GPU和來自Orca較新的量子處理單位(QPU),可將傳統和量子演算法進行拆分重新組合。(示意圖/123RF)

根據報導,在該混合系統的幫助下,Nvidia標準的GPU和來自Orca較新的量子處理單位(QPU),可將傳統和量子演算法進行拆分重新組合。對此,Orca公司的機器學習負責人William Clements說道:「其實將QPU視為在學習過程中,能幫助GPU的運作,是一件好事。」一直以來,Orca較專注於圖像生成、技術分析和量子機器學習,為Stable Diffusion和MidJourney等AI繪圖工具,提供所需的模型。這些軟體除了可根據文本提示創作圖像以外,還可用來建立用於醫學的合成圖像,或可在大型圖庫中,尋找環境因素的變化。

Clements補充說道:「我們在生成建模方面,其實就是要了解QPU性能如何擴展,以及會如何影響生成式演算法的性能,所以我們對這種混合方式感到非常興奮,因為它確實能讓我們的模型,擴展到一個相當大的系統,目前我們已經開始進行量子處理器和GPU叢集(Cluster)的展示。Clements提到,目前該公司已經使用光子QPU和8個大型GPU的生成式組合,產生非常高品質的圖像能力。同時,還發現混合的新系統比單獨運行的GPU叢集速度還快,且性能也有大幅度的改善。雖然該系統可以幫助傳統系統的機器學習,提供類似的像素分布,但GPU本身就具有該功能。

實際上,這也意味著QPU可運算出GPU生成中,每個單獨像素的最佳位置,並能自動將GPU與像素進行匹配,讓其自行完成更高畫質圖像的工作,不必擔心生成式模型,產生出不良品。同時這樣的技術,也被利用在晶片上,來放置微小的晶體管,透過最佳化的方式,將大量微小的物品放在其他領域,以凸顯其價值。

資料來源:Techmonitor

瀏覽 656 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button