可自動去背辨識 Meta公布圖像分割AI模型
記者/竹二
Meta宣布開源可分割圖像,或將某部分圖像獨立出來並遮罩的圖像分割(image segmentation)AI模型及訓練資料集,引發網路一陣熱烈討論。
圖像分割是指辨識屬於特定物件的圖像像素,它是電腦視覺的核心任務,也用於多種領域,包括分析科學影像或編輯相片。但建立特定應用的準確圖像分割模型,需要具備AI模型訓練的基礎架構,以及經仔細標註的大量資料。
Meta指出,Segment Anything專案的核心目的是透過提供圖像分割的底層模型,降低訓練特定任務用的模型建立、基礎架構、資料標註的門檻。其SAM模型已經過多元資料訓練,再依不同任務加以訓練,也可像自然語言處理模型一樣透過提示執行。
同時,此類模型訓練資料不像一般影片、圖像和文字可在網際網路上隨處取得,這也是Meta提供SA-1B價值所在。Meta說,它也是歷來最大的圖像分割訓練資料集。
Meta指出,SAM作為底層模型,已能理解模型的一般概念,可為圖像和影像中任何物件產生遮罩,包含訓練時未遇過的物件和圖像類型,足以涵蓋多種應用情境,包括較新的影像領域,如水底相片或細胞顯微影像等。
SAM的功能有多強大?像是理解網頁的影像和文字內容,或是用於AR/VR系統中,根據使用者視線選擇物件,再將之提升為3維物件。對內容創作者,SAM可協助擷取一部分影像製作拼貼,或進行影片編輯。SAM也可用於自然現象的科學研究,例如定位動物或物件,並在影片中追蹤等等。
瀏覽 918 次