約會軟體Bumble 釋出檢測裸體圖像AI工具
根據TechCrunch的報導,作為其打擊「Cyberflashing」(傳送未經請求的淫穢照片給別人)的更大承諾的一部分,約會應用程式 Bumble釋出檢測未經請求的淫穢圖像的人工智慧(AI)工具,供大家下載使用。
Bumble的Private Detector於 2019 年首次亮相,其能夠模糊用戶透過Bumble發送的裸照,並讓接收端選擇是否打開圖像。Bumble表示,幸運的是,在他們應用程式上發送淫穢圖像的用戶非常少,只有 0.1%,但整體規模讓他們能夠收集到行業中最完整的淫穢和非淫穢圖像數據。
現在,大家都可以從 GitHub 上獲得一個Bumble改進後的 AI 版本,並可以用於商業用途、分銷或是進行修改。雖然開發檢測裸體圖像的AI,並不完全是尖端技術,但小公司可能沒有時間自行開發。因此,其他約會應用程式、或任何可以發送裸照的網頁和程式,現在都可以切實地將這項技術放到他們自己的產品中,幫助保護用戶免於受到淫穢內容的影響。
而自從發布 Private Detector 以來,Bumble 還與美國立法者合作,以強制執行發送未經請求的裸體圖像的法律後果。Bumble表示,在 Bumble 的產品生態系統之外解決這個問題是有必要的,也需要更廣泛的討論如何解決,未經請求而收到的淫穢照片,以使網路對每個人來說都更安全、更友善。
當 Bumble 首次推出這種AI時,其聲稱它的準確率高達 98%。(編譯 / 莊閔棻)
參考資料:TechCrunch
瀏覽 877 次