Open AI、Google和Meta 承諾對人工智慧內容進行浮水印保護

編譯/Cynthia

人工智慧技術愈發普及的當下,深度偽造影像與詐騙行為日益嚴重,已經引起各方的關注。然而,來自Google、Meta、Open AI等人工智慧公司的合作承諾將為這問題帶來一絲曙光。在美國白宮的推動下,這些公司自願採取措施來為人工智慧生成的內容加上浮水印,從而協助防範不實內容的傳播。

Open AI、Google和Meta 承諾對人工智慧內容進行浮水印保護。(圖/123RF)

其聯手承諾加入浮水印的公司包括 Alphabet、Meta、Anthropic、Inflection、Amazon.com 以及Microsoft。這些企業承諾在將系統投入使用前進行嚴格測試,並共享減少風險和投資網路安全的相關資訊。這將有助於讓人工智慧技術更為安全可靠。

更多新聞:數位時代保護身分數據安全性 不容小覷

美國政府與歐盟在人工智慧監管方面存在差距,歐盟已經通過一套草案規則,要求類似ChatGPT的大型語言模型(LLM)系統必須披露人工智慧生成的內容,區分所謂的深度偽造影像與真實影像,並確保防範非法內容。而在美國民主黨和參議院多數黨領袖Chuck Schumer則在六月呼籲通過「全面立法」以確保人工智慧的保障措施。

白宮宣布的這項承諾被認為是拜登政府在監管人工智慧技術方面的一大成果,且將有助於維護國家安全和經濟穩定。這項舉措也反映了政府對科技行業的領導作用,促使企業為公眾利益努力。

人工智慧技術的發展不僅有利於解決科學問題如醫學研究、氣候變化等,同時也帶來了深度偽造的威脅。七家公司共同承諾加入浮水印於系統中,以標示所有人工智慧生成的內容,包括文字、圖像、音訊和影像。這將使用戶能夠更容易發現可能的深度偽造圖像或音訊等內容,從而避免受到虛假資訊的影響。

然而,這項措施也面臨一些挑戰,例如如何確保共享資訊時浮水印的有效顯示,以及如何保護用戶的隱私,防範技術潛在的偏見和歧視。這些問題需要公司們共同努力解決,以確保人工智慧技術的安全可靠性,在相關技術持續發展的同時,保持技術的安全與公平性將是不可或缺的課題。

資料來源:Cybernews

瀏覽 1,210 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button