合組AI安全小組 4家影響力公司成立「尖端模型論壇」
編譯/莊閔棻
為確保安全與負責任的開發尖端人工智慧(AI)模型,AI領域最具影響力的四家公司: ChatGPT 開發商 OpenAI、微軟、Google和 Anthropic 宣布成立「尖端模型論壇」(Frontier Model Forum),該論壇將共同開發AI技術評估的安全基準,以推廣最佳實踐和訂定標準。
據外媒報導,該論壇的核心使命就是監管OpenAI 之前所說的「尖端AI」,即被認為足以對「公共安全構成嚴重風險」的先進AI和機器學習模型。他們認為,此類模型帶來了獨特的監管挑戰,該組織強調,在政策制定者制定新規則之前,該行業需要繼續自我監管。
Anthropic、Google、微軟和 OpenAI 表示,新的尖端模型論壇有四個關鍵目標:
- 推進AI的安全研究,促進負責任的尖端模型開發,最大限度地降低風險,並實現獨立、標準化的AI能力和安全性評估方法。
- 找出負責任地開發和部署尖端模型的最佳方法,幫助公眾了解該技術的性質、功能、局限性和影響。
- 與政策制定者、學術界、民間社會和公司合作,分享有關信任和安全風險的知識。
- 支持開發有助於應對社會最大挑戰的AI系統,如減緩和適應氣候變化、檢測早期癌症和預防以及應對網路威脅。
雖然目前尖端模型論壇只有四名成員,但該團體表示,他們也正在向開發尖端模型的組織開放,而加入的新成員必須「透過技術和制度方法」表現出對尖端模型安全的承諾。而在未來幾個月內,該組織將首先成立一個具有不同背景的顧問委員會,以指導其組織的戰略、制定章程、治理方法和融資結構等。
在這項努力之際,政策制定者也正在為幫AI設置護欄而努力。日前,科技公司,包括尖端模型論壇的創始人成員,就在白宮與美國總統拜登會面,並同意採取新的AI保障措施,在這場會議上,包括OpenAI、Anthropic、Google、Inflection、微軟、Meta 和亞馬遜在內的7家頂級AI公司也對拜登許下八大承諾,包括對AI內容加浮水印,以及允許獨立專家測試AI模型等。
參考資料:CNBC、The Guardian、Tech Crunch
瀏覽 804 次