不顧安全了? OpenAI無預警解散AI安全團隊

編譯/黃竣凱

OpenAI無預警解散AI安全團隊。圖取自 OpenAI

人工智慧(AI)新創公司OpenAI 才剛推出至今為止最像人類的人工智慧(AI)GPT-4o ,就解散了專注於AI長期風險「超級對齊」(Superalignment)團隊,成立甚至僅一年而已,引發業界關注。

Superalignment被解散

據報導,知情人士表示,一些團隊成員正在被重新分配到公司內的多個其他團隊。OpenAI 於 2023 年 7 月創建了 Superalignment 團隊,由 Ilya Sutskever 和 Jan Leike 共同領導,該團隊致力於降低AI風險,如「失控」的可能性,當時OpenAI 表示,將在四年內將其 20% 的運算能力投入到該計畫中,然而該團隊現在卻在領導人 Ilya Sutskever 和 Jan Leike 稍早宣布辭職幾天後,就被解散了。

更多新聞:青出於藍   GPT-4o VS. GPT-4 更多進化優點

Sutskever的回應

對此,Sutskever 的反應非常正向,並在他的貼文中表示,他「相信 OpenAI 將在現任領導層的領導下,打造既安全又有益的通用人工智慧(AGI)」,並補充說他「對接下來發生的事情感到興奮」,還提到了一個對他來說「非常個人有意義的項目」,但尚未對此詳細說明。

Leike的攻擊

然而,另一位領導人Leike似乎就沒有對自己的離開非常滿意,甚至還在X上暗示他是抱著不滿離職的,並抨擊了OpenAI放棄安全的措施,指責公司將「安全文化和流程讓位給閃亮的產品」。執行長Sam Altman則未對此發表評論,只是在 X 上表示,看到Leike 離開他很難過,但公司還有更多工作要做。

參考資料:InsiderCNBC

瀏覽 696 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button