OpenAI 安全漏洞曝光!駭客取得 AI 技術設計
編譯/夏洛特
人工智慧(AI)新創公司OpenAI的系統似乎比想像的更容易被破解,早在2023年初,一名駭客就成功入侵了 OpenAI 的內部消息系統,竊取了有關該公司AI技術設計的詳細資訊,據兩位知情人士透露,駭客從員工線上論壇中,獲取了有關 OpenAI 最新技術的細節,但未能進入公司儲存和建構AI的系統,而OpenAI也未曾向外部公開這一事件。
OpenAI 未向外公開
據報導,兩位知情人士表示,OpenAI 的高層在 2023 年 4 月的一次全體會議上,向員工披露了這一事件並通知了董事會,然而,由於未有客戶或合作夥伴的資訊被竊取,高層認為駭客只是一個「沒有與外國政府有關聯的私人個體」,並不構成國家安全威脅,公司決定不對外公開這一消息,也未向FBI或其他執法部門報告。
更多新聞:解決ChatGPT幻覺問題 OpenAI 推出第二個神經網路
引發內部擔憂
然而對於一些 OpenAI 員工來說,這一消息引發了對外國對手(如中國)竊取AI技術的擔憂,即使目前這些技術主要是工作和研究工具,但這也引發了對 OpenAI 如何對待安全問題的質疑,並暴露了公司內部在AI風險問題上的分歧,在此次安全漏洞後,OpenAI 的前技術項目經理 Leopold Aschenbrenner 就曾發送一份備忘錄給公司董事會,指出公司在防止中國政府和其他外國對手竊取其機密上「做得不夠」,但卻被解僱。
揭露人被解僱
Aschenbrenner 表示,公司是因他外洩資訊而在今年春季解雇了他, 對此OpenAI 的女發言人 Liz Bourgeois 則表示,「我們感謝 Leopold 在 OpenAI 期間提出的擔憂,但這並未導致他的離職,儘管我們與他一樣致力於建立安全的通用人工智慧(AGI),但我們對他所作的許多關於我們工作的聲明持不同意見,包括他對我們的安全措施的描述,特別是這次事件,我們在他加入公司之前就已經解決並與董事會分享。」
AI 技術對國家安全的風險評估
值得注意的是,目前還沒有太多證據表明當今的AI技術會對國家安全構成重大風險。OpenAI、Anthropic 和其他公司過去一年的研究顯示,AI與搜尋引擎相比並沒有顯著危險性,Anthropic 共同創始人兼公司總裁 Daniela Amodei 表示,若其最新的AI技術設計被竊取或與其他人自由分享,也不會對社會構成重大風險。
強化安全保護
包括 OpenAI 和 Anthropic 在內的一些公司都已經開始鎖定其技術營運,OpenAI 最近就成立了一個安全委員會,探討如何應對未來技術,委員會的成員包括曾是美國陸軍將領、領導過國家安全局和美國網戰司令部的 Paul Nakasone,此外,他還被任命為 OpenAI 董事會成員之一。
參考資料:The New York Times、Reuters
瀏覽 280 次