OpenAI 安全主管轉職新秘密研究項目 進一步保護AI安全
編譯/黃竣凱
隨著人們越來越擔心與人工智慧(AI)大型語言模型(LLM)相關的風險,ChatGPT 背後的AI新創公司 OpenAI宣布,其安全團隊的重要主管 Aleksander Madry 將領導一個新的研究項目,成為 OpenAI 持續努力加強其安全措施的一部分,但該公司拒絕透露有關該項目的詳細內容。
OpenAI準備「新研究項目」
據報導,OpenAI 執行長 Sam Altman 在社群媒體平台 X 上表示,「Madry正在進行一個新的且(非常)重要的研究項目,」並將暫時辭去在AI安全準備部門的職務,由負責AI安全準備與協調的Joaquin Quinonero Candela和OpenAI 安全系統主管 Lilian Weng接替他的職責,Altman也補充道,「作為統一我們安全工作的一部分,Candela和Weng正在接管準備團隊。」
OpenAI設立安全委員會
隨著AI在線上和商業環境中變得越來越普遍,全球都在推動監管以確保其安全使用,為了回應這些日益嚴重的擔憂,並指導公司在開發通用人工智慧 (AGI)上的安全和道德決策,OpenAI 最近也為其董事會成員設立了安全委員會,OpenAI表示,其委員會將在AGI取得進展之前,協助提供安全和道德決策資訊。
AI採用率增長快速
鑑於AI正在在各行業的快速採用和整合,該公司積極主動的安全措施非常重要,根據研究分析公司GlobalData AI高層簡報顯示,到2030年,全球AI市場規模將超過1兆美元,從2023年開始實現39%的複合年增長率,而在一項 2024 年調查中,超過 20% 的企業回答說,他們工作中的AI採用率已經很高。
參考資料:verdict
瀏覽 431 次