Meta推出Purple Llama保護傘計畫 實現負責任的AI開發

記者/竹二

大多數的AI創新內容都是建立在開放模型之上,Meta的Llama模型下載數量近日突破1億次,為了建立對開發者的信任,Meta宣布推出Purple Llama保護傘計畫,將匯集各類評測方式與工具,幫助開發者負責任的運用開放的生成式AI模型建構。

Meta宣布推出Purple Llama保護傘計畫。(圖/Meta提供)

Meta推出Purple Llama初始版本

根據Meta的說法,他們所推出的第一套針對大型語言模型的網路安全評測工具,這些標準是基於產業指南及規範,並與Meta的安全專家合作建構而成,透過Purple Llama的初始版本,期待提供工具應對向白宮做出的安全承諾中概述的風險,包含量化大型語言模型網路安全風險的指標、評估不安全程式碼建議發生頻率的工具,以及評估使大型語言模型難以產生惡意程式碼或協助網路攻擊的工具。

更多新聞:蘋果加入AI戰 推出自家晶片設計的MLX機器學習框架

Meta相信可以透過這些工具,從本質上減少由大型語言模型建議出不安全生成式AI程式碼的頻率,並減少對網路上攻擊者的幫助。就像Llama 2負責任使用指南中所述,Meta建議開發者根據適合的內容規範,檢查及過濾大型語言模型的所有輸入及輸出內容。

Llama Guard可避免AI潛在風險

為了支持開發者執行此流程,Meta也發布Llama Guard,公開可用的基礎模型幫助開發者避免產出具潛在風險的輸出,並將在論文中公開研究方法及對結果的延伸討論,這項模型已經過一系列公開可用的資料集訓練,能夠檢測常見的潛在風險或違規內容,最終期待開發者能根據各自需求自行調整合適的內容,支援相關使用狀況,並更輕鬆地採用最佳作法,進而改善整個開放生態系。

其實,Meta已經不是第一次採用開放的AI策略,今年7月Meta與100多個合作夥伴共同推出Llama 2,包含 AI 聯盟(AI Alliance)、AMD、Anyscale、AWS、Bain、CloudFlare、Databricks、Dell Technologies、Dropbox、Google Cloud、Hugging Face、IBM等,期望一起為負責任地開發生成式AI開放生態系而努力。

瀏覽 311 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button