防洩密!新創公司推AI機器人外掛程式

編譯/莊閔棻

位於舊金山的新創公司Patented.ai發布了一個名為LLM Shield的外掛程式。根據《快公司》報導,該外掛程式可以在聊天機器人的窗口運行,當公司員工即將與OpenAI的ChatGPT、或Google的Bard等人工智慧聊天機器人分享敏感或機密資訊時,該程式將對員工發出警告。

示意圖:123RF

隨著洩密事件頻傳,包括三星等知名企業已經遭殃,讓Patented.ai加快了LLM Shield的開發。LLM Shield由人工智慧模型驅動,目的是識別各種敏感資訊,從個人身份資訊、商業機密、到受保護的健康數據或軍事機密等。Patented.ai的一位發言人說,這款模型可以用在各種產品上,保護各行業公司的智慧財產權。

在一份聲明中,創立Patented.ai的連續創業者和投資者Wayne Chang表示:「人工智慧是非常強大的,企業不應該禁止使用。在透明化且可控制的使用下,公司應該可以對員工及其對LLM的使用更有信心。」

在大小企業中,生成式人工智慧模型可以有很多有用和省時的應用,然而,基於該技術的不透明性,以及逐漸受到重視的隱私問題,越來越多公司都因為擔心敏感或私人資訊會被這些模型使用,而禁止該技術。如,為了盡量減少資訊洩露的機會,美國銀行、高盛、花旗集團、德意志銀行和富國銀行都已禁止使用ChatGPT。

Patented.ai也提到說,當員工將公司數據輸入聊天機器人時,這些數據就會被用來訓練為聊天機器人提供動力的大型語言模型(LLM)。而且,更重要的是,該數據的分享甚至還可能會成為一個窗口,讓那些建立訓練數據集的人可以在網路上的同一位置收集到更多的數據。諮詢公司Gartner的分析師Avivah Litan就指出:「員工在與生成式人工智慧聊天機器人互動時,確實很容易暴露敏感和專有的企業數據。」

據報導,LLM Shield現在已經上市。而該公司也打算在今年全年推出更多由其人工智慧模型驅動的新型安全產品,包括供個人使用的外掛程式版本。

參考資料:Fast Company

瀏覽 34,235 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button