人工智慧勢不可擋 資安長如何保護公司數據?
編譯/于文浩
無論是標準的商業慣例,如監控在人工智慧平台上共享的資訊,還是在工作場所整合公司認可的GPT,專家們認為,CISO和公司應該開始採取措施保護他們的機密。
生成式AI正在滲入工作場所,這也讓許多公司的資安長(CISO)需要開始謹慎對待這項技術。(圖/123RF)
根據《CNBC》的報導,隨著OpenAI的ChatGPT、微軟的Bing、Google的Bard和推特執行長馬斯克的自己的聊天機器人計畫成為頭條新聞,生成式人工智慧正在滲入工作場所,而這也讓許多公司的資安長(CISO)需要開始謹慎對待這項技術,並做好必要的安全措施。
‧從資訊安全的基礎知識開始
隨著人工智慧和聊天機器人進入工作場所,CISO可以從安全基礎知識開始。麥肯錫全球研究院的合夥人Michael Chui就說,公司可以授權使用現有的人工智慧平台,這樣他們就可以監控員工對聊天機器人說的話,並確保共享的資訊得到保護。
Chui表示,軟體的使用許可伴隨著額外的檢查和平衡,及所有公司許可軟件時的標準程序。如,對機密資訊的保護、對資訊儲存地點的監管,以及對員工如何使用軟體的指導等。Chui說:「如果你有協議,你就可以審查軟體,就可以看到他們是否以你希望的方式保護數據。」
Chui指出:「如果你是一家公司,你不會希望你的員工用將機密資訊輸入一個公開的聊天機人。所以,你可以把技術手段落實到位、授權軟體,並設立一個可執行的法律協議,規範數據可以去哪或不能去哪。」
‧如何創建或整合一個定制的GPT
人工智慧驅動的人才招聘平台Ceipal的首席執行長Sameer Penakalapati說,企業的一個安全選擇是開發自己的GPT,或者是僱用創造這種技術的公司來為自己製作一個客製化的版本。
Penakalapati說,如果一家公司創建了自己的GPT,該軟體就可以擁有一切的確切資訊,公司也可以保護員工輸入的訊息,但他也補充說,若是僱用一家人工智慧公司來生成這個平台,公司也還是可以保護輸入和儲存的訊息的安全。Penakalapati說,無論公司選擇什麼方法,CISO都應該記住,重要的是,要有意識地處理這些提供給技術的數據。
參考資料:CNBC
瀏覽 746 次