制定生成式AI策略 影響資訊長決策10個問題
編譯/于文浩
隨著人工智慧(AI)快速發展,各大公司都急於從生成式AI中找出可以取得商業價值的方法。與此同時,這些公司也要小心不陷入無數陷阱,並導致公司失去優勢,或是發生更嚴重的資訊外洩,可以說是舉步維艱。而其中,作為內部的頂尖技術專家的資訊長則是首當其衝的要處理這些問題。
AI在公司的應用可以說是越來越多。研究公司 Gartner 2023 年 5 月對 2,500 名高層進行調查的一份報告就顯示,其中有約 45%的人因為圍繞 ChatGPT 討論,而增加對AI投資;有70%的人也已經在探索新一代AI。以下我們就將帶你來看看影響資訊長做決定的10個問題:
更多新聞:不顧罷工抗議!Netflix 招聘年薪高達90 萬美元AI產品經理
- 允許或不允許
公司面臨關於AI的第一個問題就是:「到底該禁止還是允許該工具的使用」。一些知名公司出於各種原因,包括擔心機密數據外洩,就禁止 ChatGPT 等生成式AI工具,但也有一些公司允許有限地使用該技術,還有一些則完全開放。普華永道會計師事務所的美國數據風險和隱私負責人 Mir Kashifuddin 就表示:「現在的第一個問題是允許還是不允許,許多公司都在討論我們是阻止AI還是允許它。」
- 如何趁勢而上
首席資訊長還意識到,他們必須學會利用技術的潛力,否則就會落後。因此,「如何使用生成式AI使其公司脫穎而出」成為一大重點。 研究公司 Gartner 的傑出分析師Frances Karamouzis 就表示:「首席資訊長應該找找『他們可以在哪裡有效地使用生成式AI』。其可能性如此多,你必須將它們直接與業務戰略保持一致。」
- 提供員工的指導
Momentum Technology 風險諮詢董事總經理Mary Carmichael 表示,當談到 ChatGPT 等工具時,高層們面臨著另一個大問題是:「他們現在向自己員工提供哪些指導?」Carmichael指出:「員工已經在問:『我應該使用這個工具嗎? 我應該什麼時候使用它? 我應該注意什麼?』,但公司的 IT 似乎還沒趕上」。
- 業務中斷
生成式AI是一項顛覆性技術,因此首席資訊長必須考慮他們的公司是否或如何成為這種力量的受害者。Carmichael 表示:「生成式AI對你的業務有何影響? 如,ChatGPT 如何影響你的商業模式?都是需要思考的問題」。並指出一些公司就因為面臨來自AI的突然競爭,已經失去巨大的市場價值。
- 還沒制定好的政策
管理諮詢公司麥肯錫公司的合夥人Douglas Merrill 表示:「我們都面臨的一個特殊問題是,生成式AI很新,而且發展得非常快,所以目前還沒有太多合適的政策。現在,新一代AI的風險指導方針不但很脆弱,也沒有普遍被接受。」
- 數據隱私和安全
2023 年春季中,韓國電子公司三星就因為發現其部分內部原始碼被上傳到 ChatGPT,而禁止員工使用生成式 AI 工具。公司高層都希望他們的首席資訊長、數據領導者和隱私主管採取行動,制定政策,實施控制,並部署監控工具,以確保員工遵循可接受的使用政策,而不會洩露專有數據和知識產權。
- 遵守數據和隱私法
首席資訊長以及數據、法遵、風險和安全領導者面臨的另一個問題是:如何監控並確保員工在使用生成式AI時不會違反數據隱私法和數據保護的規則。網路安全平台製造商 Deep Instinct 的首席資訊長 Carl Froggett 就警告說:「當你將數據放入由其他人控制的AI引擎中時,你就失去了對這些數據的控制權」。
- 準確性問題
到目前為止,AI都仍然有輸出準確性上的問題,並可能會給出錯誤的答案。而若是員工未經查證或是直接使用,就可能會造成很多問題。因此,首席資訊長也需要解決關於AI輸出內容錯誤的問題,並確保員工知道確認的重要性。
- 技能提升要求
隨著AI迅速重塑公司對 IT 技能和人才的需求,所有員工都將需要學習如何使用生成式AI工具。與此同時,IT 員工也必須接受重新培訓,學會使用生成式AI完成自己的工作,並掌握支持該技術在整個組織中使用所需的技能。正如 Advance.AI 法遵主管Goh Ser Yoong 所說:「首席資訊長必須評估其 IT 部門內的技能差距,並提供足夠的培訓和資源,以有效地理解和使用生成式AI」。
- 新規定
世界各國政府正在討論是否以及如何監管AI的使用。因此,首席資訊長也必須跟上與AI使用相關的、不斷變化的法規和法律框架,如最近的歐盟AI法案。Goh 表示:「遵守數據保護法、知識產權法規、行業特定準則和道德標準非常重要。首席資訊長應與法律團隊密切合作,了解並解決與生成AI相關的任何法律影響」。
參考資料:CIO
瀏覽 718 次