生成式AI安全性 禁止和採用之間平衡性
編譯/鄭智懷
隨著生成式人工智慧(AI)的迅速發展並廣受各界吹捧、歡迎,有關對該技術的擔憂,例如其開發速度是否過快等問題已成為科技業爭論的主要議題之一。譬如馬斯克(Elon Musk)等千名業界與學界知名人士簽署的公開信即警告,人工智慧可能對社會與全人類帶來高度風險,呼籲科技界暫停開發比GPT-4更先進的人工智慧系統。
雲端運算安全公司Zscaler旗下分析師Kyle Fiehler認為,當前生成式人工智慧技術所引發問題中,最嚴重的莫過於個人數據與隱私,以及各方規範兩大層面。
在個人數據與隱私上,Kyle Fiehler以三星(Samsung)在今年3月初引入ChatGPT,卻在不到一個月的時間就爆出旗下員工將程式碼、晶片測試與會議紀錄上傳為例,指出使用者往往忽略人工智慧工具通常並非為己方持有,而是由第三方託管,因此導致機密外洩危機。隨著該技術不斷進步,並且被應用在更多領域,類似的問題將有增無減。
至於在各方規範上,Kyle Fiehler提到,無論是人工智慧工具開發商或用戶,都可能招來監管單位的關注與罰款。主要原因在於其無須如駭客精心策畫,就可能導致大規模資料外洩事件發生。鑒於生成式人工智慧工具可能侵犯個人隱私的擔憂,義大利首開第一槍,為全球第一個禁止ChatGPT之國家;德國等國家也正考慮跟進。有趣的是,上述的禁令卻可能因此讓OpenAI等開發商逃離巨額罰款。
Kyle Fiehler主張,儘管生成式人工智慧具有包含上述問題在內的各種風險,但其開發與應用已經是當前不可擋之趨勢。在此形勢下,各國政府應該思索的是如何為該技術制定標準,為其建立可行的規範與範例,以及相關政策,而非一昧地阻止其發展。
資料來源:Help Net Security
※更多ChatGPT相關訊息,請參考【生成式AI創新學院】。
瀏覽 685 次