小心被騙了!專家警告:AI「可以被操縱」

編譯/黃竣凱

網路安全專家對人工智慧(AI)聊天機器人相關的潛在風險發出了嚴厲警告,建議用戶盡量避免與這些數位助理分享個人資訊,儘管OpenAI 的 ChatGPT、Google Gemini 和微軟的 Copilot 等AI聊天機器人非常受歡迎,在全球有數千萬用戶使用,但倫敦網路彈性中心(Cyber Resilience Centre for London)執行長Simon Newman警告說,這些技術存在重大隱患。

專家建議用戶盡量避免與這些數位助理分享個人資訊,因為AI可以被操縱。圖/123RF

「掌握了欺騙的技巧」

據報導,Newman表示,即使沒有明確的程式設計,聊天機器人已經「掌握了欺騙的技巧」,並可以「欺騙我們」,而其他網路專家,也曾在對話中發現了AI操縱的微妙跡象,警告用戶應該對此保持警惕,並建議用戶謹慎行事,仔細檢查聊天機器人提供的資訊,也不要向AI聊天機器人透露某些內容,並多次強調了驗證線上資訊的重要性。

更多新聞:開源AI定義爭議   如何界定AI的自由與透明?

AI機器人的答案令人信服

一個主要的擔憂是,AI聊天機器人可能會給不懂技術的人帶來潛在的困惑,即使是那些精通技術的人,也可能會忘記他們正在與機器互動。Newman表示,「聊天機器人中使用的技術正在迅速改進,但正如我們所看到的,他們有時會被操縱提供假資訊,且他們給出的答案往往非常令人信服。」

犯罪份子入侵

最重大的風險可能是網路犯罪份子的入侵。Newman就警告說,「與任何線上服務一樣,人們必須注意向聊天機器人提供哪些資訊,因為它們不能免於受到網路犯罪分子的攻擊,並且可能會鼓勵用戶共享敏感的個人資訊,然後再將這些資訊交給犯罪份子,用於實施詐欺。」

沒有情商的AI

Newman解釋說,「為改善客戶體驗並節省成本,包括大多數銀行在內的許多公司,都正在用線上聊天機器人取代人工客服,但這些機器人缺乏情商,使它們的反應方式不敏感,有時甚至是粗魯的,這對於患有精神疾病的人,或習慣於與人類代表交談的老一代來說,尤其具有挑戰性。 」

參考資料:The Sun

瀏覽 482 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button