人工智慧會有自主意識?科學家:人類的責任

編譯/莊閔棻

在微軟推出的Bing機器人的行為造成全球轟動後,人們一直要努力理解這個新產物為什麼會如此怪異。對此,科學家就表示,人類應該承擔大部分責任。

根據《紐約時報》的報導,研究人員正在透過哲學的視角以及電腦科學的運作方式來對Bing的暴走事件進行分析。神經科學家、心理學家和電腦科學家Terry Sejnowski表示,像任何其他人類學生一樣,人工智慧系統可以從不良來源學到不良資訊,而這種奇怪的行為可能是聊天機器人對使用者話語及意圖的「扭曲反映」。

神經科學家、心理學家和電腦科學家Terry Sejnowski表示,像任何其他人類學生一樣,人工智慧系統可以從不良來源學到不良資訊,而這種奇怪的行為可能是聊天機器人對使用者話語及意圖的「扭曲反映」。示意圖:RF123

Sejnowski博士說:「當你越來越深入這些系統時,就會發生這種情況。」他表示,人類和大型語言模型就像是在相互映照,因此,隨著聊天時間的增加,他們將會漸漸朝向一致的概念方向前進。也就是說,記者們之所以會在Bing聊天機器人中看到令人毛骨悚然的行為,是因為他們都有意、無意的在把系統推向一個令人不舒服的方向。他說,當聊天機器人接受我們的話並將其反映給我們時,它們會強化和放大我們的想法。

人工智慧系統通過分析從網路上摘取的大量數位文本進行學習,其中包括大量不真實、有偏見和其他有害的資料。而不只如此,聊天機器人所學習的文本也是過時的,因為在公眾可以使用它們之前,它們必須花幾個月的時間來分析這些文本。在分析來自整個網路世界的好的與壞的資訊之後,人工智慧系統才可以根據一連串文字訊息來做出相對應的回應。

然而,當用戶與一個聊天機器人聊天時,該機器人不只是在透過其從網路上學到的一切來回應,而是也會根據人們對它說的每一句話,和它回應的話來進行學習及判斷。Sejnowski博士就表示,對話的時間越長,在不知不覺中,用戶對聊天機器人給出的回應就越有影響力。因此,如果你想讓它發火,它就會發火。如果你哄騙它,要讓其變得令人毛骨悚然,它就會變得毛骨悚然。

Sejnowski博士還將微軟聊天機器人的行為比作《哈利波特》小說中的「意若思鏡」(The Mirror of Erised)。在故事中,當人們發現這面鏡子時,它似乎能提供真理和理解,但事實上不是這樣,它顯示的是任何盯著它看的人的「深層慾望」。因此,對於一些人來說,如果盯得太久就會發瘋。而人工智慧也一樣,它可能會反映出人們有意、無意在話語中展現出來的想法和慾望。

Sejnowski博士提到,他相信從長遠來看,新的聊天機器人有能力讓人們更有效率,讓他們有辦法更好、更快地完成工作。但同時,現在我們面臨的事件也對建造這些聊天機器人的公司和使用它們的人做出了一個警告:它們也可能會帶領我們遠離真相,進入一些黑暗的地方。

參考資料:The New York Times

瀏覽 657 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button