AI聊天機器人 為何失控暴走?
編譯/莊閔棻
一群人工智慧專家,包括億萬富翁馬斯克在內的科技領袖,要求人工智慧實驗室暫停其最先進的系統的工作,警告說它們「對社會和人類有深刻的風險」。
雖然許多專家對信中提到的風險的嚴重性持不同意見,但至今,我們也聽過很多人工智慧暴走的新聞了。不過,人工智慧是怎麼出問題的呢?可以避免嗎?
為了回答這些問題,透過人工智慧專欄報導,《紐約時報》就為我們提供了一些解釋:
- 網路垃圾和幻覺
《紐時》專欄指出,人工智慧是透過所謂的「機器學習」來進行訓練的。簡單來說,就是從網路上蒐集各種數據,然後讓人工智慧去分析這些數據,找出規則。然而,這些數據大多來自維基百科和各種論壇網站。而大家也都知道,雖然網路上充斥著有用的資訊,從歷史事實到醫療建議;但同時,網路也充斥著假訊息、仇恨言論和其他垃圾資料。而聊天機器人吸收了這一切,包括文本中明確和隱含的各種偏見。
接著,他們會根據他們「學習」到的東西給出回應。然而,由於它們以令人驚訝的方式混合和匹配它們所學到的東西來生成全新的文本,雖然它們可以創造出令人信服的語言,但很多時候給出的內容卻是完全錯誤的,或者根本不存在於它們的訓練數據中。人工智慧研究人員就將這種編造東西的傾向稱為 「幻覺」,其中可能包括不相關的、無意義的或與事實不符的答案。
美國聖菲研究所的人工智慧研究員Melanie Mitchell說。:「這些系統生活在一個語言的世界裡。這個世界給了他們一些線索,告訴他們什麼是真的,什麼是假的。但是他們學習的語言並不以現實為基礎。他們不一定知道他們所產生的東西是真的還是假的。」
- 有時野心勃勃的不是軟體,而是人類
而人類本身的傾象也是放大問題的原因之一。對於人類來說,我們有在非人類實體中,假設它們有類似人類的特徵和情感的傾象。這被稱為 「擬人論」(Anthropomorphism)。舉例來說,當一隻狗與我們進行眼神交流時,我們傾向於認為它比實際情況更聰明。這就是我們思想工作的方式。
因此,而當一台電腦開始像我們一樣拼寫句子時,我們會下意識的誤以為它能推理、理解和表達情感。但必須了解到的是,對話進行的時間越長,我們對大型語言模型所說的話就越有影響力,因為在和我們說話的同時,機器學習也正在進行。
根據人工智慧先驅Terry Sejnowski等研究人員的說法,一段時間後,聊天機器人可以開始反映我們想法和目的。如果我們引導它變得令人毛骨悚然,它就會變得令人毛骨悚然。Sejnowski博士還將微軟聊天機器人的行為比作《哈利波特》小說中的「意若思鏡」(The Mirror of Erised)。在故事中,當人們發現這面鏡子時,它似乎能提供真理和理解,但事實上不是這樣,它顯示的是任何盯著它看的人的「深層慾望」。因此,對於一些人來說,如果盯得太久就會發瘋。而人工智慧也一樣,它可能會反映出人們有意、無意在話語中展現出來的想法和慾望。
- 能解決這個問題嗎?
Google、微軟和OpenAI等公司正在努力解決這些問題。OpenAI正努力利用人類測試者的回饋來改善聊天機器人。使用一種叫做「強化學習」的技術,讓人類做出回饋,以讓該系統對它應該做什麼,和不應該做什麼有了更好的理解;而微軟則是對與Bing聊天機器人對話的長度做出了限制。
參考資料:The New York Times
瀏覽 1,027 次