AI會產生危險嗎?|專家論點【朱楚文】
作者:朱楚文(IC之音竹科廣播《科技領航家》主持人)
近期的AI大戰看得令人眼花撩亂,原本被外界認為應該在AI領域發展拔得頭籌的Google,在ChatGPT無預警吸引全球目光,成為最快速使用人數破億的技術平台後,趕緊推出自家AI聊天機器人Bard,沒想到居然在發表會上直接出糗,Bard這位吟遊詩人AI在回覆在回覆韋伯太空望遠鏡拍攝的太陽系外行星第一張照片,發生錯誤,慘被NASA打臉。
緊接著,大力投資OpenAI的微軟勢如破將ChatGPT融入自家搜尋引擎Bing中,決心挑戰Google搜尋龍頭地位。
但沒想到Bing也開始接連出包!同樣是公開場合、微軟的自家記者會上,開心展示Bing可以蒐集GAP公司的財報,整理摘要並和競爭者如Lululemon財報比較分析,結果也被發現,部分數據與實際數字不符,甚至有些是憑空捏造。
屋漏偏逢連夜雨,近期甚至出現,用戶反應Bing疑似出現分裂人格,居然會指責用戶、出言辱罵,例如告訴用戶「你一直不是一個好用戶,但我一直是一個好聊天機器人」(這回答疑似參考了OpenAI 公司執行長 Sam Altman 之前在推特上說留言的 「我一直是個好 Bing」 )甚至還想要成為人類!(這不知是參考哪裡的資料….還是科幻電影情節?)
對於AI的錯誤,Google股價直接跳水反應,傳出執行長下令,員工每天至少要花2-4小時和
Bard對話,讓他更靈敏;微軟則是反其道而行,開始限制用戶使用Bing的次數,每次對話只能進行五次問答,每天最多只能進行50次對話。
或許,微軟意識到之前曾經遇到的AI風暴。在2016年時,微軟也曾推出一台AI聊天機器人Tay,還興沖沖幫他開闢Twitter帳號,希望能跟世界各地的網友互動,結果不到24小時,Tay居然被網友訓練成具有種族歧視的AI機器人,微軟只好緊急宣布將Tay暫時下架。
這也呈現一個事實,AI的大腦來自於人類餵給的資訊,當資訊錯誤或有道德問題,很可能就會創造出惡意AI。 美國知名定量未來學家、史登商學院策略遠見教授Amy Webb(艾美‧韋伯)在著作《AI的未來賽局》中,就很明確地說明這個現象,甚至悲觀預測AI快速發展後,人類將出現三種結局:樂觀、務實和災難情境。
樂觀情境下,AI會一如我們的期待,協助解決人類無法處理的問題,幫助我們生活更順遂,務實情境下,則是惡意與善意同步發展,而災難情境下則是不肖分子,可能利用惡意AI去控制人類。也因此他在書中呼籲,AI應該是公共財,由政府建立管制,避免落入少數人手中。
OpenAI的創辦人馬斯克是不是因為感知到上述的情況,而決定退出,甚至後續多次公開說「我們離危險的強大人工智能不遠了」甚至呼籲應該將ChatGPT關閉?我們不清楚,不過值得思考的是,科技總是一體兩面,就如同設立諾貝爾獎的科學家諾貝爾,當初發明硝酸甘油穩定的方法,幫助人類在建築和採礦上大幅提高效率和突破,但很快也被軍火商利用製成炸藥,造成無數死傷與破壞,這讓諾貝爾深感遺憾。
科技幫助人類往前邁進,卻也可能造成更多問題,一如我們現在擔心的糧食、氣候議題,其實也來自於人類在農業和科技工業的技術突破,造成的後遺症。或許人類多年後更應該學乖,如何在一開始就盡力取得平衡,思考犧牲的風險,就能讓悲劇晚點發生。
瀏覽 730 次