聊天機器人擬人化 人工智慧爭論愈演愈烈
隨著人工智慧(Artificial Intelligence,簡稱:AI)領域的蓬勃發展,愈來愈多聊天機器人問世。
加州新創公司OpenAI便發布了一款能回答各種問題的聊天機器人—ChatGPT,其令人印象深刻的表現重新引發了有關人工AI技術相關風險的爭論。OpenAI是2015年由億萬富翁科技大亨,特斯拉、SPACEX的CEO,艾隆瑪斯克於舊金山創立,並於2018年離職。這家新創公司以全自動創建軟體聞名,像是用於文本生成的GPT-3,及圖像生成的DALL-E。
其最新發布的ChatGPT,有用戶於推特(Twitter)上發布兩者對話內容,其展示了這聊天機器人無所不知的能力,它能夠解釋科學概念、並編寫大學論文、戲劇甚至是計算機程式語言。另外,法國一家專門從事自動文本生成的公司—Syllabs負責人Claude de Loupy告訴法新社(AFP,法國最大報社),其向ChatGPT提出問題,若有人心臟病發時該怎麼辦?,ChatGPT的回答十分明確且相關性高。Claude表示,儘管當你提出太過特殊的問題時,AI的回答可能不太切題,但大多時候ChatGPT能夠向其對話者詢問詳細訊息,並且相較GPT-3,ChatGPT奇怪回應較少;總歸來說,它的表現十分出色。不過,與其它依賴深度學習、模仿神經活動的程序一樣,ChatGPT有一個缺陷,它無法解釋其選擇該回答的理由。
差不多時間,Facebook母公司Meta Platform最近也開發了一個名為Cicero的程序,該軟件已被證明精通外交遊戲(Diplomacy,一款桌游),其需要極高的談判技巧。Meta表示:「若它不像真人那樣說話,表現同理心、建立關係、談論遊戲,它便不會找到願意與之合作的玩家。」
10月份時,由前Google工程師創立的初創公司Character.ai在網上發布了一個可以適應任何性格的實驗性聊天機器人。用戶根據簡短描述創建角色,然後可以與假的名人像是,夏洛克·福爾摩斯、蘇格拉底或唐納德·特朗普“聊天”。
隨著各大科技公司相繼在AI領域取得成果,這些人工智慧的蓬勃發展,也伴隨著眾多隱患。有人表示,這些技術可能被濫用在欺騙人們或散播不實消息上。有趣的是,法新社還曾詢問ChatGPT的看法,其表示,構建高度複雜的聊天機器人存在潛在危險,特別是如果它們被設計成在語言和行為上與人類沒有區別的話。
隨著OpenAI聯合創始人兼首席執行官山姆奧特曼(Sam Altman)週六在Twitter上的發文總結了這場圍繞人工智慧的辯論–人們開始爭論強大的人工智慧系統是否應該按照用戶想要的方式運行,該靶這些系統調整到誰的價值觀將成為社會有史以來最重要的辯論之一。(編譯/高晟鈞)
資料來源:Techxplore
瀏覽 896 次