何謂「意識」?ChatGPT等高級AI可能重新定義答案
編譯/莊閔棻
ChatGPT和其他新的聊天機器人因為非常善於模仿人類的互動,讓一些人開始討論關於其是否有「意識」的可能性,雖然到目前為止答案都是否定的,但也有專家表示,這可能取決於我們對「意識」的理解和解釋。
根據《NBC》的報導,在人工智慧時代,擁有意識代表著什麼,還有待討論。牛津大學人類未來研究所的創始主任Nick Bostrom表示,如何將這些由數百萬個數字組成的深度神經網路,映射到關於意識是什麼的觀點上,是一個「未知領域」。他也提到:「這是一個非常新的研究領域,有一大堆工作還沒有完成。」
幾十年來,人類創造出各種生命一直都是科幻小說的主題,而哲學家們則花了幾十年時間考慮意識的本質。一些人就認為,現在存在的一些人工智慧程式應該是有意識的。先前,一名Google工程師就曾因為提出這樣的主張而被解僱;與此同時,ChatGPT背後的公司OpenAI的聯合創始人Ilya Sutskever也推測,ChatGPT背後的演算法可能「略有意識」。
一般來說,基於其所訓練的大型資料庫,ChatGPT和其他大型語言模型是使用數學計算出在任何特定情況下該使用什麼詞,來做出回應的,因此,創造人工智慧的公司都堅持他們的產品沒有意識,只是透過其學習的資料來對人們的詢問進行回應而已。微軟的一位發言人就強調,Bing聊天機器人「不能自己思考或學習」。
許多哲學家則認為,一個東西要想成為「有意識的」,就必須有主觀體驗。哲學家Thomas Nagel表示,只有一樣東西是「有機體」時才有可能有意識。他打比方說,雖然蝙蝠的大腦和感官與人類的非常不同,但牠很可能有某種類似於蝙蝠的經驗,相比之下,一個餐盤則不會有。
紐約大學心智、大腦和意識中心的聯合主任David Chalmers就說,雖然ChatGPT顯然不具備許多通常假設的意識要素,如感覺和獨立,但很容易想像,一個更複雜的程式可能可以達到這些標準。
佛羅里達大西洋大學未來思想中心的創始主任Susan Schneider表示:「他們有點像變色龍。可以在任何時候成為任何新的角色。目前,尚不清楚他們是否有基本的目標和信念來驅動他們的行動,但隨著時間的推移,他們可能會發展出更清晰的代理感。」
哲學家們指出的一個問題是,用戶可以去問一個複雜的聊天機器人說它是否有自己的經驗,但我們不能相信它會給出一個可靠的答案。Susan Schneider說:「他們是優秀的騙子。它可以告訴你,它覺得自己是人。然後10分鐘後,在另一個對話中,它會說相反的話。」
舊金山非營利組織人工智慧安全中心的哲學研究員Robert Long也提醒說,像ChatGPT這樣的系統雖然具有複雜性但並不代表它有意識。另一方面,他也指出,雖然聊天機器人描述的主觀體驗可能不可信,但這並不帶表它沒有主觀體驗。他舉例說:「如果一隻鸚鵡說牠感到痛苦,這並不代表它處於痛苦之中,但鸚鵡確實可能可以感到痛苦,而類似的事情可能發生在人工智慧上。」
Susan Schneider建議說,因為是透過資料學習的,因此目前的聊天機器人是使用現有的人類文字來描述其自我意識的狀態。因此,她認為,測試一個程式是否有意識的一個方法,就是不給它接觸這類資料的機會,看看它是否還能描述自己的主觀經驗,然而,如果人工智慧真的有意識,可能又將引發另外一個倫理問題。
參考資料:NBC
瀏覽 1,484 次