Google CEO:AI如何運作 大家未完全理解
編譯/莊閔棻
Google首席執行長Sundar Pichai警告說,社會可能還沒有為人工智慧的發展做好準備。甚至,他和其他專家都「沒有完全理解」,像ChatGPT這樣的生成式人工智慧模型究竟是如何運作的。
根據《福克斯新聞》的報導, Pichai說,該領域的專家對聊天機器人為什麼會做出包括幻覺在內的陳述有「一些想法」,但把它比作一個「黑盒子」。
也就是說,連這些人工智慧領域的領導者都不是真的了解人工智慧聊天機器人運作的方式。Pichai提到:「這裡面有一些東西,我們稱之為、我們這個領域的所有人都稱之為『黑盒子』。你不能完全知道它(機器人)為什麼會這樣回答,或者其為什麼會出錯。」他說:「我們(只是)有一些想法。但隨著時間往前,我們理解這個的能力會越來越好。但這就是技術的現狀。」
Pichai還進一步將人工智慧聊天機器人與人類的思維相比較,並指出大腦如何運作的一些元素仍然是一個謎。他補充說:「讓我這樣說吧,我認為我們也不完全了解人類的思維方式。」在該公司發布其人工智慧機器人Bard之前,Pichai就曾警告說,Bard一定會犯錯。在一份給Google員工的備忘錄中,Pichai寫道:「事情會出錯。(因此)用戶回饋對於改進產品和基礎技術非常重要。」
在接受採訪時,Pichai指出,每個公司的每個產品 「都會受到不斷進步的人工智慧能力的影響,社會需要 『適應』以做好準備。」他舉例說:「假設你是一名放射科醫生。考慮到5到10年後,你將有一個人工智慧與你合作。而你早上來的時候,假設你有一百件事情要處理,它可能會說:『這些是你需要先看的最嚴重的病例。』」
不只如此,Pichai還將人工智慧的發展與其他領域的技術進步進行了比較,稱其比發現火和電影響「更深遠」。他說:「我們正在開發的技術,可以肯定的是,有一天會比我們以前看到的任何東西都更有能力。」
像ChatGPT和Google的Bard這樣的人工智慧模型能夠進行接近人類的對話,編寫文本、電腦程式碼,甚至詩歌和歌詞來回應用戶的詢問。但這些聊天機器人也會出錯,通常這些錯誤被稱為「幻覺」。
參考資料:Fox News
瀏覽 25,501 次