蘋果研究揭示:AI不具推理能力 一切只是幻象

編譯/黃竣凱

科技巨頭蘋果的一組研究人員透過測試發現,人工智慧(AI)大型語言模型(LLM)所展現的智慧反應實際上僅是表象,在一份論文中,研究團隊指出,經過對多個LLM的測試後,他們認為這些模型並不具備真正的邏輯推理能力,而只是訓練資料和演算法的結果,讓 AI是否具備真正智慧的議題再次引發討論。

人工智慧(AI)大型語言模型(LLM)並不具備真正的邏輯推理能力,而只是訓練資料和演算法的結果。
人工智慧(AI)大型語言模型(LLM)並不具備真正的邏輯推理能力,而只是訓練資料和演算法的結果。(圖/123RF)

區分關鍵與無關資訊的挑戰

據報導,蘋果的研究團隊在此次研究中,假設智慧的關鍵在於能否理解簡單情境中的細微差別,這通常需要邏輯推理的能力才能做到。舉例來說,如果一個小孩問父母袋子裡有多少蘋果,但同時提到有幾顆蘋果太小不能吃時,基於具備邏輯推理的能力,父母和孩子都會理解蘋果的大小與數量無關,但LLM似乎無法做到。

更多新聞:測試AI智慧大比拼 用公眾問題測試LLM水準

測試揭示LLM的困境

在這次研究中,研究人員測試了多個LLM,試圖評估它們是否真的理解所被問到的問題,他們透過問一些間接要求忽略無關資訊的問題,來檢驗模型的推理能力,結果發現,這些模型在回答先前答對的問題時,若遇到無關資訊,往往會產生錯誤或荒謬的回答。

LLM缺乏真正理解能力

該研究結果表明,LLM並不是真正理解所被問到的問題,而只是依靠機器學習演算法學到的句子結構,根據所見過的數據生成答案,研究人員還指出,許多LLM的回答看似正確,但經過深入檢視,實際上並非如此,如,當被問到如何「感覺」某件事情時,模型可能給出貌似有情感的回應,這讓人誤以為AI具備這樣的能力,但實際上並非如此。

參考資料:techxplore

※探索職場,透視薪資行情,請參考【科技類-職缺百科】幫助你找到最適合的舞台!

瀏覽 109 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button