大型語言模型|專家論點【張瑞雄】

作者:張瑞雄(前北商大校長、叡揚資訊顧問)

如ChatGPT等大型語言模型(LLM: Large Language Model)代表了AI領域的突破性創新,為新應用提供了前所未有的機會,但是將這些模型轉變為生產力工具之前必須先解決一些重大挑戰。

首先是成本效益問題,LLM需要大量的計算成本,這可能使小型企業在財務上望而卻步,目前有些研究是如何有經濟高效的模型來降低部署成本。但小模型就有準確性和可靠性的問題,檢索增強生成(RAG: Reference Augmented Generation)等技術可以大幅度地減少不準確或幻覺,從而維持客戶信任,再結合自然語言理解、語言模型和機器學習可以進一步提高準確性。

對任何AI系統,資料的最新和最正確最重要,因為過時的資訊可能會導致無效的決策,所以需要動態更新機制來確保LLM保持最新狀態。而且LLM必須隨時進行微調,以適應企業獨特的環境,包括數據、流程、要求和基調,如此才能整合客戶數據以獲得客製化體驗。

LLM模型可能表現出偏見、事實差距,並且缺乏一些常識和邏輯,因此使用上必須小心。此外要優先考慮資料隱私、遵守安全標準和資料的匿名化,這些都有助於確保安全的AI,同時避免產生有害或有偏見的內容。

關於LLM是否真正能像人類一樣理解、推理或擁有信念,存在很多爭議。有些人認為LLM只是另一個傻機器,它們是序列預測器,沒有了解現實和事實,也沒有像人類一樣有應用真理標準的能力。

但也有些人認為,鑑於LLM的規模和訓練的資料量,它們可能會表現出新興的更高級別的能力,例如「知識」和「推理」。推理爭論是微妙的,LLM可能可以透過模式匹配訓練的例子來解決問題,但這與真正的邏輯推理演算法不同。

體現或整合外部資料來源可以賦予更多類似人類的基礎,但LLM學習語言的方式仍然不同於人類沉浸式現實世界的體驗。但透過人類回饋的強化學習進行微調可以使LLM輸出與規範和偏好保持一致。

我們如何談論LLM很重要,不小心使用「相信」和「認為」等術語可能會促進誤導性的擬人論,掩蓋其真正的運作方式。LLM的會話能力可以創造出一種智慧存在的錯覺,但它們從根本上缺乏形成人際互動的相互理解能力。所以我們必須小心不要將LLM擬人化,並準確地了解其能力與局限性,因為統計模型的運作方式與人類不同。

LLM很強大,但在成本、準確性、知識即時性、企業客製化、安全性和負責任的能力框架方面帶來了挑戰。雖然LLM表現出非凡的能力,但與人類相比,關於真實推理、理解和信仰仍存在爭議,需要小心避免將缺乏直接現實基礎的基本序列預測模型擬人化。

清晰的語言和深入的機制理解對於LLM的未來發展非常重要,要利用LLM的優勢,同時避免炒作或曲解LLM與人類相比的認知能力,才能在這個影響深遠的AI領域,做到有道德和負責任的AI開發和使用。

瀏覽 1,620 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button