解決ChatGPT幻覺問題   OpenAI 推出第二個神經網路

編譯/黃竣凱

為解決人工智慧(AI)「幻覺」這一長期存在的問題,AI巨頭OpenAI 引入了一種名為 CriticGPT 的新模型,在解決生成式AI系統,特別是在程式設計環境中持續存在的錯誤挑戰,向前邁出了關鍵一步,儘管取得了令人鼓舞的成果,基於透明性和CriticGPT本身的幻覺問題,大家仍對其有效性和缺乏外部監督提出了質疑。

為解決人工智慧(AI)「幻覺」這一長期存在的問題,AI巨頭OpenAI 引入了一種名為 CriticGPT 的新模型。
為解決人工智慧(AI)「幻覺」這一長期存在的問題,AI巨頭OpenAI 引入了一種名為 CriticGPT 的新模型。(圖/123RF)

提升準確度

據報導,CriticGPT 的主要目標是增強 ChatGPT 在程式設計任務中的準確度,與人類程式設計師手動調試程式碼的傳統軟體開發不同,ChatGPT 等AI模型依靠持續的訓練和改進,以最大限度地減少錯誤,而CriticGPT 則可以充當輔助神經網路,專門設計用於檢測和糾正ChatGPT 模型在生成程式碼過程中所犯的錯誤。

更多新聞:OpenAI  Altman:GPT-5將是一次重大飛躍

找出錯誤

具體來說,CriticGPT被設計用於在程式碼撰寫中,並能檢測由ChatGPT生成的程式碼是否存在錯誤,透過分析ChatGPT生成的程式碼,標記出潛在的錯誤或不足之處,提出改進建議,幫助開發人員更快速地發現並修復程式碼中的問題,進而提高開發效率和程式碼品質。

在一篇論文中, OpenAI 研究人員將CriticGPT 描述為「首次演示了一種簡單的可擴展監督方法,幫助人類更全面地發現『基於人類回饋的強化學習』(RLHF) 數據中的問題,RLHF是一種透過結合人類反應,完善AI輸出的技術。

仍須改進

但儘管是用來檢查錯誤的,CriticGPT 本身似乎也遭受幻覺的困擾,會錯誤的聲稱自己能識別出不存在的錯誤,凸顯出AI捕捉錯誤的能力越強,它就越容易產生幻覺的大問題,使在檢測真正的錯誤和最大限度地減少誤報之間找到適當的平衡,成為一個複雜的問題。

透明性問題

此外,基於OpenAI未公開CriticGPT模型及其訓練數據,使外部的倫理和安全專家無法直接審核模型的運作,缺乏透明度可能導致對模型精確性和公正性的擔憂,特別是在關鍵應用場景中,如醫療或金融領域。

參考資料:zdnet

瀏覽 334 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button