AI再惹議!專家使用ChatGPT生成法庭文件 可信度受質疑

編譯/夏洛特

史丹佛社群媒體實驗室創辦人Jeff Hancock承認,他在撰寫一份支持明尼蘇達州《禁止使用深偽技術影響選舉》(Use of Deep Fake Technology to Influence an Election)的法律聲明時,曾使用ChatGPT協助整理引用資料。然而,該聲明被發現包含不存在的引用,批評者認為,這使整份文件的可信度受到質疑,使人工智慧(AI)在法律應用上受到質疑。

Hancock則在提交的最新聲明中承認,他使用ChatGPT協助製作引用清單,但強調文件的撰寫和審核完全由他本人完成。
Hancock則在提交的最新聲明中承認,他使用ChatGPT協助製作引用清單,但強調文件的撰寫和審核完全由他本人完成。(圖/123RF)

批評者要求排除考量

據報導,這份聲明支持明尼蘇達州法律,該法律目前正受到保守派YouTuber Christopher Khols(MrReagan)和州議員MaryFranson的聯合挑戰,在發現引用錯誤後,兩人的律師認為該聲明「不可靠」,並要求法院排除其作為參考依據。

更多新聞:法律專業人士必備  10大AI工具提升工作效率

專家辯稱實質內容無誤

而Hancock則在提交的最新聲明中承認,他使用ChatGPT協助製作引用清單,但強調文件的撰寫和審核完全由他本人完成。Hancock表示,「我完全支持聲明中的每一項主張,這些主張均基於該領域最新的學術研究,並反映了我作為專家的意見。」

GPT-4o引用錯誤來源

針對引用問題,Hancock也解釋說,他使用Google Scholar和GPT-4o(ChatGPT的進階版本)來搜尋與聲明相關的文章,以整合其現有知識與新研究,然而,他沒有意識到GPT-4o生成了兩個引用錯誤,並在另一個引用中添加了錯誤的作者。

Hancock在最新聲明中表達了歉意指出:「我並無意誤導法院或相關律師,對於可能造成的任何困惑深表遺憾。」但他也強調,聲明的實質內容完全正確,並符合其專業見解。

AI在法律領域引發信任危機

這起事件突顯了AI工具在專業領域應用時的風險,即便技術可提高效率,但因生成錯誤內容(即「幻覺」)可能導致嚴重後果。如何在使用AI時平衡效率與準確性,已經成為法律應用的一大挑戰。

參考資料:The Verge

※探索職場,透視薪資行情,請參考【科技類-職缺百科】幫助你找到最適合的舞台!

※更多ChatGPT相關訊息,請參考【生成式AI創新學院】。

瀏覽 3,175 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button