學術困境!人工智慧生成內容    難以被證明

編譯/莊閔棻

人工智慧聊天機器人可以編寫出令人信服的假研究論文,以至於科學家們或老師們都難以發現。而若是交出作品的人不承認,學術界就可能會陷入困境。

據報導,自從ChatGPT發布以來,研究人員一直在努力解決其使用上的倫理問題,因為我們很難分辨一篇文章是由機器人寫的,還是由真人寫出來的。一篇由ChatGPT寫出來的文章幾乎可以完全躲過抄襲檢查系統,而AI 輸出檢查則發現了 66% 的生成摘要,人工審稿則又更難,據稱,審稿的人錯誤地將 32% 的生成摘要識別為真實摘要,將 14% 的真實摘要識別為生成的。

專家就建議,那些評估研究論文和會議記錄等科學傳播的人應該為此制定政策,或是杜絕使用人工智慧生成的文本。示意圖:RF123

英國牛津大學研究技術和監管的 Sandra Wachter表示,如果科學家不能確定研究是否屬實,可能會產生「可怕的後果」, 因為如果研究人員正在閱讀的研究是捏造的,就可以會讓其陷入錯誤的研究方向中,而錯誤的研究結果可能會影響整個社會。

但可能還是有方法可以找出人工智慧寫作痕跡的。就有一位美國大學教授Antony Aumann發現有兩名學生提交了 ChatGPT 撰寫的論文。他表示,文章中有太多「寫得很好的錯誤」。Aumann 說,聊天機器人寫得太完美了,他認為ChatGPT比他 95% 的學生都寫得更好,然而是這些學生突然之間表現出原本沒有的思考水平和寫作能力才讓他感到懷疑的。在他把文章丟上去問ChatGPT這是否為人工智慧生成時,獲得了99%的結果,隨後才得到學生的承認。

然而在更多的狀況下,因為我們讀的可能是不認識的人的文章,因此不太可能可以分辨。只要本人不承認,就很難真正分辨或對此做出規範,因為對於人工智慧生成的內容來說,我們可以取得的通常都只有間接證據而沒有直接的物證。

專家就建議,那些評估研究論文和會議記錄等科學傳播的人應該為此制定政策,或是杜絕使用人工智慧生成的文本。 如果研究機構要選擇允許在某些情況下使用該技術,他們就因該制定一些明確的規則。而若是在假訊息可能危及人們安全的領域,如醫學等,他們可能就不得不採取更嚴格的方法來確認訊息的準確性。隨著人工智慧越來越進步,解決這個問題可以說是迫在眉睫。

參考資料:NatureInsider

瀏覽 517 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button