誰是詐騙高手?AI還是技高一籌!

記者/劉閔

自從 AI 生成的聲音讓超過 7 成的民眾受騙上當後,近日又有一項新技能也讓人們「真假難辨」。據了解日前國外有一項新研究,調查人們是否能夠區分出一條推文是由人類還是由 GPT-3 所撰寫的,而結果顯示人們無法精準判斷。不僅如此令人感到惶恐的是無論 AI 撰寫出的內容是否正確,人們卻意外的容易被說服,並且相信這篇錯誤的「虛假訊息」。

研究發現 AI 所講傳遞的訊息更容易獲得人們認同,不管當中內容是否正確。(示意圖/123RF)

根據外媒報導指出,這項數據是來自於瑞士的蘇黎世大學的生物醫學倫理以及醫學史研究所的團隊共同研究後得知的結果,而他們也表示當今的 AI 技術可以很容易淪為被「濫用」與「武器化」,並且可以在任何想要的領域製造出假訊息風暴。

據了解團隊是利用搜集在推特(Twitter)上 11 個不同的科學主題包括疫苗、COVID-19、氣候變遷甚至進化等議題的推文,並且使用 GPT-3 將這些資訊寫成「正確」以及「錯誤」的內容。經過一段時間發酵再將多位參與者的回覆統整,而這些參與者有來自德國、英國、澳洲或美國等地。

研究發現這些充斥著 GPT-3 所撰寫的假訊息裡參與者根本完全沒有發覺異樣,反而對真人所撰寫的貼文貼上具有誤導性與假訊息標籤。由此可證參與者相信由 GPT-3 所撰寫的資訊,無論其內容是否正確但都比人類所寫的更有說服力。

以目前 AI 生成已經進化至 GPT-4 等更先進的大型語言模型來看,相比之前研究所使用的 GPT-3 來說將會有更優異的說服力與誤導性。為此現今各國無不積極建立監督 AI 科技的官方法案,並建立監管機制,以避免 AI 在快速發展所造成的安全危害。

瀏覽 733 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button