人工智慧生成文字內容 謊言、錯誤訊息充斥將毒害網路
編譯/莊閔棻
對 AI 來說,今年是瘋狂的一年。從 DALL-E 2 到 Google 的 Imagen,從 Meta 的 Galactica 、Cicero,再到 ChatGPT,AI完全是以我們跟不上的速度在發展,然而這引起了很多我們從未見過的問題,讓原本就可能充滿不實訊息的網路又更加不可信了,以後網路可能將會充斥各種假消息。
《麻省理工科技評論》的記者表示,因為有了AI,網路上可能充滿各種由機器生成的文字內容又或是圖片,而這些都將毒害網路,對人類在網路上搜集資訊造成誤導。Google深度學習研究部門 Google Brain 的高級研究科學家Daphne Ippolito就表示,在未來,要找到高質量、有保證的 AI 訓練數據會變得越來越棘手。
我們很容易會誤以為由AI 創建的圖片或一段文字是出自於人類。有時,即使由AI創造出的文字內容可能聽起來很正確,實際上卻是充滿謊言的。因此,如果我們盲目的相信AI 模型提供的未經過濾的健康建議,或任何其他形式的重要訊息,可能會產生嚴重後果。不只如此,AI系統讓產生大量錯誤訊息、濫用訊息和寄送垃圾郵件變得非常容易,因此我們得到的各種消息都可能被扭曲。
本身,這些人工智慧就是透過網路資料來訓練的,而因為任何人都可以編輯,網路資料原本就充滿了不正確性,包括了人類在網上寫的各種有害、愚蠢、虛假、惡意的內容。但不同於人類的是,AI 模型可能會將這些謊言當成事實,將它們轉化爲自信而直接的語言,並在網路上傳播。
更嚴重的是,科技公司可能再次從網路收集訓練人工智慧的內容。就這樣反反覆覆,很有可能會讓AI越來越不準確,讓網路上的內容又更加混亂與不真實。而人們還可能會以為這些訊息都是正確的。這將造成很嚴重的問題。
好消息是,有分辨的方法。Ippolito說,AI生成的文本有一些明顯的跡象。 人類的寫作很凌亂, 充滿了拼字錯誤和俗語,因此,尋找這些錯誤和細微差別是識別人類所寫文本的好方法。相比之下,大型語言模型則透過預測句子中的下一個詞來工作,不但有條理,也很少會有錯誤。因此,只要認真觀察,是可以看出差異的。
技術工具可以提供幫助,但人類也需要變得更聰明。而最重要的是,對於網路上的任何內容,我們都應該抱有懷疑態度,並小心查證。
瀏覽 1,272 次