反道德開發下的生成式AI濫用|快評【主筆室】

科技島主筆/蔡哲明

生成式AI正式進入了「第四時代」的互動層次,卻有不肖人士利用人工智慧(AI)進行犯罪行為,威脅個人資訊、生活以至國家安全,逐漸脫離在政府、企業或是教育的正向使用,本質就是站在一種反道德下開發生成式AI。

示意圖:取自123RF

你對開發ChatGPT編造「不存在的報導」有何看法? 這類聊天機器人提供內容一旦並非事實,結合微軟Bing及Google等搜尋引擎無縫融合成Bing Chat及Bard後,這類生成式AI開發初衷就是為了杜撰新聞,已經嚴重影響報導中的志願(當事者)以及非志願性(非當事者)公眾人物。

更多新聞:中國石墨禁令的國際因應|快評【主筆室】

反道德開發下的生成式AI造假內容愈趨明顯,開始出現為了犯罪目的的AI開發,導致包含產出不實訊息及內容農場(Content farm)、社群網路服務公司TikTok的「虛構化」(Enshittification)、購物平臺亞馬遜(Amazon)的「垃圾化」(Junkification),為了違法目的的程式開發,恐怕已非「合規濫用」。

一般生成式AI都會內建防止濫用的機制服務,一旦產生「越獄濫用」的不法行為,便會表現出不穩定性,警示使用者們放棄使用。然而,現在開始出現實際惡意下開發的AI程式,包含「詐騙GPT」以及「蠕蟲」便是為了濫用而生,從未建立防止惡意的回覆系統。

例如ChatGPT的「越獄濫用」意味刪除現有生成式AI的倫理程式和系統限制,一開始就是以「違法使用」的前提開發,例如目前暗網中心出現了以支援網路攻擊為目的而開發的LLM(大型語言模型),即使像是蠕蟲GPT的網站遭到關閉,還有名為「詐騙GPT」的工具相繼出現,為了犯罪開發的生成式AI顯然淪為當代危機。

反道德開發下的生成式AI濫用現象不可忽略,已經嚴重影響人類倫常以及世界秩序,從原先的「合規濫用」進化到「惡性開發」,必須提升指導方針才能與時俱進遏制犯罪。

瀏覽 1,684 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button