ChatGPT和生成式網路釣魚電子郵件 點擊率提高81%
編譯/Cynthia
近期,語言處理技術的快速發展,如GPT-4和Claude,催生自然語言生成領域的巨大突破,令內容生成更為逼真,語言能力也趨近於人類。隨著一年的過去,其模型規模和性能飛速提升,最新情況顯示,大型語言模型(LLMs)已超過1000億個參數、GPT-4的參數數量可能達到1.8萬億(尚未證實,僅為傳聞)。
包括Fredrik Heiding在內的安全研究人員在2023年的Black Hat USA會議上最近進行的展示證明,儘管大型語言模型與人類設計相比稍微不夠真實,但其能夠生成功能性的釣魚郵件。這項實驗由Bruce Schneier、Avant Research Group的Arun Vishwanath和MIT的Jeremy Bernstein組成的安全專家團隊,在哈佛大學學生身上進行了4個大型語言模型(Large Language Models,LLMs)測試,他們挑戰這些模型生成釣魚郵件的能力,並想了解這些郵件是否能夠成功誘使學生點擊。
測試過程分為三個階段,首先由研究人員收集了學生和大學資訊,為後續的實驗做準備,接下來他們分別使用了OpenAI的ChatGPT、Google的Bard、Anthropic的Claude和ChatLlama這四個商業模型,生成有關星巴克禮品卡優惠的釣魚郵件,並且按照一定的規律發送。在這個過程中,他們試圖驗證不同模型的郵件的點擊率。
在過程中,令人驚訝的是點擊率結果超出預期。V-Triad的郵件點擊率高達70%,而V-Triad/ChatGPT組合的點擊率為50%,ChatGPT生成的郵件則有較低的30%點擊率,而對照組僅有20%。
實驗的結果顯示,這些大型語言模型在生成釣魚郵件方面具有相當高的效能。在下一階段的評估中,這些模型還被應用於判斷星巴克的真實行銷郵件,並且成功地辨識出可疑元素。這項實驗須讓大眾由此借鏡,這些技術可能被惡意用戶濫用,強調了網路安全的重要性。這項研究不僅顯示了技術的迅猛發展,同時也提醒我們在技術應用中需要謹慎思考。語言模型的進步帶來了潛在的巨大威脅,同時也呼籲我們保持警覺,進而加強網路安全。
資料來源:Cyber Security News
瀏覽 690 次