AI仿聲裝置遭濫用 恐成詐騙集團利器
記者/潘冠霖
自2022年底開始,AI一時成為熱門話題,時至今日仍沒有退燒,而在AI技術逐漸成熟的現在,除了方便且豐富了大家的生活,卻也遭到一些有心人士的利用,當作行騙手段。日前國外有案例指出,有詐騙集團會利用AI仿聲技術,模仿家屬的聲音向被害人索取現金,雖然此詐騙手法並不少見,但若搭配AI仿聲使音色更接近真人,民眾將更容易掉入陷阱。
加州大學柏克萊分校數位鑑識科學教授法力德(Hany Farid)表示,從前要複製一個人的聲音需要大量音檔,現在只要你在臉書或TikTok裡講話講個30秒,別人就能複製你的聲音。透過AI的進步,現在只要短短幾句話,就有可能被歹徒從網路上擷取並製作仿聲,再自行輸入台詞加以利用。
法立德解釋,AI仿聲軟體可以分析出一個人的聲調中有何特點,例如年齡、性別和口音,然後從龐大資料庫裡搜出相似的聲音及可預測的語言模式,如此一來,AI就能重製一個人的音色、音調和個人發音習慣,創造出大致相近的聽覺效果。而原版聲音的來源可以從很短的音訊裡擷取,例如YouTube、podcasts、TikTok、Instagram或臉書上的任何影音。
《華盛頓郵報》於3月5日報導,加拿大薩斯喀徹溫省(Saskatchewan)的73歲卡德奶奶(Ruth Card)某天接到電話,對方的聲音聽起來極像她的孫子布蘭登(Brandon),這個「布蘭登」向奶奶哭訴說他被捕了,身上沒有手機或錢包,急需現金保釋。當她急著去銀行領錢時,銀行經理聽聞急忙和她解釋,此為最新流行的詐騙手法,以AI偽造的聲音索要金錢。
華郵指出,AI科技現在讓歹徒仿聲變得更簡單、成本更低,成為新的犯罪趨勢,民眾更容易上當。而因對科技的不熟悉及對家人的牽掛,受害者常是老人,眾多受害者說,聽見家人的聲音說著自己有難,當下就會心生恐懼。
瀏覽 758 次