撫平擔憂  OpenAI嘗試解決「聲音引擎」造假問題

編譯/黃竣凱

在ChatGPT 製造商OpenAI推出聲音技術之際,該公司也回應了大眾的擔憂,並提出了一些解決方案。OpenAI 不斷推陳出新,不久前才推出文本轉影片的 AI 模型Sora,現在又推出了最新的語音生成 AI 模型「聲音引擎」(Voice Engine),該工具只需要15 秒音訊樣本,就可以用說話者極度相似的自然語音閱讀用戶輸入的任何指令,表現非常驚人,然而這也引起很多人擔憂。

OpenAI 推出了最新的語音生成 AI 模型「聲音引擎」(Voice Engine),引發正反兩極討論。圖取自OpenAI官網

據報導,針對大家對這項技術的擔憂,該公司提出四大展望語音技術安全方法的建議,並說明該工具可以如何惠及大眾。儘管語音引擎已於 2022 年進入實驗室,但 OpenAI 表示,發布時會持相當謹慎的態度,並希望就合成語音的責任部署展開對話。

更多新聞:來看看Altman和黃仁勳等多位科技大佬如何使用AI

四項解決方案

針對人們擔心的語音造假和詐欺問題,OpenAI就提出了四項建議,包括:

  • 建議逐步淘汰銀行帳戶或敏感資訊等,基於語音的身份驗證。
  • 探索保護個人語音在AI中使用的政策。
  • 教育公眾了解AI技術的能力和限制,包括虛假AI內容的可能性。
  • 加快開發和採用技術,以追蹤音頻和視訊內容來源,讓用戶一直都能知道,自己是在與真實人物還是經過同意的AI互動。

OpenAI呼籲政府探索「保護AI中個人聲音使用的政策」和「教育大眾了解AI技術的能力和局限,包括詐欺性AI內容的可能性,」並認為「在廣泛部署合成語音技術時,應配備語音驗證功能,確保原始說話者知道自己的聲音被利用,其次,他們也建議設置一個『不可接受的語音列表』,用於檢測並防止創建與知名人物過於相似的語音。」

聲音引擎用例

OpenAI也表示,聲音引擎有許多用例,包括透過自然的聲音,為無法閱讀的人和兒童提供閱讀幫助,或是幫助突然失語或言語退化的患者恢復聲音。此外,該公司也分享了其合作夥伴在現實世界中使用該技術的範例,如教育科技公司 Age of Learning 就使用它來產生腳本配音;而「AI 視覺說故事」應用程式 HeyGen ,則讓用戶在保留了原始說話者的口音和聲音的同時,能夠以流利的方式產生錄製內容的翻譯版本,如使用法語發言者的音訊樣本,AI就能產生帶有法國口音的英語語音。

有限環境測試中

基於受到濫用的可能性,OpenAI 表示,聲音引擎目前僅會和「一小群值得信賴的夥伴」合作進行測試,並藉此確定該工具是否及如何允許更廣泛的使用。 據該公司稱,這些測試人員都同意,不會在未經人們明確同意的情況下創建人們的聲音,並且也會向聽眾明確表明他們所聽到的聲音是AI生成的。

參考資料:Ctv NewsThe GuardianForbes

瀏覽 372 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button