Apple推認知輔助系統 瘖啞人士打字變語音

記者/Shirley

Apple 宣布將於今年稍晚推出針對認知、言語和視覺方面的輔助使用全新軟體,有認知功能障礙的人,透過「Assistive Acess」功能可以更輕鬆方式使用iPhone 和 iPad,而瘖啞人士可使用「Live Speech」,可將打字化為語音,針對可能失去言語能力的使用者,如罹患肌萎縮性脊髓側索硬化症 (ALS)的人,提供「Personal Voice」功能,打造與他們聲音類似的合成語音來連結與親朋好友,針對失明或低視能的使用者,「放大鏡」中的「偵測模式」有「Point and Speak」功能,可辨識引導使用者掌握周遭環境。

圖/Apple提供

專為瘖啞人士打造「Live Speech」功能,可在 iPhone、iPad 和 Mac 上使用,透過打字寫下想說的話,並讓裝置在電話或 FaceTime 通話,以及現場對話進行期間朗誦這些文字,還可儲存常用語句,輕敲一下就可在即時對話中快速套用。

而對逐漸喪失言語能力使用者,如罹患肌萎縮性脊髓側索硬化症 (ALS) 或其他會逐漸侵蝕說話能力的疾病之人,透過讀出一系列隨機文本提示,在 iPhone 或 iPad 上錄製 15 分鐘的音訊,利用裝置端機器學習,確保使用者的資訊私密而安全,並與「Live Speech」流暢整合,讓使用者能在與親朋好友連結時使用自己的「Personal Voice」合成語音。

ALS 權利倡導者 Philip Green在 2018 年確診 ALS 後,聲音已經歷巨大改變,他表示,僅花費 15 分鐘,便能在 iPhone 上創造自己的合成語音,是件非凡的事,透過跟自己聲音很相似的語音,告訴親朋好友你愛他們,世上的一切都會截然不同。

內建於 iPhone 和 iPad 上的「放大鏡」APP,提供「Point and Speak」功能,可讓視覺障礙使用者輕易地與擁有數個文字標籤的實際物體互動。如用微波爐時,「Point and Speak」會結合「相機」APP 和光學雷達掃描儀的輸入,以及裝置端機器學習,使用者的手指在數字鍵盤上移動時,就會依位置朗誦出按鍵上的文字,可結合「人物偵測」、「門偵測」和「圖片描述」等其他「放大鏡」功能,引導使用者掌握周遭環境。

為減輕認知功能的負擔,「Assistive Access」功能利用設計上的創新,以去蕪存菁方式留下最基礎的核心功能,包含專為電話和 FaceTime 打造的自訂體驗,兩者被整合成了單一「通話」APP,以及客製化的「訊息」、「相機」、「照片」和「音樂」等,擁有高對比按鍵和大型文字標籤的介面,對較喜歡以視覺進行溝通的使用者,「訊息」納入一款只有表情符號的鍵盤,並提供錄製影片訊息並與親朋好友分享的選項。

圖/Apple提供

這些輔助使用全新軟體,是由Apple 與各個領域身心障礙使用者的社群團體密切合作開發,Apple 執行長 Tim Cook 表示, Apple努力做到技術無障礙化,讓每個人都有機會能夠創造、溝通,並做自己熱愛的事。Apple 全球輔助使用政策與倡議資深總監 Sarah Herrlinger 則指出,在 Apple 所做的一切,都包含讓功能更易於使用,設計的每一個步驟,都將身心障礙社群成員的意見回饋納入考量,以支援各種各樣的使用者,幫助人們透過全新方式互相連結。

瀏覽 735 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button