Google更新可協助身障者辨識前方景象的Lookout App 同樣加入自動生成式人工智慧技術輔助

從Google I/O 2018提出,藉助人工智慧協助視力障礙者「看見」前方物件的Lookout App,在此次Google I/O 2024宣佈更新消息中,則是增加可大聲朗讀長篇文章,並且加入在拍攝圖像尋找特定物品功能。

其中拍攝尋找特定物品功能,將能協助視力不佳或失明的身障者透過Lookout App尋找座位、桌子、車輛、餐具,或是浴室等位置,並且能讓身障者藉此判斷特定物品所在方向,以及推估距離。

而藉由自動生成式人工智慧技術輔助,Google也讓Lookout App能更即時、準確地描述手機拍攝畫面細節,藉此協助視障者更快判斷前方景象,同時透過更多描述建構完整環境認知。

此外,在Look to Speak功能中,除了維持原本可透過內建短語內容,讓身障者直接點選與人交流,目前更添加透過表情貼圖、特殊符號,或是直接以照片內容觸發描述語音,藉此讓身障者也能借此作更傳神的溝通。

在Google Lens的更新,則是加入描述鏡頭拍攝畫面中特定物件,例如餐廳、ATM、出入口等,同時也會陳述相對距離、方位,同時可透過清楚語音指示身障者如何繞過障礙物前往特定地點。

其他更新部分,則是將先前已經在行動版Google Maps加入的輪椅通道資訊帶到桌機版,讓更多使用者能透過Google Maps尋找預計前往地點是否提供無障礙出入口設計,同時也能確認前往地點是否提供無障礙廁所、座位或停車場設計。

在先前公佈消息中,Google與罹患肌肉萎縮症的遊戲實況主Lance Carr合作,共同打造Project Gameface操作介面,讓Lance Carr能借此以頭部操作滑鼠進行遊戲,並且與印度社會企業Incluzza合作推廣此介面,讓更多身障者能以此更方便操作Android裝置,同時也透過GitHub將Project Gameface相關程式編碼開源,藉此推動更多運用Project Gameface爲基礎的應用可能。

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》