声学触摸技术帮助盲人利用声音“看见” – 物理世界

声学触摸技术帮助盲人利用声音“看见” – 物理世界

源节点: 3028585


使用声学触摸来定位桌子上的物品
声学触摸 一名失明的研究团队成员使用新型智能眼镜来定位并伸手拿桌子上的物品。 (由 CC-BY 4.0/Lil Deverell 在 UTS Techlab 的运动平台和混合现实实验室提供)

澳大利亚的研究人员正在为盲人开发智能眼镜,利用一种名为“声学触摸”的技术将图像转化为声音。初步实验表明,这种可穿戴空间音频技术可以帮助盲人或视力严重受损的人定位附近的物体。

增强现实、实用的可穿戴相机技术和基于深度学习的计算机视觉的最新改进正在加速智能眼镜的发展,使其成为盲人或弱视人士的可行的多功能辅助技术。此类智能眼镜集成了摄像头、GPS 系统、麦克风以及惯性测量和深度传感单元,可提供导航、语音识别控制或将对象、文本或周围环境呈现为计算机合成语音等功能。

朱豪远 和悉尼科技大学的同事(UTS)和 悉尼大学 研究了在智能眼镜中添加声学触摸的方法,这种方法使用头部扫描并在物体出现在定义的视场(FOV)内时激活听觉图标。

写入 PLoS ONE的研究人员解释说,声学触摸比现有方法具有多种优势,包括易于与智能眼镜技术集成以及比计算机合成语音更直观的使用。这样的系统也可能需要较少的培训来让用户变得熟练。

与悉尼 ARIA Research 合作(最近荣获 年度澳大利亚科技公司 为了表彰其开创性的视觉技术创新),该团队创建了一个中央凹音频设备(FAD),在七名无视力或弱视的志愿者以及七名视力正常的蒙眼参与者身上测试这些假设。 FAD 由智能手机和 NREAL 增强现实眼镜组成,团队在眼镜上附加了动作捕捉反射标记,以跟踪头部运动。

FAD 使用眼镜上的立体摄像头执行物体识别并确定物体的距离。然后,它为对象分配适当的听觉图标,例如书籍的翻页声音。当佩戴者旋转头部时,听觉图标的重复率会根据项目在听觉视野内的位置而变化。

志愿者们参加了坐式和站式练习。坐着的任务要求他们使用各种方法来寻找和处理日常物品,包括放置在一张或多张桌子上的书、瓶子、碗或杯子。这项任务测量了他们检测物品、识别声音和记住物品位置的能力。

研究人员设计这个任务是为了将 FAD 的表现与两种传统的语音提示进行比较:钟面口头指示;以及从与每个项目位于同一位置的扬声器顺序播放听觉图标。他们发现,对于盲人或低视力参与者来说,使用 FAD 的表现与两种理想条件相当。然而,蒙眼视力组在使用 FAD 时表现较差。

站立伸手任务要求参与者使用 FAD 搜索并伸手位于多个干扰项中的目标项。参与者被要求找到放置在三张桌子上的物体,桌子周围有四个不同形状的瓶子。该任务主要评估系统的功能性能以及搜索过程中使用全身运动时的人类行为。

“今年,我们一直在大力探索使用听觉音景来支持各种复杂的任务,”朱告诉 物理世界。 “特别是,我们探索了使用不同类型的空间声音来引导人们导航并支持体育活动,特别是乒乓球。明年,我们希望继续扩大这些领域,并在现实环境中进行研究。”

时间戳记:

更多来自 物理世界