(资料图片)
伊利诺伊大学(UIUC)正在与苹果和其他科技巨头合作开展"语音无障碍项目",该项目旨在为具有语音模式和残疾的人改进目前版本难以理解的语音识别系统。虽然经常被嘲笑误听用户的请求,但像Siri这样的数字助理的语音识别系统多年来已经变得更加准确,包括开发设备上的识别。在一项新举措中,一个项目旨在通过针对有语言障碍和残疾的人,进一步提高准确性。
与苹果、亚马逊、Google、Meta和微软以及非营利组织合作,UIUC的语音可及性项目将试图扩大语音识别系统能够理解的语音模式范围。这包括关注受疾病和残疾影响的语音,包括卢伽雷氏症、肌萎缩侧索硬化症、帕金森症、脑瘫和唐氏综合症。
在某些情况下,语音识别系统可以为患有抑制运动的疾病的用户提供生活质量的改善,但影响用户声音的问题会影响其有效性。
在语音可及性项目下,研究人员将从"代表不同语音模式"的个人php身上收集样本,以创建一个私人和非识别的数据集。该数据集最初将侧重于美式英语,然后可用于训练机器学习模型,以更好地编程应对语音。
一系列拥有虚拟助理或在其工具中提供语音识别功能的科技公司的参与可以帮助加快项目的发展。与其使用可能重复他人发现的结果的独立团队,这些团队反而可以直接通过项目进行合作。
"语音界面应该向所有人开放,这包括残疾人,"UIUC的教授Mark Hasegawa-Johnson说。"这项任务一直很困难,因为它需要大javascript量的基础设施,最好是能够得到领先技术公司支持的那种,所以我们创建了一个独特的跨学科团队,拥有语言学、语音、人工智能、安全和隐私方面的专业知识。"
访问项目官网了解更多:
https://speechAccessibilityproject.beckman.illinois.edu/