IT之家 8 月 17 日消息,截瘫残疾活动家科林・休斯(Colin Hughes)近日在 The Register 平台发布专栏稿件,批评苹果的语音控制(Voice Control)功能已经严重落后,认为苹果已经差不多“遗忘”了这项辅助功能。
IT之家注:通过“语音控制”功能,用户可以用语音完成轻点、轻扫、键入等操作,以便浏览设备以及与设备进行互动。
(资料图片仅供参考)
科林・休斯在文章中从自己和其他人的体验入手,表示语音控制功能是其必需品,IT 之间翻译如下:
对于有严重残疾的人来说,语音控制功能并非一个普通的应用,而是严重依赖的必需品。
就拿我自己来说,我需要通过语音控制功能,清晰地口述内容,而这项功能决定了我生活的方方面面。
然而,语音控制当前的使用体验并不好,虽然你可以自定义添加词汇表,但后续您口述这些专有名词时,“语音控制”总是忽略句中的大写字母。
此外在专有名词处理上也存在诸多问题,动词“will”经常被误认为是语音控制中的专有名词“Will”。同样,当提到天空中的火红球体时,该应用程序可能会错误地将其识别为英国小报“太阳报”。
另一位残疾用户 Ian Gilman 表示,Siri 可以在任意应用中广泛使用,而语音控制功能则使用范围相对比较窄。
休斯认为苹果公司的语音控制功能已经落后于谷歌、Nuance 的 Dragon Dictate 等诸多公司。
休斯表示在 Pixel 手机上试用 Google Project Relate 应用之后,发现其更准确、更个性化地识别语音。
而且在他佩戴呼吸机、环境有点嘈杂的情况下,Google Project Relate 应用依然能够准确听写他的口述内容。
这篇文章呼吁苹果公司在语音控制方面投入更多资源,并更充分地与残疾人社区合作。