随着计算机在周边环境下的感知能力的进一步提升,它也在帮助人们更好地感知这个世界。好在人工智能和机器人学等专业的发展,IBM Research和卡内基·梅隆大学的科学家正在为视觉损伤者研究一项让他们能够看见外面的世界的新方法。
这个目标不仅鼓舞人心,还极具创意——建立一个技术平台,让视觉损伤者可以向其他人一样自由漫步。这个工程的第一个尝试是一款叫做NavCog的应用,它可以在iOS系统和安卓系统上使用,这个应用可以通过耳机发出的声音或者让手机震动来为盲人导航(使用者可以选择设定应用为“声音模式”还是“震动模式”)。
就像汽车GPS提供的实时导航一样,这个应用为盲人提供实时的视角。它分析来自人行道上的蓝牙灯塔以及智能手机传感器提供的信号,能让盲人在没有其他人的帮助下自由行动,无论在学校建筑内还是在户外都可以。
当程序能够帮助盲人随时定位、告诉他们所处的方向以及周边环境的其他信息时,好戏就开始了。电子导航程序将手机内对周边环境拍下的照片处理成3D空间模型,以此来作为实时导航的指导。
NavCog工程,是位于Yorktown Heights的IBM Research和卡内基-梅隆大学的合作项目,它对于工程的主要研究者之一的Chieko Asakawa具有特别的意义,她是IBM的院士以及卡内基-梅隆的客座教授,她是一个盲人。对她而言,利用这个APP帮助她在校园内行走将可能在短时间内变为现实,她戴着耳机,听着从手机里传过来的声音,行走时和别人并非两样。
“这仅仅是一个开端”,卡内基·梅隆大学机器人研究院的Kris Kitani这样说道。当然,一个主要的目标,是要拓展被蓝牙灯塔覆盖面,目前的试验主要依靠的是大学校园里面的蓝牙灯塔。为了鼓励覆盖,项目科学家将NavCog平台完全开放了,开发者能够自由使用IBM BlueMix cloud上的资源。这使得其他的开发者有能力为系统强化其他方面的功能,并且加快展现出其他物理上的功能。
湘ICP备2022002427号-10 湘公网安备:43070202000427号
© 2013~2024 haote.com 好特网