工业互联网|华为也押智能眼镜,AR观影是条正确的路子吗?( 三 )


举例来看 , 因为AR眼镜是投射显示 , 但由于现阶段挡光镜片和光学模组等硬件方面的不成熟 , 就导致在AR观影过程中 , 很多暗场景或者大面积的黑图像模糊 。
至于厂商们宣传的沉浸感则更是差强人意 , 沉浸感和设备的视场角有很大的关系 , 视场角越大 , 越接近人眼 , 带来的沉浸感也就越强 。 人眼正常的视场角为120度左右 , 而VR设备水平视场角要达到90度才能为用户带来较高的沉浸感 。
相比之下 , AR眼镜的视场角则要小得多 , 在沉浸感上也就会大打折扣 。
其实 , 从AR最本质的功能——虚实结合来看 , 现阶段的AR观影和AR的本质功能已经有所脱节 。 受限于硬件软件方面的桎梏 , 当前的AR观影无法实现虚实互动的效果 , 除了大屏之外 , 和手机观影的差异性并不大 。
不少购买过AR眼镜的消费者都对剁主坦言 , “大屏体验确实挺爽 , 但好像就是买了一块儿显示屏而已 。 ”

运动、翻译、字幕···AR正在打通多个场景
虽然AR观影在现阶段还尚未打通C端需求 , 但是 , 和早期AR厂商激进、盲目的规划路径相比 , 现在的AR厂商在寻找C端垂直场景方面更加精细 。 除了观影之外 , 在户外运动、实时翻译等应用场景中都在发力 。
作为AR眼镜的先驱之一 , 谷歌在今年的开发者大会上也展示了新一代的谷歌AR眼镜概念机 。 和国内一众AR眼镜厂商所强调的前沿设计风格不同 , 从官方的介绍来看 , 新一代谷歌AR眼镜在设计上实在谈不上出彩 , 甚至和普通的黑框眼镜无异 。
真正值得关注的是 , 在平平无奇的设计背后暗藏着谷歌对AR眼镜理念的转变 , 即向实用主义和落地场景的转向 。 新一代谷歌AR眼镜聚焦于实时翻译 , 支持英语、汉语、西班牙语等24种预言 。 其作用机制主要是由AR眼镜收音后进行实时翻译 , 再通过镜片进行对应的AR字幕显示 。
这不仅能满足消费者跨语言交流的需求 , 还能为听障人士的交流提供助力 。
国内的亮亮视野在今年发布的听语者AR字幕眼镜和谷歌的这款概念机理念相似 。 听语者AR字幕眼镜搭载专属AI语音转写算法、神经网络主动降噪算法等前沿技术 , 提高语音识别的准确度 。

图源:亮亮视野官网
具体来看 , 就算是身在闹区中 , 间隔五米之外 , 听语者的转写准确率也能高达85% , 字幕显示的速度高达500毫秒 。 为了更好的照顾不同群体的需求 , 听语者的字幕有3种不同大小的字体可以选择 , 听力下降的老年群体也能流畅使用 。
如果说谷歌和亮亮视野都击中了用户在交流方面的需求 , 那李未可科技推出的Meta Lens S1系列AR眼镜则是瞄准了用户户外运动的场景 。

街景 , 本图为AI作画 , 创意by娱乐资本论 茶茶
作为聚焦运动场景的一款AR眼镜 , Meta Lens系列AR眼镜先是大做“减法” , 戒断了AR眼镜对手机和主机的依赖 , 实现4G联网 , 独立供电 。
在功能上 , 该系列拥有语音导航、第一视角拍照摄像、心率检测等功能 , 切中用户户外运动的需求 。
Meta Lens S1系列AR眼镜还内置了虚拟数字人零下、小柯 , 用户在运动过程中就可以和虚拟数字人进行实时交互 。
由此可见 , 革命性创新并不在于高端技术的堆积 , 往往只是对简单需求的回应 。