至少在目前,最安全的驾驶方式,仍要依赖于驾驶员的全神贯注。然而这与 “车内屏幕越来越多”、“交互功能愈发复杂”的发展趋势是相违背的。
我认为车载信息交互的核心矛盾是:到底要驾驶员分配多少注意力在信息交互上?
Tesla 简化掉了中控仪表,如果包括车速在内的基础信息,只能扭头查看。尽管这属于一种能提升美观的集成式的设计,但注意力分配也就更多,为什么?因为这张 15 寸集成了常用和不常用所有功能。
屏集中了过多,反而要分散驾驶者更多时间。FSD 状态、电量、胎压、导航,甚至是前大灯,都需要至少 1 次触碰才能完成。举个简单的例子,行驶到高速路段,想由 “轻松”切到 “标准”,需要「左下角图标 - 驾驶 - 标准 - 退出」四次触控,没错,四次。正常反应速度也要 3~4 秒。
这其实有点技术倒车:燃油车实体键只需一次操作,熟能生巧后仅 1 秒就能完成。
而且,正如刷抖音上瘾一样,车载大屏也有黏性,某品牌仪表上的 3D 小车总能吸引你向右下看,然而当你再抬起头时,车子可能已经自己向前开了 200 多米。
小鹏汽车一直想解决这个问题。他们的思路是:眼镜和手不是腾不开么,那好,只动口。如果你恰好听说了最近他们更新的 “全语音车载系统”,没错,这就是我今天想聊的 “只动口”新法交互。
没错,所有操作全部使用语音。
分享几个实用例子:
首先,小 P 不仅可以控制窗户的开关、空调的出风模式、调整座椅、调节驾驶模式等 “基础功能”,甚至于可以精准地对指令进行细致化要求:比如把窗户打开 19%、1% 这样的任何一个开度;可以很随意地通过语音控制空调送风的方式、方向,可以选择吹脸还是不吹脸,吹脚还是不吹脚,甚至是副驾驶不吹脸主驾驶吹脸。
还可以对歌曲的进度条进行控制,甚至可以要求将进度条拉到 2 分 31 秒,或者任何一个你需要的位置,精确度到秒。
另外呢,小鹏做到了 “可见即可说”,多重菜单一触到达。
手中的智能机,无时不刻需要我们指尖的直接接触。到了语音交互,小鹏力图将「动手」的功夫转换为「动嘴」。设备交互简单易行,但车载交互不同———场景更多变、更容易出错。所以小鹏全场景仍然以视觉反馈为枢纽,衔接语音及屏幕的指令闭环。
“屏幕上有小鹏实验室对吧,我们就直接说‘实验室’,有‘低中高’三个选项对吧,直接说‘高’就好”在小鹏工程师在演示中,一级菜单往往一步直达,二级菜单的也只需要连续两个指令语,中途无需重新唤醒,完成多次对话。
“不用太精确就可以听懂。”这有点像搜索引擎,最开始你不知道自己想搜什么,但通过关键词,你就能先大概找到差不多的菜单位置。
当然,在这次体验以及之前的试驾过程中,我也无意间发现了语音系统中的一些 bug,,例如主副驾以及后排的权限是如何排序的,因为后排目前也可以语音控制前排座椅加热、切换驾驶模式的。在和小鹏工程师交流后,他们表示会持续改进,也强调会与用户一同优化,做出更好用的语音 UI。
最后想说:
如果翻阅之前的新闻,其实小鹏这家新造车势力早早就对车载智能交互发起了 “挑战”。
2016 年,时任小鹏汽车产品总监的纪宇,在采访中表示,对于用户的复杂需求,特斯拉 “处理地还不够好”。言外之意,小鹏希望寻找到更好的交互方案,能满足例如,用户在目视前方时就能得到所有信息反馈,而不需要侧头去看中控大屏一类需求,“语音”便是首选。核心逻辑还是减少用户在驾驶过程中对视觉、触控的依赖。
如今回过头来看,坚持深耕在车载语音固然艰苦,但回报是无比丰厚的。目前,至少在我们体验的小鹏汽车 P7 上,“全语音车载系统”以及整个软硬件和底层架构的打通,已成现实,未来通过整车 OTA,实现更丰富个性的用车场景。