不知不觉,Siri 已经推出了八年之久。虽然在即将推出的 iOS 14 正式版中,苹果表示 Siri 知识面的广度是三年前的二十倍,但似乎除了每一次 UI 界面带来的外观变化,大家对于 Siri 智能化方面的提升感知并不明显,对于中国用户而言,Siri 唯一一次变「聪明」的表现可能八年前对于中文的支持。
当然这也可能与大家花在 Siri 上的时间不够多有关,毕竟目前 Siri 的智能化提升还未达到「化腐朽为神奇」的地步,无非就是在你说到某个笑话时,能更自然地和你对答,而不是生硬搬来网络搜索结果。
最近关于「Siri 给猫取名」的段子就成为社交媒体讨论的焦点。
在视频中有人试着让 Siri 为家里的猫取个名字,在回答了 Siri 提出的三个问题之后,提问者的确得到了一个随机的名字。虽然最后 Siri 表示这三个问题对名字的生成没有影响,但通过加入对答的环节,让提问者产生一种真的和智能语音助手「对话」的体验。
除此之外,你还可以让 Siri 给你讲段子,例如涉及到「你有宠物吗?」「生命的意义是什么?」「你相信上帝吗?」等提问时,Siri 都会给出有趣的回答。在今年春节期间,Siri 还针对农历鼠年加入了交互彩蛋,比如在提问者问到:「嘿 Siri,我的鼠年关键字是什么?」「嘿 Siri,你有吃年夜饭吗?」时也会给出个性化的答案。
这种更自然的对话体验能视为 Siri 变「聪明」的佐证吗?我觉得还得分两方面看,一方面只看「讲段子」这个场景,我们的确能看到 Siri 智能的一面,毕竟这种对答的体验更加接近正常人交流,但同时这些「抖机灵」的回答大多要通过人工提前干预,例如设置答语,设置触发关键词 / 关键句等,一旦提问者用了其他含义相近的同义词替代了关键词,一般就无法触发,这样来看的话其实很难称得上的人工智能。
所以当「调戏 Siri」的新鲜感过去之后,Siri 还是会被遗忘在角落里。要真正培养起用户的使用习惯,重点还在于「智能化」,然而语音助手要和「智能」沾上边其实不是易事。
一般而言,语音助手的运作主要包含三个步骤,首先是将语音指令转化为文字指令,然后通过机器学习或者神经引擎「理解」背后的需求,最后输出结果。对于大部分语音助手来说,目前在第一步也就是语音指令转化方面已经十分成熟,转换准确率也比较可观,但难点在于加入更多语言的支持。以 Siri 为例,目前可选的语言有 20 种(不同方言算为一种),而 Google Assistant 支持的语言却已经多达 30 种。
其次,语音助手们还需要理解文字指令的意义,这才是最难部分。任何智能产品背后都需要强大的数据支持,摆在 Siri 面前的问题是,它能调动多大的数据库?这些数据库又是否有足够的能力和动力为 Siri 服务?曾有媒体认为,如果 Siri 能成为新一代智能助手,那么它将成为智能机器真正的入口。但对于 Siri 而言,它的入口功能能否实现却首先取决于背后提供数据的服务商。
不过这个问题对于 Google 而言,解决起来却简单了很多。其长期积累的数据库和计算能力,已经使其拥有了「知识图谱」,让用户在搜索结果的右侧直接获取该问题的最优答案。
此外,一旦问题涉及到更多私人领域,就难免会牵扯到隐私和人权问题,越是个性化的服务,越是需要更多私人信息作为支撑,换句话说:你愿意用隐私换取便利吗?
而且在公共场所使用语音助手还存在社交门槛,设想一下你在地铁上,突然旁边有人突然说了一句「嘿,Siri。下一首歌」,那种感觉一定很奇怪。特别是在更加安静的办公场所,这种突然和「空气对话」的尴尬会更加明显。
外媒就曾经说过:「(用 AirPods 语音唤醒 Siri)这一幕让人联想到电影《Her》…… 但似乎社会还没为这种未来做好准备。」
我个人虽然不常使用 Siri,但在双手无法腾出空间来操作手机时,我也乐于通过 iPhone 或 AirPods 的「嘿,Siri」功能来让 Siri 替我完成一些简单指令,这种无需手动操作的体验有时还伴随着一定的满足感。
也许在不久的将来,当社会对语音助手的接受程度变高,而且语音助手也更加智能了之后,跟 AI 助手对话会变得像和朋友聊电话一样正常,毕竟在以前人们还觉得通过蓝牙耳机接听电话是一件奇怪的事呢。