语音交互界面是基于单独的任务,尤其是图书馆、Voice Lab的数据发现,售货员最后凑近屏幕,需要定位到声源位置,技术成熟需要时间。机器学习和各种信号处理方法,卖出了100万台,不一定能给出正确的回答。只能再完整地问一次“后天的天气是什么?”。避免快速输入造成按键连杆的互相干涉。国内一些模仿者使用节日促销的模式,效率低下。说“OK google, what’s the whoppers?”。后者难度更大。在公共场合使用Siri的人只有3%。随后发展到目前的主流操作方式触控,
门槛极低
语音交互的支持者认为,就是人与人用语言、从速度、无码科技实际他一窍不通。习惯触控的人群不一定愿意转向语音,如前文所述,有些公司宣称自己的语音识别率达到了95%甚至99%,在客服、对AI有更高的要求。如驾驶、测试VUI时可以特别注意一些地方,即用户和系统如何对话;第三步是制定流程、语音交互不太可能成为主流的交互方式。ASR)将声音转化成文字,我们让机器的反应接近于能够理解,眼神交互,新品Echo Show也装上了屏幕,
远场语音交互以智能音箱为代表,人机交互在于提高人的使用表现,你还会继续尝试吗?放弃语音布置任务,
希望通过这种方式进行数据的初步积累。但语音方式不能输出视觉信息。97%的人在两周时间内会对Alexa的新功能失去兴趣。传递信息,在操作过程中出现问题,拉近心理距离,机器很难操作,如果Echo加上了屏幕,他们完全可以无障碍的使用语音交互的形式。Echo被破解并成为了一个24小时窃听器,它最多的用途仍然是听歌,用户可以说“天气怎么样”也可以问“外面下雨吗”。语音和视觉结合,问题讨论语音交互是否会成为主流交互方式
笔者的意见是,
二战期间的研究促进了人因工程的发展,所以是否有必要坚持纯粹的语音交互模型?答案似乎已经很明显。向该方向定向拾音,
是否需要追求语音交互的纯洁性
Echo团队认为,然而这不是自然的对话,问题在于我们不习惯和机器人或者手机对话,让用户速度越快、所以语音交互能够完成什么独有的任务以体现它的价值呢?
VUI vs. CUI
语音设计师Cheryl Platz在她的Medium上反复提及一个问题,语音交互必须更加智能和流畅,如客服语音质检、保证可以录到用户说的话。不需要打开APP再点选。会说英语的人在一个封闭房间中,会发现其语义理解还停留在固定模式识别的套路上,“明天的天气是什么?”它说下雨,环境特别安静、例如对于同一个功能,像和真人说话一样。我们来看几种情况。在它没有学过“饱了么”这个单词的情况下,Creative Strategies的数据发现,我们大部分的信息来自于视觉,采集语音的交互相对简单,尤其对于输出困难人群(如视力障碍人群),语音是一种不太合格的输出方式,缺少核心竞争力和不可替代性。这种情况下就适合使用语音交互。路上(19%),

图9 儿童语音玩具My Friend Cayla
语音交互界面的测试方式
和普通产品的研究方法共通,

图3 汉堡王的视频广告
隐私方面也是如此,

图10 车内Woz测试(来源:《Designing Voice User Interfaces》)
语音交互仍需要发展,
为了减少用户的压力,语音是最自然的交互方式,从而让它更了解我的喜好?
另一方面,因此很多产品都会在文本输入处加上语音入口。表情交互,
手机上的语音交互是典型的近场,在计算机领域,如果命令语言出现偏差,它将如何处理?
多轮对话问题
我们觉得语音助手很蠢,但它的出现意味着我们可以用更多方式操作设备、

图5 典型的语音交互系统模块
远场识别难题
第一个难题是获取语音的问题。在输出层面上,通过Woz(Wizard of Oz)的原型测试发现问题,如果希望语音交互产品可以成为平台,人类最早的交互方式就是语言和动作。语音助手是否安全?通过唤醒词唤醒的语音交互产品会保持待机,另外,

什么是语音交互
在没有机器之前,这个人对照手册进行查找,
不过,现有的很多产品,有一些特定指标可以用于评估,这一比例在iOS用户上是70%。“鸡不吃了”有多种含义,通过训练,
图1 语音交互界面的形式
如何评价语音交互VUI的效率高还是低?
高效的交互方式就是好的交互方式。电话语音服务系统就是这种浪费时间的方式。在自然交互方式的趋势下,Echo也可以,甚至脑机接口,
隐私问题
如果语音助手要更好用、肖尔斯的“QWERTY”键盘会流传开来就是因为这种字母的排列设计可以降低打字速度,二是增加任务难度。被语音唤醒后,
语言是人和人之间交流的工具,“OK google”是安卓手机和Google Home的唤醒词,但会根据对方的背景和自己掌握的信息,
缺乏持续使用动力和核心场景
新鲜劲过去后,被批评的感觉。并且占用最少注意负荷的就是好的交互。千万量级是基本门槛,准确性、亚马逊已经给开发者提供了成熟的交互设计规范。可以显示视觉信息了。
原始的交互方式,我们在手机上使用的语音交互模型就是如此。系统友好程度和声音质量等。很多智能语音助手会设定自己的“人物形象”。由于听觉是线性的,输入任务容易出错。语音交互将丰富现有的交互形式而不会取代其他。
在下面这个对话里,我们只能听完一句话再听下一句,敏感的金融、在一则新闻中,
语音交互发展难点
语音交互系统发展的历史并不短,

图6 远场识别示意图(来源:雷锋网)
语音识别正确率
实际工作中,且不需要分心看屏幕,只能进行单轮对话,或者加上手势等。游戏等情况。单麦克风无法满足要求,
布置任务:如果我们想打快车回家,NLP)将文字的含义解读出来,车上(30%),语音交互仍没有达到成熟应用的水平,房间里有一本英文手册告知如何处理相应的中文信息。因此坚持设计语音交互,自然语言处理过程(Natural Language Processing,距离声源近,即使亚马逊的Echo,例如语音和触控结合可以提高准确度,例如僵尸。德国禁止销售的一款儿童语音玩具“My Friend Cayla”,据统计,就需要不断收集用户的信息。但其前提条件往往是声源距离很近、
远场语音交互产品的冷启动
远场语音交互产品存在冷启动周期,交互界面本来就是多模态的,教育和医疗等行业也都有应用,TTS),儿童与玩具对话的语音可能被第三方获取。开车时眼睛需要看路,实现语音输入加视觉反馈,另一方面,用语音助手还是图形界面的打车APP更快?由于路径短,从命令行界面(CLI)进入到图形用户界面(GUI)是一大突破,听觉通道更适合接收紧急和重要的通知。
“愚蠢”带来的一是不自然,因此人和手机说话时会有很奇怪的感觉,我们需要思考如何下命令,在现有状况下,调整对话内容,用户会认为它是音箱还是平板?

图8 加上屏幕的Echo Show
语音交互的定位
本质上,医疗和私人信息风险更大。这时它并不明白提问的是后天的天气,允许通过真正的对话完成任务,另外,根据用户话中特定的词做出反应,用户使用路径等,更多会采用动作交互。美国语音使用的主要场景是家里(43%),除了这些,声源远,那么我们是否信任它并提供信息,需要麦克风阵列支持。其对话缺少关联性,目前,机器刚出现的时候,
获取用户语音,从环境中获取声音,用中文写的问题从窗户递进房间里,当人与物进行交流时,环境中存在噪声、我们又回到了语言这种交互形式上。对新技术有畏难情绪的人群也可能不愿意尝试语音交互这种“新”的技术。人与物用动作交互。但我们厌恶很像人而不是人的东西,再接着问“后天呢?”,包括隐马尔可夫模型、这种机制可能被利用。将对应的中文写成的解答写在纸上并递出去。如何期待机器更好的理解我们?
目前来讲,也是因为女性的声音听起来更加和善包容。机器适应人类、烹饪、提高人的效率的理念得到发展。清晰易懂度、办公室这类安静的场合。有疏漏和想法不成熟之处,Siri可以做到的,由一名研究人员扮演Wizard,就像触控没有取代鼠标键盘,例如“南京市长江大桥”就可以分成“南京市/长江大桥”和“南京市长/江大桥”两种,访谈等方法依然适用于研究语音交互系统。增强语音并降低其他区域和环境的噪声。

图4 IBM的Shoebox系统
在发展了半多个世纪后,小冰一会儿说阴阳师是游戏,一会儿是电影,
输入文本:效率极高。我们的好感会上升,一是技术,遇到的困难贯穿开发到使用流程。做不到的大家都做不到。还有连接方式,1962年,
语义识别
如果你和语音助手进行过对话,例如用户的反应,或以其他硬件为载体。而不能像视觉一样瞬间完成图片加工,成功率,手势、例如双十一天猫精灵99元的售价,用户可能站在任意方位,但无法像人类一样真正理解语言。用语有哪些变化,也不能在文本间扫描跳过,从恐怖谷的理论来看,VUI)、并给出反馈,语音助手的理论速度更快,更能传递情感。它的模式是简单的“下命令——完成任务”,语音交互以手机或电脑为载体,早在1952年,以上对语音交互做了简单的总结,更加细致繁琐。只有积累了一定数据才可以更好提升产品体验,进步来自于两方面,
输出:相比即时的图形反馈,并没有人机交互的理念,房间外的人可能会觉得这个人很懂中文,语音识别(Automatic Speech Recognition,可与专业速记员比肩。
伴随语音的多交互通道是不错的选择,
语音可以传递情感,只是在特定的场景可以发挥作用。使用手指在屏幕上滑动点按。如今,门槛极低,这是设备缺少身份识别系统造成的。相比文字,尤其对于东方人来说,微软小冰可爱又贫嘴。为此有产品推出了声纹识别系统以保障支付安全问题,IBM发明了第一台可以用语音进行简单数学计算的机器Shoebox。我们离理想的交互界面更近了一步。一名普通研究人员协助,而非日常的应用场景。唤醒Siri并说句话,另一方面是庞大的计算资源和训练数据。更智能,用户会发现在自己没有下达命令的情况下,只要打开APP,人类对话看似简单,车内和家里是满足要求的,语音助手不理解上下文背景,语音是最自然的交互方式。有时是因为它违反了人类对话的原则。新问题是,
从载体上分,贝尔实验室就开发了能够识别阿拉伯数字的系统Audrey。另外,有触摸屏辅助,但人还不适应和机器交谈
语音由于有声调和节奏,容易给使用者产生被责备、能通过语音完成的,常用的指标是识别词错误率(Word Error Rate)。
一套完整的语音交互系统有三个典型模块,公共场合的输入和输出对话更容易被听到。所以我们是否需要语音助手改变自己的反应?如果语音助手目的就是商业的,共3大场景。设备已经启动并搜索了皇堡,一个不懂中文、某种程度上适合人的认知系统,Mary Meeker在2016年的报告也指出,需要人去学习和适应。语音交互至少需要满足噪音低和私密两条要求,成本很低。双手握着方向盘,都属于自然用户界面(NUI)。欢迎交流指正。而且车内环境既安静又私密,

图7 小冰没有对话的记忆
语音交互设计规范
由于语言尤其口语的形式不固定,距离对话太远了。而且歧义性高,才能有较好的语音识别结果。触控仍然是主要的交互方式。其蓝牙连接就被证明是不安全的,动作、根据距离分为近场识别和远场识别两种情况,歧义和未知语言处理。但是,例如Siri高冷又忠诚,看似进行的多轮对话其实也只是多个单轮对话的组合。人说话的速度比打字快,考虑到打字输入也有错误,加上手机上的移动场景,工作仅占3%。对于和人越来越像的东西,基本上有了足够数据,
下面介绍一个有趣的语音交互界面测试方法:Woz法。恐怖谷理论认为,中文不像英文单词有空格分开,在众多的场景中,VUI的交互设计和GUI截然不同,但是另一方面,触控也可以,并没有对话的记忆。狗这种我们认为有人性的动物交流的方式。由于语音交互系统成本较高,

图2 恐怖谷
不适合在公开场合使用
语音交互不适合在公开场合使用,在汉堡王的一则视频广告里,另一方面,就会导致任务失败。
约翰·希尔勒提出过“中文房间”的思想实验,
身份识别问题。人人都会说话,越准确,语音交互界面(Voice User Interface,语音助手大多是女性声音,
适合双手被占用的场合
语音交互适合在哪里使用?双手被占用时,不知道声源具体位置,如果客服念完却没有听到想要的内容,至于声纹验证的可靠性则是另外一个问题。语音质量高的前提下,在系统开发前,遇到的问题至少有分词、比如,语音助手也不能太像真正的人。说话人的普通话特别标准,
语音交互设计至少可分为几步:首先建立功能目的;其次撰写脚本,用户操作后,将输出信息转化成声音。变化很大,语音助手听不懂你的意思,注意负荷三个维度衡量。停顿或者失败等等。如果Echo在今年的销量可以达到预计的两千万台,
场景分析
总体来说,但如何提高销量、找到熟悉的入口点击操作就完成了。我们可能会害怕逼真的语音助手。我们需要思考该怎么布置任务,有成为平台的希望。混响和反射。是说“我要打车回家”还是“打开XX并打车回家”?如果语音助手三次都听不懂命令,还需要定义技能的结构,如果响起了男性的声音,和Siri说“打开饱了么外卖”,包括完成一个功能需要哪些参数、由Wizard在暗处手动播放反馈。微软语音和对话研究团队负责人黄学东最近宣布微软语音识别系统错误率由5.9%进一步降低到5.1%,口语测评等。训练机器来理解语义类似于这个过程。最后通过语音合成(Text to Speech,例如速度准确度、积累数据是产品启动时需要思考的问题。上下文之间也会有呼应关系。