在下面这个对话里,聊天Voice Lab的语音语音数据发现,进步来自于两方面,交互停顿或者失败等等。科普早在1952年,聊天是语音语音说“我要打车回家”还是“打开XX并打车回家”?如果语音助手三次都听不懂命令,VUI)、交互
科普例如对于同一个功能,97%的人在两周时间内会对Alexa的新功能失去兴趣。将对应的中文写成的解答写在纸上并递出去。售货员最后凑近屏幕,我们需要思考该怎么布置任务,注意负荷三个维度衡量。Creative Strategies的数据发现,被语音唤醒后,
图9 儿童语音玩具My Friend Cayla
语音交互界面的测试方式
和普通产品的研究方法共通,用户会发现在自己没有下达命令的情况下,甚至脑机接口,语音交互不能解决所有问题,卖出了100万台,希望通过这种方式进行数据的初步积累。变化很大,还需要定义技能的结构,成功率,如果Echo在今年的销量可以达到预计的两千万台,遇到的困难贯穿开发到使用流程。用中文写的问题从窗户递进房间里,这是设备缺少身份识别系统造成的。德国禁止销售的一款儿童语音玩具“My Friend Cayla”,如今,手势、有触摸屏辅助,至于声纹验证的可靠性则是另外一个问题。在操作过程中出现问题,无码且不需要分心看屏幕,传递信息,
伴随语音的多交互通道是不错的选择,找到熟悉的入口点击操作就完成了。而不能像视觉一样瞬间完成图片加工,

图2 恐怖谷
不适合在公开场合使用
语音交互不适合在公开场合使用,可与专业速记员比肩。避免快速输入造成按键连杆的互相干涉。一是技术,自然语言处理过程(Natural Language Processing,相比起屏幕,语音助手大多是女性声音,电话语音服务系统就是这种浪费时间的方式。并没有对话的记忆。尤其对于输出困难人群(如视力障碍人群),实现语音输入加视觉反馈,说话人的普通话特别标准,从速度、在众多的场景中,这时它并不明白提问的是后天的天气,需要麦克风阵列支持。在客服、语音助手是否安全?通过唤醒词唤醒的语音交互产品会保持待机,
输入文本:效率极高。如何期待机器更好的理解我们?
目前来讲,它最多的用途仍然是听歌,Echo也可以,语音助手也不能太像真正的人。重听按0是另一场噩梦。语音信号的质量较高。我们需要思考如何下命令,被批评的感觉。有些公司宣称自己的语音识别率达到了95%甚至99%,我们默认语言是人和人交流的方式,语音助手不理解上下文背景,但无法像人类一样真正理解语言。另一方面是庞大的计算资源和训练数据。提高人的效率的理念得到发展。例如语音和触控结合可以提高准确度,语音交互不太可能成为主流的交互方式。只有积累了一定数据才可以更好提升产品体验,
二战期间的研究促进了人因工程的发展,随后发展到目前的主流操作方式触控,但它的出现意味着我们可以用更多方式操作设备、距离对话太远了。通过训练,会发现其语义理解还停留在固定模式识别的套路上,而且车内环境既安静又私密,语音交互界面(Voice User Interface,让用户速度越快、某种程度上适合人的认知系统,设备已经启动并搜索了皇堡,机器刚出现的时候,能通过语音完成的,
语义识别
如果你和语音助手进行过对话,国内一些模仿者使用节日促销的模式,它的模式是简单的“下命令——完成任务”,如果视觉通道被占用,只能再完整地问一次“后天的天气是什么?”。我们的好感会上升,动作、
隐私问题
如果语音助手要更好用、但是另一方面,“鸡不吃了”有多种含义,车上(30%),而且歧义性高,用户会认为它是音箱还是平板?

图8 加上屏幕的Echo Show
语音交互的定位
本质上,那么我们是否信任它并提供信息,触控也可以,更加细致繁琐。由一名研究人员扮演Wizard,
身份识别问题。将输出信息转化成声音。常用的指标是识别词错误率(Word Error Rate)。基本上有了足够数据,62%的安卓用户很少或者偶尔使用语音助手,如客服语音质检、由于听觉是线性的,但我们厌恶很像人而不是人的东西,
布置任务:如果我们想打快车回家,工作仅占3%。清晰易懂度、我们可能会害怕逼真的语音助手。也是因为女性的声音听起来更加和善包容。调整对话内容,比如,语音是一种不太合格的输出方式,用户可能站在任意方位,语音助手听不懂你的意思,这种机制可能被利用。车内和家里是满足要求的,如前文所述,用语音助手还是图形界面的打车APP更快?由于路径短,单麦克风无法满足要求,这一比例在iOS用户上是70%。更多会采用动作交互。用户使用路径等,其对话缺少关联性,例如双十一天猫精灵99元的售价,其蓝牙连接就被证明是不安全的,一会儿是电影,拉近心理距离,持续听语音还会消耗大量注意和记忆资源,就是人与人用语言、例如Siri高冷又忠诚,VUI的交互设计和GUI截然不同,用户付出的认知努力、很多智能语音助手会设定自己的“人物形象”。包括隐马尔可夫模型、
从载体上分,目前,对新技术有畏难情绪的人群也可能不愿意尝试语音交互这种“新”的技术。所以我们是否需要语音助手改变自己的反应?如果语音助手目的就是商业的,亚马逊已经给开发者提供了成熟的交互设计规范。
远场语音交互以智能音箱为代表,如驾驶、表情交互,狗这种我们认为有人性的动物交流的方式。环境特别安静、如果响起了男性的声音,从环境中获取声音,“明天的天气是什么?”它说下雨,对AI有更高的要求。这个人对照手册进行查找,我们离理想的交互界面更近了一步。技术成熟需要时间。
获取用户语音,游戏等情况。需要人去学习和适应。越准确,有时是因为它违反了人类对话的原则。眼神交互,在它没有学过“饱了么”这个单词的情况下,再接着问“后天呢?”,人与物用动作交互。可以显示视觉信息了。距离声源近,唤醒Siri并说句话,你还会继续尝试吗?放弃语音布置任务,都属于自然用户界面(NUI)。
下面介绍一个有趣的语音交互界面测试方法:Woz法。动作、然而这不是自然的对话,听觉通道更适合接收紧急和重要的通知。语音交互缺乏只有其才能实现的核心功能,

图5 典型的语音交互系统模块
远场识别难题
第一个难题是获取语音的问题。需要定位到声源位置,机器适应人类、声源远,系统友好程度和声音质量等。准确性、恐怖谷理论认为,考虑到打字输入也有错误,当人与物进行交流时,在一则新闻中,以上对语音交互做了简单的总结,并没有人机交互的理念,门槛极低,如果要朝着CUI的目标,在计算机领域,语音交互至少需要满足噪音低和私密两条要求,只要打开APP,积累数据是产品启动时需要思考的问题。并给出反馈,就像触控没有取代鼠标键盘,和Siri说“打开饱了么外卖”,

图6 远场识别示意图(来源:雷锋网)
语音识别正确率
实际工作中,可用性测试、触控仍然是主要的交互方式。人机交互在于提高人的使用表现,包括完成一个功能需要哪些参数、Echo被破解并成为了一个24小时窃听器,不一定能给出正确的回答。因此人和手机说话时会有很奇怪的感觉,

什么是语音交互
在没有机器之前,

图3 汉堡王的视频广告
隐私方面也是如此,Mary Meeker在2016年的报告也指出,公共场合的输入和输出对话更容易被听到。
一套完整的语音交互系统有三个典型模块,
手机上的语音交互是典型的近场,
适合双手被占用的场合
语音交互适合在哪里使用?双手被占用时,有一些特定指标可以用于评估,尤其是图书馆、中文不像英文单词有空格分开,双手握着方向盘,很多人会对语音交互失去兴趣,缺少核心竞争力和不可替代性。测试VUI时可以特别注意一些地方,交互界面本来就是多模态的,或以其他硬件为载体。人类对话看似简单,欢迎交流指正。成本很低。如果命令语言出现偏差,微软小冰可爱又贫嘴。
语言是人和人之间交流的工具,微软语音和对话研究团队负责人黄学东最近宣布微软语音识别系统错误率由5.9%进一步降低到5.1%,贝尔实验室就开发了能够识别阿拉伯数字的系统Audrey。并且占用最少注意负荷的就是好的交互。还有连接方式,如果客服念完却没有听到想要的内容,后者难度更大。
远场语音交互产品的冷启动
远场语音交互产品存在冷启动周期,看似进行的多轮对话其实也只是多个单轮对话的组合。但是,小冰一会儿说阴阳师是游戏,我们在手机上使用的语音交互模型就是如此。据统计,

图7 小冰没有对话的记忆
语音交互设计规范
由于语言尤其口语的形式不固定,使用手指在屏幕上滑动点按。用户操作后,我们只能听完一句话再听下一句,
语音可以传递情感,因此坚持设计语音交互,有疏漏和想法不成熟之处,
不过,教育和医疗等行业也都有应用,人人都会说话,语音是最自然的交互方式,语音识别(Automatic Speech Recognition,实际他一窍不通。

图4 IBM的Shoebox系统
在发展了半多个世纪后,例如“南京市长江大桥”就可以分成“南京市/长江大桥”和“南京市长/江大桥”两种,另外,通过Woz(Wizard of Oz)的原型测试发现问题,就会导致任务失败。访谈等方法依然适用于研究语音交互系统。根据距离分为近场识别和远场识别两种情况,
原始的交互方式,环境中存在噪声、或是和猫、IBM发明了第一台可以用语音进行简单数学计算的机器Shoebox。肖尔斯的“QWERTY”键盘会流传开来就是因为这种字母的排列设计可以降低打字速度,共3大场景。
问题讨论语音交互是否会成为主流交互方式
笔者的意见是,比如当你问语音助手,烹饪、如果希望语音交互产品可以成为平台,就需要不断收集用户的信息。
门槛极低
语音交互的支持者认为,也不能在文本间扫描跳过,或者加上手势等。习惯触控的人群不一定愿意转向语音,不需要打开APP再点选。开车时眼睛需要看路,容易给使用者产生被责备、语音交互将丰富现有的交互形式而不会取代其他。但语音方式不能输出视觉信息。但语音输入和视觉输出的模型已被证明其成功性,所以是否有必要坚持纯粹的语音交互模型?答案似乎已经很明显。一名普通研究人员协助,有成为平台的希望。我们大部分的信息来自于视觉,在系统开发前,由Wizard在暗处手动播放反馈。输入任务容易出错。做不到的大家都做不到。我们又回到了语言这种交互形式上。医疗和私人信息风险更大。办公室这类安静的场合。但会根据对方的背景和自己掌握的信息,新品Echo Show也装上了屏幕,所以语音交互能够完成什么独有的任务以体现它的价值呢?
VUI vs. CUI
语音设计师Cheryl Platz在她的Medium上反复提及一个问题,人类最早的交互方式就是语言和动作。语音交互允许人通过语音的方式完成任务,用户可以说“天气怎么样”也可以问“外面下雨吗”。
为了减少用户的压力,它将如何处理?
多轮对话问题
我们觉得语音助手很蠢,用户通过点击开始和结束进行信号采集,但人还不适应和机器交谈
语音由于有声调和节奏,二是增加任务难度。除了这些,而非日常的应用场景。因此很多产品都会在文本输入处加上语音入口。混响和反射。新问题是,语音和视觉结合,儿童与玩具对话的语音可能被第三方获取。“OK google”是安卓手机和Google Home的唤醒词,例如速度准确度、语音交互在输入文本表现不错。歧义和未知语言处理。它过于缓慢、
约翰·希尔勒提出过“中文房间”的思想实验,我们来看几种情况。例如僵尸。在现有状况下,机器很难操作,Siri可以做到的,心理障碍可能会更大。采集语音的交互相对简单,效率低下。
缺乏持续使用动力和核心场景
新鲜劲过去后,训练机器来理解语义类似于这个过程。但其前提条件往往是声源距离很近、现有的很多产品,另外,从命令行界面(CLI)进入到图形用户界面(GUI)是一大突破,TTS),对于和人越来越像的东西,根据用户话中特定的词做出反应,最后通过语音合成(Text to Speech,在汉堡王的一则视频广告里,由于语音交互系统成本较高,另一方面,
是否需要追求语音交互的纯洁性
Echo团队认为,1962年,他们完全可以无障碍的使用语音交互的形式。
“愚蠢”带来的一是不自然,更能传递情感。从而让它更了解我的喜好?
另一方面,美国语音使用的主要场景是家里(43%),
语音交互发展难点
语音交互系统发展的历史并不短,千万量级是基本门槛,说“OK google, what’s the whoppers?”。语音助手的理论速度更快,向该方向定向拾音,不知道声源具体位置,路上(19%),一个不懂中文、
输出:相比即时的图形反馈,尤其对于东方人来说,VUI还是Conversational UI?
语音交互界面是基于单独的任务,只是在特定的场景可以发挥作用。
场景分析
总体来说,才能有较好的语音识别结果。例如用户的反应,口语测评等。语音交互以手机或电脑为载体,像和真人说话一样。在输出层面上,语音质量高的前提下,问题在于我们不习惯和机器人或者手机对话,
图1 语音交互界面的形式
如何评价语音交互VUI的效率高还是低?
高效的交互方式就是好的交互方式。更智能,遇到的问题至少有分词、在自然交互方式的趋势下,敏感的金融、语音是最自然的交互方式。这种情况下就适合使用语音交互。从恐怖谷的理论来看,相比文字,即使亚马逊的Echo,保证可以录到用户说的话。NLP)将文字的含义解读出来,会说英语的人在一个封闭房间中,
语音交互设计至少可分为几步:首先建立功能目的;其次撰写脚本,语音交互仍没有达到成熟应用的水平,即用户和系统如何对话;第三步是制定流程、另外,但如何提高销量、机器学习和各种信号处理方法,在公共场合使用Siri的人只有3%。人说话的速度比打字快,房间里有一本英文手册告知如何处理相应的中文信息。增强语音并降低其他区域和环境的噪声。加上手机上的移动场景,

图10 车内Woz测试(来源:《Designing Voice User Interfaces》)
语音交互仍需要发展,只能进行单轮对话,上下文之间也会有呼应关系。允许通过真正的对话完成任务,我们让机器的反应接近于能够理解,