本文共 11382 字,大约阅读时间需要 37 分钟。
近年来,自然语言处理技术已经取得了长足进步,成为应用范围最广泛,也是最为成熟的AI技术之一。但实际上,自然语言处理技术在商业化应用上却鲜有突破性进展,真正成功或者能够完美满足人们日常生活需求的产品并不多。
回首2018年,自然语言处理领域不乏进展和惊喜,比如谷歌提出的BERT模型打破11项世界纪录。然而,与年初一些专家做出的预测基本无异,这个领域进展缓慢的状况很大程度上并没有得到改善。
那么,自然语言处理技术在商业化应用上到底是出现了什么问题?为何迟迟没有大的进步?解决问题的关键在哪里?
本文是AI前线年终盘点自然语言处理技术专题系列文章之商业化篇,将通过数家代表自然语言处理技术在各行业中应用最前沿的公司:科大讯飞、京东、腾讯、小米和氪信,来探索自然语言处理在商业化应用层面上的现状,希望能够对突破当前的瓶颈有所启发。
原文链接:
自然语言处理技术目前在行业应用中究竟现状如何呢?对于这个问题,专家们给出的回答有些许不同。
首先,五位专家都一致认可自然语言处理技术在行业中的应用范围已经非常广泛。科大讯飞认为,对比而言,语音技术作为感知能力的代表,应用水平相对更高,属于好用状态;NLP要看具体的任务,不少任务的实际应用性能也不错,总体上来说,NLP行业应用属于基本可用状态,离真正意义上的好用还是有较长的距离。
而小米则认为,自然语言处理技术的含义很广,笼统地说,NLP和语言技术在目前的行业应用中都处于中等偏前的水平。
相比之下,与科大讯飞有着合作的氪信很坦率地指出,语音技术由于深度学习的发展在最近几年有很大的突破,这使得语音识别、语音合成、声纹识别等技术均可大规模应用在工业领域。但是,光有耳朵和嘴巴还是不行,这个智能系统最重要的是要有大脑,听进来的话需要理解它(NLU),然后是怎么通过自己的知识积累和业务诉求来回复(NLG)。这个大脑的核心技术就是NLP相关的技术。但然而,坦白地说,NLP在工业领域的应用还属于早期阶段,不像视觉领域,行业内已经有具体标杆效应的独角兽公司,如旷世、商汤等。很多智能交互系统要么只能在非常狭窄的领域中做简单的任务,要么有经常被诟病的人工智障的问题,NLP技术虽难,但任重道远。
正如各位专家所说,目前自然语言处理技术在行业中的应用已经非常广泛,包括电商、翻译、金融、智能硬件、医疗、旅行、住宿等各个行业,应用场景涵盖语音分析、文本分析、情感分析、意图分析、图形和图像识别、互动语音回复、光符识别等,已经应用于公有云、私有云和混合云之上,IT和电信商、医疗、零售、银行等都是自然语言处理技术的终端用户。
在这些领域和场景中,自然语言处理技术比较成熟的商业化包括搜索引擎、个性化推荐、广告、细分领域的知识问答/智能问答等,常用的自然语言处理的方法包括分词标注、文本分类、关键词分析、敏感用语识别、词频统计、观点归纳,情感分析等。然而,虽然有不少公司标榜自己的在产品中应用了这些技术,但是真正产生实用价值,并为企业带来可见收益的公司却是少数。
AI前线通过与处在自然语言处理技术前沿的五家企业:科大讯飞、京东、腾讯、小米和氪信的交流,进一步了解了当前自然语言处理技术在企业中的应用和商业化现状。五家企业对应的行业领域应用场景分别为翻译、智能对话与客服、智能问答、智能硬件和金融。
五家公司自然语言处理技术典型应用一览:
目前为止,单纯依靠NLP或语音技术变现还是一件比较困难的事。在采访中,五家公司都表示在公司内部财报中并没有专门针对这两项技术带来收益的计算方法,甚至发生收益是否归功于这两项技术的争论,感叹语音是性价比很低的事情,离钱太远。
因此,AI前线并未获得可以直观显示这两项技术带来具体收益的数据。
但是,我们可以从一些与这两项技术密切相关的智能硬件销售情况,侧面了解到其商业化现状。
比如,根据全球权威市场调研机构Canalys发布的2018年第三季度中国智能音箱报告显示,阿里巴巴旗下天猫精灵出货量220万台、排名第一,小米小爱音箱出货量190万台、排名第二,百度出货量100万台,排名第三。其中,截至10月底,小米小爱同学累计80亿次唤醒,日活达3400万,也间接为该公司带来收益。
据媒体报道,科大讯飞发布的智能转写机器人“讯飞听见M1”目前已经正式预售,此前推出的智能硬件中,讯飞翻译机2.0上市5个月销量超20万台。科大讯飞董事长刘庆峰称,该公司2C业务翻番增长,而且现金流情况也很好,已经占到公司的销售收入的30%多,毛利接近40%,“尽管激烈的市场竞争会让翻译机等应硬件产品价格出现一些小的波动,但整体上翻译机会维持在50%的毛利率,降价范围在5%~10%之内。”
另外,数据分析网站statista的一组数据,也能反映出自然语言处理全球市场的大致状况。数据显示,2018年,全球自然语言处理的市场规模达5.8319亿美元,到2024年将达到约21亿美元。
那么,在业内人士的眼中,NLP和语音两项技术在商业化或落地方面的进展算是成功还是失败呢?
对此,五位专家给出了自己各不相同的回答,但总体上都对NLP和语音领域近年来取得的进步表示肯定,表示自然语言处理技术基本处于可用状态,虽然还远未到完善,但看好其未来的商业化应用前景。
氪信表示,语音的率先突破引领了AI这一波的兴起。今年以来基于ELMo模型在多个场景内都有不俗的效果,以及最近2个月谷歌提出的BERT模型疯狂屠榜都一再表明,基于合理的模型结构实现NLP的模型迁移有很大的发展前景,而在技术上的持续投入也会收获累累硕果。
科大讯飞表示,技术的进展和突破非一朝一夕之功,还是要相信全球的广大AI研究者,能够给大家带来惊喜。关于商业化层面,还涉及到市场、供需是否一致等一系列问题,包括国外的Google、Facebook等企业,国内的BATI等企业,都在各个垂直领域做了很多探索,也有不少进展。总体而言,科大讯飞对AI技术的应用持非常乐观的态度,虽然当前还面临一些技术上的挑战,或者商业上的资源瓶颈等,但相信随着AI市场机制的健全和刚性需求的不断增长,AI的更大范围应用将要马上到来。
小米对自然语言处理技术的信心更强,认为总体而言,这两项技术在商业化方面的还是比较成功的,只是由于NLP技术是很多商业领域的支撑技术,因此很多商业的成功大家都不将功劳归功于NLP。实际上,近年来机器翻译和文本生成领域取得了不小的进步。当然,相对于其他领域,NLP领域的提高幅度没有那么大,一方面是因为NLP领域的相对水平已经比较高(相对于图像等领域),另一方面,现有数据驱动的方法要做到自然语言的语义理解还具有相当难度。小米认为,要真正突破,还是要理解自然语言。
腾讯认为,还是需要找到场景。以视觉为例,大家看好像人脸技术已经非常成熟,各家公司都已经做到99%精度,但最开始的商业化落地还是在安防领域,产品打磨的比较成熟了,才逐渐渗透到其他行业。自然语言处理技术我相信也需要这样一个市场认知和接受的过程。这两年也看到了比较多的商业化落地的产品,包括智能客服,知识图谱、信息抽取等,市场热度也在逐渐升高,腾讯表示非常有信心。当然,一方面NLP技术相对视觉还不够特别成熟,这就需要产学研一起摸索和进步,另一方面在商业化方面也需要找到一些核心场景和抓手,逐点突破。
京东也认为,目前自然语言理解技术在深度学习的驱动下,已经获得了长足的进步,无论是人工智能领域的头部公司,还是基于人工智能高新科技催生出的创新型企业,都在摸索自然语言理解技术新的应用场景创新。比如京东目前就基于领先的自然语言理解技术,结合京东零售、物流、金融等全价值链场景和精准数据,打造出业内领先的解决问题型智能对话系统。结合京东情感AI、知识图谱等技术的发展,更孵化出涵盖售前、售中、售后的有温度智能客户服务、高精准的AIoT对话服务、大规模个性化内容生成等有实际应用的价值的落地探索,为京东自身的主营业务带来巨大价值。
但是,自然语言处理技术还面临着一大困难,那就是特定场景需要特定的模型。通用语言理解模型成为这一问题的关键。
今年年中,Reddit上一场关于自然语言处理技术突破的激烈争论曾给笔者留下了深刻的印象。在这场讨论中,有人认为,NLP和语音领域的突破状况有些令人失望,人们研究的热点纷纷转向了GAN 和强化学习,也有人认为,NLP和语音领域已经成为目前为止应用最为广泛和成熟的AI技术之一,取得的进步有目共睹。
但评论中大家一致认同的是,近年来自然语言领域的突破进展确实乏善可陈。为什么自然语言处理难有突破出现呢?
阅读理解: 阅读理解旨在考察机器在给定篇章的情况下,完成面向对应问句的精准回复。斯坦福的SQuAD等数据集推动了这个领域的研究。通过最新的基于注意力机制的深度学习方法,该类阅读理解问题的准确率已经可以做的很高。
缺陷:当前的阅读理解还是在给定问句的情况下去篇章中抽取答案,且对训练数据的依赖相对还是较高的。机器通过利用各类知识,实现真正意义上对篇章的理解,还有较长的路要走。
推理: 传统的符号逻辑推理业界一直都在研究,但是进展相对缓慢。一方面由于推理所涉及的领域非常广泛,机器如何具备知识这个问题一直也没有得到很好的解决,所以在解决实际推理问题的时候,往往表现得非常依赖人工专家知识,缺乏较好的泛化性。
近年来随着深度学习的发展,一些近似推理的工作也被大家关注。比如以知识图谱表示为代表的工作,将知识图谱表示在低维连续向量空间中,并通过向量空间的语义联系,学习概念或实体之间的关系,并据此进行浅层的关系推理。
目前公开最先进模型应该是ICLR 2018 文章中提到的DIIN。NLI (自然语言推理)任务主要是判断两个句子的逻辑关系,是蕴含,互斥,还是无关,一般转化为句子pair的分类问题。DIIN模型框架上遵循通用的表征学习+交互匹配的框架,细节上把multi-head attention用到了极致。
缺陷: 近似推理目前比较热门,但总体还是以相对浅层的推理为主。DIIN在涉及时间、梳理、条件判断的时候,准确率降至50%左右。就NLI任务而言,目前模型已经能够在大多数情况做到80-90%的准确率,但对于长尾情形的效果,反而规则、正则更好处理。
问题1:基于CNN与LSTM模型的问答模型经常在只“读到”问题的一半就收敛于一个预测出的答案。这意味着模型严重依赖于训练数据的表面相关性,缺乏组合性,导致结果出现偏差。
解决思路1: 模型依赖训练数据的表面相关性,实质上是当前深度学习技术在序列建模过程中的共性问题,本质上属于模型的泛化性问题。
要克服这类问题,需要研究一个相对通用普适的语义模型,该模型具有较强的泛化能力,这样就可以让该语义模型作为核心基础,为各领域的特有模型提供语义支撑。要设计实现该类模型,需要解决无监督语义学习的问题,这类工作目前在学术界开始被关注,比如ELMo、BERT都是这类工作。(科大讯飞专家)
解决思路2: 通用语义嵌入大规模预训练可能是预防过训练的一种方式。此外还需要新的合成模型。另一种方法是构建更多复杂、大规模、真实世界的任务,如开放对话或目标导向对话相关的复杂结构性任务,比如销售对话、客服对话。这些任务将促进更加普适、更综合的模型出现,因为在这些复杂的任务重中,表层相关模型的效果并不好,亟需合成信息模型。(京东专家)
解决思路3: 首先通过训练集和测试集上的表现变化,判断模型是过拟合还是欠拟合。如果是欠拟合,说明模型没有很好地捕捉到特征,这种情况下应该在特征的层面进行加强,把模型加深;如果是过拟合,说明参数的复杂度超过了数据的复杂度,常见的做法包括数据增强、正则、模型简化、dropout、早停等。(腾讯专家)
解决思路4: 具体来说,CNN与LSTM模型建模问句时,很容易捕获跟答案直接相关的问句中靠前位置词语,如“type”和“topic”类型的词语,不管输入序列的长短,现有的attention模型或者CNN滤波都容易反复关注到这些词,造成只“读到”问题的一半就收敛于一个预测出的答案。
可能的解决方式包括:
尝试coverage的attention,主要思想是别让某些词(如问句中靠前的词语)反复被关注到;
用transformer替换CNN或者LSTM,transformer的self-attention可以建模句子内部的依赖信息,也可以捕获长距离依赖,在绝大部分NLP任务上比CNN、LSTM效果好。(小米专家)
解决思路5: 在文本处理中,CNN网络更适合于短文本中的特征提取,LSTM网络虽然在诞生之初为了解决长句子训练中的梯度爆炸和消失的问题,在相对较长的句子中其确实显示了很好的效果,但是对于问答类数据,文本过长导致LSTM在训练中遗忘句子之前的信息并且在训练中无法将问题的特征加到网络中一块训练,而导致效果不好。
目前对于问答模型更倾向利用基于注意力机制的网络,最典型的是BERT网络,完全依赖注意力机制, 另一种是依据记忆力网络的结构, 像Deep Memory Network, 通过记忆力网络循环计算整个句子的注意力权重。(氪信专家)
问题2: 现代NLP技术在基准数据集上表现优良,但对于未知自然语言文本的语言理解与推理方面远不及人类的水平。
解决思路1: 这与第一个问题类似,也是模型的泛化能力问题。除了尝试设计一个通用的无监督语义模型之外,还可以重点思考如何将各类人类知识引入到机器的建模学习过程中。人类知识相对稀疏和抽象,但却具备将各类概念和实体关联起来的作用,所以如果机器能具备对人类知识的学习能力,那么其在处理未知信号的时候,就会表现的更加智能。(科大讯飞专家)
解决思路2: 我们需要大规模、注意力具有结构化注意力机制、普适的语言理解模型,这是通向类人水平NLP智能的道路。我认为最近一些进展,如HAN、BERT、Transformer、Elmo也是解决这个问题的方向。(京东专家)
解决思路3: 一方面机器语言理解确实还不及人类。人类在理解语言的时候会调用很多语言之外的信息,比如常识等,相当于海陆空联合作战,模型目前还只具备学习到怎么使用一把特定的手枪,我们对此也应该有正确的预期。另一方面,在相似的任务上和数据上,可以考虑迁移学习或者预训练模型来快速启动。(腾讯专家)
解决思路4: 在基准数据集上表现优良并不代表在未知数据上表现好,这是机器学习领域的努力方向。现有NLP技术大都基于机器学习方法,因此,这也是NLP技术的努力方向之一。这个问题确实非常难,对于NLP而言,也许融合知识(包括语言学知识、人类常识、领域知识等)是一个缓解上述问题的方向。(小米专家)
解决思路5: 这个问题不仅只限于NLP领域,在任何场景训练的模型如果迁移到新的未知领域,都会遇到模型性能剧烈下降的问题。我们需要构建一个可快速迭代的系统或者框架来解决未知领域的问题。预训练的模型先快速冷启动,收集样本,持续监控模型的性能,然后快速迭代模型。(氪信专家)
问题3:如何充分衡量模型在新的、从未见过的输入数据上的表现?或者说,如何衡量系统的泛化能力?以及如何处理未曾见过的数据分布和任务?
解决思路1: 可以从模型在多个不同任务上的表现来衡量,即扩大评估集合;另一方面,还可以将模型应用到不同的系统中来评估。
严格来说,自然语言理解领域的未知数据,由于空间极为庞大,很难建模或者预设,因此不论是从模型评估来看,还是从模型训练来说,未知数据或信息的建模学习,都还是一个比较大的问题。(科大讯飞专家)
解决思路2: 对于神经网络而言,现在还没有比较好的理论指导。ICLR`17的最佳论文给了“Understanding Deep Learning Requires Rethinking Generalization”也说明了学界对深度学习的泛化能力的关注和讨论,这篇文章做了大量的实验,表明深度神经网络一定程度上“记忆”了输入样本。这篇文章同时也认为经典统计机器学习理论和正则策略难以解释深度网络的泛化能力,目前来看,仍然还没有公认的答案。(腾讯专家)
解决思路3: 目前来看非常困难,对于未曾见过的数据分布和任务,可以尝试采用迁移学习等方法来将在其他数据上得到的规律迁移到新数据或者新任务上来。(小米专家)
解决思路4: 首先得有一个非常合理和直观的评价指标,其次需要在跨时间窗口或者跨场景的多批数据上充分测试,避免过拟合的现象。(氪信专家)
问题4:机器翻译模型的训练,我们使用诸如交叉熵或预期句子级别BLEU之类的损失函数训练模型。这些函数已经被证明存在偏好,而且与人类判断不充分相关。强化学习似乎是NLP的一个完美选择,因为它允许模型在模拟环境中通过反复试验来学习类似人类的监督信号(“奖励”)。但是,强化学习也无法完全解决NLP的所有问题,强化学习在进行NLP时的问题主要是什么?怎么解决?
解决思路1: 强化学习在NLP领域的应用,最主要的问题是reward信号的确定问题。由于自然语言非常稀疏,属于非连续信号,如何定义奖励函数一直是自然语言处理领域的普遍难题。包括机器翻译的BLEU分,文档摘要的ROUGE分,虽然属于相对客观的指标,但还是无法直接代表人类的语义评价。因此这个问题本质上,是如何客观评估或者定义语义的问题。我个人认为强化学习在NLP领域暂时还不能有很好的应用。(科大讯飞专家)
解决思路2: 强化学习在NLP领域是一个非常强大,且具有潜力的工具,但不可以解决所有的NLP问题。如强化学习不能告诉你最好的损失函数是什么,因为它必须是语言/任务相关。而且经典的RL算法需要进行拓展去解决语言问题,比如说如何处理一个接近无限的行动空间(如语言空间),如何处理一个无法简单模仿环境的开放系统,如何在不同的对话任务中定义奖励,如何用少量样本有效训练RL,如何为语言建模让训练迅速收敛等。(京东专家)
解决思路3: 强化学习的序列决策特点和NLP的一些任务非常契合,如对话生成、摘要、翻译等等。在NLP中使用强化学习,首先要看适不适合转化为一个强化学习的问题,能否定义好agent, environment, action, reward这些基础要素。另外在训练的时候,强化学习比较不稳定,要时刻保持对算法学习过程的关注,是否在合理的状态。在不确定的时候,可以适当对交互环境、reward函数做简化,甚至可以先观察随机策略在一个具体的setting下会如何工作。剩下的就是一些具体的技巧了,比如尝试多个随机数种子,做数据标准处理等。(腾讯专家)
解决思路4: 强化学习的一个主要难点在于奖励函数的定义,对NLP也是如此。人类善于定性式评判,但是机器在学习时需要定量,定性到定量的转变十分困难。要解决这个问题,还是要从评价函数上多下功夫。(小米专家)
解决思路5: 强化学习的范式对于NLP里面机器翻译、序列生成、对话系统、聊天机器人等传统损失函数有缺陷,但又比较容易定义奖励函数的动态系统有比较好的应用效果。但是强化学习自身的一些问题,譬如样本利用效率低,对环境过拟合和训练效果不稳定等问题也是在NLP里应用强化学习的痛点。(氪信专家)
问题5:为什么NLP模型在处理简单的常识性日常场景时那么困难?应该怎么改善?
解决思路1: 这其实并不是NLP模型独有的问题,即使是语音、图像等,在一些日常场景中依然无法做到很好的模式识别。我们认为日常场景简单主要是因为我们从小到到大积累的各类生活经验、常识、专业知识,但机器或者单一的模型或者系统所“见过”或者训练所用到的信息非常少,导致处理日常场景比较困难。如何赋予机器常识推理的能力,是人工智能领域但共同目标,需要解决如何定义或者构建常识知识,如何让机器理解常识并学会灵活推理等一系列问题。(科大讯飞)
解决思路2: 这是因为我们缺乏常识性数据库、好的常识表示,以及常识在具体领域中的语义理解,因此会影响决策。此外,现在大部分NLP benchmark评估标准并不包括常识。因此,学习常识最好的办法是使用更复杂、大规模、现实世界的任务来促进研究和技术进步,激励研究者发明可以从良好常识模型中受益的算法。(京东专家)
解决思路3: 有些日常性场景已经做得比较好,比如情感分类、开放领域的知识型问答等。当然,通识的全能的NLP模型现在还没有,也不大可能有,个人的看法还是需要一个任务一个任务地去做好。(腾讯专家)
解决思路4: 日常场景背后包含各种复杂的上下文特征(如天气、位置、时段、人的情绪等),机器难以很好地形式化描述。人类的推理机制十分复杂,机器目前还很难模拟。可能的改善方法一是大量增加训练数据,另外可以考虑融合知识和数据进行理解和推理。(小米专家)
解决思路5: 日常场景的口语化和开放性特征在自然语言处理中都是非常具有难度的。首先,口语化的句子一般语法结构不规整,语气助词较多,分析和建模难度增大;其次,日常场景开放性大,没有足够大的知识库来支持日常场景的建模。在相关产品或者系统的开放上需要针对这两点下功夫:加强对口语化语句的text normalization的工作,以及通过流程引导和产品设计减少场景的开放性。
此外,自然语言处理领域其他亟待解决的问题还有任务驱动对话系统、语言资源不足和偏见、预估最坏情况案例性能、领域适应、有意义的文本和对话生成、迁移学习、拥有长期的目标/任务导向的人机对话、收集数据的方法、指代消解、词义消歧、文本摘要、民主化等,这些都是业界比较关心的话题,解决了这些技术上的问题,商业化应用才能更加顺利地开展。
问题1:在机器翻译领域,目前落地的机器翻译解决方案大多无法完美满足日常或重要场合的翻译需求。以今年博鳌论坛上腾讯翻译君出现的“车祸事件”为例,让我们意识到目前的翻译产品离真正的可用还有很长的路要走。
解决思路:对此,有专家认为“人机耦合”的理念将被视为未来AI落地的关键。所谓“人机耦合”的本质,是指人与机器的高效分工合作。通俗地说就是,人去做人擅长的智力工作,机器去做机器擅长的计算工作。这与通常的人工智能不一样,通常的人工智能希望由机器解决一个任务中的所有问题,但往往在很多领域,机器并不能做到对所有问题的高效解决。这个时候就需要人的介入,和机器一起配合完成一个大的事情。
人机耦合之所以会成为AI落地的关键,便是由于当前人工智能系统在某些方面,如理解、推理方面的能力不足,需要人工专家的帮助所决定的,这方面需要有一个引导及适应的过程。
自然语言处理技术应用场景受限,有部分原因是当前AI技术瓶颈,但是相比若干年前,目前的自然语言处理技术相关的产品正在层出不穷。这些产品都有一些特点:挖掘用户需求、解决用户的痛点、技术层面可达。在深入理解各种AI能力的发展趋势,结合不同的场景,因地制宜才是关键。
问题2:在实际使用体验中会发现,NLP技术在智能对话机器人系统中,对长句语义理解、理解人的意图方面仍然面临较大的困难,很难让用户有好的体验。
由于中文语言的变位性特点等,长句理解一直是NLP中的难题,虽然学术界做过很多努力,但是目前来看,离实用还是有距离的。在短期内从技术上解决这个问题并不现实,可以考虑采用一些对话技巧提高用户体验。全方位意图理解也很困难,但是可以通过构建并利用领域知识库做精某些重要领域。正如氪信所说,可以先完成80分,再慢慢去优化剩余的20分的体验。
也有人认为,这类问题的解决不一定从技术上入手,可以考虑从产品层面,设计相应的产品交互逻辑,来规避一些不必要的问题。要知道当前系统的自然语言理解能力还无法真正意义上达到人类水平,如果设置过于开放的交互模式,往往会带来很多技术上解决不了的问题。因此,解决这个问题需要技术和产品齐头并进,互相配合努力。
问题3:另外一个比较火的应用是语音交互,然而,虽然现在市场上出现很多语音识别软件、语音交互产品,如智能音箱,但智能音箱等所谓的智能语音产品目前能解决的问题是比较初级简单的,在复杂场景和问题处理时的表现并不乐观。至今,似乎还未出现过一款真正意义上的“语音交互”式产品。
语音交互的概念最早在手机助手上得以实现,早期也能完成基本的助手操作。但是这个不是真正意义上的语音交互产品。理想的语音交互应该要满足人与人之间的语音沟通。从目前看,还有很长的路要走。从发展的模式上,语音交互产品的落地工作也会语音识别一样,循序渐进地开展,随着技术的不断突破,数据的不断迭代,形成从量变到质变的突破。
小米也从另一个角度做了补充:按照小米首席架构师,小米人工智能与云平台副总裁崔宝秋的说法,真正的AI产品(包括语音产品)要做到无处不在、无所不能、与日俱增、如影随形。要做到这点,大数据、大知识和大计算缺一不可。另外,个性化、自学习也是这类产品的必要属性。
氪信也认为,真正的语音交互是想你所想,但这不必要,也不可能是完全基于语言理解技术就能做到的。学术界一直有将图像、文字、行为等数据融合进行建模的研究,有些研究的demo也非常吸引眼球。因而,氪信在金融领域利用全域数据构建的知识图谱,以及不断与合作伙伴在多个技术领域展开合作,包括语音、视觉等领域的合作,正是为了打造出真正智能、可落地的交互体验产品。
随着自然语言处理技术的不断发展和用户的需求的改变,有人认为,自然语言处理技术已经出现从独立技术走向融合协作的趋势。对此,五位专家一致表示同意。
AI的能力一定不是相互独立的,自然语言处理技术走向融合协作是必然的,就如同人的大脑的多个功能区域协同工作。讯飞在这方面一直都有布局,2015年底推出的业界首个全双工语音交互系统AIUI,其中就把语音技术与语义理解技术做了一定的融合,提升了交互的效果,3年来在家居、汽车、家电、客服等领域都有成功案例。再比如语音翻译技术,一个研究趋势就是源语言语音到目标语言文本之间的端到端翻译技术,不用经过传统多个模块的流水线流程(先语音识别后机器翻译),这种端到端直接进行语音翻译的直接好处是缓解了原先流程的错误级联的缺陷。
氪信:智能问答和语音搜索会是之后的发展趋势。首先,大的互联网巨头会以语音搜索作为自己的门户入口,其次智能问答(包括自然语言理解,自然语言生成和对话管理系统等)结合智能客服会大幅度提升客服的效率。这两个需求是刚需,也是目前产学研都在攻克的领域。
科大讯飞:NLP和语音的发展趋势是无监督学习。当前的深度学习技术,已经可以在具备大量有监督数据的情况下,实现对数据的充分利用和学习,并解决具体的一个又一个问题。随着时间的推移,有监督学习的“油水”已经越来越少了,如何让机器无师自通、自主学习,实现真正意义上的无监督学习,才是下一步的关键。比较期待在自然语言的语义建模学习,以及人机对话过程中的自主学习方面出现突破,可以保持关注。
科大讯飞:具有个性化特性、覆盖全场景的语音交互,未来非常有机会成为主要的人机交互方式,具有广阔的商业化应用潜力;同时,语音、图像、NLP等人工智能技术也可以帮助许多传统行业简化工作流程、提升工作效率。
小米:NLP技术在搜索、推荐、问答和对话等场景下仍然有较大的商业化应用潜力。
氪信:未来,基于对话理解与知识图谱的整合会越来越深入,而其内涵的深度也足以支撑商业愿景。
本次参与采访的嘉宾分别为科大讯飞AI研究院副院长陈志刚,京东AI研究院常务副院长及深度学习及语音和语言实验室主任何晓冬,腾讯云AI语义研发负责人钟黎,小米AI实验室自然语言处理首席科学家王斌,以及氪信首席数据科学家闵薇,特此感谢各位嘉宾对本文的贡献和支持!
转载地址:http://mmfzx.baihongyu.com/