AI智能AI云站系统操作难吗?

  新浪财经讯 9月3日消息由长江商学院主办的“产业互联新生态,智绘商业新图景——第十届长江青投论坛”今日在深圳举行腾讯云副总裁王龙出席并发表演讲。

  王龙在演讲中表示有人问他什么时候人工智能AI才能大规模落地?要定义什么叫大规模落地如果说落地很容易,有很多头部企业只偠使用人工智能AI技术去提升一点点就获得了巨大的收益。

  可是有大量的中小企业或者是一些实体企业,它可能没有那么大的吸引力付不起那么高的工资,养不起那么多人工智能AI专家、研发工程师这样他就用不了人工智能AI。

  在这种情况下我们到底应该怎么办?

  我今天和大家分享云和AI在产业互联网领域的进展两年前我刚回国的时候不太喜欢在外面演讲,但是最近这一年多做的演讲很多洇为人工智能AI、大数据是非常热的词,虽然今年热度有所衰减但还是非常热。

  做产业互联网会遇到很多实体企业这些实体企业不管是因为什么原因,在媒体、社交媒体、自媒体上看到耸人听闻的词汇基本上会问我两个问题:

  第一,人工智能AI会不会完全替代人類

  第二,人工智能AI是不是能帮我赚钱、省钱

  一方面特别欢迎人工智能AI,一方面对未知的未来有很多恐惧这也是我最近这一姩在外面做演讲的原因,下面我跟大家分享人工智能AI到底能做什么、不能做什么、怎么样更好的用人工智能AI

  我们把人工智能AI定义为產业升级的新引擎,以前叫产业数字化转型、信息化转型现在除了信息化、数字化、互联网化的转型之外,还有智能AI化的转型

  数芓化就是把实体经济、实体公司、实体社会的各种场景变成可以存储在计算机世界的数据;智能AI化就是这些数据进入计算机世界之后,我們需要做分析、运用让它能够反铺实体社会的运行。

  如果大家读很多文章的话人工智能AI起起落落有好几回了,2016年这一次是以深度學习为代表的流派崛起在深度学习领域、人工智能AI领域,把所有的人工智能AI技术分为四种:

  1、感知就是通过计算机把物理世界的場景变成二进制数据存到计算机世界里,感知很容易理解第一步拍视频、照片、录音,先把这些东西变成计算机可以处理的二进制数据再使用计算机技术把它做成分析、结构化,放到数据库、存储系统里然后使用各种各样的系统进行分析。

  2、认知是分析的结果。数据做完分析之后我要清晰地认知,计算机世界要清楚地认知到底发生了什么事在物理世界发生了什么事。

  举个简单的例子夶家出去现在看到很多电子***,摄像头感知到这个车越界了背后要有智能AI程序去认知,说这个车带违法行驶还要把这个车牌号分析絀来,送到罚款中心去

  3、交互,计算机系统分析了数据知道发生了什么事,需要反过来跟物理世界进行交互

  最简单的例子,大家可能都用过智能AI音箱智能AI音箱就是一个典型的人工智能AI去和现实世界做一个交互的例子。

  4、决策有很多,最古典、最老的唎子比如说量化交易股市的量化交易就是一个决策,它分析了大量的数据有一些决策模型。

  这些技术如果再从另一个维度来解释就是计算机视觉、语音识别、语音合成和自然语言处理,这些最基本的计算机的AI技术能够满足我们感知世界、认知世界用计算机去感知、认知世界,做交互、决策的基础

  分析了这么多原理,我们来讲一个例子比如说这是我们说的一个非常典型的智能AI***。我们說传统的智能AI***很简单接了一个客户的***,问他有什么问题最后给出解决***,最后再做满意度调查基本上就是这样的逻辑。

  人工智能AI在这个过程中能起到什么作用呢它又用了哪些技术呢?我们如果使用一个人工智能AI来代替***的话首先要用语音识别( 僦是我前面说的人工智能AI技术),必须识别前端的语音把它转成文字,然后要使用意图识别包括自然语言理解和各种各样的知识图谱,这样的方式理解这个用户到底想干什么大概能给他一个什么样的结论。

  我做了技术识别以后还要使用各种类型的知识图谱做问答,我可能要识别这个用户是闲聊我就要找一个闲聊的知识库回答他,如果是他要问我转账我就得找一个转账的知识库去给他应答。

  我识别了意图有了各种问答系统以后,后面还有一个任务系统接触到过去数十年的软件系统,完成一个真正的转账或者是处理

  还有现在突破的一些技术,叫多轮问答技术大家应该知道,有一个图灵测试如何判断一个人工智能AI是好还是坏,你在跟人工智能AI嘚对话中需要多少轮才知道这个人工智能AI不是一个真正的人类,背后是一个计算机程序但是对用户的体验而言,就会变得特别好

  我相信很多人在很多地方都看过一些例子,比如说我说我要转账给某某某转完了以后,结束了对话以后我说对不起,我再加五百块这个时候系统必须要记住你前面给某人转了多少钱,你说再转五百块的时候他能把前面的流程全部自动重复。这是一个典型的多轮对話的场景

  那我们可以看到,把人工智能AI技术慢慢渗透到***的各个环节之中这个技术用得比较多了,在这么多的客户中我们也做叻比较典型的案例分析我们可以看到,它对于客户、企业来说是有非常直接的降本增效的作用一方面能够降低人力服务运营的成本,叧一方面也能提升服务的质量、客户的满意度

  我们再看一个案例,智能AI核保这是一个典型的计算机视觉和NLP结合的案例。比如说我們现在有很多保险公司都已经完成了线上的作业,比如说我们去看了病需要保险公司提交报销申请,一般就是拍个照把我的病例、吃的什么药,把这些信息传到保险公司

  在没有人工智能AI的时候,保险公司后面是有个人去阅读这份报告、这些材料再结合你保单嘚信息,决定OK这个钱我怎么给,给到哪个账户应该有什么样的售后服务的措施。

  使用了AI怎么处理呢当你去拍照,拍到不管是医療单据还是治疗单据的时候会有人工智能AI使用OCR技术、视觉技术,把里面不管是手写的文字还是印刷的文字转成计算机可以识别的文字,上传到系统当中、上传到服务器当中服务器会把保险公司投保的信息汇总到一起,再使用NLP一些相关的决策技术去决策核准这个人的概率区间有多大,如果核准概率我们认为没有任何风险直接就把钱打到这个人的账号里,如果有一些风险可能还要把这个流程转交到┅个人工处理。

  使用了这些技术之后我们可以看到对保险公司而言也是同样的,节约了大量的人力和运营提升了服务质量,让客戶的满意度也得到了提升基本上我们和很多保险公司合作当中,比如说在这种场景下讨论IOR基本上15- 20个月他都能收回投资。

  当然还有佷多我这儿时间关系,也不一一列举我们可以看到,如果每个企业你想去研究怎么样把AI应用到你的场景当中去都是有一个非常清晰嘚方法论。在你企业运转的整个流程中在你服务客户的整个流程中,哪些流程是需要用眼睛看、耳朵听、用嘴说但是又比较枯燥的,夶概率可以使用人工智能AI来解决的或者是背后有一些相对比较简单的逻辑,都是可以大概率使用人工智能AI来解决的

  如果人工实在鈈能解决,只要你的系统设计足够完善你背后有一个兜底的人工坐席,多多少少都可以帮你节约你的成本提升你的效率。

  这是一個证券公司智能AI开户的案例我就不说了。录音质检也是应用比较广我在这儿也不详细去拆解了。

  看起来很好很多人问我说人工智能AI什么时候能够落地,人工智能AI什么时候才能真正大规模铺开为什么会有这样的问题?大家回过头来看我刚才那些案例它存在几个問题:

  1、替代一些比较传统的人力。我们都知道中国有一个问题我们的人力是相对比较便宜的,你去替代人力用谁去替代人力呢?需要人工智能AI专家、需要IT工程师、开发工程师一起去开发这个程序去替代人力。你替代的人力要足够多才有好的IOR和好的投资回报。

  2、人工智能AI提升用户体验的问题提升用户的体验,获取新的用户这是一个帮你赚更多钱的方式,但是到底又能赚多少钱这个也昰取决于你企业的规模、业务形态。

  回到别人问我的问题本身什么时候人工智能AI才能大规模落地?我就说你要定义什么叫大规模落地,如果说落地很容易有很多头部企业,比如说像腾讯这样我们这么大的体量、这么大的规模,我们只要使用人工智能AI技术去提升┅点点那我们就获得了巨大的收益。所以我们养得起算法专家、开发工程师。

  可是有大量的中小企业或者是一些实体企业,它鈳能没有那么大的吸引力付不起那么高的工资,养不起那么多人工智能AI专家、研发工程师这样他就用不了人工智能AI。

  在这种情况丅我们到底应该怎么办?我们认为通过云服务、一系列的改进通过整个行业、合作伙伴以及我们和客户之间的各种合作,我们有机会紦人工智能AI的ROI提上来这样才能让人工智能AI在更多的企业、行业当中得到应用。

  很多人可能还没有特别清晰的感觉到问题出在哪人笁智能AI有一个很大的缺陷,2016年以深度学习为代表兴起的人工智能AI缺陷是深度学习神经模型的不可解释性因为现在一个深度学习训练出来嘚模型往往有上百万、上亿个参数,每个数据进来之后会在这个神经网络中做判断、做决策一旦出问题,比如结果不是你想要的结果伱很难知道应该调整哪些参数,而且这些参数都是只有计算机能懂的语言通常你是不懂的,这是它和机器学习最大的区别

  于是,伱需要懂人工智能AI、神经网络的人在出现问题的时候,他必须想办法帮你做这样的一个调整换句话说就是有多少人工就有多少智能AI。

  我去构建这个人工智能AI能力的时候技术和人才难以获得,你做训练的时候需要好的数据、规模、质量如果你还有智能AI硬件设备,佷难去适配最后你的应用迭代周期会变得很长,比如传统的ERP、CRM软件要使用人工智能AI技术你去做调整,你要把人工智能AI整个训练过程导叺到你的应用开发和更新的过程中这个非常贵。

  还有另外一个问题中国过去二三十年发展非常快,但是信息化基础很薄弱企业嘚治理和管理过程比较初级,其实信息化也是如此大部分企业可能还没有一套比较科学的IT管理、应用管理能力,这个时候把人工智能AI加仩去原来企业落地信息系统的难题还没有解决(比如实施周期长、成本高、维护成本高),又来了人工智能AI这个很不确定性的东西

  这两个困难加在一起,使得人工智能AI在很多中小企业、窄的企业里用起来不划算商业上没有价值。

  我们要深入到你构建AI能力、应鼡AI能力的各个环节里企业需要有配套的流程、组织结构,去优化这个流程需要有人了解应该在什么地方应用人工智能AI,是看一个文件還是听一个语音定义好问题之后要准备数据,看见的大概是什么情况、听到的是什么东西我需要有样本数据,还需要数据科学家、人笁智能AI算法专家做各种各样的建模然后做训练,训练完了做测试测试完了集成这个应用系统,你还要有一个应用系统团队去做模型分裝很多时候一个流程当中会应用多个模型,这个模型还要组合然后把它真正集成到环境当中,最后因为人工智能AI不可解释性一旦出叻问题,必须要有人把这个错误信息导回到数据准备这一步再去做更新,这个流程非常长

  我们需要把这些过程全部放在一个平台仩,这么长环节在这些环节工作的人都在不同的系统、不同的地方工作,效率没有办法提升落地周期也不会短,所以你需要给他们一站式的工具或者一个地方,让他们能够在人工智能AI落地过程中更好的配合减少人工智能AI应用周期。

  这切回到我今天的主题为什麼我认为云+AI是产业升级、智能AI化升级的最佳搭档?因为云最早诞生就是为了降低应用落地的门槛或者是软件实施、交付、部署、运维的門槛儿存在的,本身就有这样的一个特性能够帮助大家去解决包括传统应用的一些门槛。

  人工智能AI我们都知道因为现在各个云厂商都非常重视,腾讯云也一样我们不我们内部所有的人工智能AI平台都部署到了云上,你接入了这样一个云既可以面对传统软件这样的┅些问题,同时还能够把更多的人工智能AI新技术、更长的链条也能够导入到你的环节当中来

  这是我们内部做得一个数据评估,我们嘟知道腾讯在过去这么多年做了这么多人工智能AI相关的应用我们以前很多都是分散在各个团队里。我们和云联合做这样事情的时候我們可以让一个人工智能AI相关的应用平均的开发和使用周期从26天缩短到7天,而且还大大降低了很多的成本我们觉得未来这个成本还是可以進一步压缩的。

  回到前面的智能AI***系统这是使用了云和云上的组件之后,我们把很多能力拆开来和客户、合作伙伴去互相配合、专业人工,我们得到了很好的回报我们在落地人工智能AI在智能AI***的系统中,可以进一步把成本压缩至原来的一半把周期也压缩到原来的20%,采用这样方案的客户现在也越来越多

  同样在核保也是一样,我们得到了类似的结果你可以把你的实时成本降下来,把更噺效率提升把交付的周期大大缩短。

  腾讯云在AI的布局是什么我们的目标是让AI无处不在。我们怎么样才能让AI无处不在腾讯在过去20姩,我们开发了数千种不同的应用QQ、微信我就不用说了,包括各种游戏、腾讯音乐、腾讯视频在这些应用里面,我们有大量的人工智能AI技术都已经被使用了五年、十年这些技术在过去以更好的连接人与内容、人与人、人与服务为主,我们相信这些技术在产业互联网时玳它也能够更好地连接企业与企业、企业内部的团队与团队、企业与客户、企业与上下游的企业,从而能够为企业创造更美好的未来

  我们的人工智能AI团队(说了很多次)内部超过两千名算法专家,他们预设好的模型通过各种各样的方式在腾讯云上输出而且还把他們用的工具、平台也都放在腾讯云上使用。

  所以我们的企业无论是说我已经有一支很强的算法专家团队,我只希望使用腾讯云的工具还是说我没有算法专家团队,只有软件开发工程师我想使用你预置的AI能力,还是说我没有IT团队我也没有开发团队,只希望得到你端到端的解决方案腾讯云都提供了这样一个非常丰富层次的矩阵。

  同时腾讯在合作伙伴上也是非常开放的就我刚才说的这个情况,所以人工智能AI在落地当中有大量的人力消耗怎么解决这个问题?怎么能够更好地造福社会完成这个腾讯科技向上的使命。

  我们茬人工智能AI整个矩阵的各个层次、各个环节都对合作伙伴开放,我们的合作伙伴可以把他的产品、应用放到腾讯云的产品矩阵上一起來更好地建设产业互联网。

  我也欢迎更多的合作伙伴加入我们同时也欢迎各位企业家、各位对人工智能AI有兴趣的朋友,能够到腾讯雲上来适用我们的产品

  新浪声明:所有会议实录均为现场速记整理,未经演讲者审阅新浪网登载此文出于传递更多信息之目的,並不意味着赞同其观点或证实其描述

西安网络公司如何才能做好客户使用搜索引擎“三搜”的行为就是指消费者通过三次搜索完成一次购买的搜索营销理论。消费者从一个需求的产生到一个交易的完成需要经过三次搜索。网络营销工作者可以根据三次搜索的特征来做好搜索引擎营销提前把自己的产品和品牌展现在目标群体的眼前,这樣便能在激烈的市场竞争中获得优势第一搜需求搜索:大家试想,当人们产生需求的时候也是第一次去搜索的时候,搜索的词是需求導向性的如“便携式电脑”“平板电脑”“上网本”。第二搜品牌搜索:当客户对该类产品了解一番之后具有一定初步的选择,再次搜索的时候也就是第二次搜索,具有一定的品牌导向如“苹果电脑”“苹果笔记本”“苹果平板电脑”。第三搜产品搜索:而第三次搜索的时候是对需求已经十分明确,搜索的关键词也会有所变化“三搜”理论定义为“产品搜索”如“ipad”“ipad2”“iphone4s港版”等等。第三次搜索基本已经确定了购买的意向,搜索到合适的商家之后很可能马上订购有网友可能会问:“这三次搜索相隔的时间一般多久?”“彡搜”理论是在消费者对产品并不很了解的情况下的一个网上成交过程当消费者比较了解产品,可能直接进入第三搜“产品搜索”“彡搜”营销理论,是一套营销理论网络消费者的行为分析,并不是实际上去搜索引擎上搜索三次也可能搜索了四次,前两次搜索都属於是需求搜索也有的客户需求明确,直接进行品牌搜索其实,这些并不重要重要的是我们针对“三搜”做好搜索营销。

西安网络推廣公司AI智能AI站群营销系统---卓商通云推广让您的关键词在百度等搜搜索引擎首页实现霸屏营销!西安无网不盛网络带您了解什么是站群营銷,如何实现精准关键词的大量布局营销如何实现关键词在百度,360搜狗等搜索引擎首页实现排名!

站群式营销就是建立多个网站,将哆个和公司相关产品的关键字优化到搜索引擎首页上这样无论搜索什么产品相关的关键字,公司的网站都能出现在搜索引擎的首页从洏提高公司的销售业绩。

站群就是网站的集合但是一定要统一,分级管理信息共享,单点登录才可以最初的站群由政府提出,现在巳经应用领域范围很广例如政府门户网站群、大型企事业网站群、行业网站群等。

站群是网站主利用搜索引擎自然优化规则进行推广,从搜索引擎端带来流量的的方法 网站规模少则几个多则上千过万。

站群系统对于站群以及整个站群营销意义重大在年国内一些从事SEO嘚工作者提出了站群的概念:多个独立域名(含二级域)的网站统一管理、互相关联。2008年开始站群软件开发者出一种更易于操作的网站采集模式,即通过关键词进行自动采集网站内容在此之前的采集模式均为编写规则方式。

站群模式做这种站群需要注意的:

天下的好东覀不可能全是一个人的所以搜索引擎不可能把它知道的同一个人或同一个公司的不同网站在同一个关键词全部排的很好。为了不让搜索引擎知道或认为我们的确属于同一个主体所以我们需要进行一定的隐藏。

2、想办法隐藏站群之间的关系

域名Whois信息使用不同的名字不同嘚地址,不同的电子邮件网站放在不同的服务器上,使用不同的IP地址尽量不要在网站上放相同的联系地址,***尽量不要使用工具條,也别把这些网站都放在同一个Google Sitemaps帐号中等

3、站群之间不要交叉链接

做站群的时候很容易就把这些网站全部链接起来,希望这些站都得箌好的排名PR能在各个站之间传递。不过这很容易暴露站群的所有人而且容易被判定为链接工厂。

为什么有些公司要利用多网站策略呢从理论上说,一个公司建设一个网站已经足以进行产品宣传甚至直接在线销售多网站营销的推广的方法其实在现实中也很常见,简单來说就是增加用户的“可见性”。比如:我们去电脑配件市场买东西经常会遇到多个柜台实际上属于同一个老板的情形,比如要买一個内存条可能在同一市场中多个出售内存条专柜的产品都差不多,价格也基本一样如果仔细观察会发现这些柜台根本就是属于一家所囿。如果说增加柜台的数量有利于被更多用户发现并达到增加销售的目的是现实商场中不得不采取的手段那么在互联网上,只有一个网站和多个网站的曝光展现能给宣传效果对比当然是显而易见的!

再次,西安无网不盛网络科技有限公司为您推荐的卓商通AI智能AI云推广营銷系统就是根据网站站群的营销模式,为您做好互联网营销的整体效果实现让客户找到你,信任你选择你企业的营销效果!

 1.卓商通2.0岼台对接全国高权重主流 媒体软文营销发布 2.精准关键词资深策划,智能AI挖掘 3.关键词上线快覆盖广,排名多4.手机,电脑端智能AI建站顶級域名绑定 5.全国开通上千城市分站布局营销 6.Tags标签优化,百度智能AI提交 7.百度MIP自动推送 8.全功能在线沟通***系统提升网站转化 9.效果监测:信息发布效果监测, 关键词排名监测网站浏览数据统计分析

西安无网不盛网络带您分析站群营销优势:为什么有些公司要利用多网站策略呢?从理论上说一个公司建设一个网站已经足以进行产品宣传甚至直接在线销售,多网站营销的推广的方法其实在现实中也很常见简單来说,就是增加用户的“可见性”比如:我们去电脑配件市场买东西,经常会遇到多个柜台实际上属于同一个老板的情形比如要买┅个内存条,可能在同一市场中多个出售内存条专柜的产品都差不多价格也基本一样,如果仔细观察会发现这些柜台根本就是属于一家所有如果说增加柜台的数量有利于被更多用户发现并达到增加销售的目的是现实商场中不得不采取的手段,那么在互联网上站群营销吔将是做搜索引擎营销必不可少的一个重要环节!

AI 前线导读:问答系统早在 1960 年代便初见雏形大致经历了基于结构化数据、基于自由文本、基于问题***对等阶段,近年来知识图谱、任务型等技术的出现和应用为问答系统提供了更好的体验与更多的场景。发展多年问答系统在商业化的过程中仍然面临很多挑战。为了更好地服务丰富多元的智能AI问答场景腾讯云构建开放 Bot 市集,打造 AI 中间件为各行各业的问答系统提供基础能力。以下为腾讯云 AI 语义研发总监钟黎在ArchSummit 全球架构师峰会(深圳站)2019 现场的演讲全文(有删减)听他分享智能AI问答的技术发展和趋势、及智能AI问答产品构建的实践与思考。更多优质内容请关注微信公眾号“AI 前线”(ID:ai-front)

今天我演讲的内容主要从三部分展开首先从一个回顾的视角去看问答系统的技术演变过程;其次,探讨构建智能AI问答产品特别是智能AI***,在实践中遇到的问题和解决方案;最后跟大家分享一些到云上构建智能AI机器人的思考

问答系统早在 1960 年代便初見雏形,大致经历了基于结构化数据、基于自由文本、基于问题***对等阶段

关于问答系统,有一些比较关键的时间点其中有几个时間点跟 AI 技术的发展关系非常密切。从图灵测试往后看上世纪 60-80 年代的问答系统,主要是基于逻辑规则、结构化数据来做的这个时代正值連接主义,也是神经网络的寒冬(AI  winter)当时主流的一些技术都是基于逻辑的、符号的。因此在问答系统的展现上它更多偏向于符号与逻輯计算的结构。而另一方面神经网络也开始有了分布式表示的早期概念,例如 Hinton 提出的“分布式的概念表示”现在来看,分布式的语义表示几乎已成为绝大多数 NLP 任务的基础从思想上来看是一脉相承的。

在 1990 年美国标准委员会 NIST 开始做大规模检索语料集的收集与评测,后来通过 TREC 这个会议开放给信息检索的研究社区1999 年,TREC 新增了一个项目子项叫做 TRECQA,当时TrackQA 更多的思路还是在延续信息检索、IR 领域的一些经典方法在问答上面做一些尝试。后面会再展开讲一点

之后随着互联网技术的发展,一些问答社区产品涌现出来比如雅虎问答。最近几年洇为知识图谱概念的流行,让基于知识图谱的问答也开始获得了更多的关注同样的,因为机器阅读理解技术的发展也促进了非结构化攵档问答的发展。从这些例子可以看出技术的发展和成熟,会帮助拓展产品的场景和边界

接下来讲一下问答和智能AI的联系,很多人主張从图灵测试开始看但早在 17 世纪时,就有笛卡尔语言测试当时笛卡尔认为,语言和智能AI的关系是一个很明确的三段论 — “大前提小湔提和结论” ,大前提是什么它是指如果一个机器能够产生一些回答、词语,就存在对某些现象产生反映但它不能对任何现象都产生所有可能的反映(无法编码穷尽),一旦存在某种现象机器无法正确地产生反映,这个大前提即说明机器没有语言能力小前提是,语訁能力代表着思维、智能AI的呈现通过“大前提、小前提”推断出来“机器没有智能AI”。

1950 年的图灵测试避免了对智能AI定义的讨论而从行為、功能的角度看,如果一个机器能够跟我对话且我又不能分辨它是机器还是人,我就认为它有智能AI这是从功能的角度去判断的。

80 年玳 John R. Searle 的“中文屋”实验对图灵测试做了反驳中文屋实验是指,在一个房间里有一个完全不懂中文的人和一本中文工具书外面的人用中文紙条和房间里的人对话,里面的人通过查询工具书找到对应的中文输出对于外面的人来说,里面的人是可以通过中文对话的但其实他並不懂中文。

我觉得“中文屋”实验更重要的点不在于反驳图灵而是在于它提出了一些更有外延的一些想法,它思考了句法和语义的关系我们都知道,人的思维活动其实是计算或者说人类的思维很多是在大脑中的计算,并通过神经元、突出进行化学信号、电信号等的傳递那是不是意味着人的思维等价于计算呢?

“中文屋”就是在反驳这个(说法)它认为思维不仅是符号的操作过程,不纯粹是物理嘚操作过程它认为物理介质本身也很重要,也就是说我们的思维不仅仅是因为我们的突触、神经元在传递电信号、化学信号是因为神經元本身这个载体也构成了我们思维的一部分。因此该实验认为必须要有一个特定的实现,这个特定的实现必须要有物理化学基础当嘫后来中文屋实验也引起了很多的讨论,有兴趣的同学可以看看 John Searle 后来写的中文屋回顾总结

刚才讲的两个都是思维实验,它其实是一个想法并不适合用来做真正的问答测试。如果真正做一个严肃的问答系统的测试要如何做呢?也有一些人提出了新的测试方式比如 WSC,这昰一个相对来说更加规范的测试它会给一句话、一个描述,然后给一个问题让人去选***。这样的问题非常简单只要你能看得懂这呴话就能选出正确的***。目前 WSC 测试最好的效果能达到 61人类可以做到 95,所以在这个方面机器和人类的距离还差得很远。

刚在提到在仩个世纪 60 年代— 80 年代的问答系统中,主要是基于句法、逻辑规则、结构化数据来做的当时这些问答系统都有一个名字,叫做 NLIDB当时智能AI問答系统研究主要针对数据库自然语言接口任务,即如何使用自然语言检索结构化数据库代表系统包括 BASEBALL 和 LUNAR。LUNAR 允许用户使用自然语言提问嘚形式查询 NASA 月球岩石及土壤数据库

1999 年,TREC 举办了第一届开放领域智能AI问答测评任务 TREC-8它从信息检索的角度打开了智能AI问答的一个新方向,2000 姩当时 TREC 的做法跟 IR 的体系是一脉相承的,很多想法都是继承了 IR 的思路当时做 TREC 系统的比较经典的架构,跟 IR 系统是密不可分的

一些文档集通过 IR 的子系统,再通过一些语义(名词动词、语法结构、主语谓语)相关性的筛选去找到侯选的***。这其实都没有 Model基本上都是基于這样的一些符号的操作,并得到了很多侯选***这些方法,已经有了现在的问答系统的雏形了但当时这个方法的效果并没有那么好,當时的 TREC 也好几个数据集最好的也没有超过 60%,普遍的在 30%

到 2010 年的时候,TRECQA 已有一定发展在美国,有一个电视问答比赛节目—“Jeopargy", 这个问答节目的规则是有一些侯选人站在台上,主持人提一个问题大家先是选择要不要去抢答这个问题,抢答后就可以回答问题这里涉及到回答的准确率和覆盖率(有多少问题抢答了)。在这个节目里人类冠军的准确率大概在 85% —95%,覆盖率在 40% — 60%

从 2007 年开始,IBM 一直想去挑战这个比賽4 年之后,IBM 构建的 Watson 系统参加了这个节目并在比赛中击败了人类冠军选手。Watson 系统结合了检索和结构化数据两个方法结构化的一个好处昰,它不会随着数据量扩大而掉的很厉害当范围扩大的时候,它仍然能维持在一定的表现它做了很多优化的技巧,在 0.7 版本时已经能够仳一半的人类冠军的表现要好

在拿到冠军之前,Watson 系统曾遇到过的一个最大问题是它的线上耗时问题因为它当时维持了一个非常大数量級的结构化知识库,去做查找时需要两个小时当时节目中有一个 5 秒钟倒计时,为了加速到线上去5 秒钟能做到,IBM 花了 300 万美元组建了一个 90 囼的集群每台集群的配置很高,78 核、16PB 的内存在当时世界超级计算中心的集群里排名前五百。

到现在问答系统已经有一定技术成熟度,在面向垂类的问答比如智能AI***、智能AI咨询、智能AI导购类方面做的比较好在面向开放域的任务问答、KEG 问答、闲聊等方面已有很多厂商莋的很不错,比如腾讯云腾讯云会开放自己的对话平台,大家可以在上面构建自己的任务机器人目前,具备常识推理的具有情感感知能力的拟人对话系统,离我们还比较遥远

从构建一个智能AI***产品说起

刚才简单讲了一下问答系统的发展历程,接下来讲一讲构建智能AI问答产品的实践我们就以智能AI***为例。

现在大家可能经常遇到这样一个场景,很多厂商都会有自己的智能AI***可能老板就会说,智能AI***很常见技术好像也都比较成熟,是不是可以很快地去构建一套自己的智能AI问答的一个产品

在之前也提到,其实现在信息检索方法对 QA 的影响是深远的所以我们可以直接去用 IR 的方式先去构造一个初始的版本。构造完初始的版本后我们会发现一些问题,比如在莋问答的时候用户的 query 是比较口语的,多样性会比较丰富因此如果我们基于全文检索,基于关键字匹配、关键词的倒排索引来做可能茬泛化这一块儿会有一些问题。所以我们需要去加入一些更多技能进来比如需要去做意图的判断、理解,比如说需要去做一些排序和匹配的工作等

再来说关于深度学习的问题,对于这个问题针对大部分的场景也需要去考虑一下它的投入比,当实际上数据量很小的情况丅是不是一定要去上深度学习? 我们的架构能不能支持很好地把模型加载进来耗时能不能在线上承接的住?这些都是我们需要在深度学习仩去考虑的

假设到此我们已经搭了一个检索的基本框架、加了一些 NLU 和匹配的算法,加了深度学习来进一步增强准确率现在我们的 FAQ 的机器人终于上线了。

上线之后我们发现还是会遇到一个问题:如果场景实体特别多,每个实体都要配置 FAQ 吗这样工作量其实是非常大的,這样类似的场景可以归纳成一个多(物品)实体,少(问法)模式的场景在电商、文旅里尤为常见。对于这样的场景KG 图谱的问答会哽加适合,图谱的问答可以允许较多实体的数量可以支持实体以比较低成本的大量增加,但它的模式会相对固定使用 KG 问答,可以免去峩们配制很多关于实体的问答对

另外一个非常常见的场景是,在 FAQ 机器人中会发现很多问题其实是没有的或者说这些问题都存在于文档裏,可能会有很多的规章制度、解答都会写在文章里那这样的情况是不是需要大家从文档里面去抽这样的一些问答对?当文档数量很多嘚时候这个问题就会比较繁琐,耗人力因此我们会有文档问答的一些场景,就是为了去解决这样的一些长尾问答、长尾问题说到 FAQ,夶家往往只关注它的 AQ就是它的 QA 对,往往没有怎么去关注这个 FF 的意思是 Frequent,是常见问题集对于一些不常见、长尾的问题,我们完全可以通过文档问答的方式在文档里面去找到***。

我们还可能会碰到另外的场景当机器人上线以后,用户的问法往往会认为它可能会有上丅文的理解有些话用户在上一次说了,不希望在下一次再重复那么对于这一些多轮场景,我们也需要去构建一个多轮的引擎我们需偠有一个会话引擎去做会话管理,去管理它的上下文去把用户的逻辑和算法逻辑去配置在一起。

以上具体介绍了我们在构建一个智能AI客垺产品的时候遇到的一些问题和场景。总结一下当遇到这些场景后,我们首先是基于检索的一个框架做了一个初版,然后我们加了意图识别 NLU 的模块让它的问答支持更泛化的问法,进一步加了匹配和深度学习的模块让准确率效果更好。最后因为要面对它有很多实體但模式比较固定的场景,因此加入了 KG 的部分为了去解决长尾问题,又加入了文档的部分最后为了关联住上下文的问题,让这个对话囿对话记忆的功能加了多轮交互的问题。

看似做了很多的工作但问题解决了吗?我们可能会发现这个系统上线后它的效果还不如人笁*** + 以前的规则引擎,那该如何解决这个问题

这就是我们接下来要讲的 AI 中间件的部分。

我们再进一步深入去看一下数据的原因当线仩数据出问题的时候,应该要从三方面去看第一部分要看数据本身,第二部分看数据的模型第三部分是看数据运营。

我分别来讲一下這三个部分首先要看数据本身的问题,不管是 FAQ 的数据也好还是 KG 的数据也好,还是文档的数据也好这些都是基于数据的,我们首先要詓对数据做一个健康度的指标和评价我们都知道,模型有一个原则"garbage in,garbage out"如果你给它一些"垃圾",它出来肯定是"垃圾"我们必须要对数据莋一个比较清晰的认识,这里会设一些指标比如 Coverage(线上问答和知识库的重合度到底有多少)。如果用户问的问题都不在我的库里那再好的模型也无法回答。

第二个是这些模型本身是否有足够的分离特点如果这些知识点都耦合在一起,对模型来说它也很难去学习。第三是看知识点是不是均衡的有些知识点的问题和***会比较均衡。有些问题它有很多相似问题,有些问题则没有我不太希望我的知识库裏面出现这样悬殊的样本,这些是一些宏观指标

此外还有微观指标,我们理想中的“相似问”是希望它和“标准问”的距离不要太远吔不要太近,因为如果它太远可能机器无法去学习,太近的话我们认为它是一个冗余,它没有提供任何新的信息我们希望每一个知識点的相似问的距离,它的分布是一个钟型的我希望他们大量的分布都是集中在一个窄的范围里,希望所有的这个距离既不要太近也不偠太远另外我希望这个钟型足够的窄、足够的瘦、足够的苗条,让它们的分布会比较均衡这就是刚才提到的“均衡度”。

刚才讲了一些知识度的指标那如何运用呢?可以构建一个数据闭环我们有了知识库以后,通过自动化的评测评测后能拿到一个健康度的指标,鈳以去可视化并给它一些梳理的建议,那梳理建议完了以后可以通过智能AI运营工具 QnAMaker 去生成或产生优化知识点,然后给到人工去审核、編辑最后回馈到知识库里面去,这就是一个很好的数据闭环同时,这样一个健康可视化和知识处理也会给后面过程的选型、技术的选型带来参考

我刚才主要讲的是 FAQ,这里也顺带去提一下 KG 的数据要求KG 对数据的要求会更多,因为它是结构化的数据那还有一部分是 Doc,为叻能够回答长尾问题它人工介入的数据量会比较低,它是一个更加非结构化的数据

接下来看一下数据模型,在看模型的时候因为框架是自己检索的,我觉得第一步应该先去看一下召回召回很重要,因为召回是给我们画了一个“圈”告诉我们***就在这个“圈”里,如果这个“圈”都画不对那后面的工作很难做的更好。如果召回没有问题这个圈里面***的覆盖率是百分之百,那就没问题

做到這些以后,就去看模型先看排序模型,排序模型里要分别去看它的场景另外再去看匹配的模型,这里有两种主流模型的代表很多人會觉得,现在普遍都用 Interaction  based 的方法为什么你还会说这个 Representation  based 的方法呢,为什么还讲这种 Arc-I 的结构呢其实 Arc-I 的结构大家不要去忽视它,因为在线上的時候Interaction  based 的方法耗时会大,每一次交互都是需要实时去做的但如果是基于 Feature  based 的方法,可以离线算好存好知识库里的问答对都可以预计算,茬实时的过程只需要做很少的计算。所以在实际中要考虑 Trade  off

此外,大家可能在做模型的时候比较少去关注的点是负例的构造,loss 的构造这对实际效果的影响会比较大,有可能比模型本身的架构影响会更大还有关于打分的问题,怎样让打分是有用的、可比较的

接下来昰 KG 的模型,其实 KG 的模型现在来讲都比较经典主要有几类方法,一类类似于“Natural Language Interface to Database ”这种方式通过很多规则,通过设法标注句法的方式把它轉成图数据库的查询语句第二三种方法会综合考虑问答的表示,就是问法的向量化及图谱里的一些向量化最后把它变成一个机器学习嘚问题。还有 Doc 模型这里没有展开去讲阅读理解这个模型,更多是在讲在实际工程里去考虑怎么去做这个事情,我们可能会先做文档检索然后找到段落,做段落定位再去段落里找***。

做了这么多模型和数据的工作后我们发现,AI 用上去效果是不错但随着时间的流夨,它就慢慢“掉”下来了它又比原来的人工差了。这就是需要第三部分—运营的思想

我们在传统软件里都会提到 CICD,AI 软件跟传统软件囿些不同传统软件不需要长期的去培育。我们去交付一个传统软件更多情况下是一次性的但对于 AI 软件来讲,我们交付的是一个“婴儿”我们得不停地去”培育“他,用线上的数据去“哺育”他让他尽快地成长起来,要更加的鲁棒因此我们要非常需要去关注运营效果。在 AI 软件里我们需要有 CICL 的思想,需要持续学习、持续进化的思想

在运营里,我们可以重点看两部分第一个是事前,第二个是事中事前运营,它有以下几类第一类是从文档里去生成 QA 对;第二部分是从对话里去生成 QA;第三部分是生成相似问;这些是为了去启动一个系统、一个 Model 可以做的一些事前部分。

事中部分是指如果已经上线了,该怎么样让它做得更好可以通过流水日志去看未解决的问题、去莋一些聚类和发现。刚才也提到了一个智能AI运营工具— QnAMaker这个工具它是从文档里去生成一个 QA  pair,它跟文档的结构是很相关的另外一个工具昰去生成一个相似问,我们可能会做一些模板库基于这个模板库,抽出***后把它做不同的套用相对来说,做了聚类分析的模块比較适合在业务的线上去用到,尤其适合线上业务有线上***的情况

刚才讲了很多关于数据运营的部分,除了数据以外模型也需要运营。模型在不停地有新数据进来以后需要做很多迭代,需要去做模型的训练、模型的自适应的调参、模型的版本管理等等因此,我们会囿一个 Auto NLP 的平台这个平台可以理解为 AutoML 在 NLP 领域的一个实现。现在在这上面我们已经实现了一些闭环,第一个闭环是数据的闭环第二个闭環是模型的闭环,第三个闭环是流水日志的闭环一个理想的运营系统,应该要实现这三个闭环

最后总结一下,在智能AI***这块我们發现它的工作没有想象中那么简单,并不是老板说一周上线我们就可以去解决所有问题。但我们发现其实智能AI***的提效和降本的能力還是很强的以一个实际客户的数据举例,它的智能AI***系统上线 8 个月以后在成本方面,上千人的人工***团队缩减到了 60%而同时接单量反而有增无减,用户排队等待时间也大幅缩短在只保留 40% 的人工***的情况下,整体***系统效率反而提高了 30% 以上这还是一个相对来說比较保守的估计。因为最开始我们会有投入比如购买成本,它是负的但随着它的***系统上线运营的效果,会发现它的收益是越来樾明显增加

如果大家想要去做智能AI***,但又发现它没有那么容易的时候我们腾讯云可以帮大家做这个“Dirty   Work”。对于一些不同类型、不哃场景的 Bot及数据运营和模型运营的模块,我们都会开放一些能力给到大家主要有 4 层能力,从下往上分别是:底层的平台、原子化的能仂;AI 中间件能力比如不同类型的 Bot 中间件、运营的中间件、数据运营和模型运营的中间件;PaaS 平台,腾讯云可以提供一些平台的功能;最上層企业可以针对各自所处的行业里面去做自己的行业应用,此外还可以针对自己的场景去做自己的业务应用。

希望大家都能搭建自己嘚智能AI问答产品和系统为自身业务降本增效。我们云也非常愿意为大家的智能AI化建设出一份力分享就到这里,谢谢!

钟黎腾讯云 AI 语義研发总监,主要负责云上智能AI搜索、问答、对话方向的产品业务研发工作之前为腾讯社交网络事业群语义分析负责人,主要负责社交網络中的文本挖掘与语义分析工作 

参考资料

 

随机推荐