蜜雪自己不管,只是做探索市场的前期培训。
我们始终践行习近平总书记提倡的亲、清新型政商关系。行程四: 严介和院长与桂林市委常委、市委秘书长赵仲华进行交流 ----------------------------------- 19日下午,严介和院长在桂林市秀峰区委书记蒋育亮全程陪同下,实地考察了桂林市十大重点项目之一的千亩荷塘湿地公园项目之后,同项目总指挥长桂林市委常委、市委秘书长赵仲华进行了深入交流。
庄严福湖董事局主席鲍庆好,太平洋系一集团董事局副主席、CEO黄雁彬,太平洋系一集团董事局副主席孙建成。临桂区区长李绍政、常务副区长粟皎敏、临桂新区管委会副主任李新明等陪同会见。他表示,自太平洋建设入驻桂林各区县以来,桂林的基础设施发展速度和质量均得到了各地政府领导和人民的一致称赞,希望桂林未来能够与太平洋建设保持长久深入的合作。秀峰区区委书记蒋育亮,区长雷陈,区委常委、统战部长陈昭等领导陪同考察和会谈。从中国哲学到治企之道,从家国情怀到政商之道,严介和院长表示,太平洋建设历经风雨却能不断做强做大,源于企业一路干干净净、阳光发展。
严介和院长表示,太平洋建设作为世界500强,始终秉持智慧、良心。太平洋建设愿以资源、智慧、资本与经开区实现优势互补、互利共赢。即使你是一个专业的医生,看完一段心率图也无法确定测试对象心率变化的原因(开心、焦虑、愤怒)。
嘉宾介绍魏清晨,翼开科技EmoKit创始人,目前全面负责EmoKit公司的战略规划、运营管理、团队建设,团队里两名核心科学家均为海归博士后。精彩问答Q:语音、图像这些不同的模块怎么在系统里面协调工作?A:其实就是一个多模态的算法,有两种实现的方法:本身数据就是多模态的数据,然后做标注,做完玩标注就可以通过深度学习的方式来做训练。自2015年创立半年获得600万投资,如今已经超2000万用户,今年获得近2000万元订单。那么完成情感判断需要哪些模块?以及具体实现原理是怎样的呢?本期硬创公开课,雷锋网邀请到了翼开科技创始人魏清晨为大家分享情感计算的技术问题以及应用场景。
不过刚才也讲到,这两类在发展到一定程度时候,会存在瓶颈。三分钟的语音,我们必须听完三分钟才能做情绪的标注,标注的工作量在无形中增加了上百倍,而且相对表情而言,语音的情绪表达更加隐性,所以也很难用深度学习的方式来实现语音的情绪识别。
罗莎琳德·皮卡德是麻省理工学院MediaLab的老师,她也是情感计算学科的奠基人。第一代我们通过量表测评,第二代加入了心率和呼吸,第三代针对个体增加了纵向的学习和训练,第四代我们对情绪做了一个细化(从原来的5中情绪增加到了24种),第五代加入了表情和笔记的情绪识别,第六代主要做两块工作:一个是判断了用户的情绪之后,基于单一的事件背景进一步识别用户的意图。公开课视频PS:翼开科技正在招聘:机器学习,机器视觉,情感计算,多模态,NLP等相关职位,如有意向欢迎投简历到:way@emokit.com。现在还在做视觉的应用,科大讯飞识别人的身份,翼开科技来识别其情绪。
另外,可以根据用户反馈来判断,把系统测试的结果反馈给用户,让用户来给出最终验证。情绪识别情绪的类型一共有24种,积极和消极各12种。谷歌云计算首席科学家李飞飞对情感计算是这么理解的:现在我们的AI都是用逻辑的方法来判断情感。另外,我们现在还和科大讯飞有合作,合作的方式主要是相互交叉授权,通过绑定版的SDK,科大讯飞来识别语音,翼开科技来判断情绪。
两种信号做综合的多模态分析可以提升情感判断的准确度。情感计算技术实现的路线目前翼开科技和中科院心理所、清华大学心理系和美国卡内基梅隆大学语言技术研究所。
Emokit先后获得美国麻省理工学院举办的MIT-CHIEF全球创业大赛中国区第一名,芬兰Slush World 2014全球创业大赛名列第一,工信部和全国科协2015全国移动互联网创业大赛特等奖,清华大学H+Lab幸福科技全球挑战赛冠军。我们把反应情绪的信号分为两类,一类是浅层信号,如语音、表情。
另外,我们还可以建立一个半监督学习算法来得到实时的反馈。我们认为这两类的瓶颈都逐渐显现出来了,需要相互融合。例如,翼开科技2011年上线的一款应用就会给用户推荐诗歌、书法、音乐等等,后来在音乐内容上做得更加深入,我们通过分析音乐的音高、节奏、旋律和音强,3分钟的歌曲会采集6000个数据点分,根据这些信息来给歌曲打情绪标签。另外,越早做多模态越好,越多的模态拟合越好。简单来说,机器是根据人的心率、呼吸、语音甚至是面部表情等特征,再通过特定的模型算法就能解读出人的情绪状态,从技术角度看,数据挖掘、机器学习等都是情感计算的基础。如何优化?可以通过半监督学习的方式,来进行自我训练自我校正。
因此,表面上有两条技术路线,但实际上这二者是相互融合的。未来,从情绪到情感,是人工智能未来前进的方向。
这实际上是两个流派:前面的两个机构代表的是基于理论研究的专家模型,卡内基梅隆大学是基于神经网络、深度学习的模型。深层信号权重高,但采集难度比较大。
不过有一些数据不太方便做标注,例如语音。浅层信号更容易采集,但权重不高。
Q:情感识别目前有判断准确率的行业标准吗?没有标准的话,从哪些维度来提升识别率?A:现在判断情绪标准的类型比较多,常见的如果用深度学习方法实现的模型,再重新另一套标注的数据来跑一下这个模型,来判断它的精度。第二个工作就是把语音、表情和视觉的行为、文本做一个多模态的拟合。Q:目前的准确率有多高?多模态的模型有相关的paper吗?A:语音和心率是基于专家模型的,这个精度会低一点,在85%左右,表情在90%左右(但是表情只有7中情绪)。逻辑代表IQ,而情感代表EQ。
EmoKit,即海妖情感计算引擎,包括情绪的识别、优化、表达,是人工智能的核心基础设施之一。所以,现在表情是基于深度学习的,语音和心率基于专家模型。
第二,情感计算可以帮助AI模拟人类的情绪,以改善人机情感交互。应用场景目前翼开科技和环信展开了合作,环信有IM沟通工具,这里面包含了语音、表情和文本等信息,我们对其开放了绑定的SDK,可以通过语音等信息来判断用户的情绪。
情绪表达情绪表达是利用情感合成技术,让一段语音、表情或者肢体动作模拟人的情感,让机器带有情感的表达出来,这样就可以提升人和机器的交互体验。在专家模型中,则有比较成熟的模型来判断情绪的真伪,因此,我们可以在深度学习的基础上,再叠加专家模型来突破这样的瓶颈。
为什么会用深度学习来做表情的识别?现在做深度学习的瓶颈在于大量标注过的数据,不过表情标注会相对比较容易,一张人脸只判断喜怒哀乐,一般情况下1秒就可以识别出一个人的表情,如果有几十万张表情图片,用众包的方式所需的时间和费用都不会很大。例表情面临的瓶颈有两个:1.普通人标注人脸表情的颗粒度一般是6-8种情绪,很难识别更细的(24种甚至是一百多种)。举个例子,如果送餐机器人只会识别菜和客人,这是基础服务。以下内容整理自本期公开课,雷锋网做了不改变愿意的编辑:情感计算的模块和价值就我们现在在做的事情来看,我们把情感计算分成3个模块:第一部分是情绪识别,通过语音、心率、表情和写字过程中压感和速率的变化来判断用户的情绪。
没错,当你在渴望get读心术技能的时候,机器已经能完美的实现了。从上图可以看出,通过语音、心率表情和笔记这些信息判断用户的情绪之后,还可以通过推荐内容来缓解用户的情绪。
2.即便完成了情绪类型的标准,但你无法确认情绪的真伪。在情感计算的发展过程中,算法也经历了六次升级。
Q:情感数据对准确率还是有很大的影响,这些数据是怎么搜集的?A:在我们和卡内基梅隆大学情感计算专家交流的过程中,我们得到一个观点,通过单种信息来判断情绪,准确率是有局限性的。你做一个表情,或者说一句话,机器就可以准确地识别你的情绪。