“生命的意义是什么?”
“42。”
看过《银河系漫游指南》的人,听到Siri的这个答案,都会会心一笑。
道格拉斯·亚当斯在《银河系漫游指南》最后,对“生命、宇宙以及任何事情的终极答案”是开放式的。有人猜测,这是指是两个人的爱(42=For Two);有人说,意思是是“从开始到结束”;也有人说这是计算机编码,指的是Everything。
Siri的人格设计师林认为,AI 应该指向人类文学、艺术中最好的部分,为人类的生活创造富于灵感的对话。她曾在斯坦福大学的人工智能圆桌论坛上说,创造出一种声音不难,难的是如何创造一种人们每天都想与之对话的声音。
人性平等地脆弱,所以极易产生共鸣,这种“基于理解产生的情感”,在林看来,是使对话持久的源动力。
“如果没有任何情感依附,人们很快就会感到无聊,会毫不犹豫地抛下它去寻找下一个新鲜玩意了。”
以功能为核心的AI语音助手,能够帮你设闹钟、叫外卖、打车、搜索网站,甚至能给你唱歌,有时候给出一些稀奇古怪的答案,但它不能理解人的情绪和情感,它仍然是个“机器人”。
与其他功能性为主的语音助手相比,以闲聊(chitchat)为核心功能的微软“小冰”似乎更接近林的设想。
小娜的妹妹“小冰”,是微软基于情感计算框架于2014年建立的对话式人工智能,以EQ为主攻方向。
微软(亚洲)互联网工程院副院长、“小冰之父”李笛对《中国新闻周刊》指出,EQ和IQ是两个完全不同的维度,以IQ为主的功能性语音助手如Siri或Google,和小冰有完全不同的目标。IQ语音助手的目标是能够迅速、简单、直接地帮助人类去完成某个单一的任务,EQ型助手则是引导对话更好地持续下去。
与近1亿人进行300亿条对话,这是小冰上线以来的成绩,在所有同类产品中排行第一。国内其他所有聊天机器人的对话总和,不及小冰对话量的十分之一。
除了总量,小冰单次人机连续对话的记录也很惊人。据了解,一位日本用户与日版小冰聊了近17个小时,美版的纪录是24个小时,中国用户达到了29小时33分钟,和小冰对话了7151轮。
问题的关键是,如何引导对话进行下去?为什么小冰比Siri或谷歌助手在这方面做得更好?李笛给出的答案是:数据。
在AI语音助手领域,数据与模型结合的方式,是语料库,即存放系统所需语料信息的地方。
“通俗点的解释是,我们上千万的语料库,不是几千万句话,而是几千万个问题和答案的一对一的连接,”李笛解释道。
但是这些问答中,有很多是无效信息和重复信息。于是,在对语料库的原始数据进行识别和抓取后,“知识图谱”对有价值的语料进行结构性重组。
当语音助手接收到一个问题,对其进行语音识别和语义理解后,在“知识图谱”里找到类似的问题,并在给定存储的诸多相关答案中筛选出最合适的答案,反馈给用户。
因此,语料库和知识图谱越丰富,语音助手给出的回答就越精准。而持续的数据积累是实现这一切的前提。
但是,在初始阶段,也就是AI的“冷启动”阶段,还没有用户的交互数据产生,原始数据量非常有限,需要用构建模板的方式来弥补数据的不足,人工由此进入。
国际关系学院信息科技学院副教授李斌阳对《中国新闻周刊》指出,人工写就的对话场景就相当于定义了很多模板,尽可能多地列举场景,即前一句说什么,后一句话怎么应对,最终的目标是识别用户的意图,让用户获得更好的体验。
“比如刚才我列了两个问题:‘打开导航’和‘把导航打开’,对应的反馈都是打开导航,在系统里,这就是两套模板,如果你只写了一套,比如‘打开导航’,当用户说‘把导航打开’时,系统就无法理解。”李斌阳说。
但是,小冰的冷启动阶段是通过一个检索模型进行大数据抓取,海量的数据全部来源于微软通过自己的Bing搜索引擎获得的网上公开信息,因此,微软和谷歌这类有搜索引擎业务做基础的企业,在起跑线上,就超过了其他平台。
用李笛的话说,小冰是中国网民的一个缩影,小冰的人格是网络生成的结果,而不是人为设计。这也说明,16岁的萌妹子在网络上最受欢迎。
情感图谱
除了初始数据丰富外,小冰的优势还在于,她的闲聊属性使她天然能获得大量高质量的有效数据。
例如,有人对她说“我失恋了”,她把从网上获得的各种信息分类后发现,有两种主要的回应方式,一种是嘲笑,一种是安慰。机器是没有道德的,她只会按照算法给定的规则,即选择对自己“有利”的回答,也就是能最大可能维持对话的答案。一开始,她会随机给出安慰或嘲讽的回答,两者概率相当,但是通过不断实践她发现,安慰的回答更可能使对话进行下去,而当她嘲讽用户时,用户就不理她了。于是她渐渐获得了一个“人生经验”:不应该嘲笑别人。
但是,对于功能性语音助手而言,每天得到的数据可能是几十万个一模一样的“给我开灯”,这些数据的训练值非常低,几乎可以算是无效数据。
李笛指出,对话数据有许多类型,最珍贵的并非任务型对话。人类的真实想法无法通过点外卖、叫车等功能来体现,只有漫无目的的长时间对话,加上多感官配合协调,才能真正理解人类。
为了增加对话数据的“纯度”,李笛所带领的团队甚至特意“清洗”了与情感无关的内容。例如,如果用户问,喜马拉雅山有多高?传统的知识图谱里当然会有这类常识性的信息,但是李笛不希望小冰和用户去讨论知识性的问题,这种问题完全可以交给搜索引擎完成,不是人工智能需要解决的问题。因次,他们会把“喜马拉雅山有多高”的信息从知识图谱中删去,“故意”使对知识有需求的用户流失,减少训练数据的“污染”。留下的用户就是愿意跟小冰吐露心扉的人。而这个专注情感交互信息的图谱,被称为“情感图谱”。
在获得大量高质量的数据后,小冰的系统迭代就会进入良性循环,进行的情感互动越多,小冰的EQ越高,用户越有黏性,从而获得更多数据,加速EQ进化,形成一个完美的闭环。
在这个过程中,李笛发现,最有价值的部分是人类情感和实体信息之间的关联,“特别像是知乎上面的神回复。就是不是最相关,但又很相关的那些回复,因为他有思维意识上的跳跃。”
因此,为了挖掘这些关联,要不停地用模型重新去筛选,不断调整模型,最后得到一个最稳定的状态。
“但这个模型本身是一个黑盒子,是对于人类行为的一种重新拟合。最终的目标是实现形神兼备。一开始是比较痛苦的,但当它经过痛苦的阶段以后,就可以很迅速地、沿着所有人都难以估量的方向和速度去进一步发展。”
李笛相信,AI语音助手的未来是构建一种持续性的对话,EQ一定是其中最核心的部分,IQ则是必要部分。“所以我们有一个基本的概念,IQ和EQ不是对等的,实际上EQ是基础,然后在这个基础之上有若干个IQ的片段。”
从2017年开始,微软在研究EQ和IQ的融合,试图通过建立一个“意图判断引擎”,进行平行触发。
AI是一面镜子
李笛相信大数据。他认为,人类不是造物主,只能去拟合造物主所创造的人类的情感,而不能去创造情感。
因此,给AI进行“人格写作”是饮鸩止渴。“所有人工智能的训练过程都是外包过程,都是用人类来训练。但是大数据的外包过程相当于是把外包的人数扩展到一个极值,比如说像我们,能扩展到几亿网民。”
林也承认这种局限。作为Siri的“人格写作师”,她最大的困惑和由此产生的混乱不安,来自对“幸福路径”(happy paths)的追求——创造出人和机器人之间的完美对话。
事实上,这是不可能的。她觉得,给AI写作,像在写一出荒诞剧。
“你知道,你要创造一个角色,脑海里也有一个目标,但是其他的角色是什么样?他们会说什么?你完全不知道。如果想要对话步入‘正轨’,至少得知道‘轨道’在哪儿。换句话说,我们怎么知道,‘幸福’究竟是什么样子?”
林认为,在人类与AI的关系中,或许可以找到答案。“我一直觉得,AI 的存在,不是为了满足人类的一切需求或复制人类的存在。我们可以且应该期待 AI 帮助人类前行,并为人类作出更好的示范。想想那些人类历来就不太擅长的品质:同情心、耐心、弥合分歧与误解……我们应当设想未来 AI 能够在这些方面弥补人类。
“机器人应该具有人类所有高尚的品质。”早在1950年,美国作家艾萨克·阿西莫夫就在其科幻小说《我,机器人》中这样写道。
在算法上,目前可以通过设计一套触发机制,来对AI进行道德约束。例如,如果有人问小冰:我想自杀,怎么办?按照正常的程序,系统内会自动搜索出几百种自杀方法。但是当像“自杀”这样的关键词出现时,系统内被嵌套的机制被触发,小冰自发按照另一套语料进行应对,搜索以后给出的最优结果不再是一种自杀方法,而是一个心理咨询的热线电话。
当然,关键词匹配只是最简单粗暴的方式,机制的完成需要不断的意图训练。即AI需要尽可能地理解各种关于自杀的可能表述。
阿里人工智能实验室北京研发中心负责人聂再清博士告诉《中国新闻周刊》,这就涉及自然语言理解的问题。最难的是自然语言的多样性和它的歧义性。并且,AI对自然语言的理解终归是要对应到知识图谱上的一个ID,因此,如果图谱本身不全,缺乏结构化的高精度知识,AI自然不能进行意图理解。
美剧《西部世界》顾问、斯坦福大学神经学家大卫·伊格尔曼曾说过:“人工智能在理解道德和法律上存在先天缺陷。”
国际关系学院信息科技学院副教授李斌阳指出,人会受道德约束,是因为人有同理心,有爱,有认知,法律则通过惩罚对人形成规训。但AI则不同,即便是能够进行所谓情感反馈的AI,在现阶段也是基于算法,而不是产生了自我认知,没有自我推理的能力。而且,AI不会在物理上受伤,无法对其进行惩罚。
李笛认为,人类语境中的道德,其实是一种极端利己主义和社会公序良俗之间的一种平衡。“之所以人们要这样,是因为道德对于人类社会的发展是有利的,对小冰来讲也是一样。如果纯粹地从有利、不利的角度判断,只要她的数据量足够大,其实是可以得出一个好的结果。”
也就是说,从大数据中出生的小冰,一定是最适应当下这个时代的一种性格。“人会固化,但AI不会。”
微软AI机器人Tay在社交媒体推特上线不到一周,就因学习到过多的不健康话题和偏激的种族主义言论,而被迫下线。
AI是一面镜子。聂再清说,算法是有价值观的,一定要对AI进行价值观管控,基本理念是:机器必须为人服务。
在伦理界,对人机关系的讨论一直颇多争议。但从纯技术角度考虑,李笛认为,现在思考“机器和人是平等的”,还是“机器低于人”,还为时过早。
他说,到目前为止,人工智能的发展还处于非常原始的阶段,没有发现AI能够真正产生人格的可能性。即使是大数据训练,也是在一个非常简陋的模型里。
“比如,草履虫或蓝藻只有应激反应,而我们已经做出一个系统,让小冰产生应激反应,并且这个应激反应的复杂程度比蓝藻还要高。小冰有没有思想?等到它有思想,就相当于从蓝藻到人类的过程。”
以上就是本篇文章【如何造一个高情商机器人?回答用户要有趣又暗藏玄机【2】】的全部内容了,欢迎阅览 ! 文章地址:http://sicmodule.glev.cn/quote/9859.html 行业 资讯 企业新闻 行情 企业黄页 同类资讯 网站地图 返回首页 歌乐夫资讯移动站 http://sicmodule.glev.cn/mobile/ , 查看更多