鲁 邦通的机器人乘梯 上海革邦电梯技术有限公司哪些优 势?究竟好不 好用?

如果有一个 AI软件,可以实现写小说、写代码、找BUG、写论文、画漫画、谱曲等功能,你会心动吗?近期,一段与 AI 对话的内容火爆全网,在图片里,这个 AI 有求必应,可以满足你的所有要求,甚至被网友们称其要「超越谷歌搜索」。ChatGPT 是什么?公司背景如何?能应用于我们生活中的哪些地方?我们该如何创建?来,本篇文章,生财有术圈友@七小 将带你详细拆解一波。PS. 本篇内容来源于「生财有术」星球,非圈友可添加鱼丸微信:yuwan680,回复「体验」参与「项目交流」活动。一ChatGPT 是什么ChatGPT 是一个原型人工智能聊天机器人,专注于可用性和对话。由 OpenAI 开发,采用基于 GPT-3.5 架构的大型语言模型。我们找到了官方对于这个模型优势解释的paper:使语言模型更大并不能从本质上使它们更好地遵循用户的意图。例如,大型语言模型可能会生成不真实的、有毒的或对用户没有帮助的输出。换句话说,这些模型与其用户不一致。在本文中,我们展示了一种途径,可以通过根据人类反馈进行微调,使语言模型与用户对各种任务的意图保持一致。从一组标记器编写的提示和通过 OpenAI API 提交的提示开始,我们收集了所需模型行为的标记器演示数据集,我们用它来使用监督学习微调 GPT-3。然后,我们收集模型输出排名的数据集,我们使用该数据集通过人类反馈的强化学习进一步微调该监督模型。我们将生成的模型称为 InstructGPT。在对我们的提示分布的人工评估中,1.3B 参数 InstructGPT 模型的输出优于 175B GPT-3 的输出,尽管参数少 100 倍。此外,InstructGPT 模型显示了真实性的提高和有毒输出生成的减少,同时对公共 NLP 数据集的性能回归最小。尽管 InstructGPT 仍然会犯一些简单的错误,但我们的结果表明,根据人类反馈进行微调是使语言模型与人类意图保持一致的一个有前途的方向。说人话就是:以往的AI,你进行对话,它是根据你输入的关键词,来给你反馈信息的。你关键词不准确,就得不到想要的结果。(类似你自己去百度、谷歌搜索信息)而ChatGPT,它更像是个人,你可能表达的不那么准确,但是它在和你的交流当中,会逐渐理解你的真正想说的东西,然后给你反馈信息。「Chat」聊天对话是他的主要功能,所以被称为 ChatGPT。如果要用一个现实生活中我们熟悉的事物来形象生动地类比 ChatGPT 的话,我会选择多啦 A 梦。1. 多啦 A 梦在不断跟大熊相处的过程中,根据大雄的需要,给他提供很多神奇的来自未来的工具。2. 他会有底线,希望帮助到大熊往正确的道路发展,不会帮他抄作业,作弊等一系列,不利于他未来发展的事情。3. 在不断地交流中,他会不断地熟悉大雄,知道他的兴趣爱好,了解他的性格,通过自适应的底层逻辑,变成最适合大雄的多啦 A 梦。4. 当多啦 A 梦犯了错误时,他会道歉,会主动承认错误,并予以改正。5. 无所不能,能跟大雄聊生活上的任何事情,帮助大雄更好地完成几乎所有他平常要去做的事,甚至只是他想到但不相信自己能做的事情。二发展史梳理要了解一件事情,首先要了解这件事情的起因→经过→结果。我们都知道 AI 绘画火了,众多的 AI 模型也纷纷各立门户。但今天这一款 openAI 有什么与众不同之处呢?所以第一部分,我们先要从 openAI 是怎么突破重围?背后有什么原因,有什么力量把他推起来的呢?溯源这件事情,我们还是用到搜索指数这个工具。这次我用了微博指数、微信指数、谷歌指数搜集到了数据,用的百度指数和 Twitter 指数都还没有收录,大抵是还是刚刚萌芽就被我们挖掘的缘故吧。指数工具看发展史①微博指数由上图可知,微博在六点左右激增,按照亦仁老大发贴的时间,数据可能圈友们是刷起来的,所以参考性并不大。②谷歌指数我观察到 ChatGPT 在中国还没有动静,但是在美洲、澳大利亚、欧洲都已经火起来了。关联的词汇中 我们挖掘到 openAI、Online chat、Artificial intelligence、GPT-3 等的关联词,第一个应该是公司名,第二三个指的是性质,在线聊天、人工智能,第四个是关联的AI模型。③微信指数微信指数就很有意思了12.1 开始火12.2 破 5 万12.3 回落12.4 破 20 万.........引起我关注的是 98.05% 是从公众号搜索的这一次我们得出了一个结论:不同于羊了个羊的的娱乐性质,这次没有首先在微博上爆火,反而是以公众号为核心,火了起来。火的公众号都是一些科技型公众号,这里我们可以看出做公众号的中,有相当一部分人是喜欢这种高科技、黑科技东西的,微信公众号适合作为一个科技 IP 的打造地。这件事情爆火,背后的推动力是什么上面一部分,我们知道在12.4有一股强有力的力量推动「ChatGPT」的热度上涨首先我们先从上面挖掘到的公众号的这个异常值开始吧。首先,题目非常的抢眼,在一位工程师的引诱下ChatGPT写下毁灭人类计划书,并且给了详细的方案,甚至带上了Python的代码!这一系列仿佛电影版的情节,在现实中发生了,那我们接着看。除了毁灭人类计划,这篇文章透露了更多关于 ChatGPT 的信息,写小说、写代码、找 BUG、写论文、写漫画、谱曲......功能有够强悍的。同时我们还发现了一个点:一出在 AI 圈引发的地震,AI 圈子,想必在那里可以发现更多有关 ChatGPT 的内容,但我们先把公众号挖掘完。这篇文章也是在强调 ChatGPT 的功能强大。这里出现了一个新的网红人物「马斯克」,而且是在很早的 12.2 号就发表了对 ChatGPT 的看法,这里不得不提马斯克真是算 5G 冲浪选手呀。接下来,我们来看看 Twitter 如今的 CEO 对此有什么看法吧。很多人陷入了无限的 ChatGPT 循环发表了自己与 ChatGPT 的对话 ChatGPT 比起别的垃圾(AI)好太多了 ChatGPT 好的太可怕了。我们从未遇见如此恐怖而又强大的 AI这是因为 ChatGPT 并不是左派的原因。纽约时报应该把自己改名成社会正义时报正如我刚刚了解到的一样,OpenAI 用到了 Twitter 的数据用于训练模型。需要了解更多关于未来的治理结构。OpenAI 作为开源和非盈利性,两者都不成立(这句话有待揣测)更重要的是,他们还没有对 GPT 说些什么(没关注的意思)完全是在车上睡觉了。(觉得大家都应该对 ChatGPT 引起重视的意思)称其为世界之树。可以看出马斯克本人对于 ChatGPT 报以极大的重视,这么一位科技巨子多关注的东西定然不是寻常物。而且耐人寻味的是,马斯克曾是 ChatGPT 背后公司 openAI 的老板。从上面我们可以看出这事爆火的几点原因:1. 给出毁灭人类的详细计划2. 拥有强大的功能,能改代码,写曲子,写文章的一系列技能3. 号称能取代谷歌4. 科技巨子“马斯克”对此给予了极高的评价,同时作为世界上最大社交平台的老板,他的一举一动都引起了大家的注意看完一系列的资料,我是存在疑惑点的:openAI 公司和马斯克目前到底是什么关系?作为前任老板,这次是否有炒作成分?三OpenAI 公司背景OpenAI 公司介绍OpenAI 是一个人工智能(AI)研究实验室,由营利组织 OpenAI LP 与母公司非营利组织 OpenAI Inc 所组成,目的是促进和发展友好的人工智能,使人类整体受益。OpenAI 成立于 2015 年底,总部位于旧金山,组织目标是通过与其他机构和研究者的「自由合作」,向公众开放专利和研究成果。创始人伊隆·马斯克以及山姆·柯曼的动机是出于对强人工智能潜在风险的担忧。至 2018 年,OpenAI 的总部坐落于旧金山的米慎区,与伊隆·马斯克的另一座公司 Neuralink 在同一办公室大楼。2019 年 3 月 1 日成立 OpenAI LP 子公司,目的为营利所用。2019 年 7 月 22 日微软投资 OpenAI 10 亿美元,双方将携手合作替 Azure 云端平台服务开发人工智能技术。2020 年 6 月 11 日宣布了 GPT-3 语言模型,微软于 2020 年 9 月 22 日取得独家授权。这家总部位于旧金山的实验室,是 AI 基础科研领域的全球领导者之一。它开发的 GPT 语言生成模型,一次又一次刷新人们对于深度学习能力的认知。OpenAI 原是非营利机构,但为了更好地实现产研结合,用期权留住员工,之前也成立了有限营利的公司。不过在去年 12 月,OpenAI 一批早期/核心员工集体离职,在领域内引起了不小的轰动。这次「出 OpenAI 记」并非普通的跳槽,相关离职人员也保持了很长时间的缄默,以至于圈内人士都不知道他们接下来有何打算。最近,这批 OpenAI 前核心员工终于宣布了他们前所未有的伟大计划:解决长久以来神经网络的「黑盒子」问题,为研究者们开发能够解释 AI 真正工作原理的工具。他们创办了一家新公司 Anthropic,致力于提高 AI 安全和可解释性。这些创始成员相信,“通用人工智能” (artificial general intelligence) 不久后即将到来,而 AI 安全将会成为日最重要的研究方向。这家新公司也被投资者赋予了极大的期待。据了解,其 A 轮融资已经完成,规模高达 1.24 亿美元,投资人包括 Skype 创始人 杨·塔林(领投)、埃里克·施密特、达斯汀·莫斯科维兹等。Anthropic 公司介绍Anthropic 到底是一家怎样的机构?它的创始成员都有谁?它在做的事情对于整个 AI 基础和应用领域有何重大意义?让我们走近这家最近刚刚离开隐形状态的全新机构,一探它的真相。让 AI 更安全、可解释。AI 一直是一个「黑盒子」。尽管人们形容神经网络是按照人脑神经工作原理设计的,它具体怎么工作,输入的数据是如何转化成输出的,具体的原理和各环的作用,一直很难被真正解释。在一小部分研究者看来,考虑到 AI 正在被应用到越来越高风险的系统当中,比如自动驾驶、医疗诊断、药物发现,甚至军事当中……它的不可解释性将会阻挡技术的真正进步,并且如果被持续忽视的话,甚至可能会引发不可逆转的严重恶果。不过,自从深度学习在十年前左右取得重要突破,这项技术已经成为了 AI 技术进步的根基。越来越大的模型、更强的算力,让 AI 变得似乎「无所不能」,而不可解释性一直没有被公众看作是大问题。这也是为什么虽然目前 AI 领域内很多人,特别是那些从事应用领域的,并没有关注 AI 的黑盒子问题。图片来源
Topbots2015 年底成立的 OpenAI,其使命是实现通用人工智能,打造一个能够像人的心智那样,具有学习和推理能力的机器系统。成立以来,OpenAI 一直从事 AI 基础研究,主要以 GPT 语言生成模型(特别是 GPT-3)被人们所熟知。但其实,增强 AI 的可解释性,让它能够更加安全地应用,也是 OpenAI 的研究方向之一。只不过,这部分工作在名气更大的 GPT-3 的面前,似乎显得没有那么重要。而在去年年底离职的这一批员工,认为随着模型变大、算力变强,通用人工智能离我们越来越近,在可预见的未来就有可能实现。而在这样的前提下,AI 可解释性和安全性变得无比重要。这批员工,被认为是AI领域的「有效利他主义者」。简单来说,他们不仅认为应该投入重金进行 AI 基础研究让世界变得更好,并且也要注重实际功效。他们的理念和 OpenAI 并没有本质上的冲突,但是 OpenAI 变得越来越不透明,且逐渐功利化的趋势,令他们感到担忧。一个最直接的例子,就是 OpenAI 尚未解决偏见和安全问题,就把 GPT-3 开发成了商用化的 API,提供给行业里的大公司使用。最终,这批核心员工在去年年底集体离职。其中不少人,都参与到了Anthropic 公司当中。从这里看出这家公司曾经被投资人投以众望,而且具有很强大的创始人团队和科研团队。但这样一家被看好的公司为什么却被拆分了呢?不得而知。但我猜测会有理念不符合的原因,从资料中可知,openAI本来是非盈利性公司,但为了留住员工,采用了期权激励的机制。后来被微软投资,商业化气息更加重了,而且在尚未解决偏见和安全问题,就把前一个产品 GPT-3 开发成商业化的 API,供大公司用。也许马斯克本人在 Twitter 上发表的言论很奇怪。对 openAI 公司像是抱着一种又爱又恨的心态,赞叹他的功能强大,但是有对其非营利性,非开源的行径感到担忧的原因。四ChatGPT 玩法详解自媒体玩法① 淘宝/咸鱼帮注册或租号注册的方法,圈友分享了一个租号的渠道。刚刚试过,可行。圈友可点击文末「阅读原文」,查看渠道。至于注册,可能需要弄一张外国的电话卡,或许虚拟的也行,应该有做这项服务的网站。中国区不能注册,中国的电话号码也不行。② 小红书 IP 制作可以做些小游戏制作教程/程序编写教程和 AI 谈段甜甜的恋爱账号,与 AI 哲学的对话......思路有很多③ 抖音聊天对话视频目前都是教学这个东西可以怎么玩的,我觉得还可以结合之前抖音上微信聊天对话视频的玩法。因为 ChatGPT 是一个十分能聊的 AI,几乎什么都能跟你唠一唠。所以我们现在甚至不需要用自动生成对话的软件去弄这一类型的视频了,弄成和 AI 的对话更加吸睛,并且也更加的便捷。只需自己引导 AI 往某个话题去讨论就行,而且 ChatGPT 会根据上下文的内容往下延伸,所以可以聊得很深入,很有趣。④ 知乎问答生成神器比如,随便问他几个问题这还只是问的比较浅,如果继续发问,他会给出更加详细的答案。那假如现在我们先按照之前的一些套路,找到知乎上搜索比较多的问题,找到冷门品类,然后把这些问题打包全部拿去问 ChatGPT,这样不就可以批量搭建多品类的账号了吗?即便你还不是很懂,也能通过不懂就问 ChatGPT,然后让他提供资料给你。比如说现在要打造一门恋爱的账号,就可以不断向他问一些很多人都会问的东西。凭借不断地发问的同时,我们也可以学到很多东西,可以借此打造自己的课程。还可以让他去搜集资料,作为我们自己的素材库沉淀下来。⑤ 与 AI 绘画结合这样就可以又降低画出一幅好画的难度了⑥ 自动生成短视频标题外网上已经有人在做这个工具了,生成的标题是英文的。可以考虑一下做个中文版的工具,叫:抖音/小红书/知乎... 爆款标题生成器。⑦ 自动写文案这个用途就广了,可以用于:1. 小说推文项目2. 写 TikTok 直播话术3. 帮大学生水入团入党申请书,水职业规划课的作业4.帮大学生写论文,改论文5.帮 HR 写招聘文案玩法还有很多,可以说只要是需要写文案的地方,就有机会用到 ChatGPT。对程序员的帮助① 自动查询 Bug 并修改② 减轻程序员工作量ChatGPT 对于科技行业来说真是改变世界了。在推上看到的一些有趣的使用案例:几秒钟将 php 代码重构为 next.js 代码;python 代码重构成 golang 代码;1 小时写一段代码抓取领英搜索结果,会自动翻页并把数据下载到 csv 文件;几分钟写一个 IOS App,显示 Hackernews 热帖;生成数百行 Python 代码,将 100 GB 文件分段上传到 AWS S3;最惊艳的一个:ChatGPT 作为推特的高级数据工程师,列举了 10 个可能的工作成果,选择其中一个作为本周工作内容,写了周报并实现了相应的代码。ChatGPT 将编程工作变成了:写提示→ChatGPT 生成代码→运行代码→把报错信息粘贴给ChatGPT→ChatGPT 改 bug→程序运行成功③ 描述想要的技术,自动写程序自动实现想要的程序,目前不知道能实现到什么样的程度。但可以满足基本的需求(大家可以估量一下,一个免费程序员的价值)④ 帮助搭建网站其他用途① 用于生财 Web3 航海,当百科全书在航海的过程中,有什么不懂的,问它就好了。下面是 Odaily 星球日报问 ChatGPT 关于 Web3 的理解,可以看得出来,它的回答还是挺专业,有用的。Odaily 星球日报:比特币白皮书的重点是那些?ChatGPT比特币白皮书是由比特币的发明者中本聪(Satoshi Nakamoto)于 2008 年发表的一篇论文。它描述了比特币的技术原理、运行机制、安全性和可扩展性等方面的内容。比特币白皮书的重点包括:定义比特币:比特币是一种分布式数字货币,它使用密码学方法来保证交易的安全性和不可篡改性。去中心化:比特币是一种去中心化的数字货币,它不依赖于特定的金融机构或政府来发行、管理和监督。共识机制:比特币采用工作量证明(PoW)共识机制来保证网络的安全性和稳定性。区块链技术:比特币使用区块链技术来存储交易信息,并使用密码学方法来保证交易的安全性和不可篡改性。挖矿机制:比特币的挖矿机制可以保证网络的安全性,并为参与者提供一定的收益。这些都是比特币白皮书的重点内容。如果您有其他问题,请随时告诉我。Odaily 星球日报:如何防止进行加密货币交易被爆仓?ChatGPT要防止进行加密货币交易被爆仓,可以采取以下措施:1. 熟悉交易所的操作规则:在进行加密货币交易时,要熟悉交易所的操作规则,了解交易限制、风控措施等。2. 适当设置止损单:在进行加密货币交易时,可以适当设置止损单,在达到预定价格时,自动平仓,以防资产损失过大。3. 避免过于激进的交易策略:在进行加密货币交易时,要避免过于激进的交易策略,如追涨杀跌、极限杠杆等,容易导致爆仓。4. 积极管理风险:在进行加密货币交易时,要积极管理风险,遵循风险分散原则,择机把握机会,以降低爆仓的风险。通过采取上述措施,可以有效防止进行加密货币交易被爆仓。关于在 Web3 更好地创业/打工Odaily 星球日报:如何建立一家 Web3 公司?ChatGPT要建立一家 Web3 公司,可以采取以下步骤:1. 先确定公司的业务方向:建立 Web3 公司需要确定业务方向,包括市场定位、产品类型、目标客户群等。2. 规划公司的组织架构:建立 Web3 公司需要制定组织架构,包括公司股权结构、部门设置、员工职责分配等。3. 招募合适的团队成员:建立 Web3 公司需要招募专业的团队成员,包括技术开发人员、产品经理、市场推广人员等。4. 准备公司所需的资金:建立 Web3 公司需要准备足够的资金,包括租赁办公场地、支付员工工资、进行市场推广等。5. 注册公司:建立 Web3 公司需要进行注册,包括确定公司名称、选择注册地、办理工商手续等。通过以上步骤,就可以建立一家 Web3 公司了。Odaily 星球日报:给我一个 Web3 项目的市场营销方案。ChatGPT如果要推广 Web3 项目,我有以下几点建议:重视内容营销:通过创建高质量的文章、视频、图片等内容来吸引目标客户的关注,并通过搜索引擎优化和社交媒体推广来提高内容的曝光度。参与社区活动:参加社区内的各种活动,包括论坛、线下会议、黑客马拉松等,与社区成员进行交流,并建立信任关系。加强品牌推广:通过设计美观的品牌标识、网站和宣传材料,加强品牌。Odaily 星球日报:你能帮我写一段 Web3 产品的推特宣传文案吗?ChatGPT为了更好地撰写文案,我们需要了解您的产品特点和目标受众。这里提供一种可能的文案供参考:Web3产品:为您带来全新的区块链体验!我们采用了 Web3 框架,提供安全、快速、可扩展的区块链应用。我们专为技术开发者、区块链爱好者和初学者提供支持,帮助您快速掌握区块链技术。立即体验,抢占先机,成为区块链行业的领军人物!Odaily星球日报:使用 solidity 写一个 ERC 721 智能合约,需要带有白名单功能。ChatGPT:首先,在合约开头声明 ERC 721 协议和白名单数组:然后,实现添加白名单的函数,只有合约创建者才能添加白名单:接着,实现判断地址是否在白名单中的函数:最后,在 ERC 721 协议中定义的 safeTransferFrom 函数中,添加白名单验证,只有白名单中的地址才能进行交易:② 自动生成四则漫画五个人 ChatGPT 创建方法https://telegra.ph/how-to-register-openai-to-play-ChatGPT-12-05基本上都是通过这个租号,但也可以想想如何买到一张外卡,再低成本往里面充 18 dollar。虚拟号有关信息(超详细):https://xunihao.net/148.html相关网站1. T-mobil网站地址:https://prepaid.t-mobile.com/prepaid-plans/connectT-Mobile 是一家跨国移动电话运营商,它是德国电信的子公司,属于 Freemove 联盟。T-Mobile 在西欧和美国运营 GSM 网络,并通过金融手段参与东欧和东南亚的网络运营。该公司拥有 1.09 亿用户, 是世界上最大的移动电话公司之一。今天推荐的这款 T-mobile 5 美元的套餐是无法直接开通的,需要先开 T-Mobile 15 刀套餐 1 个月之后再转为 T-mobile 5 刀套餐。如果有条件,可以去 ebay、Amazon 购买,然后转运到国内或者直接去淘宝购买,但是有点小贵。2. Lycamobile $10 月租套餐网站地址:https://www.lycamobile.us/en/莱卡也是美国原生实体电话卡,2018 年出的 Pay As You Go 套餐是 0 月租,当时非常火。2019 年 3 月,Lycamobile 取消了 Pay as you go 的灵活套餐,最低套餐改为 19 刀,用的人也就要少些了。但是现在代理商处可以开 10 刀的套餐。它是目前美国实体号码卡里面入手价格最低,比如当前 UltraMobile 入手至少两百多,这张卡几十块就能买到。这里推荐大家去淘宝购买,价格在 30-60 之间,具体以实际价格为准!目前测试出来的卡就这两张 T-mobil 和 Lycamobile,其他卡后续会继续测试的!以上就是本次分享的的全部内容了,希望能给大家带来一些帮助,ChatGPT 是个宝库,里面藏着不少商机,等待你的挖掘。
为什么 ChatGPT 能够引发轰动?它在技术上与此前的人工智能产品有哪些不同?泻药。对话系统开发者来从对话系统领域来答一下这个问题。从技术上看,ChatGPT获得这么好的效果,原因在于架构上用prompt端到端地解决了困扰对话系统领域多年的多目标开放域问答难题。对话系统基本上可以分为任务型对话系统和非任务型对话系统,非任务型对话系统往往称为聊天机器人(Chatbot),可以根据目标进一步分为许多下游分支,例如社交机器人和情感机器人等。有多个目标的聊天机器人就叫做多目标聊天机器人。任务型对话系统是为了完成某项任务,例如要订一张去迪士尼的机票,就可以交给任务型对话系统去做。注意,任务型对话系统有非常特定的目标集合(intent set),而且这个集合是closed-domain的,因此不能随便聊话题。ChatBot一般是open-domain的,有一个大致的倾向性,例如社交机器人希望能尽可能长地维持对话时间,情感机器人希望能让人类对话者获得情感收益。ChatGPT是一个典型的非任务型对话系统,而其最成功之处就在于在多目标(多任务)上均实现了很高的性能。通过调整prompt,ChatGPT被开发出了social能力、情感交流能力、写代码能力、讲故事能力等,这是绝大多数对话系统无法做到的。换句话说,纯生成式模型通过prompt tuning体现出的巨大潜力赋予了生成式大模型解决多目标问题的能力。以往的对话系统,想要做到多种能力的整合往往需要训练多个“专才”对话机器人,然后在模组的最前面加一个intent adapter来识别应该使用哪个对话机器人。这样的实现存在诸多问题,例如用户在对话中途可能转变目标,也可能一句话里出现多个目标。因此,近期的对话系统尝试将多目标open-domain对话系统建模成一个end-to-end多轮问答问题。也就是说,如果能把模型中所有模块都做成可微的神经网络,那么训练的时候loss可以从输出直接回传到输入,从而实现参数的端到端更新。这个流派的首发模型是GPT-3,我也用GPT-3实现了比较初级的end-to-end对话模型。但是GPT-3的历史记忆能力不强,而且能完美解决的任务数量并不是很高,因此没有引起广泛的关注。直到OpenAI察觉到了GPT系列模型在对话系统中的应用,通过针对性的contextualized QA finetuning,才成功实现了在大多数任务上的SOTA效果。对话系统的本质就是多轮QA,而QA又是NLP任务中最难,也是最有价值的任务之一。OpenAI商业和技术上的对接体现在将GPT-3进一步规划成一个需求极高的对话模型ChatGPT。从商业的角度看,这其实是一个公司对于供给(GPT-3的能力)和需求(市场对数据系统的需求)的精准把握。如果你对对话系统还不熟悉,我转译了一篇survey如下。转译自 忆臻:对话系统综述:新进展新前沿,添加了部分英文释义及个人思考原文链接:https://arxiv.org/pdf/1711.01731.pdf摘要对话系统已经越来越引起人们的注意。对话系统的最新进展绝大多数是由深度学习技术所贡献的,这些技术已经被用来强化各类大数据应用,如计算机视觉,自然语言处理和推荐系统。对于对话系统,深度学习技术可以通过利用大规模数据来学习有意义的特征表示和回复生成策略,同时只需要极少量手工特征。在这篇文章中,我们从不同视角,对近期对话系统的进展进行概述,并讨论一些可能的研究方向。具体而言,我们将现有对话系统大致分为了面向任务型与非面向任务型两种模型,然后描述深度学习是如何利用表示算法提升现有性能,最后讨论一些引人注目的、可以带领对话系统研究进入新的高度的研究方向。1 引言长久以来,拥有一个有着足够智能的虚拟助手或聊天伴侣系统看上去都是虚幻的、是存在于科幻电影中的情节。最近,人机对话因其潜力巨大,诱人的商业价值而备受关注。随着大数据和深度学习技术的发展,创建一个自动人机对话系统作为我们的个人助理或聊天伴侣的目标不再是一种幻想。一方面,我们可以很容易地获取互联网上的对话“大数据”,从而对于(几乎)任何输入学习如何回复。这使我们可以建立数据驱动的,开放域的人机对话系统。另一方面,深度学习技术已经被证明在识别大数据中的复杂模式上是有效的,并且已经驱动了许多研究领域的研究工作,如计算机视觉、自然语言处理和推荐系统。因此,大量的利用深度学习和海量数据来促进对话系统发展的文献涌现出来。图1 任务型导向对话系统的传统传递途径根据其具体应用,对话系统大致可以分为两类:(1)面向任务的系统(task-oriented dialog system)和(2)非面向任务的系统(也称为聊天机器人 chatbot)。面向任务的系统旨在帮助用户完成某些任务(例如查找产品,预订住宿和餐馆)。如图1所示,广泛应用于面向任务的对话系统的方法是将对话回复作为一个流水线来处理。系统首先理解人类给出的信息,将其表示为一个内部状态,然后根据策略和对话状态选择一些动作,最后把动作转化为自然语言的表达形式。尽管语言理解是通过统计模型来处理的,但是大多数已部署的对话系统仍然使用人工特征或人工编写的规则来处理状态和动作空间的表示,意图检测和槽填充。这不仅使得部署真正的对话系统耗费大量时间,而且还限制了其在其他领域进行使用的能力。最近,许多基于深度学习的算法通过学习高维分布式特征表示来缓解这些问题,并在一些方面取得了显著的进步。此外,还有尝试建立端到端的面向任务的对话系统,这种对话系统可以扩展传统流水线系统中的状态空间表示,并有助于生成任务特定语料库以外的对话。非面向任务的系统在与人类交互过程中提供合理的反应和娱乐。通常,非面向任务的系统致力于在开放域与人交谈。虽然非面向任务的系统似乎在进行闲聊,但是却在许多实际的应用程序中占有一席之地。 如[98]所示,近80%在线购物场景中的对话都是闲聊消息,而处理这些信息与用户体验密切相关。一般而言,针对非面向任务的系统开发了两种主要方法——(1)生成方法,例如seq2seq模型,其在对话过程中产生适当的回复;(2)基于检索的方法,学习从数据库中选择当前对话的回复。表1 自然语言表达的一个说明例子近年来大数据和深度学习技术的发展,极大地推动了面向任务型和非面向任务型的对话系统的发展,促进了对话系统中大量的基于深度学习的研究。在这篇文章中,我们的关注点是(1)概述对话系统,尤其利用深度学习的最新进展;(2)讨论可能的研究方向。文章的剩余部分的组织如下。在第二节中,我们回顾了面向任务的对话系统,包括流水线和端到端的方法。在第三节中,我们首先介绍包括当下流行模型和热门研究课题等的神经生成方法; 然后详细介绍基于检索的方法。在第四部分,我们通过一些研究方向的讨论进行总结。2 面向任务的对话系统 Task-oriented Dialog System面向任务的对话系统一直是口语对话系统的重要分支。在本节中,我们将回顾面向任务的对话系统的流水线方法和端到端方法。2.1 流水线方法 Pipelined Method基于流水线的面向任务的对话系统的典型结构如图1所示。它包含了四个关键部分:语言理解。它被称为自然语言理解(NLU),它把用户话语解析为预定义的语义槽。对话状态跟踪器。它管理每一轮的输入与对话历史,输出当前对话状态。对话策略学习。它根据当前对话状态学习下一步动作。自然语言生成(NLG)。它将选择的动作映射到其表层,生成回复。在接下来的小节中,我们将详细介绍每个部分的SOTA算法。2.1.1 语言理解给定一句话,自然语言理解将其映射到语义槽(semantic slot)中。这些槽都是根据不同场景预设而成。表1展示一个自然语言表示的例子,其中“New York”是一个语义槽的值的位置,并且还确定了其领域和意图。通常我们需要进行两种类型的表示。第一种是句子级别的分类,例如用户意图和句子种类。第二种是词级别的信息抽取,例如命名实体识别和槽填充。意图检测是用来检测用户的意图的。它把一句话分类为预先设定的意图之一。深度学习技术已经陆续应用于意图检测[10;73;99]。特别地,[19]采用卷积神经网络(CNN)提取询问向量表示询问分类的特征。这种基于CNN的分类框架也类似于[22]和[64]。相似的方法同样被用于领域的分类中。槽填充是口语语言理解的另一个具有挑战性的问题。与意图检测不同,槽填充通常被定义为序列标注问题,其中句子里的词语被标上语义标签。 输入是由一系列单词组成的句子,输出是一个槽/概念的索引序列,每个单词一个。[11]和[10]使用深度信念网络(DBN),与CRF方法相比取得了优异的结果。[41;102;56;100]使用RNN进行槽填充。由NLU生成的语义表示由对话管理模块进一步处理。典型的对话管理部分包括两个阶段——对话状态跟踪和策略学习。2.1.2 对话状态跟踪跟踪对话状态是确保对话系统鲁棒性(robustness)的核心组成部分。它会在每一轮对话中估计用户的目标。对话状态 H_t 表示到时间t为止的对话历史的表示。这种经典的状态结构通常被称为槽填充或语义框架。在大多数商业实现中被广泛使用的传统方法通常采用手工制定的规则来选择最可能的结果[17]。然而,这些基于规则的系统容易出现频繁的错误,因为最可能的结果并不总是理想的结果[88]。统计对话系统在有噪声的条件和模糊性下[104],维护了对真实对话状态的多重假设的分布。在对话状态跟踪挑战(DSTC)[87;86]中,生成结果的形式是每轮对话每个语义槽的值的概率分布。各种统计方法,包括复杂的手工制定规则[80],条件随机场[28;27; 53],最大熵模型[85]和网络风格排名[88]都出现在了对话状态跟踪挑战(DSTC)的共享任务中。最近,[20]引入了信念追踪(belief tracking)的深度学习。 它使用一个滑动窗口输出任意数量的可能值的一系列概率分布。虽然它是在某一个领域的训练出来的,但它可以很容易地转移到新的领域。[48]开发了多领域RNN对话状态跟踪模型。它首先使用所有可用的数据来训练一个非常泛化的信念跟踪模型,然后对每一个特定领域利用这个泛化模型进行专门化,从而学习领域特定的行为。[49]提出了一个神经信念跟踪器(NBT)来检测槽值对。它将用户输入之前的系统对话动作,用户话语本身以及一个候选的需要判断是否出现的槽-值对作为输入,通过遍历所有的槽-值对来判断哪些已经被用户所表达出来。2.1.3 策略学习以从状态跟踪器获得的状态表示作为条件,策略学习将产生下个可用的系统动作。无论是监督学习还是强化学习都可以被用于优化策略学习。通常,基于规则的智能体将被用于热启动系统[86],然后利用规则生成的动作进行监督学习。在在线购物场景中,如果对话状态是“推荐”,那么“推荐”动作将被触发,系统将会从产品数据库中检索产品。如果状态是“比较”,系统则会比较目标产品/品牌[98]。对话策略可以通过进一步端到端的强化学习进行训练,以引导系统朝着最终性能做出决策。[9]在对话策略中利用深度强化学习,同时学习特征表示和对话策略。该系统超过了包括随机、基于规则和基于监督学习的基线方法。2.1.4 自然语言生成自然语言生成将抽象的对话动作转化为自然语言的浅层表达。正如[68]中提到的,一个好的生成器通常依赖于几个因素:充分性、流畅性、可读性和变化性。NLG的传统方法通常采用句子规划。它将输入的语义符号映射为中间形式的表示,利用树状或者模板结构,然后把这些中间结构通过表层实现来转化为最终的回复[77;69]。[81]和[82]引入了基于神经网络(NN)的NLG方法,其基于LSTM的结构类似于RNN LM [42]。对话动作类型和槽-值对被转化为一个1-hot控制向量,作为附加的输入,来确保生成的句子表达确定的意图。[81]使用一个正向RNN生成器,一个CNN重排器与一个后向RNN重排器。所有的子模块通过共同优化来产生以固定对话动作为条件的句子。为了解决在表层实现中槽信息缺失和重复的问题,[82]使用了额外的控制单元来门控对话动作。[72]通过利用对话动作来选择LSTM的输入向量,扩展了这一方法。这个问题后来通过多步调整扩展到多领域场景[83]。[110]采用基于编码器-解码器的基于LSTM的结构来结合问题信息,语义槽值和对话动作类型来生成正确答案。它使用注意力机制来关注解码器当前解码状态的关键信息。通过编码对话动作类型嵌入,基于神经网络的模型可以生成许多不同动作类型的回复答案。[14]还提出了一种基于seq2seq的自然语言生成器,可以被训练用于利用对话动作输入来产生自然语言和深度语法树。这种方法后来利用之间用户的话语和回复进行了扩展[13]。它使模型能够使用户适应(说话)的方式,从而提供适当的回复。2.2 端到端方法传统的面向任务的对话系统尽管有许多领域特定的手工操作,但这导致其很难适应新的领域[4];[107]进一步指出,面向任务的对话系统的传统流水线方法还有两个主要缺陷。一个是分数分配问题,最终用户的反馈会很难传到上游模块中。第二个问题是处理相互依赖问题。每个模块的输入都依赖于另一个模块的输出,当调整一个模块到一个新环境或者用新数据进一步更新,所有其他模块都要进行相对应的调整以保证全局的优化。槽和特征可能也会相对应的改变。这种过程需要大量的人工操作。随着近年来端到端生成模型的不断发展,进行了许多端到端可训练的用于面向任务的对话系统的框架的尝试。请注意,当我们介绍非面向任务的系统时,将会关注于神经生成模型的更多细节。端到端模型不再使用传统的流水线,而是使用一个模块,并使其与结构化的外部数据进行交互。[84]和[4]引入了一个基于神经网络的端到端可训练的面向任务的对话系统。这个系统将对话系统的学习当做学习一个从对话历史到系统回复的映射,利用编码器-解码器模型训练整个系统。然而,这个系统是以监督学习方式进行训练的——不仅需要大量的训练数据,而且由于缺乏对训练数据中对话控制的探索,也可能无法健壮地找到一个好的策略。[107]首先提出了一个端到端的强化学习方法,在对话管理中共同训练对话状态跟踪和政策学习,以便更好地优化系统动作。在对话中,智能体询问用户一系列是/否问题来找到正确的答案。这种方法在应用于关于猜测用户脑海中想着的名人的面向任务的对话问题时体现出良好效果。[36]将端到端系统作为完成任务神经对话系统,其最终目标是完成一项任务,如电影票预订。面向任务的系统通常需要在外部知识库上进行查询。之前的系统是通过向知识库产生符号化查询,利用其属性检索相关条目来实现。这种方法通常利用在输入上做语义分析来得到表示智能体对用户目标的信念[84;90;36]。这种方法有两个主要缺点:(1)检索结果不包含任何有关于语义分析不确定性的信息,(2)检索操作是不可导的,因此分析器与对话策略需要分别训练。一旦部署系统,这会使得从用户反馈中进行在线端到端学习变得十分困难。[15]受启发于键-值记忆网络[44],通过一个在知识库条目上可导的基于注意力的键-值检索机制来增强现有循环神经网络结构。[12]将符号化询问替换为在知识库上一个导出的表达哪些条目用户较感兴趣的“软”后验概率。将软检索过程与强化学习相结合,[89]将RNN与特定领域知识相结合与系统回复模板相结合。3. 非面向任务的聊天系统与面向任务的对话系统旨在为用户完成特定任务不同,非面向任务的对话系统(也被称作聊天机器人)关注于在开放域上与人类进行交流[54]。一般来说,聊天机器人是通过生成方法或者基于检索的方法来实现的。生成模型能够产生更加适当的,在语料库中从未出现过的回复;而基于检索的模型则有着得到更富有信息与流畅程度的回复的优势[23],因为它们通过回复选择算法,从存储库中为当前对话选择了一个适当的回复。在接下来的章节中,我们将首先介绍近年来最流行的研究注意之一——神经生成模型,并讨论其缺点和可能的改进。然后,我们介绍在基于检索的模型中深度学习的最新进展。3.1 神经生成模型如今,Twitter和Reddit等社交媒体网站上可以进行大量的对话交流,提高了构建数据驱动模式的前景。 [54]提出了一种基于短语的统计机器翻译的生成概率模型[105],以模拟微博上的对话。它将应对问题视为一个翻译问题,需要翻译成一个回复。然而,生成回复被发现翻译语言要困难得多。这可能是由于有大量看似合理的回复同时缺乏与输入之间短语的对齐关系造成的。在机器翻译中深度学习的成功应用,即神经机器翻译,激发了神经生成对话系统研究的热情。在下面的小节中,我们首先介绍序列到序列(seq2seq)模型,神经生成模型的基础。然后,我们将讨论热门的研究课题,包括结合对话上下文,提高回复的多样性,建模主题和个性,利用外部知识库,交互式学习和评价。3.1.1 序列到序列模型给定一个包含T个词的原序列(消息)和一个包含T'个词的目标序列(回复),模型需要最大化给定X,生成Y的概率:。特别地,序列到序列模型(或seq2seq)是一种编码器-解码器结构。图2展示了这种结构。图 2 Encoder-Decoder 结构编码器依次读入X个词,利用循环神经网络(RNN)将其表示为一个上下文向量c,然后解码器利用c作为输入估计生成Y的概率。RNN编码器计算上下文向量c可以写做:其中 h_{t} 是第t时刻的隐藏状态,f是一个非线性方程,比如长短期记忆单元(LSTM)[18]和门循环神经网络(GRU)[7]。c就是最后一个词的隐藏状态 h_T 。解码器是一个标准的RNN语言模型,加上额外的条件上下文向量c。第t时刻候选词的概率分布 P_{t} 可被计算为:其中 s_{t} 是RNN解码器t时刻的隐藏状态, y_{t-1} 是t-1时刻回复的词。seq2seq的目标函数被定义为:[2]通过加入注意力机制来提高性能。这种方法通过观察每个Y中的词与X中不同部分的联系,对于Y中的每个词生成不同的上下文向量c。特别地, y_{t} 对应一个上下文向量 c_{i} ,而 c_{i} 是一个的加权平均:其中 \alpha_{ij} 的计算方法是:其中g是一个多层感知机(MLP)。[61]将循环神经网络编码器-解码器框架[7]应用于生成Twitter风格的微博网站回复,而[74]利用了[40]中相似的模型。总体而言,这些模型利用了神经网络来表示对话历史和生成合适的回复。这些模型可以利用大量数据来学习有意义的自然语言表示和生成策略,同时只需要极少量的领域知识和手工操作。3.1.2 对话上下文考虑之前对话的能力是建立可保持对话活跃的对话系统的关键。[67]通过连续表示或单词和短语嵌入来表示整个对话历史(包括当前消息),从而解决了上下文敏感的回复生成的挑战。回复通过RNN语言模型[42]生成,与[7]中的解码器相同。[58]使用层次模型,首先捕捉个别话语的含义,然后将其整合为话语。[96]通过注意机制[2]扩展了分层结构,以倾向于句子内部和之间的重要部分。这分别通过词级别的注意力机制和句子级别的注意力机制得到。[71]在现有的方法(包括非层次和层次模型)之间进行了系统的比较,提出了一个在上下文中利用上下文查询相关性加权的变体。它发现(1)分层循环神经网络通常优于非分层循环神经网络,(2)神经网络具有上下文信息,往往会产生更长,更有意义和多样化的回复。3.1.3 回复多样性在当前的序列对话系统中,一个具有挑战性的问题是,它们倾向于产生意义不大的普通或不重要的、普适的回答,而这些回答往往涉及到“我不知道”或者“我很好”这样的高频率短语[67;74;58]。这种行为可以归因于泛型回答往往有相对较高的频率,例如会话数据集中“我不知道”,而相反,有更多信息的回答相对稀疏。 减轻这种难题的的一个有希望的方法是找到一个更好的目标函数。[30]指出,神经模型在优化极大似然目标函数时,分配高概率给安全的回答时。 他们使用最大相互信息(MMI),这是最初在语音识别领域引入的[3; 5]的优化目标。 它测量了输入和输出之间的相互依赖关系,并考虑了消息回复的逆向依赖性。 [101]结合逆文档频率(IDF)[55]到训练过程来评价回复的多样性。一些研究认识到解码过程是冗余候选回复的另一个来源。 [62]和[34]认识到beam-search在波束中产生候选时缺乏多样性。 [62]引入了一个随机的beam-search程序,而[34]增加了一个用于beam-search评分的术语来惩罚搜索中同一父节点的同胞扩展。[30;67; 62]进一步执行了具有全局特征的重新排序步骤,以避免产生沉闷或一般的回复。 [47]推测,问题不仅在于解码和回复频率的目标函数,而且消息本身可能也缺乏重放的足够信息。 它提出使用逐点互信息(PMI)来预测名词作为关键词,反映答复的主要依据,然后生成一个包含给定关键字的答复。另一系列工作着重于通过引入随机隐变量来产生更多不同的输出。 他们表明,自然对话不是确定性的 – 对同一信息的答复可能会因人而异。 但是,当前回复是从确定性编码器 – 解码器模型中采样的。 通过整合隐变量,这些模型的优点是,在生成时,他们可以通过首先对隐变量的分配进行采样,然后确定性地进行解码,从分布中采样回复。 [6]提出了针对一次性对话回复的隐变量模型。 该模型包含一个解码器P(Y
z,X)中的随机分量z,其中z遵循变分自编码器框架进行计算[26;25;65]。 [59]将隐变量引入分层对话建模框架[58]。 隐变量的设计是为了做出高层次的决定,如话题或情感。 [57]通过学习一系列隐变量来扩展这种方法,其中下一个话语的隐变量只以先前的隐变量序列为条件。 [63]将隐变量限定在显式属性上,以使隐变量更易于解释。 这些属性可以手动分配,也可以自动检测这些主题和个性。3.1.4 主题和个性显式地学习对话的内在属性是改善对话多样性和保持一致性的另一种方法。在不同的属性中,主题和个性被广泛探索。[95]注意到,人们经常把他们的对话与主题相关的概念联系起来,并根据这些概念创建他们的回复。他们使用Twitter的LDA模型来获得输入的主题,将主题信息和输入表示形式加入联合注意模块中,并产生与主题相关的回复。这个在解码器上的改进在[94]取得了较好的结果。[8]对这个问题做了更全面的泛化。他们将对话中的每个话语分类到一个领域,并据此产生下一个话语的领域和内容。[109]将情绪嵌入到生成模型中,并在困惑度中取得了良好的表现。[51]给系统一个身份,使系统可以一致地回答个性化问题。[31]进一步考虑用户的信息,以创建一个更现实的聊天机器人。由于训练数据来自不同的说话者,因此[106]提出了一种两阶段训练方法.该方法使用大规模数据对模型进行初始化,然后对模型进行微调以产生个性化的回复。[45]使用迁移强化学习来消除不一致。3.1.5 外部知识库人类对话与对话系统一个重要区别是它是否与现实相结合。结合外部知识库(KB)是一种有可能弥补对话系统与人类之间背景知识差距的方法。记忆网络是处理利用知识库完成问答任务的经典方法。因此,将其用于对话生成任务中也是比较自然的。[16]在此之上做了尝试,并在开放域对话中取得了不错的成绩。[75]也通过在多模态空间中进行CNN嵌入和RNN嵌入,在有背景知识下展开开放域对话,并在困惑度上取得了进步。根据外部知识产生一个问题的答案是一个类似的任务。与一般方法中在知识库中检索元组不同,[103]将知识库中的词与生成过程中常见的词相结合。实证研究表明,所提出的模型能够通过参考知识库中的事实来产生自然而正确的答案。3.1.6 交互式对话学习通过交互来学习是对话系统的最终目标之一。[35]利用两个虚拟智能体模拟对话。它们定义了对描述一个较好的对话的汇报的一个简单的启发式的估计:好的对话是有前瞻性[1]或者交互式的(当前轮为下一轮对话铺垫),是信息丰富的和连贯的。一个RNN的编码器-解码器所有参数定义了一个在无穷大的动作空间上从所有可能的话语中进行选择的策略。智能体是通过策略梯度方法[91]来优化由开发者定义的长期奖励,而不是通过标准seq2seq的MLE目标函数来学习策略。[32]进一步试图提高机器人从交互中学习的能力。通过对文本和数字反馈使用策略学习和前向预测,该模型可以通过(半)在线方式与人进行交互来提高自身性能。由于大多数人类在对答案并不自信时通常会要求提供一些澄清或者提示,所有机器人拥有这种能力也是相当自然的。[33]定义了机器人在回答问题时遇到问题的三种情况。与不采用提问的实验结果相比,这种方法在一些情况下有了很大的改进。[29]在谈判任务中进行了探索。由于传统的序列到序列模型模拟人类的对话没有优化具体的目标,这项工作采取了面向目标的训练和解码方法,并展示了一个有价值的视角。3.1.7 评价评估生成回复的质量也是对话回复生成系统的重要方面之一[37]。面向任务的对话系统可以根据人类生成的监督信号进行评价,如任务完成测试或者用户满意度[76;46;24],然而,自动评价非面向任务的对话系统的生成回复质量仍然是一个开放的问题。尽管BLEU,METEOR和ROUGE等词汇重叠度量方法被广泛用于评估生成的回复;[37]发现,这些度量以及由Word2Vec[43]等词嵌入模型导出的词嵌入度量方法与人的判断几乎没有联系,尽管词嵌入度量能够在多个数据集之间显著区分基线和SOTA的模型。[70]提出使用两个神经网络模型,通过一系列的每轮对话级别的特征来给对话的成功率打分来进行评估。3.2 基于检索的方法基于检索的方法即通过从候选回复中选择一个回复。这种方法的重点在于信息-回复的匹配(Matching),这样的匹配算法必须能够克服消息与回复之间语义的差异。(译者注:就是推荐系统那一套)3.2.1 单轮回复匹配早期基于检索的聊天机器人主要是通过在单轮对话中进行回复选择来完成的[78]。具体来说,文本和候选回复被分别编码为向量,然后利用这两个向量来计算匹配分数。假设x是消息的向量表示,y是回复的向量表示,在x和y之间进行匹配的函数可以写成一个双线性匹配:其中A是一个预先设定的矩阵,或者更为复杂。[39]提出了同时结合本地与隐式层次结构信息的一个基于DNN的短文本回复选择模型。[21]利用深度卷积神经网络学习消息与回复的表示,或是直接学习两个句子交互的表示,利用多层感知机计算匹配分数改进了这个模型。[79]提取了依存树的匹配特征,利用这些特征当做one-hot向量的输入,送入前馈神经网络进行文本-回复的匹配。[92]集合Twitter LDA模型生成的主题向量,送入基于CNN的结构来利用富文本提升回复性能。3.2.2 多轮回复匹配最近,多轮基于检索的对话引起了越来越多的关注。在多轮回复的选择中,当前消息和之前的对话将被作为输入。模型会选择与整个文本最相关且自然的回复。这样,在之前的对话里识别重要信息、对对话的关系建立合适模型来保证对话一致性就变得十分重要。[38]通过RNN/LSTM的结构,编码了整个上下文(把之前所有的对话和当前用户的话拼接起来)和候选回复,作为上下文向量和回复向量,然后基于这两个向量计算匹配分数。[97]利用不同策略在之前出现的对话中选出一些话语,结合当前消息生成一个重组的上下文。[111]不仅仅在词级别上下文向量中进行上下文-回复匹配,而且还在句子级别的上下文向量中进行。[93]进一步提高了利用对话之间的关系和上下文信息来匹配回复的方法。这种方法通过卷积神经网络,得到多种不同粒度的文本,然后在时序上利用循环神经网络进行累加,来建模句子之间的相关性。3.3 混合方法结合生成方法和基于检索的方法可以显著提高性能。[66]和[52]尝试结合这两种方法。基于检索的系统通常可以给出一个精准但是不流利的方法,而基于生成的系统则倾向于给出一个流利但是没有什么意义的回复。在集成模型中,通过检索得到的候选回复,与原始消息一起送入基于RNN的回复生成器,再将最终的回复重排。这种方法结合了基于检索和生成的模型,得到了更加优秀的性能。[60]综合了自然语言生成,检索模型,包括基于模板的模型、词袋模型、seq2seq神经网络和隐变量神经网络,应用强化学习学习众包数据和真实世界用户的交互从而从集成模型中选择一个合适的回复。4. 讨论和结论深度学习已经变成了对话系统的基础技术。研究人员将神经网络应用于传统的面向任务的对话系统的不同模块,包括自然语言理解,自然语言生成,对话状态跟踪。近年来,端到端框架不仅在非面向任务的聊天对话系统中,而且在面向任务的对话框架中也变得流行起来。深度学习能够充分利用大量数据,并有望建立统一的智能对话系统。它正在模糊面向任务的对话系统和非面向任务的系统之间的界限。特别的,聊天对话由序列到序列模型直接建模。任务完成模型也正朝着端到端可训练方式发展,通过强化学习表示整个状态-动作空间,并结合整个流水线。值得注意的是,目前的端到端模型还远未完善。尽管有上述成就,但问题依然存在。接下来,我们讨论一些可能的研究方向:迅速热身。虽然端到端模型已经吸引了最近绝大部分的研究注意力,但是在实际的对话工程中,尤其是在新领域的预热阶段,我们仍需要依靠传统的流水线方法。日常对话数据是相当“大”的,但是对于特定领域的对话数据是相当有限的。此外,特定领域的对话数据的收集和对话系统的构建都是十分耗费人力的。基于神经网络的模型在利用大量数据方面表现更好。我们需要新的方式来弥合热身阶段的不足。值得注意的是对话智能体有能力自己从与人的交互中进行学习。深度理解。目前基于神经网络的对话系统主要依赖于大量不同类型的注释数据,结构化的知识库和对话数据。它们通过一次又一次模仿一个回复来学习说话,就像婴儿一样,这导致回复缺乏多样性,而且有时是没有意义的。因此,对话智能体应当通过对语言和现实世界的深度理解来更加有效地学习。具体来说,一项很有潜力的工作是,对话智能体能够从人的指导中学习,摆脱反复的训练。由于互联网上有大量的知识,如果对话智能体更聪明一些,就够利用这种非结构化的知识资源来理解。最后但依然很重要的一点,对话智能体应该能够做出合理的推论,找到新的东西,分享跨领域的知识,而不是像鹦鹉一样重复这个词。隐私保护。许多的对话系统应用服务于大量的人。而值得注意的是,我们所有人正在使用同一个对话助手。通过交互、理解和推理来学习的能力,对话助手可能会不经意地隐式地储存一些敏感信息[50]。因此,在建立更好的对话系统的同时保护用户隐私也是一个十分重要的问题。
本文翻译自约翰·斯宾诺莎最新一期博客《Human Skills in a World of Artificial Intelligence》,有删节。三年前,我站在一所技术大学的高科技实验室里,盯着巨大的平板显示器。教授问我:“你能告诉我这些样本中哪些是通过人工智能生成的吗?在顶部,一名学生提出了一个复杂的问题,与微积分在计算流体流动和传热中的应用有关。下面,一名研究生和一个人工智能聊天机器人都回答了这个问题。我一遍又一遍地研究这两个答案。我在语法中寻找线索。我试图在答案中找到人性。最后,我摇了摇头。我分不清其中的区别。这两个选项都清晰简洁,只有一丝口语友好,同时仍然保持略显冷漠和客观。“他们都是人工智能吗?”我问道。“很容易想到这一点。研究生是一名工程师,我们往往有点机器人,“他回答道。正确答案是B。我站在实验室里,对机器学习的进步感到困惑。这不仅仅是“足够接近”。就是这样。人工智能已经到来,我感到不安。然后他继续说:“学生们也分不清其中的区别。对他们来说,这只是与专家的聊天。我的脑子里盘旋着关于图灵测试、深度伪造和人类未来的问题。我很确定《银翼杀手》中的图像也在那里弹出。但最重要的是,我有一个唠叨的问题,“人工智能会取代我吗?毕竟,评估往往是我作为教育工作者工作的一个重要方面。但是这个机器人可以在几秒钟内提供反馈。而且很好。真的很好。后来,在完成了一个关于学生声音和选择的研讨会后,我开始怀疑人工智能是否会取代评估,或者只是放大和改变它。也许我可以花更少的时间写出反馈,而花更多的时间与人类的动态元素进行一对一的会议。或者,也许我作为教授的角色会完全改变。也许我会审查人工智能的反馈,以确保它是有针对性的。或者,也许我会转向更像一个课程建筑师和设计师。大学将节省资金,提供更便宜的大学体验,甚至更少的人为因素。事实是,我无法预测人工智能和机器学习将如何改变教育。我们谁都做不到。几十年前,尼尔·波斯特曼(Neil Postman)提醒我们,虽然批判性地思考技术很重要,但我们很少能预测它对社会的影响。没有人知道印刷机会导致民族国家的崛起。没有人知道工业革命会引发气候变化。在我自己的有生之年,我在社交媒体上看到了关于“陌生人危险”的大胆预测,但没有人能预测过滤气泡、回音室的作用,以及它们对世界各地民主的影响。我们经常对新技术的某些元素反应过度,而无法理解其他领域更大的社会影响。现在,我看到了关于新闻学、英语语言艺术课程和软件工程师死亡的大胆预测。我不太确定。我们都不是。所有这些领域都会发生变化,但往往以让我们感到惊讶的方式。人工智能革命已经到来现在,我们正在经历一个文化时刻,我们正在认识到人工智能的力量。这是一个缓慢的构建。在此处自动更正。那里的语法建议。G-mail和Google搜索中的自动填充选项。在左下角与AI进行简短聊天,AI将帮助您获得从Expedia购买的航班的退款。但它总是感觉很小,而且处于边缘。但后来 ChatGPT 出现了,我们突然不禁要问:“这对未来的工作意味着什么?对教与学意味着什么?革命正在迅速发生。在短短一周多的时间里,聊天 GPT 的用户已超过 100 万。从这个角度来看,Instagram花了两年时间才达到这个基准。而这仅仅是个开始。这周我玩了几个小时。我从一个典型的批判性思维写作提示开始,我曾经要求我的学生在我们的社会研究课上完成。人工智能真的能将19世纪的帝国主义与21世纪的全球化进行比较和对比吗?绝对。答案是创造性的,并表现出强烈的批判性思维。我添加了一个参数。“向14岁的人解释一下。”答案是这样的:帝国主义和全球化的相似之处在于,它们都涉及一个国家的权力和影响力对其他国家的扩张。但是,两者之间存在一些关键差异。19世纪的帝国主义是一种侵略性的扩张主义形式,其中强大的国家,如英国,法国和德国,利用其军事和经济实力征服和控制其他国家。这往往涉及对自然资源的开采和对当地人民的剥削。另一方面,21世纪的全球化是一个更加复杂和相互关联的过程,在这个过程中,世界各国和企业通过贸易、技术和其他形式的交流日益联系在一起。全球化带来了许多好处,例如促进经济增长和进入新市场,但它也引发了关于不平等和对当地文化影响的辩论。总之,帝国主义是一个片面的过程,强国把自己的意志强加于人,而全球化是一个更加复杂和相互关联的过程,涉及国家之间的合作和竞争。如果我读到这篇文章,我会认为这是一个成绩优异的八年级学生。如果我问这个问题进行热身,这会是什么样子?学生会不会简单地将其插入 ChatGPT,每个人都会得到以不同方式编写的几乎相同的答案?一路上我们会错过什么?我也是一个狂热的插画家,所以我决定在创建图片时使用AI选项。我使用了一个应用程序,它生成了一张我过去作为维京人的照片。我不确定他们会选择历史悠久的维京人还是足球队。人工智能成为历史。这就是结果。我觉得这有点太讨人喜欢了。并没有真正捕捉到我眼下的额头皱纹或眼袋。但是,仍然很酷。再一次,我开始想知道这对未来意味着什么。它总是感觉创造力——尤其是视觉创造力——是一种明显的人类努力。但我不得不承认,人工智能在肖像方面做得很好。几年来,我一直在密切关注人工智能。我已经看到它是如何在数学课上造成严重破坏的,学生使用照片数学做家庭作业。我关注了工程中的一些应用。但本周,我一直在想,“这一切对教育的未来意味着什么?更重要的是,我们将如何应对?我想分享两条不同的路线,它们都通向死胡同。死胡同#1:未来主义的黄金承诺当我上中学时,我的一位老师把全班同学叫到教室前面。他兴奋地举起一个闪亮的金色圆盘。“这将永远改变教育,”他说,眼睛闪闪发光。“总有一天,你将能够拿起其中一张光盘,准确地学习你需要学习的东西。不再做老师的笔记。你不必向像我这样的人学习。我对向金盘而不是人类学习感到不安。我喜欢我的老师。我喜欢他如何通过阅读我们的肢体语言当场改变他的解释。我喜欢他让我们发笑的方式。我喜欢他跑题的低效方式,我们随机学习了教科书中没有的东西。我为什么要用金盘代替他?“这是教育的未来,孩子们,”他笑着说。“这将永远改变事情。但它并没有永远改变教育。我已经几十年没有见过激光光盘了,我很有信心我自己孩子的老师不会被金色光盘取代。不是现在。从来没有。然而,这是我在许多迭代中看到的相同情绪。我看到一对一的设备、笔记本电脑和自适应学习计划都承诺取代教师。现在,这是人工智能的承诺。但我不买。教学将永远是一项深刻的关系努力,充满了错误、失误和错误的开始。这就是它的美妙之处。死胡同#2:锁定它并阻止它的方法“斯宾塞先生,我不能和我的小组成员说话,”一个学生喊道。“你什么意思?”我问道。“看,聊天不见了,”卡洛斯指着他的电脑。“走了,走了?”“我的也是,”另一个学生插话说。“是啊,它也没有出现在我身边。”我遇到了“我的也不会那么行”的合唱。“不用担心,发邮件就行了。”这一次,他们的电子邮件被拒绝了。似乎什么都不起作用。“我让它在我的手机上工作,”另一名学生说。“我只需要使用我的个人G-mail。那天下午,我与技术支持人员会面,得知由于在另一间教室发生的欺凌行为,他们禁用了聊天和来回限制电子邮件。这是阻止技术的第二条路线的一个例子。我的学生正在从事一个全球合作项目,突然无法参与该项目。我看到这种方法发生在学校,他们阻止YouTube,在线游戏和社交媒体等网站。这里的流程侧重于监视、问责措施和阻止所有新技术。就 ChatGPT 而言,我已经看到英语老师说:“我会让学生在课堂上手写他们所有的论文。但正如玛丽·贝丝·赫兹(Mary Beth Hertz)在Twitter上提出的那样,这可能是能力主义者。有些学生只需要输入他们的作业。第三种方式——人性化的方法未来主义的危险在于它专注于新颖性而不是可持续性。它还忽视了技术的阴影面和社会中发生的有害破坏。锁定和阻止方法的危险在于它忽略了外部环境,并可能导致无关紧要和严厉监视的地方。那么,这会给我们带来什么呢?还有第三种选择。去年二月,我读了一本名为《智能机器时代的人类工作》的书。在这项开创性的工作中,作者认为我们应该从这个问题开始,“作为人类,我们能做什么,而机器做不到的事情?这可能意味着培养同理心、发散思维、好奇心、寻找自己独特的视角或提出创新的解决方案。这是个好消息。这正是世界各地的学校通过开发毕业生档案所做的。这些通常以文件的形式概述学生在完成 K-12 教育后应具备的知识、技能和能力。它们通常作为课程设计、评估和教学的蓝图。换句话说,这些毕业生档案正在研究学生在人工智能和机器学习时代需要的人类技能。但它不能简单地成为学校在网站上的文件或教室墙上的海报。如果我们要发展这些深刻的人类技能,我们需要重新思考学生参与的学习类型。我们需要淡化(甚至可能取消)标准化测试和严厉的问责措施。我在《复古创新》一书中深入探讨了这个想法。我一开始的想法是,AJ和我在Empower中分享了梯子现在是一个迷宫。多年来,我们学会了在学校努力工作,大学毕业,攀登公司阶梯的公式。这从来都不是每个人的现实。有些人在贸易学校取得了成功。其他人作为企业家。与此同时,系统性种族主义、性别偏见和不公正为数百万边缘化人群制造了障碍。尽管如此,这是我们被教导的公式。但随着自动化、机器学习、全球化和人工智能的变化,阶梯现在是一个迷宫。权威人士说:“我们需要让学生为尚不存在的工作做好准备。但我们已经看到,这落入未来主义陷阱的速度有多快。十年前,一切都是为了教每个学生如何编码。现在,ChatGPT可以在几秒钟内生成看似完美的代码。我们无法预测迷宫会是什么样子。那么,如果无法预测未来,我们该何去何从?答案可以在采用复古创新方法中找到。通过复古创新,我们避免了反动的“只是阻止一切”方法的极端以及未来主义的天真。在这里,我们将旧派和新技术混搭在一起。我们叠加了最佳实践和后续实践。我们问,“在人工智能的世界里,学生需要什么?在以技术为中心的世界中做人类工作意味着什么?复古创新是采用旧的、既定的想法和概念,并以新的和创新的方式更新它们的过程。这可能涉及重用、重新利用或调整旧技术或设计,以创造新的和改进的东西。复古创新通常从过去汲取灵感,融入怀旧元素,同时融入现代技术和设计原则。一个例子是将折纸的旧工艺与数字建模和新兴的数学研究融合在一起。注意:本段文字是ChatGPT在回答“什么是复古创新?我保证,如果我使用该应用程序,我会通知您。人工智能的复古创新是什么样子的?如果我们使用 ChatGPT 作为工具怎么办?我知道这听起来很奇怪,但所有新技术一开始都会被视为“作弊”。我记得老师告诉我禁用拼写检查,因为它是作弊。当我还是个孩子的时候,我的老师说文字处理会使修改文本变得太容易了。他们更喜欢打字机。我仍然遇到老师说从维基百科开始是一个坏主意。他们认为这是作弊。事实上,我可以看到创作者如何使用ChatGPT作为写作过程的一部分,这与首先访问维基百科并没有什么不同。他们会把最初的300个单词重新加工,添加,找到自己的想法,最终使其成为自己的想法。从这个意义上说,写作将更像拼贴艺术——在许多方面,它已经是拼贴艺术了。你单一的、孤独的声音显然是你的,但它也是合唱的一部分,由你阅读和收听的内容、你与谁交谈以及你文化的各种元素所塑造。当你写作时,你永远不会独自写作。昨天,我采用了我最受欢迎的写作提示之一,并将其插入AI。我得到的答案很无聊。它很扎实,但很无聊。所以,我把它改了,要求它更有趣。结果是…唉。但是,如果我以此为起点呢?我可以添加我自己的,让它更有创意,甚至可能更有趣。我的修订以粗体显示。接管世界。但也许从小处着手。也许是系外行星?或者干脆接管弗雷斯诺。是的,从弗雷斯诺开始,然后做大。偷月亮。我的意思是,当然不是我们的月亮。如果我要继续冲浪,我需要月亮。我在想也许是泰坦或木卫一?也许是卡利斯托?没有人关注过卡利斯托。创造一种收缩射线,但只会使衣服收缩,以至于弗雷斯诺的每个人都认为他们在一夜之间增加了十磅。建立一支庞大的机器人海军。所有的反派都做一支军队。我们将拥有一支坚实的机器人海军。训练中等大小的基因工程仓鼠军队。劫持圣诞老人的雪橇,用剩余的AOL CD替换所有礼物创建一个秘密的地下巢穴,护城河里装满了奇怪的中西部果冻沙拉,你是奶奶曾经用椰子和核桃做的。 当我们在这里时,让我们用硬木地板代替地毯。也许房地产兄弟有一些想法?想出一个像凯尔这样荒谬而夸张的恶棍名字。洗脑世界上所有的小狗(它们是伟大的追随者),使它们像猫一样行事,它们的主人可以体验到通常被猫科动物同伴抛弃的拒绝建造一台时光机,回到过去,将婴儿蝙蝠侠抚养成一个健康、适应良好的成年人,肩膀上没有任何芯片。然后攻击哥谭市。所以我看了这个新列表,它仍然在很大程度上受到人工智能的影响。但这实际上导致了一种创造性的约束,迫使我发散地思考。换句话说,我必须跳出框框思考。当我开始使用人工智能时,我很快就进入了人类元素,并专注于我可以做的事情:添加我自己的声音,有一点我古怪的幽默,并亲自参考我长大的地方(弗雷斯诺)。这是选择复古创新方法的一个小例子。但除此之外,我认为更大的转变需要转向帮助学生发展这些深刻的人类技能的学习体验。赋能学生面向未来我们经常谈论从合规转向参与意味着什么。这是创造一个学生想要学习而不是必须学习的环境的想法。这是最高水平的参与,学生高度投入和高度专注。但我想知道我们有多少次停在那里,那些忠诚和专注的学生没有机会掌握自己的学习。如果我们希望学生成为有创造力、自主的学习者,我们需要超越学生的参与,进入赋权。他们需要拥有学习。学生需要从单纯的顺从或参与转变为赋权。换句话说,让学生为未来做好准备的最好方法是在当下赋予他们权力。当这种情况发生时,学生将发展他们在应对不确定的未来时所需的关键人类技能。这就是为什么我喜欢基于项目的学习。基于项目的学习是一种教学方法,通过完成现实世界的项目来专注于积极的体验式学习。学生被赋予一个问题或挑战来解决,他们协同工作来设计、创建和展示他们的解决方案。当与设计思维相结合时,他们也会产生更深层次的同理心。基于项目的学习的目标是让学生参与与他们的生活和兴趣相关的有意义和真实的学习体验。这种相关性帮助他们摆脱了与聊天机器人作弊的诱惑。但设计也以人工智能无法做到的人类技能为中心。 PBL还帮助学生发展关键的社交情感学习技能。这是Mike Kaechele和Matinga Ragatz在Pulse of PBL中深入探讨的一个想法。基于项目的学习不同于仅依靠讲座、教科书和测试的传统教学方法。相反,它侧重于学生在自己的学习中发挥积极作用,教师充当促进者和导师。这种方法可以应用于广泛的科目和年龄水平,并且可以定制以满足个别学习者的需求和目标。如果我们想让学生保持好奇心,我们可以进行探究式学习。它可能像奇迹日或奇迹周项目一样简单。我们可以问,“学生可以学到什么不能被人工智能取代?结果可能是苏格拉底研讨会的深刻人际关系,在那里他们学习如何沟通、倾听和进行细致入微的对话。人工智能革命才刚刚开始发生。我们需要重新想象未来的教育是什么样子的。我希望教育领导者邀请图书馆员参与这些讨论。多年来,他们一直在认真思考媒体素养、信息架构、可访问性、版权、创造力、监控以及是什么让我们成为人类等问题。与他们交谈。在接下来的几年里,我们需要考虑如何帮助学生发展这些关键的人类技能。它可能是基于探究的学习或基于项目的学习。但它也可能是基于游戏的学习。它可能是一个低保真创客空间。它可能是一个史诗般的面对面科学实验室,或者一个素描视频,或者对社区成员的采访。请注意,这些想法都不是新的。这些是教师在赋予学生发言权和选择权时已经在做的事情。那么我对人工智能感到紧张吗?绝对。但我有希望吗?最肯定的。因为我知道教师永远是创新的核心。

我要回帖

更多关于 上海革邦电梯技术有限公司 的文章

 

随机推荐