合作专线:17362615757

AI新闻

当前位置:首页 > 行业资讯 > AI新闻

再读ACL 2019被录取的30篇相关的知识图谱分析一篇论文,我发现它了这5点大趋势

 AI科技大本营(ID: rgznai100)【导读】近年来,自然语言处理领域中广泛应用的知识图谱(KGs)正在不断地吸引人们的目光,此次 ACL 2019 中的有关于知识图谱的论文也比比皆是,因此本文作者在参加 ACL 2019 后将有关于知识图谱的论文进行了整理并予以简要介绍,广大技术人员们可以借此了解知识图谱在自然语言处理领域的最新发展情况。大家好啊, ACL 2019 刚刚结束,我整个星期都在美丽的佛罗伦萨参加各种会议、tutorial、workshop!在这篇文章中,我想回顾一下知识是如何缓缓但坚定地融入到 NLP 社区中的。                ACL 2019 声势浩大 — 论文提交数为 2900 篇,660 篇被录用,3000 多名注册与会者,约 400 名与会者参加了四个 workshop(好吧,workshop 比一些国际 CS 会议更大)。Mihail Eric 撰写了一篇关于 ACL 总体趋势的文章。大会除了如 Bertology、Transformers 和 Machine Translation等热门话题外,还出现了如对抗性学习、自然语言生成和知识图谱(KGs)等新趋势。我个人很高兴看到了 KGs 在顶尖级人工智能领域的强劲势头:660 份被录用的论文中约有30 份是关于知识图谱的,占了 5% 的份额( ACL 一直不都是典型 AI 人的好去处吗?)因此,我在本周内会列举一些以 KGs 为代表的人工智能的主要应用领域,还有一系列前途无量的论文。由于会议规模浩大,如果我错过了什么,请告知我,以便于我在列表中添加。知识图谱的人机对话系统 人机对话系统传统上分为任务型和聊天型。任务型帮助用户完成某项任务,如在餐厅预订桌子或在车内场景中帮助驾驶员(如果你想熟悉典型的基于 KG 的对话系统,请阅读我以前的文章)。聊天型主要是小型聊天,具备互动娱乐性质。最近深度学习在没有特定的 pipeline 的端到端对话系统(尤其是聊天系统)成就斐然,你可能有所耳闻。然而,越来越明显的是,这两种类型的系统都必须配备一些知识,任务型系统需要任务领域的知识;聊天型需要的更多是常识性知识。 对这项技术的预期,ACL 候任主席周明本人表达得再清楚不过了——他在欢迎辞中强调了将知识图谱、推理和上下文结合到对话系统中的重要性。我还要补充一点,KGs 能够提高 agent 答案的可解释性。因此,如果候任主席就 KGs 来讨论对话系统,那么这一领域就大有所为了是吧?这正是我们在 Fraunhofer Iais Dresden 和 Smart Data Analytics 研究组所做的工作,既推动了产业应用的发展,又拓宽了基于 KG 的对话平台的研究视野,请原谅我对这一主题的偏见。               知识图谱的春天? AI 会话的 NLP workshop 中讨论了更多细节,会上来自华盛顿大学的  Yejin Choi 提出了一种将常识知识整合到对话中的方法(技术细节见下文)。              来自亚马逊的  Ruhi Sarikaya 确信 Alexa 在一定程度上仍然需要在 pipeline 模式上,采用组织化来源( 如图谱)的知识提取方式。来自 MS Research 的 Jianfeng Gao 表示小冰需要使用结构化的知识与用户进行对话(小冰仍然保持着最长的 conversation-step 序列的记录)             来自 Facebook AI 的  Moon et al., 2019 展示了 OpenDialKG — 一个开放式对话系统 — 其并行语料库带有 15000 注释对话,基于1百万 triples,10 万字符实体和 1358 个关系的 Freebase 子集 91000 turns。这是构建基于 KG 的对话系统的伟大一步,我希望 Facebook 的例子能够激励到其他人!此外,作者还提出了一种新奇的 DialKG Walk 架构,该架构以 E2E 方式利用知识图谱,并采用基于注意的图谱路径解码器。 我唯一担心的就是 selected graph — Freebase,自从 2014 年就正式下线了,长期以来一直无人支持,或许现在是大家转向 Wikidata 的时候了?知识图谱的自然语言生成事实 从结构化数据中产生连贯的自然语言话语也是一个热门的新兴话题。虽然纯神经 E2E NLG 模型试图解决产出文本无聊的问题,但是从结构化数据中生成的 NLG 在表达自然语言的内在结构方面挑战重重。同样,知识图谱也很难用言语描述。输入一个 triple 三元组,例如  生成一箩筐不同的句子,但是输入一个连贯的三元组,例如      时,哪个产出更合理:“柏林是 2006 年世界杯主办国德国的首都” 还是 “柏林是 2006 年世界杯举办国的首都”? 令人惊讶的是,ACL 可以提供相当多 KGs 的话语 triples。 首先,我想提下由 IBM Research 组织的讲故事 workshop(链接:),该 workshop 提出了许多挑战的同时也提到了可能解决 triples 三元组言语问题的方法。 Logan et al.的一篇很棒的论文及海报演讲(链接:)提议将 OpenAIGPT 等语言模型与知识图谱嵌入结合使用。作者还介绍了一个新的数据集, Linked WikiText-2,训练部分由超过 41000 个实体和 15000 个关系组成,且带有 Wikidata 的 注释。      图源:  Logan et al. Moryossef 等人()提出了 Chimera ,尽管并非源自 ACL 2019,但同样是来自 NAACL 2019 的相关作品, — 一个 NLG 用于 triples 的 two-fold 模型。首先,给定一组三元组,它们生成文本图谱,保留给定三元组的语意合成特性,对它们排序,最后用复制机制运行一个典型的神经机器翻译(NMT)系统来生成文本句子。评估基于 WebNLG dataset,该数据集还使用了 Wikidata 实体和谓词 IDs 。知识图谱的复杂问答 作为一项理解任务,问答是跟进 BERT 等大型模型进展的最流行的基准之一。 “知识图谱问答(KGQA)旨在为用户提供一个界面,让他们自己的语言进行提问,通过问询 KG 可以获得简明的答案。” 我要引用我的同事 Chakraborty 等人最近发表的一项关于 KGQA 的全面研究—— 。在 QA 任务中,KGs 向用户提供可解释的结果(实际上是可能是在目标图谱中找到的图谱模式)。此外,他们还可以进行复杂的推理,而阅读理解系统还不能做到这一点。ACL2019 带来了许多你想了解的最先进的研究。 Saha 等人的复杂序列问答 CSQA 数据集 (带有 Wikidata IDs)主要为一些针对 KGs 的最复杂的问题,包括聚合(“哪一民族的守护神的数量与希尔德加德·宾根的同行人数大致相同?“)核实(“伊朗的 Shamsi 和 Samatice 是姊妹镇吗?”)甚至是实体和关系的指代消解对话。无记忆的简单问题的训练表现很差,现在看来需要某种形式语言或语法来执行逻辑操作和聚合。本文作者介绍了一种集合交集、知识图谱嵌入查找等多种操作的语法,通过强化学习,推导出一个逻辑程序,能够在对话环境中回答这些复杂的问题。      图源:Saha et al. 

长按识别二维码微信洽谈 免费发布信息推广
粤ICP备19111974号 深圳市织梦羊贸易有限公司 www.zmyang.com