当前位置:首页科技新鲜事ACL 2019 最佳论文重磅出炉!华人团队包揽最佳长、短论文

ACL 2019 最佳论文重磅出炉!华人团队包揽最佳长、短论文

maliang
maliang 原创
2019-08-01 环球百事网

新智元报道

来源:acl2019

编辑:张佳,小芹

【新智元导读】ACL最佳论文公布啦!本次共颁发8个奖项,华人团队包揽最佳长论文、最佳短论文以及两篇杰出论文大奖,再次印证中国的学术影响力。来看看这些论文都出自谁之手吧。

国际计算语言学协会 (ACL,The Association for Computational Linguistics),是世界上影响力最大、最具活力的国际学术组织之一,其会员遍布世界各地。ACL 会议是计算语言学领域的首要会议,广泛涉及自然语言的计算方法及其各类研究领域。计算语言学协会第57届年会,即ACL 2019,于7月28日至8月2日在意大利佛罗伦萨举行。

友情提示,其他几个重要会议的举办地也公布啦:

EMNLP 2019在香港举办,LREC 2020在马赛举办,EMNLP 2020在Punta Cana举办,COLING 2020在巴塞罗那举办,AACL(ACL亚太分会) 2020在苏州举办,ACL 2020在西雅图举办。

言归正传,ACL 2019共设有8个奖项:

最佳长论文

最佳短论文

最佳demo论文

5篇杰出论文

值得一提的是,华人团队包揽了最佳长论文、最佳短论文以及两篇杰出论文大奖!

今天,ACL颁发了这8项大奖,来看看究竟花落谁家。

最佳论文——长论文

该框架的特征包括:

论文链接:https://www.aclweb.org/anthology/P19-1426

神经机器翻译(NMT)是根据上下文单词来预测下一个词的一种方式,并按顺序生成目标词。在训练时,NMT以ground truth的单词作为上下文进行预测,但在推理时,它必须从头开始生成整个序列。

模型架构

这种差异导致了误差积累。此外,单词级训练要求生成的序列与ground truth序列严格匹配,这导致会对虽然不同但合理的翻译过度校正。

在这项研究中,我们通过不仅从ground truth序列中采样上下文单词,而且在训练期间从模型预测的序列中采样上下文单词,并选择句子级最优的预测序列来解决这些问题。

在中文->英文和WMT’14英语->德语翻译任务的实验结果表明,我们的方法可以在多个数据集上实现显著的改进。

ZhEn翻译任务中不区分大小写的BLEU得分(%)

最佳论文——短论文

获得最佳短论文的是“Do you know that Florence is packed with visitors? Evaluating state-of-the-art models of speaker commitment”,作者为Nanjiang Jiang和Marie-Catherine de Marneffe,来自美国俄亥俄州立大学。

论文链接:https://www.aclweb.org/anthology/P19-1412

当一位名叫玛丽的说话人问:Do you know that Florence is packed with visitors?(你知道佛罗伦萨挤满了游客吗?)我们让她相信佛罗伦萨挤满了游客,但如果她问:Do you think that Florence is packed with visitors?(你认为佛罗伦萨挤满了游客吗?)推断说话人commitment(又称事件事实)对于信息提取和问答是至关重要的。

在这里,我们通过分析一个具有挑战性的自然数据集上模型错误的语言相关性,探讨语言缺陷驱动说话人commitment模型的error patterns的假设。我们在CommitmentBank上评估了两个最先进的说话人commitment模型,这是一个自然发生话语的英语数据集。CommitmentBank注释了说话人对补充内容的commitment(在我们的例子中是“Florence is packed with visitors”)嵌入动词(know, think)的四个entailment-canceling环境。

我们发现语言信息模型优于基于LSTM的模型,表明需要语言知识来获取这些具有挑战性的自然数据。按语言特征进行的项目分解显示出不对称的error patterns:虽然模型在某些类别上取得了良好的表现(如否定类),但它们无法推广到自然语言中的各种语言结构(如条件类),指出了改进的方向。

最佳demo论文

ACL 2019最佳demo论文由Unbabel的OpenKiwi摘得!

论文链接:https://www.aclweb.org/anthology/P19-3020

OpenKiwi是一个基于PyTorch的开源机器翻译质量评估框架。

质量评估(Quality estimation, QE)是机器翻译中缺失的一个部分:它的目标是在不访问参考译文的情况下评估翻译系统的质量。

Unbabel团队提出了OpenKiwi,这是一个基于PyTorch的开源框架,它实现了WMT 2015-18共享任务中最好的QE系统,使得在相同的框架下对这些模型进行实验变得很容易。

使用OpenKiwi和这些模型的堆叠组合,该框架在WMT 2018英语-德语数据集上实现了最先进的单词级QE结果。

WMT 2018 单词级 QE 训练集的例子

获得最佳长论文的是“Bridging the Gap between Training and Inference for Neural Machine Translation”,作者包括华为诺亚方舟实验室语音语义首席科学家刘群,以及来自中科院计算所、微信 AI、伍斯特理工学院的研究人员

训练QE模型的框架,并使用预训练的模型来评估MT。

支持单词级和句子级的质量评估。

在PyTorch中实现五个QE系统:QUETCH、NuQE、predictor-estimator、APE-QE,以及一个线性系统的堆叠集成。

易于使用的API。可以将其作为包导入其他项目或从命令行运行。

提供脚本,在WMT 2018数据上运行预训练的QE模型。

通过yaml配置文件轻松跟踪和复制实验。

结果

以下的结果来自WMT18质量评估共享任务,分别为单词级和句子级的测试集。

GitHub:https://github.com/Unbabel/OpenKiwi

论文链接:https://www.aclweb.org/anthology/P19-3020

杰出论文

今年ACL共评选出5篇杰出论文(Outstanding Paper)。

论文链接:https://www.aclweb.org/anthology/P19-1096

第一篇杰出论文来自南京理工大学的夏睿(Rui Xia)和Zixiang Ding,论文题为“Emotion-Cause Pair Extraction: A New Task to Emotion Analysis in Texts”(情感-原因对提取:文本情感分析的一个新课题)。

它的创新之处包括:

提出一项有趣的新任务:联合学习识别文本中的情绪及其原因。

提出一个新的有趣的模型:两种不同类型的多任务体系结构,一种任务是独立的,另一种是交互的。

根据互动的方向,可以提高情绪(精确度)或原因(recall)。

论文链接:https://www.aclweb.org/anthology/P19-1502

第二篇杰出论文来自洛桑联邦理工学院(EPFL)的Maxime Peyrard,论文题为“Studying Summarization Evaluation Metrics in the Appropriate Scoring Range”(在适当的评分范围内研究摘要的评价指标)。

本文的创新之处在于:

讨论了自动文本摘要任务中一个长期存在的问题:如何衡量摘要内容的合适性?

提出“内容重要性”的一个理论模型,包含3个part

提出了评价指标

与标准指标和人类判断进行了比较

论文链接:https://www.aclweb.org/anthology/P19-1078

第三篇杰出论文来自香港科技大学和Salesforce研究院,论文题为“Transferable Multi-Domain State Generator for Task-Oriented”(面向任务的可迁移多域状态生成器)。

它的创新之处在于:

解决了一个传统但尚未解决的问题:对话状态跟踪中的不可见状态,证明了从用户话语生成对话状态是可能的

新方法可扩展到大型值的集合,并处理以前不可见的值。

除了展示最新的研究成果外,本文还研究了新领域的few-shot 学习。

论文链接:https://www.aclweb.org/anthology/P19-1568

第四篇杰出论文来自印度科学理工学院和卡内基梅隆大学,题目是“Zero-shot Word Sense Disambiguation using Sense Definition Embeddings”(使用感知定义嵌入的zero-shot词意义消歧)。

本文的创新之处在于:

一种新的词义消歧系统,聚焦提高罕见单词和未见过的单词的表现

sense selection任务作为一项持续任务对待,用到了资源组合

结果富有洞察力,提高了最好水平

2905份提交论文,中美投稿最多

今年的ACL异常火爆,投稿人数众多。截止到提交截止日期,ACL 2019收到了多达2905份提交论文。这比 ACL 2018增加了 75% 以上,是ACL相关会议的历史记录!

ACL 2019最终接收了660篇论文,总体接收率为22.7%,略低于ACL 2018(24.9%)或2017年ACL(23.3%)的接收率。

接收的论文中,包含447份长论文和213份短论文,可见,短论文比长论文更难被接收。

接收方面最具挑战性的领域是文档分析(18.5%)和句子级语义(19.8%),以及信息提取和文本挖掘(20.6%)、词级语义(20.7%) 和音韵学、形态学和分词(20.9%)。

相比之下,接收率最高的领域是Multidisciplinary和Area Chair COI(31.5%)。其他相对较高的接收领域包括视觉、机器人、多模式接地和语音(30.0%)、对话和交互系统(28.4%)以及资源和评估(28.1%)。

所有论文接收情况

长论文接收情况

短论文接收情况

ACL 2019论文提交数量Top 3国家分别是美国(820篇)、中国(817篇)、英国(138篇),美国、中国领跑,大幅领先其他国家。但在接收率方面,美国28.8%、中国19%。

国家/地区提交数量、接收数量和接收率统计

为你推荐
热门文章
关于我们
返回顶部