网站首页 > 论文提纲> 文章内容

学界 基于Apache MXNet亚马逊NMT开源框架Sockeye论文介绍

※发布时间:2018-9-6 1:25:12   ※发布作者:A   ※出自何处: 

  欧豪家庭背景今年 7 月份,作为 MXNet 的支持者,。近日,亚马逊在 arXiv 放出了介绍 Sockeye 的论文,让我们能更细致的了解该开源工具的技术细节。机器对此论文做了摘要介绍,更多详细内容请查看原论文。

  过去两年深度学习为机器翻译带来了快速而巨大的变化。相较于基于短语的传统系统,基于神经网络的新模型可以持续地为用户提供更高质量的翻译。神经机器翻译(NMT)同时为研究者打开了一幅激动的新局面,其中训练通道已简化,统一的模型也可直接从数据中得到训练。这种打破统计机器翻译(SMT)的希望使社区大受鼓舞,使得近期工作几乎全部聚焦在 NMT 上,并且看起来似乎每几个月就会有新突破。

  在取得上述的同时,NMT 也面临着一系列新挑战。尽管流行的编码器-解码器模型之简单令动,近期文献及共享评估任务的结果表明,为了同时在翻译质量与计算效率上取得「生产就绪」的性能,还需要做大量的工程学工作。在 SMT 的流行趋势中,即使最强大的 NMT 系统也受益于微妙的架构调整、超参数调节和上有效的式技术。与 SMT 不同,NMT 没有「事实上」的工具包来吸引绝大部分的社区注意力,因此未能涵盖来自最近文献的所有最佳想法。相反,很多工具包的存在使该领域更加多元化,同时也使得由不同工具包实现的架构和算法提升变的难以对比。

  表 2:无/有词汇选择机制(K=100)的 RNN 模型的 EN→DE 解码速率和 BLEU 分数。其中较小的模型使用 1 个编码器层和 1 个解码器层,而较大的模型使用 4 个编码器层和 8 个解码器层。

  表 3:训练集(表格上部)、开发集(表格中部)和测试集的数据构成。所有的统计数据都是在标记化(tokenization)和长度过滤(length filtering)之后计算的。长度过滤通过行计数删除了大约 0.5% 的数据,通过词计数删除了 1.3% 的数据。

  表 5:EN→DE Groundhog 模型的训练速率(每秒的更新次数)和吞吐量(如工具包中所报告的,转换为每秒的源语句平均数量)。

  表 6:最佳设置的 RNN 模型在 newstest2017 数据集上的 BLEU 分数。Layers 列展示了编码器层和解码器层的数量。需要注意的是在不同的框架中,层的结构复杂度是有差异的。

  摘要:我们在这里介绍 Sockeye(1.12 版),这是一个用于神经机器翻译(NMT)的开源序列到序列工具包。Sockeye 是一个生产就绪的框架,可为研究者提供针对训练、应用模型的实验性平台。该工具包由 Python 编写,建立在 MXNet 上,为三种最重要的编码器-解码器架构提供可扩展的训练和推断,分别是注意力循环神经网络(attentional recurrent neural networks)、自注意力转换器(self-attentional transformers)和全卷积网络(fully convolutional networks)。Sockeye 还支持多种优化器以及归一化、正则化技术,并利用当前的 NMT 文献提升了推断能力。用户可以很轻松地运行标准的训练流程、探索不同的模型设置,并结合新的想法。在这篇论文中,我们重点介绍了 Sockeye 的特征,并将 Sockeye 和其它的 NMT 工具包在 2017 年机器翻译会议(WMT)的两种语言翻译基准测试上进行了对比,分别是英语翻德语、语翻英语。我们在三种架构上都得到了有竞争力的 BLEU 分数,其中在 Sockeye 的转换器实现上取得了综合最佳的分数。我们发布了所有在实验中使用的训练脚本和系统输出,以促进更详尽的对比。Sockeye 工具包是遵从 Apache 2.0 开源协议的免费软件。

  文章由325棋牌提供发布