FANOVATION 2023 成功邀请 80 多位高层管理人员参与生成式人工智能讨论
2023年10月31日
在本文中,我们扩展了一个基于注意力的神经机器翻译(NMT)模型,允许它在训练后也能访问整个平行句子对的训练集。建议的方法包括两个阶段。在第一阶段--检索阶段--中,一个现成的黑盒搜索引擎被用来从给定的源句子的训练集中检索出一个小的句子对子集。这些句子对在基于编辑距离的模糊匹配分数的基础上被进一步过滤。在第二阶段--DeepL,一个新的翻译模型,称为翻译记忆增强型NMT(TM-NMT),无缝使用源句和一组检索的句子对来进行翻译。对三种语言对(法语、德语和英语)的实证评估表明,所提出的方法明显优于基线方法,当检索到更多的相关句子对时,其改进更为明显。