基于注意力机制的神经网络机器翻译开题报告

 2021-11-01 21:10:06

1. 研究目的与意义(文献综述包含参考文献)

文 献 综 述一、研究背景与意义:早期的机器翻译比较依赖于人类专家的规则制定,后来在处理一些拥有平行语料库的语言时候,有了基于数据驱动的机器翻译,也就是利用不同语言之间的对应关系来进行翻译,让计算机在数据中挖掘翻译知识来实现翻译,可以通过引入概率模型来进行翻译。

主流的方法有以隐结构短语为基础的短语翻译模型,也就是将单词切分成短语,再按照语序调节顺序实现翻译。

机器翻译在隐变量上建立模型的主流方法是对数线性模型,利用特征权和特征函数来控制隐变量。

剩余内容已隐藏,您需要先支付后才能查看该篇文章全部内容!

2. 研究的基本内容、问题解决措施及方案

一、本课题研究问题1、注意力机制模型的机器翻译方法2、神经机器的解码和编码过程3、对翻译中覆盖率,梯度爆炸等问题的解决思路二、课题采用的研究手段1、学习深度学习和神经翻译相关的知识,建立起由谷歌提出的seq2seq模型2、用python软件进行训练以及对算法的测试3、利用门开关和递归神经网络算法解决传统机器翻译中的一些问题4、利用开源的数据库进行测试,计算出其损失函数,验证翻译的准确性,最后撰写论文研究工具:python是一种面向对象的解释型语言,他的特点是代码比较简单,而且作为一种开源语言,它可以被移植到很多语言上,从处理字符串到比较复杂的3d图形编程,python都有其对应的拓展模块,拓展性比较强,有比较强大的类库,而本课题所研究的神经机器翻译问题中,有一个很重要的环节就是需要进行模型的训练,以及对于的语料库,运用python的拓展性可以比较好的解决这些问题。

研究技术流程:一、确定并且匹配需要的平行语料库,并且将其作为数据库存储起来,这一部分可以选择以及已有的平行语料库,来作为研究的基础数据。

平行语料库就彷佛是数据库,神经机器翻译的模型参数训练,规则制定都依赖于它,用一张简单的表表示原理如下: 图一:神经机器翻译基本原理二、基本实现方法:首先使用一个称为编码器(encoder)的神经网络将源语言句子编码为一个稠密向量,然后使用一个称为解码器(decoder)的神经网络从该向量中解码出目标语言。

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

发小红书推广免费获取该资料资格。点击链接进入获取推广文案即可: Ai一键组稿 | 降AI率 | 降重复率 | 论文一键排版