自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 基于Transformer实现机器翻译(日译中)

Transformer模型是一种革命性的神经网络架构,由谷歌大脑团队在2017年提出,彻底改变了序列到序列任务的处理方式。其核心在于自注意力机制,使得模型能够高效地捕捉输入序列中元素之间的依赖关系,从而实现并行化和更快的模型训练速度。相较于传统的递归或卷积结构,Transformer通过编码器-解码器架构以及位置编码的引入,能够在保持全局感知的同时处理长距离依赖,这使得它在多个自然语言处理任务中展现出卓越的泛化能力和效果,成为推动机器翻译、文本摘要等领域进步的重要技术驱动力。

2024-06-25 10:27:46 819

原创 自然语言处理--机器翻译

机器翻译(Machine Translation, MT)是指利用计算机和人工智能技术,将一种自然语言的文本自动翻译成另一种自然语言的过程。其目的是实现语言之间的跨越式沟通和理解,以便在全球范围内消除语言障碍。随着深度学习和神经网络技术的发展,机器翻译在准确性和流畅度上取得了显著进展,逐渐成为日常生活和商业领域中不可或缺的工具之一。编码器的主要任务是将源语言文本(源词序列)编码为向量表示。编码器的输入是源词序列,输出是一个隐藏状态向量。隐藏状态向量捕捉源词序列的语义信息。

2024-06-25 09:09:24 1881

原创 自然语言处理前馈神经网络(姓氏分类)

多层感知机(Multilayer Perceptron,简称MLP),是一种基于前馈神经网络(Feedforward Neural Network)的深度学习模型,由多个神经元层组成,其中每个神经元层与前一层全连接。多层感知机可以用于解决分类、回归和聚类等各种机器学习问题。多层感知机的每个神经元层由许多神经元组成,其中输入层接收输入特征,输出层给出最终的预测结果,中间的隐藏层用于提取特征和进行非线性变换。每个神经元接收前一层的输出,进行加权和和激活函数运算,得到当前层的输出。

2024-06-24 20:01:00 1161

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除