NLP:Transformer输出部分
本文目录:
- 一、输出部分介绍
- (一)输出层的核心组成
- (二)可选层
- 二、代码实现
- (一)输出层构建
- (二)nn.linear演示
- (三)函数调用
- (四)运行结果
前言:前文讲解了Transformer的解码器,本篇文章讲解Transformer的输出部分。
一、输出部分介绍
Transformer模型的输出层部分是其架构中的关键组件,负责将解码器(或编码器)的隐藏状态转换为最终的预测结果(如分类概率、词表分布等)。
(一)输出层的核心组成
(二)可选层
二、代码实现
(一)输出层构建
# 解码器类 Generator 实现思路分析
# init函数 (self, d_model, vocab_size)# 定义线性层self.project
# forward函数 (self, x)# 数据 F.log_softmax(self.project(x), dim=-1)class Generator(nn.Module):def __init__(self, d_model, vocab_size):# 参数d_model 线性层输入特征尺寸大小# 参数vocab_size 线层输出尺寸大小super(Generator, self).__init__()# 定义线性层self.project = nn.Linear(d_model, vocab_size)def forward(self, x):# 数据经过线性层 最后一个维度归一化 log方式x = F.log_softmax(self.project(x), dim=-1)return x
(二)nn.linear演示
>>> m = nn.Linear(20, 30)
>>> input = torch.randn(128, 20)
>>> output = m(input)
>>> print(output.size())
torch.Size([128, 30])
(三)函数调用
if __name__ == '__main__':# 实例化output层对象d_model = 512vocab_size = 1000my_generator = Generator(d_model, vocab_size )# 准备模型数据x = torch.randn(2, 4, 512)# 数据经过out层gen_result = my_generator(x)print('gen_result--->', gen_result.shape, '\n', gen_result)
(四)运行结果
gen_result---> torch.Size([2, 4, 1000]) tensor([[[-6.5949, -7.0295, -6.5928, ..., -7.4317, -7.5488, -6.4871],[-7.0481, -6.2352, -7.2797, ..., -6.1491, -6.1621, -7.1798],[-8.1724, -7.0675, -8.2814, ..., -6.0033, -7.1100, -7.6844],[-6.2466, -6.6074, -6.1852, ..., -6.8373, -7.6600, -6.8578]],[[-7.7598, -7.4174, -6.2134, ..., -7.8000, -6.9862, -6.9261],[-6.4790, -7.5458, -6.2342, ..., -6.8340, -6.6827, -7.0287],[-7.2524, -7.2598, -7.0600, ..., -7.5680, -6.9492, -6.7689],[-6.6260, -6.1928, -6.7045, ..., -6.6323, -7.9005, -7.5397]]],grad_fn=<LogSoftmaxBackward0>)
今日分享到此结束。