大模型入门-day10-11-手动实现 Transformer(10 小时)
ztj100 2025-03-11 23:54 17 浏览 0 评论
以下是为“第 10-11 天:手动实现 Transformer”设计的详细学习任务计划。这个任务旨在通过用 PyTorch 实现一个单层 Transformer,帮助你深入理解其核心组件(如自注意力机制、位置编码等),并将其应用于简单任务。任务参考了 GitHub 上的“minGPT”和“nanoGPT”代码,但以手动实现为主,确保你理解每个部分。
第 10-11 天:手动实现 Transformer(10 小时)
学习目标:
- 掌握 Transformer 的核心组件(自注意力、多头注意力、位置编码、前馈网络)的实现原理。
- 使用 PyTorch 构建一个单层 Transformer 模型(包括编码器和解码器)。
- 完成一个简单任务,如生成文本序列(字符级预测)。
任务概述:
- 用 PyTorch 实现一个单层 Transformer,包含编码器和解码器。
- 训练模型预测简单文本序列(如“hello”预测下一个字符)。
- 参考 minGPT 或 nanoGPT 的结构,但以自己编写代码为主。
学习资源:
- GitHub 项目:
- “minGPT”:Andrej Karpathy 的简洁 GPT 实现,适合学习注意力机制。
- “nanoGPT”:更轻量的版本,代码清晰,易于改编。
- 辅助资料:
- PyTorch 官方文档(torch.nn、torch.tensor)。
- 《The Annotated Transformer》博客(代码+注释)。
时间分配建议:
- 第 10 天(5 小时):学习组件原理,搭建模型框架。
- 第 11 天(5 小时):实现训练逻辑,调试并生成文本。
第 10 天:搭建 Transformer 框架(5 小时)
任务:
- 实现 Transformer 的核心模块,包括位置编码、自注意力、多头注意力和前馈网络。
- 用 PyTorch 搭建单层编码器和解码器框架。
具体步骤:
- 准备环境(0.5 小时)
- 安装 PyTorch(建议用 Colab 免费 GPU 或本地环境)。
- 下载 minGPT/nanoGPT 代码,浏览结构,作为参考。
- 实现位置编码(Positional Encoding)(1 小时)
- 根据公式:
- PE(pos, 2i) = \sin(pos / 10000^{2i/d}))
- PE(pos, 2i+1) = \cos(pos / 10000^{2i/d}))
- 代码示例:
- python
- import torch import math def positional_encoding(max_len, d_model): pe = torch.zeros(max_len, d_model) position = torch.arange(0, max_len, dtype=torch.float).unsqueeze(1) div_term = torch.exp(torch.arange(0, d_model, 2).float() * (-math.log(10000.0) / d_model)) pe[:, 0::2] = torch.sin(position * div_term) pe[:, 1::2] = torch.cos(position * div_term) return pe # 测试 pe = positional_encoding(10, 64) # 序列长度 10,维度 64 print(pe.shape) # 输出:torch.Size([10, 64])
- 作用:生成位置信息,添加到词嵌入中。
- 实现自注意力(Self-Attention)(1.5 小时)
- 计算公式:
- \text{Attention}(Q, K, V) = \text{softmax}(\frac{QK^T}{\sqrt{d_k}})V
- 代码示例:
- python
- import torch.nn as nn import torch.nn.functional as F class SelfAttention(nn.Module): def __init__(self, d_model, d_k): super().__init__() self.d_k = d_k self.w_q = nn.Linear(d_model, d_k) # Query 权重 self.w_k = nn.Linear(d_model, d_k) # Key 权重 self.w_v = nn.Linear(d_model, d_k) # Value 权重 def forward(self, x): q = self.w_q(x) # (batch, seq_len, d_k) k = self.w_k(x) # (batch, seq_len, d_k) v = self.w_v(x) # (batch, seq_len, d_k) scores = torch.matmul(q, k.transpose(-2, -1)) / math.sqrt(self.d_k) attn = F.softmax(scores, dim=-1) return torch.matmul(attn, v) # (batch, seq_len, d_k)
- 作用:计算输入序列中每个词与其他词的关联。
- 扩展到多头注意力(Multi-Head Attention)(1 小时)
- 将注意力分成多头,拼接结果。
- 代码示例:
- python
- class MultiHeadAttention(nn.Module): def __init__(self, d_model, num_heads): super().__init__() self.d_k = d_model // num_heads self.num_heads = num_heads self.attn = SelfAttention(d_model, self.d_k) self.w_o = nn.Linear(self.d_k * num_heads, d_model) def forward(self, x): batch_size, seq_len, _ = x.size() # 分头处理 heads = [self.attn(x) for _ in range(self.num_heads)] # 拼接 multi_head = torch.cat(heads, dim=-1) return self.w_o(multi_head)
- 搭建单层 Transformer(1 小时)
- 编码器:多头注意力 + Add & Norm + 前馈网络 + Add & Norm。
- 解码器:加 Masked 多头注意力(防止看到未来词)。
- 代码示例:
- python
- class TransformerLayer(nn.Module): def __init__(self, d_model, num_heads): super().__init__() self.attn = MultiHeadAttention(d_model, num_heads) self.ffn = nn.Sequential( nn.Linear(d_model, d_model * 4), nn.ReLU(), nn.Linear(d_model * 4, d_model) ) self.norm1 = nn.LayerNorm(d_model) self.norm2 = nn.LayerNorm(d_model) def forward(self, x): # 编码器部分 attn_out = self.attn(x) x = self.norm1(x + attn_out) # 残差连接 + 归一化 ffn_out = self.ffn(x) return self.norm2(x + ffn_out)
第 11 天:训练与生成文本(5 小时)
任务:
- 完成模型的训练逻辑,用简单数据集训练并生成文本序列。
具体步骤:
- 准备数据(1 小时)
- 用简单文本(如“hello world”),构建字符级数据集。
- 代码示例:
- python
- text = "hello world" chars = sorted(list(set(text))) vocab_size = len(chars) char_to_idx = {ch: i for i, ch in enumerate(chars)} idx_to_char = {i: ch for i, ch in enumerate(chars)} data = [char_to_idx[c] for c in text]
- 生成输入-目标对:输入“hel”,目标“ell”。
- 完成完整模型(1.5 小时)
- 添加嵌入层和输出层。
- 代码示例:
- python
- class SimpleTransformer(nn.Module): def __init__(self, vocab_size, d_model, num_heads): super().__init__() self.embedding = nn.Embedding(vocab_size, d_model) self.pos_encoding = positional_encoding(50, d_model) self.layer = TransformerLayer(d_model, num_heads) self.fc = nn.Linear(d_model, vocab_size) def forward(self, x): x = self.embedding(x) + self.pos_encoding[:x.size(1), :].to(x.device) x = self.layer(x) return self.fc(x)
- 训练模型(1.5 小时)
- 设置超参数并训练:
- python
- model = SimpleTransformer(vocab_size, d_model=64, num_heads=4) optimizer = torch.optim.Adam(model.parameters(), lr=0.001) criterion = nn.CrossEntropyLoss() for epoch in range(200): inputs = torch.tensor(data[:-1], dtype=torch.long).unsqueeze(0) targets = torch.tensor(data[1:], dtype=torch.long).unsqueeze(0) outputs = model(inputs) loss = criterion(outputs.view(-1, vocab_size), targets.view(-1)) optimizer.zero_grad() loss.backward() optimizer.step() if epoch % 50 == 0: print(f"Epoch {epoch}, Loss: {loss.item()}")
- 生成文本(1 小时)
- 从起始字符生成序列:
- python
- def generate(model, start_char, max_len=10): model.eval() input_idx = torch.tensor([char_to_idx[start_char]], dtype=torch.long).unsqueeze(0) generated = [start_char] for _ in range(max_len): output = model(input_idx) next_idx = torch.argmax(output[:, -1, :], dim=-1).item() next_char = idx_to_char[next_idx] generated.append(next_char) input_idx = torch.tensor([char_to_idx[c] for c in generated], dtype=torch.long).unsqueeze(0) return ''.join(generated) print(generate(model, 'h')) # 期望类似 "hello worl"
输出要求
- 代码:一个完整的 PyTorch 脚本,实现单层 Transformer。
- 结果:生成简单文本序列(如“hello”或类似)。
- 可选:写 200 字总结,记录实现心得。
注意事项
- 维度匹配:检查张量形状(如 batch_size, seq_len, d_model)。
- Masked Attention:解码器需屏蔽未来信息(可选简化)。
- 计算资源:用 GPU 加速训练(Colab 免费)。
学习成果预期
完成任务后,你将掌握 Transformer 的核心实现,并能用 PyTorch 构建神经网络。动手试试吧,我可以随时帮你调试!
相关推荐
- Whoosh,纯python编写轻量级搜索工具
-
引言在许多应用程序中,搜索功能是至关重要的。Whoosh是一个纯Python编写的轻量级搜索引擎库,可以帮助我们快速构建搜索功能。无论是在网站、博客还是本地应用程序中,Whoosh都能提供高效的全文搜...
- 如何用Python实现二分搜索算法(python二分法查找代码)
-
如何用Python实现二分搜索算法二分搜索(BinarySearch)是一种高效的查找算法,适用于在有序数组中快速定位目标值。其核心思想是通过不断缩小搜索范围,每次将问题规模减半,时间复杂度为(O...
- 路径扫描 -- dirsearch(路径查找器怎么使用)
-
外表干净是尊重别人,内心干净是尊重自己,干净,在今天这个时代,应该是一种极高的赞美和珍贵。。。----网易云热评一、软件介绍Dirsearch是一种命令行工具,可以强制获取web服务器中的目录和文件...
- 78行Python代码帮你复现微信撤回消息!
-
来源:悟空智能科技本文约700字,建议阅读5分钟。本文基于python的微信开源库itchat,教你如何收集私聊撤回的信息。...
- 从零开始学习 Python!2《进阶知识》 Python进阶之路
-
欢迎来到Python学习的进阶篇章!如果你说已经掌握了基础语法,那么这篇就是你开启高手之路的大门。我们将一起探讨面向对象编程...
- 白帽黑客如何通过dirsearch脚本工具扫描和收集网站敏感文件
-
一、背景介绍...
- Python之txt数据预定替换word预定义定位标记生成word报告(四)
-
续接Python之txt数据预定替换word预定义定位标记生成word报告(一)https://mp.toutiao.com/profile_v4/graphic/preview?pgc_id=748...
- Python——字符串和正则表达式中的反斜杠('\')问题详解
-
在本篇文章里小编给大家整理的是关于Python字符串和正则表达式中的反斜杠('\')问题以及相关知识点,有需要的朋友们可以学习下。在Python普通字符串中在Python中,我们用'\'来转义某些普通...
- Python re模块:正则表达式综合指南
-
Python...
- python之re模块(python re模块sub)
-
re模块一.re模块的介绍1.什么是正则表达式"定义:正则表达式是一种对字符和特殊字符操作的一种逻辑公式,从特定的字符中,用正则表达字符来过滤的逻辑。(也是一种文本模式;)2、正则表达式可以帮助我们...
- MySQL、PostgreSQL、SQL Server 数据库导入导出实操全解
-
在数字化时代,数据是关键资产,数据库的导入导出操作则是连接数据与应用场景的桥梁。以下是常见数据库导入导出的实用方法及代码,包含更多细节和特殊情况处理,助你应对各种实际场景。一、MySQL数据库...
- Zabbix监控系统系列之六:监控 mysql
-
zabbix监控mysql1、监控规划在创建监控项之前要尽量考虑清楚要监控什么,怎么监控,监控数据如何存储,监控数据如何展现,如何处理报警等。要进行监控的系统规划需要对Zabbix很了解,这里只是...
- mysql系列之一文详解Navicat工具的使用(二)
-
本章内容是系列内容的第二部分,主要介绍Navicat工具的使用。若查看第一部分请见:...
你 发表评论:
欢迎- 一周热门
- 最近发表
-
- Whoosh,纯python编写轻量级搜索工具
- 如何用Python实现二分搜索算法(python二分法查找代码)
- 路径扫描 -- dirsearch(路径查找器怎么使用)
- 78行Python代码帮你复现微信撤回消息!
- 从零开始学习 Python!2《进阶知识》 Python进阶之路
- 白帽黑客如何通过dirsearch脚本工具扫描和收集网站敏感文件
- Python之txt数据预定替换word预定义定位标记生成word报告(四)
- 假期苦短,我用Python!这有个自动回复拜年信息的小程序
- Python——字符串和正则表达式中的反斜杠('\')问题详解
- Python re模块:正则表达式综合指南
- 标签列表
-
- idea eval reset (50)
- vue dispatch (70)
- update canceled (42)
- order by asc (53)
- spring gateway (67)
- 简单代码编程 贪吃蛇 (40)
- transforms.resize (33)
- redisson trylock (35)
- 卸载node (35)
- np.reshape (33)
- torch.arange (34)
- node卸载 (33)
- npm 源 (35)
- vue3 deep (35)
- win10 ssh (35)
- exceptionininitializererror (33)
- vue foreach (34)
- idea设置编码为utf8 (35)
- vue 数组添加元素 (34)
- std find (34)
- tablefield注解用途 (35)
- python str转json (34)
- java websocket客户端 (34)
- tensor.view (34)
- java jackson (34)