Transformers快速入门-学习笔记(二)

上篇:Transformers快速入门-学习笔记-CSDN博客

七、微调预训练模型

  • 加载数据集
    • Dataset
      • IterableDataset
    • DataLoader
  • 训练模型
    • 构建模型
    • 优化模型参数
    • 保存和加载模型

八、快速分词器

  • 快速分词器
    • 慢速分词器 Transformers、 快速分词器 Tokenizers ; AutoTokenizer
    • 再看分词结果
      • encoding.tokens
    • 追踪映射
      • word_ids
      • 词语/token -- 文本: 通过word_to_chars()、token_to_chars() 函数来实现
      • 词语 -- token:可以直接通过索引直接映射,分别通过 token_to_word() 和 word_to_tokens() 来实现
      • 文本 -- 词语/token:通过 char_to_word() 和 char_to_token() 方法来实现
  • 序列标注任务
    • pipeline 的输出
      • pipeline("token-classification")
    • 构造模型输出
    • 组合实体
  • 抽取式问答任务
    • pipeline的输出
    • 构造模型输出
    • 处理长文本

九、序列标注任务

  • 准备数据
    • 构建数据集
    • 数据预处理
  • 训练模型
    • 构建模型
    • 优化模型参数
    • 保存模型
  • 测试模型
    • 处理模型输出
    • 保存预测结果

十、翻译任务

  • 准备数据
    • 构建数据集
    • 数据预处理
  • 训练模型
    • 优化模型参数
    • 保存模型
  • 测试模型
  • 关于解码
    • 自回归语言生成
    • 贪心搜索
    • 柱搜索
    • 随机采样
    • Top-K 采样
    • Top-p nucleus 采样

十一、文本摘要任务

十二、抽取式问答

十三、Prompting 情感分析

十四、大语言模型技术简介

  • 大语言模型技术概览
    • 规模扩展
    • 数据工程
    • 高效预训练
    • 能力激发
    • 人类对齐
    • 工具使用
  • 大语言模型的构建过程
    • 大规模预训练
    • 指令微调与人类对齐
    • 常用的预训练数据集
      • 网页
      • 书籍
      • 维基百科
      • 代码
      • 混合型数据集
    • 常用微调数据集
      • 指令微调数据集
      • 人类对齐数据集
  • 开发大语言模型
    • DeepSpeed库
      • DeepSpeed-MII
      • DeepSpeed-Chat
    • Megatron-LM

十五、预训练大语言模型

  • 数据准备
    • 专用文本数据
      • 多语文本
      • 科学文本
      • 代码
    • 数据预处理
      • 质量过滤
        • 基于启发式规则的方法
        • 基于分类器的方法
      • 敏感内容过滤
      • 数据去重
      • 词元化 分词
    • 数据调度
      • 数据混合
  • 模型架构
    • 主流架构
      • 因果解码器
      • 前缀解码器
      • 编码器-解码器
    • 长上下文模型
      • 扩展位置编码
      • 调整上下文窗口
  • 模型预训练
    • 预训练任务
      • 语言建模
      • 去噪自编码
      • 混合去噪声
    • 优化参数设置
      • 基于批次数据的训练
      • 学习率
      • 优化器
      • 稳定优化技术
    • 可扩展的训练技术
      • 3D 并行训练
        • 数据并行
        • 流水线并行
        • 张量并行
      • 零冗余优化器
      • 混合精度训练

十六、使用大语言模型

  • 指令微调
    • 指令数据的构建
      • 基于现有的NLP任务数据集构建
      • 基于日常对话数据构建
      • 基于合成数据构建
    • 参数高效微调方法 LoRA
  • 人类对齐
    • 基于人类反馈的强化学习
      • 监督微调
      • 奖励模型训练
      • 强化学习微调
    • 非强化学习的对齐方法
      • 对齐数据的收集
      • 代表性监督对齐算法 DPO
    • SFT和RLHF的进一步讨论
  • 使用大语言模型
    • 解码加速算法
      • 系统级优化
      • 解码策略优化
    • 低资源部署策略
    • 模型蒸馏和模型剪枝
    • 提示学习
    • 大模型应用
      • 自然语言处理
      • 信息检索
相关推荐
YJlio11 分钟前
Active Directory 工具学习笔记(10.8):AdInsight——保存与导出(证据留存、共享与二次分析)
数据库·笔记·学习
xqqxqxxq44 分钟前
背单词软件技术笔记(V2.0扩展版)
java·笔记·python
yuxb731 小时前
Kubernetes核心组件详解与实践:controller
笔记·kubernetes
噗噗夹的TA之旅3 小时前
Unity Shader 学习20:URP LitForwardPass PBR 解析
学习·unity·游戏引擎·图形渲染·技术美术
受之以蒙3 小时前
Rust 与 dora-rs:吃透核心概念,手把手打造跨语言的机器人实时数据流应用
人工智能·笔记·rust
2401_834517073 小时前
AD学习笔记-36 gerber文件输出
笔记·学习
hhhhhhh_hhhhhh_3 小时前
TC3x7-DEMO-V1.0原理图自学笔记
笔记
气π3 小时前
【JavaWeb】——(若依 + AI)-基础学习笔记
java·spring boot·笔记·学习·java-ee·mybatis·ruoyi
深蓝海拓3 小时前
PySide6从0开始学习的笔记(三) 布局管理器与尺寸策略
笔记·python·qt·学习·pyqt
暗然而日章3 小时前
C++基础:Stanford CS106L学习笔记 8 继承
c++·笔记·学习