今天给大家推荐一本丹尼斯·罗斯曼(Denis Rothman)编写的关于大语言模型(LLM)权威教程<<大模型应用解决方案> 基于GPT-3、ChatGPT、GPT-4等Transformer架构的自然语言处理
>!Google工程总监Antonio Gulli作序,这含金量不用多说,在这里给大家强烈推荐一下这本黑书,下面直接开始介绍!
这本书犹如一道闪电,照亮了我在AI领域前行的道路。它不仅仅是一本书,更是一把钥匙,为我打开了通往AI新世界的大门。
书中详细阐述了Transformer架构的奥妙,让我对这个神奇的技术有了更深入的了解。从GPT-3到ChatGPT,再到GPT-4,这些强大的模型在书中得到了详尽的介绍和对比。我仿佛置身于一个庞大的实验室,亲眼见证了这些模型如何在海量数据中挖掘出语言的规律,从而生成出令人惊叹的文本。
书中还详细讲解了如何构建数据集、定义数据整理器以及训练模型等实用技能。这些步骤虽然看似繁琐,但在作者的笔下却变得生动有趣。我仿佛在跟着一位导师,一步步从零开始,亲手打造属于自己的RoBERTa模型。那种成就感,简直无法用言语来形容。
这本书不仅仅是一本技术书籍,更是一本启迪心灵的读物。它让我看到了AI技术的无限可能,也让我更加坚定了在AI领域深耕的决心。我相信,在未来的日子里,我会继续探索这个神奇的世界,用科技让复杂的世界变得更简单。
书籍目录
第1 章 Transformer 模型介绍
- 1.1 Transformer 的生态系统
- 1.2 使用Transformer 优化NLP模型
- 1.3 我们应该使用哪些资源
- 1.4 本章小结
- 1.5 练习题
第2 章 Transformer 模型架构入门
- 2.1 Transformer 的崛起:注意力就是一切
- 2.2 训练和性能
- 2.3 Hugging Face 的Transformer模型
- 2.4 本章小结
- 2.5 练习题
第3 章 微调BERT 模型
- 3.1 BERT 的架构
- 3.2 微调BERT
- 3.3 本章小结
- 3.4 练习题
第4 章 从头开始预训练RoBERTa模型
- 4.1 训练词元分析器和预训练Transformer
- 4.2 从头开始构建Kantai BERT
- 4.3 后续步骤
- 4.4 本章小结
- 4.5 练习题
第5 章 使用Transformer 处理下游NLP 任务
- 5.1 Transformer 的转导与感知
- 5.2 Transformer 性能与人类基准
- 5.3 执行下游任务
- 5.4 本章小结
- 5.5 练习题
第6 章 机器翻译
- 6.1 什么是机器翻译
- 6.2 对WMT 数据集进行预处理
- 6.3 用BLEU 评估机器翻译
- 6.4 Google 翻译
- 6.5 使用Trax 进行翻译
- 6.6 本章小结
- 6.7 练习题
第7 章 GPT-3
- 7.1 具有GPT-3 Transformer模型的超人类NLP
- 7.2 OpenAI GPT Transformer模型的架构
- 7.3 使用GPT-2 进行文本补全
- 7.4 训练自定义GPT-2 语言模型
- 7.5 使用OpenAI GPT-3
- 7.6 比较GPT-2 和GPT-3 的输出
- 7.7 微调GPT-3
- 7.8 工业4.0 AI 专家所需的技能
- 7.9 本章小结
- 7.10 练习题
第8 章 文本摘要(以法律和财务文档为例)
- 8.1 文本到文本模型
- 8.2 使用T5 进行文本摘要
- 8.3 使用GPT-3 进行文本摘要
- 8.4 本章小结
- 8.5 练习题
第9 章 数据集预处理和词元分析器
- 9.1 对数据集进行预处理和词元分析器
- 9.2 深入探讨场景4 和场景5
- 9.3 GPT-3 的NLU 能力
- 9.4 本章小结
- 9.5 练习题
第10 章 基于BERT 的语义角色标注
- 10.1 SRL 入门
- 10.2 基于BERT 模型的SRL
- 实验
- 10.3 基本示例
- 10.4 复杂示例
- 10.5 SRL 的能力范围
- 10.6 本章小结
- 10.7 练习题
第11 章 使用Transformer 进行问答
- 11.1 方法论
- 11.2 方法0:试错法
- 11.3 方法1:NER
- 11.4 方法2:SRL
- 11.5 后续步骤
- 11.6 本章小结
- 11.7 练习题
第12 章 情绪分析
- 12.1 入门:使用Transformer进行情绪分析
- 12.2 斯坦福情绪树库(SST)
- 12.3 通过情绪分析预测客户行为
- 12.4 使用GPT-3 进行情绪分析
- 12.5 工业4.0 依然需要人类
- 12.6 本章小结
- 12.7 练习题
第13 章 使用Transformer 分析假新闻
- 13.1 对假新闻的情绪反应
- 13.2 理性处理假新闻的方法
- 13.3 在我们继续之前
- 13.4 本章小结
- 13.5 练习题
第14 章 可解释AI
- 14.1 使用BertViz 可视化Transformer
- 14.2 LIT
- 14.3 使用字典学习可视化Transformer
- 14.4 探索我们无法访问的模型
- 14.5 本章小结
- 14.6 练习题
第15 章 从NLP 到计算机视觉
- 15.1 选择模型和生态系统
- 15.2 Reformer
- 15.3 DeBERTa
- 15.4 Transformer 视觉模型
- 15.5 不断扩大的模型宇宙
- 15.6 本章小结
- 15.7 练习题
第16 章 AI 助理
- 16.1 提示工程
- 16.2 Copilot
- 16.3 可以执行领域特定任务的GPT-3 引擎
- 16.4 基于Transformer 的推荐系统
- 16.5 计算机视觉
- 16.6 数字人和元宇宙
- 16.7 本章小结
- 16.8 练习题
第17 章 ChatGPT 和GPT-4
- 17.1 超越人类NLP 水平的Transformer 模型:ChatGPT和GPT-4
- 17.2 ChatGPT API
- 17.3 使用ChatGPT Plus 编写程序并添加注释
- 17.4 GPT-4 API
- 17.5 高级示例
- 17.6 可解释AI(XAI)和Whisper语音模型
- 17.7 使用DALL-E 2 API入门
- 17.8 将所有内容整合在一起
- 17.9 本章小结
- 17.10 练习题
附录A Transformer 模型术语
附录B Transformer 模型的硬件约束
附录C 使用GPT-2 进行文本补全
附录D 使用自定义数据集训练GPT-2 模型
附录E 练习题答案
参考资料