【笔记】从零开始大模型开发与微调:基于PyTorch与ChatGLM

从零开始大模型开发与微调:基于PyTorch与ChatGLM

2023.11.1版

介绍DL应用、大模型,ChatGLM

由清华大学自主研发,基于 General Language Model (GLM) 架构的一种最新型、最为强大的深度学习大模型。

1、经过约 1T 标识符的中英双语训练,辅以监督微调、对比学习、人类反馈强化学习等技术的加持

2、针对中文问答和对话进行了优化

3、开源的ChatGLM-6B 具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)

相关推荐
慢半拍iii2 分钟前
从零搭建CNN:如何高效调用ops-nn算子库
人工智能·神经网络·ai·cnn·cann
晟诺数字人6 分钟前
2026年海外直播变革:数字人如何改变游戏规则
大数据·人工智能·产品运营
蛋王派7 分钟前
DeepSeek-OCR-v2 模型解析和部署应用
人工智能·ocr
禁默12 分钟前
基于CANN的ops-cv仓库-多模态场景理解与实践
人工智能·cann
禁默21 分钟前
【硬核入门】无需板卡也能造 AI 算子?深度玩转 CANN ops-math 通用数学库
人工智能·aigc·cann
敏叔V58726 分钟前
AI智能体的工具学习进阶:零样本API理解与调用
人工智能·学习
徐小夕@趣谈前端35 分钟前
拒绝重复造轮子?我们偏偏花365天,用Vue3写了款AI协同的Word编辑器
人工智能·编辑器·word
阿里云大数据AI技术35 分钟前
全模态、多引擎、一体化,阿里云DLF3.0构建Data+AI驱动的智能湖仓平台
人工智能·阿里云·云计算
陈天伟教授36 分钟前
人工智能应用- 语言理解:05.大语言模型
人工智能·语言模型·自然语言处理
池央37 分钟前
CANN GE 深度解析:图编译器的核心优化策略、执行流调度与模型下沉技术原理
人工智能·ci/cd·自动化