GLM大模型 - CogVideoX:5B 开源,2B 转为 Apache 协议

8月6日,我们发布并开源了CogVideoX-2B模型,受到广大开发者的欢迎。

为了促进社区的自主使用和开放式创新,我们现决定将参数规模更大、性能更强的产品级模型 CogVideoX-5B 开源,同时 CogVideoX-2B 的开源协议调整为更加开放的Apache 2.0协议。

CogVideoX-2B 升级

自8月6日发布以来,CogVideoX-2B 在推理设备门槛上已有显著优化:

  • 支持多种推理精度,包括 FP16、BF16、FP32、INT8 等;

  • 在 INT8 精度下,推理显存需求仅为 7.8GB,即使用 1080 Ti 显卡也可以完成推理;

  • 在 FP16/BF16 精度,Step=50 的设定下,单卡 A100 仅需 90 秒完成推理,单卡 H100 仅需 45 秒;

  • LoRA 微调显存需求为 47GB,SFT 微调为 62GB,单卡 A100(80GB)即可满足微调需求。

CogVideoX-5B 开源

CogVideoX-5B 模型相较于 CogVideoX-2B 拥有更高的视频生成质量,并在工程优化上保持了一致的高标准:

  • 同样支持多种推理精度;

  • 推理显存需求最低仅为 11.4GB,即单张 3060 显卡即可完成推理;

  • LoRA 微调显存需求为 63GB,SFT 微调为 75GB,单卡 A100(80GB)同样可以完成微调任务。

为进一步支持开源社区的广泛使用与开发,我们已将 CogVideoX-2B 的协议调整为 Apache 2.0,任何企业与个人均可自由使用。

同时,我们推出了在线体验,并将其源代码开源,涵盖了插帧、超分辨率等先进功能,均采用开源技术方案,实现全流程开源。

**代码仓库:**https://github.com/THUDM/CogVideo

**模型论文:**https://arxiv.org/abs/2408.06072

模型下载:

在线体验:

下面为模型参数概要:

Demo

Promt:A lone boy, clad in a rugged oilskin jacket and boots, stands bravely atop a tiny, bobbing boat amidst a tumultuous sea, its waves crashing and foam swirling as a fierce storm rages around him. In the distance, an enormous, fearsome whale emerges, its gargantuan mouth agape, threatening to engulf the boy and his vessel. Undeterred, the boy grips his trusty weapon tightly, a look of fierce determination etched upon his face, and prepares to strike back at the monstrous creature, the salty wind whipping through his hair as he readies for the confrontation.

相关推荐
TF男孩3 小时前
重新认识Markdown:它不仅是排版工具,更是写Prompt的最佳结构
人工智能
想打游戏的程序猿4 小时前
AI时代的内容输出
人工智能
小兵张健4 小时前
Playwright MCP 截图标注方案调研:推荐方案 1
人工智能
凌杰6 小时前
AI 学习笔记:Agent 的能力体系
人工智能
IT_陈寒7 小时前
React状态管理终极对决:Redux vs Context API谁更胜一筹?
前端·人工智能·后端
舒一笑8 小时前
如何获取最新的技术趋势和热门技术
人工智能·程序员
聚客AI9 小时前
🎉OpenClaw深度解析:多智能体协同的三种模式、四大必装技能与自动化运维秘籍
人工智能·开源·agent
黄粱梦醒9 小时前
大模型企业级部署方案-vllm
人工智能·llm
IT_陈寒9 小时前
JavaScript代码效率提升50%?这5个优化技巧你必须知道!
前端·人工智能·后端
IT_陈寒9 小时前
Java开发必知的5个性能优化黑科技,提升50%效率不是梦!
前端·人工智能·后端