开源项目Heygem本地运行 AI 数字人模型

前言

Heygem 是一个用于本地运行 AI 数字人模型的开源项目,主要通过 Docker 进行服务部署,支持离线运行,适合在本地环境中进行语音交互、数字人驱动等实验或开发。


特点

  • 支持本地运行(部署完成后可断网使用)
  • 提供基础 API 接口,便于二次开发
  • 依赖 Docker 进行服务管理
  • 支持 Windows / Linux,不支持 Mac

注:涉及商业使用需关注项目协议


部署说明

一、环境要求

  • Windows 10 19042 及以上
  • 建议:
    • 内存 ≥ 32GB
    • NVIDIA 显卡(30/40 系列)
  • 磁盘:
    • C 盘建议 ≥ 100GB
    • D 盘建议 ≥ 30GB

二、安装流程

请参考:
点击跳转

相关推荐
小陈工1 小时前
Python Web开发入门(十七):Vue.js与Python后端集成——让前后端真正“握手言和“
开发语言·前端·javascript·数据库·vue.js·人工智能·python
阿菜ACai4 小时前
Claude 和 Codex 在审计 Skill 上性能差异探究
ai·代码审计
墨染天姬5 小时前
【AI】端侧AIBOX可以部署哪些智能体
人工智能
AI成长日志5 小时前
【Agentic RL】1.1 什么是Agentic RL:从传统RL到智能体学习
人工智能·学习·算法
SharpCJ6 小时前
Android 开发者为什么必须掌握 AI 能力?端侧视角下的技术变革
android·ai·aigc
2501_948114246 小时前
2026年大模型API聚合平台技术评测:企业级接入层的治理演进与星链4SAPI架构观察
大数据·人工智能·gpt·架构·claude
小小工匠6 小时前
LLM - awesome-design-md 从 DESIGN.md 到“可对话的设计系统”:用纯文本驱动 AI 生成一致 UI 的新范式
人工智能·ui
黎阳之光6 小时前
黎阳之光:视频孪生领跑者,铸就中国数字科技全球竞争力
大数据·人工智能·算法·安全·数字孪生
小超同学你好6 小时前
面向 LLM 的程序设计 6:Tool Calling 的完整生命周期——从定义、决策、执行到观测回注
人工智能·语言模型
智星云算力6 小时前
本地GPU与租用GPU混合部署:混合算力架构搭建指南
人工智能·架构·gpu算力·智星云·gpu租用