【大模型 AI 学习】大模型 AI 部署硬件配置方案(本地硬件配置 | 在线GPU)

最近想部署一个开源深度学习项目,但是小编的笔记本电脑是8G的集成显存,且没有GPU,性能肯定是不够的。于是小编在小po站上粗浅了解了一下当前: 1. 大模型 AI本地硬件配置和 2. 云上申请GPU算力的两种方式。简单记录一下:

参考视频:
1. 本地部署配置 ------【大模型】个人学习大模型技术需要什么样的电脑配置?
2. 云服务器配置------GPU租用简易指南 for R308

1. 大模型本地部署硬件配置
  1. 如果需求主要是部署本地大模型进行推理和微调、简单调试和复现 推荐:
    显卡:2080ti ,显卡显存11G,价格2200,推理时GPU显存占用10G,高效微调时GPU显存占用7G,达到INT4量化精度。支持多轮对话、调试、复现。

  2. 如果需求是部署本地大模型进行较多调整(包含较多参数和数据)、大量调试、科研 推荐:
    显卡:3090双卡 ,显卡显存48G,价格8500*2,推理时GPU显存占用30G,高效微调时GPU显存占用22G,达到全精度。

2. 云服务器方式

如果没有实验室提供经费,又觉3090、4090价格较高,可以使用在线云服务器GPU,比如阿里的autoDL

(1)选区、选GPU,按用量来进行计费。每个GPU服务器会配置一定的CPU、内存

(2)选择自己所需的系统、软件的镜像

(3)选择无卡模式开机,不消耗GPU用量,计费0.1yuan/小时,可以进行代码修改操作。需要跑模型的时候再以正常模式打开。此外,有20G的免费数据空间,可以上传需要的数据。

(4)平台提供了jupter note book快捷软件工具、终端,可以输入Python代码,读取存储数据、跑模型代码指令等。

通过简单调研,小编发现自己平时没有科研需求,主要想空闲时间跑一些有意思的大模型 AI项目,做一些微调。考虑性价比,小编更倾向在线的GPU服务器的方案。

相关推荐
小白跃升坊18 分钟前
通过 MCP 服务对接 PostgreSQL 问数 (详细实操说明)
ai·linux操作系统·mcp
一叶知秋秋24 分钟前
python学习day39
人工智能·深度学习·学习
weixin_4487816233 分钟前
DenseNet算法 实现乳腺癌识别
pytorch·深度学习·神经网络
zzc9212 小时前
MATLAB仿真生成无线通信网络拓扑推理数据集
开发语言·网络·数据库·人工智能·python·深度学习·matlab
编程有点难2 小时前
Python训练打卡Day43
开发语言·python·深度学习
2301_805054562 小时前
Python训练营打卡Day48(2025.6.8)
pytorch·python·深度学习
Lucky-Niu2 小时前
解决transformers.adapters import AdapterConfig 报错的问题
人工智能·深度学习
保持学习ing3 小时前
Spring注解开发
java·深度学习·spring·框架
春末的南方城市4 小时前
中山大学&美团&港科大提出首个音频驱动多人对话视频生成MultiTalk,输入一个音频和提示,即可生成对应唇部、音频交互视频。
人工智能·python·深度学习·计算机视觉·transformer
幼稚园的山代王5 小时前
Prompt Enginering(提示工程)先进技术
java·人工智能·ai·chatgpt·langchain·prompt