【大模型 AI 学习】大模型 AI 部署硬件配置方案(本地硬件配置 | 在线GPU)

最近想部署一个开源深度学习项目,但是小编的笔记本电脑是8G的集成显存,且没有GPU,性能肯定是不够的。于是小编在小po站上粗浅了解了一下当前: 1. 大模型 AI本地硬件配置和 2. 云上申请GPU算力的两种方式。简单记录一下:

参考视频:
1. 本地部署配置 ------【大模型】个人学习大模型技术需要什么样的电脑配置?
2. 云服务器配置------GPU租用简易指南 for R308

1. 大模型本地部署硬件配置
  1. 如果需求主要是部署本地大模型进行推理和微调、简单调试和复现 推荐:
    显卡:2080ti ,显卡显存11G,价格2200,推理时GPU显存占用10G,高效微调时GPU显存占用7G,达到INT4量化精度。支持多轮对话、调试、复现。

  2. 如果需求是部署本地大模型进行较多调整(包含较多参数和数据)、大量调试、科研 推荐:
    显卡:3090双卡 ,显卡显存48G,价格8500*2,推理时GPU显存占用30G,高效微调时GPU显存占用22G,达到全精度。

2. 云服务器方式

如果没有实验室提供经费,又觉3090、4090价格较高,可以使用在线云服务器GPU,比如阿里的autoDL

(1)选区、选GPU,按用量来进行计费。每个GPU服务器会配置一定的CPU、内存

(2)选择自己所需的系统、软件的镜像

(3)选择无卡模式开机,不消耗GPU用量,计费0.1yuan/小时,可以进行代码修改操作。需要跑模型的时候再以正常模式打开。此外,有20G的免费数据空间,可以上传需要的数据。

(4)平台提供了jupter note book快捷软件工具、终端,可以输入Python代码,读取存储数据、跑模型代码指令等。

通过简单调研,小编发现自己平时没有科研需求,主要想空闲时间跑一些有意思的大模型 AI项目,做一些微调。考虑性价比,小编更倾向在线的GPU服务器的方案。

相关推荐
埃菲尔铁塔_CV算法11 分钟前
深度学习驱动下的目标检测技术:原理、算法与应用创新
深度学习·算法·目标检测
欲掩1 小时前
神经网络与深度学习第六章--循环神经网络(理论)
rnn·深度学习·神经网络
老翅寒暑2 小时前
AI模型的回调能力的理解和实现
ai·大模型·本地小模型
高建伟-joe5 小时前
内容安全:使用开源框架Caffe实现上传图片进行敏感内容识别
人工智能·python·深度学习·flask·开源·html5·caffe
国际云5 小时前
阿里云国际站与国内站的核心布局与本土化服务的选择
阿里云·云计算
小雨光5 小时前
阿里云ECS部署Dify
阿里云·云计算
卡尔曼的BD SLAMer7 小时前
计算机视觉与深度学习 | Python实现EMD-SSA-VMD-LSTM-Attention时间序列预测(完整源码和数据)
python·深度学习·算法·cnn·lstm
pk_xz1234567 小时前
实现了一个结合Transformer和双向LSTM(BiLSTM)的时间序列预测模型,用于预测温度值(T0),并包含了物理约束的损失函数来增强模型的物理合理性
深度学习·lstm·transformer
落樱弥城8 小时前
角点特征:从传统算法到深度学习算法演进
人工智能·深度学习·算法
武子康10 小时前
大语言模型 11 - 从0开始训练GPT 0.25B参数量 MiniMind2 准备数据与训练模型 DPO直接偏好优化
人工智能·gpt·ai·语言模型·自然语言处理