老显卡能否运行大语言模型

  1. Meta-Llama-3.1-8B-Instruct

TITAN X Pascal x 2 10.9 token/s 占用显存16.8G

4090 62.6 token/s 占用显存15.6G

  1. Meta-Llama-3.1-8B-Instruct-GPTQ-INT4

TITAN X Pascal 10.4 token/s 占用显存6.5G

3060TI 50.4 token/s 占用显存5.6G

4090 85.0 token/s 占用显存6.2G

3、Meta-Llama-3.1-70B-Instruct-GPTQ-INT4

4090x4 23.6 token/s 占用显存40.8G

如果跑Meta-Llama-3.1-8B-Instruct需要一张大显存显卡,如果跑量化版本Meta-Llama-3.1-8B-Instruct-GPTQ-INT4一般显存显卡也能跑,TITAN X Pascal与1080TI相当,老显示卡也能战大语言模型,只是速度相对慢一些。

相关推荐
蔗理苦几秒前
2025-04-09 吴恩达机器学习6——神经网络(1):介绍
人工智能·深度学习·神经网络·机器学习
_一条咸鱼_9 分钟前
深度剖析 AI 大模型的 Transformer 和 MoE 架构
人工智能·深度学习·神经网络
GISer_Jing15 分钟前
【AI技术】Function Calling、LangChain、MCP协议、AI IDE工具了解
ide·人工智能·langchain
__Benco17 分钟前
OpenHarmony子系统开发 - 调测工具(二)
人工智能·harmonyos
__Benco18 分钟前
OpenHarmony子系统开发 - 调测工具(一)
人工智能·harmonyos
aw34419 分钟前
tiny_dnn_test250101
人工智能·算法·dnn
山北雨夜漫步23 分钟前
机器学习 Day10 逻辑回归
人工智能·机器学习·逻辑回归
liruiqiang0537 分钟前
循环神经网络 - 长程依赖问题及改进方案
人工智能·rnn·深度学习·神经网络·机器学习
程序员Linc1 小时前
写给新人的深度学习扫盲贴:ReLu和梯度
人工智能·深度学习·梯度·relu
IT古董1 小时前
【漫话机器学习系列】191.比值比(Odds Ratio,简称OR)
人工智能·机器学习