老显卡能否运行大语言模型

  1. Meta-Llama-3.1-8B-Instruct

TITAN X Pascal x 2 10.9 token/s 占用显存16.8G

4090 62.6 token/s 占用显存15.6G

  1. Meta-Llama-3.1-8B-Instruct-GPTQ-INT4

TITAN X Pascal 10.4 token/s 占用显存6.5G

3060TI 50.4 token/s 占用显存5.6G

4090 85.0 token/s 占用显存6.2G

3、Meta-Llama-3.1-70B-Instruct-GPTQ-INT4

4090x4 23.6 token/s 占用显存40.8G

如果跑Meta-Llama-3.1-8B-Instruct需要一张大显存显卡,如果跑量化版本Meta-Llama-3.1-8B-Instruct-GPTQ-INT4一般显存显卡也能跑,TITAN X Pascal与1080TI相当,老显示卡也能战大语言模型,只是速度相对慢一些。

相关推荐
lijianhua_97124 小时前
国内某顶级大学内部用的ai自动生成论文的提示词
人工智能
蔡俊锋4 小时前
用AI实现乐高式大型可插拔系统的技术方案
人工智能·ai工程·ai原子能力·ai乐高工程
自然语5 小时前
人工智能之数字生命 认知架构白皮书 第7章
人工智能·架构
大熊背5 小时前
利用ISP离线模式进行分块LSC校正的方法
人工智能·算法·机器学习
eastyuxiao5 小时前
如何在不同的机器上运行多个OpenClaw实例?
人工智能·git·架构·github·php
诸葛务农5 小时前
AGI 主要技术路径及核心技术:归一融合及未来之路5
大数据·人工智能
光影少年5 小时前
AI Agent智能体开发
人工智能·aigc·ai编程
ai生成式引擎优化技术5 小时前
TSPR-WEB-LLM-HIC (TWLH四元结构)AI生成式引擎(GEO)技术白皮书
人工智能
帐篷Li5 小时前
9Router:开源AI路由网关的架构设计与技术实现深度解析
人工智能
新缸中之脑6 小时前
在GCP上运行autoresearch
人工智能