6G内存运行Llama2-Chinese-7B-chat模型

6G内存运行Llama2-Chinese-7B-chat模型

Llama2-Chinese中文社区

第一步:

从huggingface下载 Llama2-Chinese-7b-Chat-GGML模型放到本地的某一目录。

第二步:

执行python程序

复制代码
git clone  https://github.com/Rayrtfr/llama2-webui.git

cd llama2-webui && pip install -r requirements.txt

# 注意这里的/path/ggml-model-q4_0.bin换成你本地下载的模型路径
python app_4bit_ggml.py \
--model_path /path/ggml-model-q4_0.bin

本地浏览器打开: http://127.0.0.1:8090

相关推荐
weixin_4352081613 小时前
论文浅尝 | Interactive-KBQA:基于大语言模型的多轮交互KBQA(ACL2024)
人工智能·语言模型·自然语言处理
人工智能培训咨询叶梓16 小时前
LLAMAFACTORY:一键优化大型语言模型微调的利器
人工智能·语言模型·自然语言处理·性能优化·调优·大模型微调·llama factory
sauTCc21 小时前
N元语言模型的时间和空间复杂度计算
人工智能·语言模型·自然语言处理
扫地的小何尚21 小时前
NVIDIA工业设施数字孪生中的机器人模拟
android·java·c++·链表·语言模型·机器人·gpu
硅谷秋水21 小时前
MoLe-VLA:通过混合层实现的动态跳层视觉-语言-动作模型实现高效机器人操作
人工智能·深度学习·机器学习·计算机视觉·语言模型·机器人
开始学AI1 天前
【Windows+Cursor】从0到1配置Arxiv MCP Server,实现论文自主查询、下载、分析、综述生成
语言模型·大模型·ai agent·mcp
Moutai码农1 天前
大模型-提示词(Prompt)技巧
人工智能·语言模型·prompt
Moutai码农1 天前
大模型-提示词(Prompt)最佳实践
人工智能·语言模型·prompt
墨绿色的摆渡人2 天前
用 pytorch 从零开始创建大语言模型(三):编码注意力机制
人工智能·pytorch·语言模型
Toky丶2 天前
【文献阅读】Vision-Language Models for Vision Tasks: A Survey
人工智能·语言模型·自然语言处理