open-webui+ollama本地部署Llama3

前言

Meta Llama 3 是由 Meta 公司发布的下一代大型语言模型,拥有 80 亿和 700 亿参数两种版本,号称是最强大的开源语言模型。它在多个基准测试中超越了谷歌的 Gemma 7B 和 Mistral 7B Instruct 模型。

安装

1.gpt4all

https://github.com/nomic-ai/gpt4all

直接选择系统点击安装,Windows就点Windows,下载完后直接安装即可!

内置模型点击Download即可选择你喜欢的大语言模型,8G显存选LLama3 8B即可,70B需要40G的显存才能正常使用。其他模型类似

复制代码
C:\Users\admin\AppData\Local\nomic.ai\GPT4All           #下载模型保存路径(如果看不到显示隐藏文件)

也可以下载大模型(或者你微调的模型)放入该路径,重新启动即可,当做一个webui界面

2.open-webui+ollama

ollama

https://github.com/ollama/ollama?tab=readme-ov-file

选择对应系统安装

安装完后cmd命令行窗口,运行

复制代码
ollama run llama3             #下载Llama3 8b
ollama run llama3:70b      #下载Llama3 70b  参考下图

模型保存在改路径下,

安装完Ollama后用open-webui可视化

open-webui

https://github.com/open-webui/open-webui?tab=readme-ov-file

使用docker安装

左下角搜索启用或关闭Windows功能,勾选适用于Linux的Windows子系统 ,确定,先不重启

安装docker

https://www.docker.com/products/docker-desktop/

下载完直接安装,重启,确定即可

打开ollama和docker,cmd命令行:(打开全局代理)

复制代码
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

下载完后

http://127.0.0.1:3000

点击右上角设置,选择简体中文

下载模型 llama3:8b ,点击下载

最后可以愉快玩耍了

补:lmstudio(问题多)

https://lmstudio.ai/

国内安装显示没网,开全局代理也没用,版本更新也快,把huggingface换成国内镜像hf-mirror,没用,又把downloads.json文件更换下载地址,能下但是下载速度贼慢,

有兴趣可以看看https://www.bilibili.com/video/BV1dw4m1f7zQ/?spm_id_from=333.337.search-card.all.click&vd_source=69a72fa3fe0bf11ff1588ccaeb91737a

最好找个老版本

相关推荐
illuspas17 小时前
Ubuntu 24.04下编译支持ROCm加速的llama.cpp
linux·ubuntu·llama
缘友一世3 天前
LLama3架构原理浅浅学学
人工智能·自然语言处理·nlp·transformer·llama
我们没有完整的家4 天前
批量吞吐量实测:Llama-2-7b 昇腾 NPU 六大场景数据报告
llama
asfdsfgas4 天前
从加载到推理:Llama-2-7b 昇腾 NPU 全流程性能基准
人工智能·llama
asdfsdgss4 天前
FP16 vs INT8:Llama-2-7b 昇腾 NPU 精度性能基准报告
llama
猿代码_xiao4 天前
大模型微调完整步骤( LLama-Factory)
人工智能·深度学习·自然语言处理·chatgpt·llama·集成学习
wei_shuo7 天前
Llama-2-7b 昇腾 NPU 测评总结:核心性能数据、场景适配建议与硬件选型参考
大模型·llama·昇腾
凯子坚持 c7 天前
Llama-2-7b在昇腾NPU上的六大核心场景性能基准报告
java·开发语言·llama
落798.7 天前
【在昇腾NPU上部署Llama-2-7B:从环境配置到性能测试的完整实战】
经验分享·llama·1024程序员节
缘友一世7 天前
LLama 3分组查询注意力与KV缓存机制
人工智能·深度学习·缓存·transformer·llama·gqa·kv缓存