一个开源的大语言模型(LLM)服务工具,支持Llama 3.1、Phi 3、Mistral、Gemma 2 等, 87.4k star你必须拥有(附源码)

这一年来,AI 发展的越来越快,大模型使用的门槛也越来越低,每个人都可以在自己的本地运行大模型。之前也给大家介绍过一些可以在本地运行大模型的项目,今天再给大家介绍一个最厉害的开源大模型服务框架------ollama。

项目介绍

Ollama 是一个开源的大语言模型(LLM)服务工具,它允许用户在本地环境快速实验、管理和部署大型语言模型。它支持多种流行的开源大型语言模型,如 Llama 3.1、Phi 3、Mistral、Gemma 2 等,并且可以通过命令行界面轻松下载、运行和管理这些模型。

Ollama 的出现是为了降低使用大型语言模型的门槛,是让大型语言模型更加普及和易于访问。

项目安装

既然说到要降低门槛,Ollama 的安装也自然是非常的方便了。

Ollama 支持 macOS、Windows 和 Linux 操作系统,同时也提供了 Docker 镜像,方便在不同环境中部署。

  • macOS : 可以通过 Homebrew 安装,使用命令 brew install ollama。也可以直接下载安装包运行。

  • Windows: 需要下载安装包并运行。

  • Linux : 可以通过包管理器或使用命令 curl -fsSL ``https://ollama.com/install.sh`` | sh安装。

  • Docker : 可以使用 docker pull ollama/ollama 命令拉取镜像,并运行容器。

这里以 macOS 为例,下载了 ollama 的安装包后,直接双击运行这个可爱羊驼的应用,程序会提示你将应用移动到 application 文件夹,并且有后续的提示操作,我们按照指引去安装就可以了。

项目使用

安装完成后,我们可以直接执行 ollama 应用启动,也可以在命令行中执行 ollama serve 来启动 Ollama 服务。

当然,现在的我们主要在命令行中去操作 ollama。

执行 ollama list:可以列出已下载的模型,如图:

执行 ollama pull <model> 可以从远程仓库拉取模型。

执行 ollama run <model> 可以运行指定的模型,我们使用 ollama run llama3:8b 来运行已经安装的模型,并且开始对话,如图:

web 界面

如果都是用命令行交互,还是挺麻烦的。这里再给大家介绍一个好用的 ollama 的 web 界面:open-webui。

这也是一个开源项目,我们可以使用 docker 来快速部署:

复制代码
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

之后在浏览器访问 localhost:3000,可以打开一个和 ChatGPT 很像的页面:

点击上方的"选择一个模型",便可以看到 ollama 中已经下载的模型,选中后直接开启聊天就可以啦。

总结

Ollama 是一个功能强大且易于使用的工具,它为本地部署和运行大型语言模型提供了一个简单而有效的方法。无论是研究、开发还是日常使用,Ollama 都能满足用户对大型语言模型的需求。Ollama 拥有庞大的社区用户和相关的开源项目,配合 open-webui,我们可以更好的使用 Ollama,并为朋友们提供一个类似于 ChatGPT 的对话界面。

感兴趣的朋友们,赶紧去试试吧。

复制代码
项目地址:
https://github.com/ollama/ollama
https://github.com/open-webui/open-webui
相关推荐
王中阳Go1 分钟前
用Go写AI Agent:我从实战图书里总结了这些核心逻辑
后端·go·ai编程
一步一个脚印ッ2 分钟前
AI大模型推理:本质是经验推理而非逻辑推理
人工智能
智慧物业老杨2 分钟前
老旧小区团购模式下的数智化工单体系搭建与实践——基于保利项目600+工单的技术落地解析
java·人工智能·后端·科技·struts
weixin_511840472 分钟前
2026年5月7日 AI发展对卫星通讯的影响及太空算力中心建设与发展深度研究
人工智能·市场分析
莱歌数字3 分钟前
理论+仿真+实验:方案设计的“三驾马车”,如何帮您降低试错成本?
人工智能·科技·电脑·制造·散热
南方的耳朵4 分钟前
develop分支执行git rebase master 会发生哪些变化?
后端
fliter5 分钟前
大象穿隧道:Cloudflare Hyperdrive 如何把 Postgres 流量送进私有网络
后端
TG_yunshuguoji5 分钟前
阿里云代理商:企业如何通过 DeepSeek V4 + 阿里云实现 AI 成本大幅降低?
人工智能·阿里云·ai智能体·deepseek v4
fliter7 分钟前
给互联网发证书的机构,谁来监督它们?Cloudflare 开源了答案
后端
连线Insight9 分钟前
3.5亿月活后,豆包收费是一场冒险吗?
大数据·人工智能