linux 安装 Ollama 框架

概述

Ollama 是一款旨在简化大语言模型(LLM)本地部署的工具,支持 Windows、Linux 和 MacOS 系统。它提供了一个用户友好的环境,让开发者可以轻松地运行和调优如 Qwen、Llama 等超过1700种的大语言模型。

核心优势

  • 多平台兼容性:无缝适配主流操作系统。
  • 丰富的模型库:内置了大量预训练模型,直接从官网下载即可使用。
  • 个性化配置:通过 modelfile 文件调整模型参数,实现对生成内容的精细控制。
  • 自定义模型支持:允许导入第三方 ggml 格式的模型,或转换其他格式的模型至 ggml。
  • 高性能推理:优化了多GPU环境下的并行处理能力,提升推理速度。

Ollama 的设计降低了大语言模型的使用门槛,特别适合希望快速构建 AI 应用或针对特定任务进行模型优化的开发者。

官方资源

快速安装指南

对于 Linux 用户,Ollama 提供了一键安装脚本,使得安装过程变得极为简便。以下是详细的安装步骤:

  1. 执行一键安装

    bash 复制代码
    curl -fsSL https://ollama.com/install.sh | sh
  2. 启动 Ollama 服务

    bash 复制代码
    ollama serve

如果遇到权限问题(例如提示需要 sudo 权限),建议下载离线安装包以避免权限限制。可以从 GitHub 发布页 获取对应系统的安装包,并按照以下步骤操作:

  1. 下载离线安装包

    访问发布页,选择适用于您系统的版本下载。

  2. 解压文件

    bash 复制代码
    tar -xzvf ./ollama-linux-amd64.tgz
  3. 启动 Ollama 服务

    bash 复制代码
    ./bin/ollama serve &

为了确保 ollama 命令可以在任何位置被调用,需要将其路径添加到系统的 PATH 环境变量中。这可以通过编辑您的 shell 配置文件(如 .bashrc.zshrc)来完成。

bash 复制代码
echo 'export PATH=$PATH:/home/ollama/bin' >> ~/.bashrc
echo 'export OLLAMA_KEEP_ALIVE=12h' >> ~/.bashrc
echo 'export OLLAMA_HOST=0.0.0.0:11434' >> ~/.bashrc
echo 'export OLLAMA_MODELS=/data/ollama/models' >> ~/.bashrc
source ~/.bashrc

现在,您可以直接在终端中使用 ollama 命令来管理和运行模型,例如:

bash 复制代码
ollama run llama3.1:8b

以上步骤将帮助您顺利完成 Ollama 的安装与配置,开始探索大语言模型的世界。

相关推荐
CoderJia程序员甲6 小时前
GitHub 热榜项目 - 日榜(2025-11-15)
ai·开源·大模型·github·ai教程
喜欢吃豆10 小时前
LangChain v1.0 技术研究报告:架构范式向智能体中间件与图运行时的演进
中间件·架构·langchain·大模型
合合技术团队21 小时前
论文解读-对话中的多模态情感识别综述
大数据·人工智能·算法·大模型·多模态
iioSnail21 小时前
Spring Boot 集成 Spring AI:实现可被大模型调用的 MCP Server
spring boot·大模型·llm·mcp
KG_LLM图谱增强大模型1 天前
Vgent:基于图的多模态检索推理增强生成框架GraphRAG,突破长视频理解瓶颈
大数据·人工智能·算法·大模型·知识图谱·多模态
Thexhy2 天前
Java大模型后端开发全流程指南
java·ai·大模型
哥本哈士奇(aspnetx)2 天前
利用AI Agent,辅助销售团队制定培训和考试内容
大模型
九年义务漏网鲨鱼2 天前
【Agentic RL 专题】五、深入浅出Reasoning and Acting (ReAct)
前端·react.js·大模型·智能体
武子康2 天前
AI研究-129 Qwen2.5-Omni-7B 要点:显存、上下文、并发与成本
人工智能·深度学习·机器学习·ai·大模型·qwen·全模态
冻感糕人~2 天前
Agent框架协议“三部曲”:MCP、A2A与AG-UI的协同演进
java·人工智能·学习·语言模型·大模型·agent·大模型学习