本地安装Ollama并使用Python调用

前言

总是使用远程的API调用要不就是掉不通,要不就是需要申请key,太麻烦了,应该决定本地进行部署了,而Ollama专注于本地化轻量部署,强调开发者体验和易用性,适合原型开发、隐私敏感场景和资源受限环境。

下载

访问Ollama的官方网址:https://ollama.com/download

下载后,安装的时候使用cmd进行安装,要不然总是默认安装在C盘中。

复制代码
OllamaSetup.exe /DIR="D:\Ollama"

然后即可进行安装在指定位置。

下载模型

使用Ollama pull 模型即可,可以在https://ollama.com/search上找支持的模型,也可以在HuggingFace上找支持Ollama部署的模型。

运行模型

使用ollama run 模型名即可运行对应的模型。

API接口

Ollama API 使用指南

Python调用

需要先安装ollama库,即:

bash 复制代码
pip install ollama

然后编写:

python 复制代码
from ollama import Client
from ollama import ChatResponse

# 创建 Client 实例,并显式指定 host 地址
# 127.0.0.1 是标准的本地回环地址,11434 是 Ollama 默认端口。
client = Client(host='http://127.0.0.1:11434')

response: ChatResponse = client.chat(model='llama3:latest', messages=[
    {
        'role': 'user',
        'content': '你是谁?请使用中文回答',
    },
])

# 打印响应内容
print(response['message']['content'])

运行结果:

复制代码
我是 LLaMA,一个由 MetaAI 开发的人工智能模型。我可以理解和生成人类语言,能够与用户交互、回答问题和产生内容。我的目标是帮助人们更好地communicate和获取信息。我是一个基于大规模语言模型的 AI,我的能力包括:

* 理解自然语言,能够识别语义和理解用户的意图
* 生成高质量的文本,能够创作文章、回答问题和产生对话
* 学习和改进自己的人工智能能力

我可以用于各种场景,例如客服、内容生成、知识分享等。我希望通过与你的交流,提高自己的能力和帮助更多的人。
相关推荐
comedate3 小时前
【OpenClaw】一文说明 OpenWebUI / Ollama / OpenClaw 的区别与关系
ai agent·ollama·openwebui·openclaw
福大大架构师每日一题4 小时前
ollama v0.20.0 更新:Gemma 4 全家桶发布,音频、视觉、MoE、BPE 支持全面升级
音视频·ollama
Hello.Reader2 天前
双卡 A100 上如何给 Ollama 做轮询分发与健康检查,真正把吞吐跑满
ollama
凤山老林2 天前
Java 开发者零成本上手:用 Spring AI Alibaba + Ollama 本地跑通 DeepSeek 大模型
java·人工智能·ollama·deepseek·spring ai 阿里巴巴
诸神缄默不语3 天前
本地LLM部署工具(写给小白的LLM工具选型系列:第一篇)
llm·大规模预训练语言模型·vllm·ollama
福大大架构师每日一题4 天前
ollama v0.19.0 发布!Web 搜索插件上线、多模型兼容修复、MLX 与 KV 缓存全面优化,本地大模型体验再升级
缓存·ollama
AAA阿giao5 天前
打造你的 Git 提交 AI 神器:从零实现前后端分离的 Commit Message 生成器
react.js·express·ollama
村中少年6 天前
vscode如何添加ollama本地模型-实现token自由
vscode·llm·token·ollama·本地模型·qwen3
竹之却8 天前
【OpenClaw】云服务器端 openclaw 集成本地 Windows端 ollama 模型
windows·llama·ollama·openclaw·qwen3.5
加斯顿工程师8 天前
Windows系统使用Ollama本地化部署Qwen3.5-9B模型教程
windows·大模型·本地部署·ollama·qwen3.5