ollma 本地部署大模型

因为我本地是 windows 的系统,所以这里直接写的是通过 docker 来实现本地大模型的部署。

windows 下 WSl 的安装这里就不做重复,详见 windows 部署 mindspore GPU 开发环境(WSL)

一、Docker 部署 ollma

1. 拉取镜像(笔记本没有对象显卡,所以拉取的镜像是CPU 版本的):
bash 复制代码
docker pull ollama/ollama:0.3.7-rc6
2. 启动镜像

仅 CPU 版本启动

bash 复制代码
docker run -d -v /home/jie/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama:0.3.7-rc6

此时访问本地的 11434 端口,可以看到 Ollama is running 的字样

1.1 通过对话交互的方式启动 llama3

ollma 贴心的提供了很多模型和参数,详见 Ollama library⁠ 我这里选择启动的是 llama3 模型 参数量是 8b

bash 复制代码
docker exec -it ollama ollama run llama3.1

首次启动需要下载参数,所以会花费一些时间。

并在光标闪烁的地方开始对话

当然,8b 模型的结果有时候不太好,如果电脑内存在 60G 以上,可以大胆的尝试 70b 的模型。

1.2 通过服务的方式调用 llama3

bash 复制代码
curl http://localhost:11434/api/generate -d '{
  "model": "llama3.1", 
  "prompt": "帮我写一条Elasticsearch的聚合 a 字段的查询语句",
  "format": "json^C
  "stream": false
}'

参数 "model" 表示模型名,一定要 执行过 docker exec -it ollama ollama run 才可以正常响应。这种方式的响应时间比较长,原因有可能是每次请求的时候都会重新启动模型的原因(我并没有找到让模型一直保持启动状态的参数)。API列表

获取响应中的 response 字段就是大模型生成的回答。

二、附录

2.1 Ollama 常用命令

bash 复制代码
Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama # 启动ollama
  create      Create a model from a Modelfile # 从模型文件创建模型
  show        Show information for a model # 显示模型信息
  run         Run a model # 运行模型,会先自动下载模型
  pull        Pull a model from a registry # 从注册仓库中拉取模型
  push        Push a model to a registry # 将模型推送到注册仓库
  list        List models # 列出已下载模型
  ps          List running models # 列出正在运行的模型
  cp          Copy a model # 复制模型
  rm          Remove a model # 删除模型
  
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

Use "ollama [command] --help" for more information about a command.
相关推荐
aneasystone本尊13 分钟前
学习 Chat2Graph 的知识库服务
人工智能
IT_陈寒37 分钟前
Redis 性能翻倍的 7 个冷门技巧,第 5 个大多数人都不知道!
前端·人工智能·后端
飞哥数智坊11 小时前
GPT-5-Codex 发布,Codex 正在取代 Claude
人工智能·ai编程
倔强青铜三11 小时前
苦练Python第46天:文件写入与上下文管理器
人工智能·python·面试
虫无涯12 小时前
Dify Agent + AntV 实战:从 0 到 1 打造数据可视化解决方案
人工智能
Dm_dotnet14 小时前
公益站Agent Router注册送200刀额度竟然是真的
人工智能
算家计算14 小时前
7B参数拿下30个世界第一!Hunyuan-MT-7B本地部署教程:腾讯混元开源业界首个翻译集成模型
人工智能·开源
机器之心15 小时前
LLM开源2.0大洗牌:60个出局,39个上桌,AI Coding疯魔,TensorFlow已死
人工智能·openai
Juchecar16 小时前
交叉熵:深度学习中最常用的损失函数
人工智能
林木森ai16 小时前
爆款AI动物运动会视频,用Coze(扣子)一键搞定全流程(附保姆级拆解)
人工智能·aigc