Ubuntu24.04安装ollama,基于GPU,对接openclaw

主要参考 https://zhuanlan.zhihu.com/p/2013622369059623797

首先是 ollama 的安装,让我折腾了很久,我安装成功了,但 ollama 死活就是运行在CPU上,不运行在GPU上,其实官方的安装方法是对的,就一条指令

复制代码
curl -fsSL https://ollama.com/install.sh | sh

但我不喜欢这个指令,因为你运行这个指令,它就会从网络上下载,下载的超级慢,而且一旦中断,就要从0开始下载,最后的方案是,我还是用这个脚本,但是我把这个脚本下载下来,然后扔给AI,让AI给我改了一下:首先要支持断点续传,如果下载,那么打印下载的url和下载到的本地目录,如果本地已经下载好了,那就直接使用,不再下载,即便是安装成功了,也要保留下载的文件。

就重新搞了这么一个脚本,手动执行这个脚本,装成功了,而且直接支持GPU

下面是对接openclaw, 我就不再说openclaw怎么安装了,直接用下面的命令修改openclaw的配置文件

复制代码
ollama launch openclaw --model qwen3:8b

因为我的GPU比较弱,所以我只能选择更弱的模型

复制代码
ollama launch openclaw --model llama3.2:1b

然后启动完会报一个错误,

复制代码
 ⚠️ Agent failed before reply: Model context window too small (8192 tokens). Minimum is 16000.

打开http://127.0.0.1:18789/config, raw,可以看到如下一段配置

复制代码
          {
            contextWindow: 131072,
            cost: {
              cacheRead: 0,
              cacheWrite: 0,
              input: 0,
              output: 0,
            },
            id: 'llama3.2:1b',
            input: [
              'text',
            ],
            name: 'llama3.2:1b',
          },

我会在上面的 name: 'llama3.2:1b',上面加一行

复制代码
            maxTokens: 18192,

然后退出上面的ollama launch openclaw --model llama3.2:1b命令,执行如下命令

复制代码
ollama run llama3.2:1b

当然,这里我们也重新执行openclaw

复制代码
openclaw gateway stop
openclaw gateway

这样openclaw的默认model就是 llama3.2:1b 了

相关推荐
大龄程序员狗哥2 小时前
第47篇:使用Speech-to-Text API快速构建语音应用(操作教程)
人工智能
KKKlucifer2 小时前
数据安全合规自动化:策略落地、审计追溯与风险闭环技术解析
人工智能·安全
RWKV元始智能2 小时前
RWKV超并发项目教程,RWKV-LM训练提速40%
人工智能·rnn·深度学习·自然语言处理·开源
dyj0952 小时前
Dify - (一)、本地部署Dify+聊天助手/Agent
人工智能·docker·容器
墨染天姬2 小时前
【AI】Hermes的GEPA算法
人工智能·算法
小超同学你好2 小时前
OpenClaw 深度解析系列 · 第8篇:Learning & Adaptation(学习与自适应)
人工智能·语言模型·chatgpt
紫微AI2 小时前
前端文本测量成了卡死一切创新的最后瓶颈,pretext实现突破了
前端·人工智能·typescript
码途漫谈2 小时前
Easy-Vibe开发篇阅读笔记(四)——前端开发之结合 Agent Skills 美化界面
人工智能·笔记·ai·开源·ai编程
易连EDI—EasyLink2 小时前
易连EDI–EasyLink实现OCR智能数据采集
网络·人工智能·安全·汽车·ocr·edi
冬奇Lab3 小时前
RAG 系列(二):用 LangChain 搭建你的第一个 RAG Pipeline
人工智能·langchain·llm