Ollama 已支持 RWKV-7 模型,可灵活开关思考模式

Ollama 最新版本已支持 RWKV7-G1RWKV-7-World 系列模型。

3 月初,随着 RWKV 社区成员 @MollySophia 的 PR 被合并,llama.cpp 正式支持 RWKV-7 模型。Ollama 近期更新了最新版 llama.cpp,因此同步支持 RWKV-7 架构和对应模型。

Ollama 官方模型仓库现已包含 RWKV-7 系列模型(推荐使用 RWKV7-G1 系列模型):

在 Ollama 中运行 RWKV 模型

以下是在 Ollama 中体验 RWKV-7 G1 2.9B 模型的最简路径。

  1. ollama.com/download 页面,根据您的系统下载 Ollama 安装包:
  1. 下载完毕后,双击安装包以安装 Ollama。任务栏出现 Ollama 图标时,意味着安装已完成:
  1. 在终端中运行 ollama run mollysama/rwkv-7-g1:2.9b 命令,Ollama 将自动下载并运行 RWKV7-G1 2.9B 模型。您可以在终端中与 RWKV 模型进行对话,如下图所示:

若您曾经下载过 mollysama/rwkv-7-g1:2.9b 模型,请运行 ollama pull mollysama/rwkv-7-g1:2.9b 命令,拉取最新的变更。

  1. Ollama 的 RWKV7 G1 模型默认开启思考模式,可以通过 /set nothink/set think 命令灵活地开关思考模式:
  1. 使用 ollama stop mollysama/rwkv-7-g1:2.9b 命令可以停止当前模型实例,从而重置对话上下文,否则 Ollama 会**持续保留当前会话的上下文(历史消息)**作为后续对话的参考

Ollama 官方仓库提供 Q6_K 量化的 RWKV7 G1 模型。

如需使用其他量化类型,需手动创建自定义 RWKV 模型 ,详细教程请在 RWKV 教程 - Ollama 推理 中查看。

RWKV Chat 端侧聊天助手

除了在 Ollama 中运行 RWKV 模型,我们也推荐使用 RWKV Chat 端侧聊天助手体验 RWKV 模型。

RWKV Chat 是 RWKV 官方推出的离线 AI 聊天应用,针对各类端侧设备进行深度推理优化。APP 内含多种小参数模型,支持会话配置调整、灵活切换思考模式,是你的高效生产力伙伴!

在开启和关闭思考模式两种情况下,RWKV Chat 回答同一个问题:

希望抢先体验更多 RWKV APP?请加入 RWKV 应用内测 QQ 群:332381861

加入 RWKV 社区

欢迎大家加入 RWKV 社区,可以从 RWKV 中文官网了解 RWKV 模型,也可以加入 RWKV 论坛、QQ 频道和 QQ 群聊,一起探讨 RWKV 模型。

相关推荐
永霖光电_UVLED1 分钟前
2 μm 波段 PCSEL 激光振荡实现
人工智能
2501_9481142410 分钟前
技术解码:Gemini交互式模拟API与高负载网关的选型逻辑
人工智能·python·ai
landuochong20010 分钟前
claude-obsidian 再升级
人工智能·笔记·claudecode
HySpark10 分钟前
AI会议离线转记 三大核心问题实战解决:语音重叠+异常样本+伪说话人
人工智能
全栈开发圈18 分钟前
新书速览|从零开始学Spring Cloud微服务架构
spring cloud·微服务·架构
M ? A23 分钟前
Vue转React实战:defineProps精准迁移实战
前端·javascript·vue.js·经验分享·react.js·开源·vureact
小蒋聊技术23 分钟前
电商系列第五课:支付中心——资金安全、幂等设计与 AI 风控大脑
人工智能·安全
七夜zippoe26 分钟前
Spring Cloud与Dubbo架构哲学对决
java·spring cloud·架构·dubbo·配置中心
AC赳赳老秦26 分钟前
OpenClaw text-translate技能:多语言批量翻译,解决跨境工作沟通难题
大数据·运维·数据库·人工智能·python·deepseek·openclaw