RAG实战基础篇/windows电脑快速部署qwen3:14B

现阶段,在本地部署ollama非常简单,准备好一个有GPU的电脑,十分钟轻松部署qwen3:14b。实现本地的大模型部署。

我这里为了方便起见,直接使用windows电脑下载一个ollama。

访问ollama GIthub地址:ollama开源地址

直接下载安装包:

双击安装;

安装完毕后,我们在windows终端中输入:ollama --version

出现版本号就安装成功了:

然后,我们用ollama在本地拉取一个qwen3:14b下来:

复制代码
ollama run qwen3:14b

我们等待完成

运行成功就可以对话了:

我们用nvidia-smi查看一下显存:

14B(int4量化)占用了11.5G的显存。

我们可以测试一下API是否能够正常调用:

我们请求本地接口:http://localhost:11434/v1/chat/completions

选择POST方法

请求体输入:

复制代码
{
    "model": "qwen3:14b",
    "messages": [{
    "role": "user",
    "content": "你现在是一个翻译,我发你一段文字,你翻译成日语。"
    },
    {
    "role": "assistant",
    "content": "好的"
    },
    {
    "role": "user",
    "content": "今天天气怎样?"
    }],
    "stream": false
}

可以看到本地大模型已经通了。

如果需要流式输出,将stream字段修改为true即可。

现在我们已经准备好本地的大模型环境了,后续我们将基于本地的大模型搭建一个小型RAG应用,实现自己个人知识库的问答。

相关推荐
WHS-_-202214 小时前
Rank-Revealing Bayesian Block-Term Tensor Completion With Graph Information
人工智能·python·机器学习
T.i.s15 小时前
总变差正则化(TV Loss)的思考
人工智能·pytorch·深度学习
Python私教15 小时前
FuturesDesk 集成 OMC 多智能体编排提效
人工智能·windows·开源
sunneo15 小时前
专栏C-产品战略与竞争-05-产品组合
人工智能·产品运营·产品经理·ai编程·ai-native
Datakeji15 小时前
维恩波特Vairnport商业逻辑
大数据·人工智能·区块链
尚医云·云HIS15 小时前
从“21粒”误开,看AI如何补位处方安全
大数据·人工智能·健康医疗
GISer_Jing15 小时前
从入门到落地:前端开发者的AI Agent全栈学习路线
前端·人工智能·ai编程
梦想画家15 小时前
ToolGuard:让AI Agent严格遵守企业规则的确定性合规框架
人工智能·toolguard
旺财矿工15 小时前
小白速通:OpenClaw 2.6.6 Win11 本地化部署完整教程
人工智能·windows·openclaw·龙虾·一键部署小龙虾
默 语15 小时前
基于 Spring Boot 3 + LangChain4j 快速构建企业级 AI 应用实战
人工智能·spring boot·后端