RAG实战基础篇/windows电脑快速部署qwen3:14B

现阶段,在本地部署ollama非常简单,准备好一个有GPU的电脑,十分钟轻松部署qwen3:14b。实现本地的大模型部署。

我这里为了方便起见,直接使用windows电脑下载一个ollama。

访问ollama GIthub地址:ollama开源地址

直接下载安装包:

双击安装;

安装完毕后,我们在windows终端中输入:ollama --version

出现版本号就安装成功了:

然后,我们用ollama在本地拉取一个qwen3:14b下来:

复制代码
ollama run qwen3:14b

我们等待完成

运行成功就可以对话了:

我们用nvidia-smi查看一下显存:

14B(int4量化)占用了11.5G的显存。

我们可以测试一下API是否能够正常调用:

我们请求本地接口:http://localhost:11434/v1/chat/completions

选择POST方法

请求体输入:

复制代码
{
    "model": "qwen3:14b",
    "messages": [{
    "role": "user",
    "content": "你现在是一个翻译,我发你一段文字,你翻译成日语。"
    },
    {
    "role": "assistant",
    "content": "好的"
    },
    {
    "role": "user",
    "content": "今天天气怎样?"
    }],
    "stream": false
}

可以看到本地大模型已经通了。

如果需要流式输出,将stream字段修改为true即可。

现在我们已经准备好本地的大模型环境了,后续我们将基于本地的大模型搭建一个小型RAG应用,实现自己个人知识库的问答。

相关推荐
新加坡内哥谈技术1 分钟前
大语言模型的上下文工程指南
人工智能
Gofarlic_OMS2 分钟前
装备制造企业Fluent许可证成本分点典型案例
java·大数据·开发语言·人工智能·自动化·制造
2501_948114244 分钟前
DeepSeek V4 全面实测:万亿参数开源模型的工程落地与成本推演
人工智能·ai·开源
程序员雷欧10 分钟前
大模型应用开发学习第八天
大数据·人工智能·学习
liukuang11012 分钟前
伊利、蒙牛、飞鹤与光明乳业:存量时代的攻守之道与价值分化
大数据·人工智能·物联网
前进的李工17 分钟前
LangChain使用AI工具赋能:解锁大语言模型无限潜力
开发语言·人工智能·语言模型·langchain·大模型
北京耐用通信21 分钟前
无缝衔接·高效传输——耐达讯自动化CC-Link IE转Modbus TCP核心解决方案
网络·人工智能·物联网·网络协议·自动化·信息与通信
linux修理工21 分钟前
Claude code与CC-switch安装使用
运维·人工智能
GitCode官方24 分钟前
智谱 GLM-5.1 正式开源并上线 AtomGit AI!
人工智能·开源
Agent产品评测局28 分钟前
互联网行业自动化平台选型,运营全流程提效指南:2026企业级智能体架构与实战全解析
运维·人工智能·ai·chatgpt·架构·自动化