使用Ollama简单部署本地Qwen2

Ollama 是一个开源的、本地运行的 AI 聊天模型,允许在自己的设备上运行 LLM,无需依赖云服务。它支持多种 LLM。目前Ollama library已经支持Qwen2,可以直接使用。

首先安装ollama, 访问官网 下载 ollama 对应版本 Download Ollama on macOS

windows下选择exe ,然后运行安装,安装完成后。添加一个系统环境变量OLLAMA_MODELS,否则Ollama 会将模型默认下载到C盘,比如我这里指了D盘:

然后打开powershell 运行一下,注意不是CMD是powershell ,看是否安装成功

然后我们安装qwen大模型

复制代码
ollama run qwen2:1.5b

1.5b就是对应安装Qwen2 1.5b大模型,如果使用7b 就是 ollama run qwen2:7b

运行完成后就可以和大模型对话了,不过ollama 只有命令行模式运行,这里我下载了chatbox软件来运行,打开软件 模型设置选择ollama 以及 对应的ollama模型。

运行结果:

文章地址 使用Ollama简单部署本地Qwen2 -- AI小站

相关推荐
herosunly16 小时前
大模型文档神器:合合信息大模型加速器
大模型·aigc·合合信息·文档神器·合合信息大模型加速器
般若Neo16 小时前
企业级大模型开发及应用 - 通用大模型与行业大模型
大模型·通用大模型·行业大模型·专属大模型
骚戴18 小时前
架构视角:Gemini 3.0 Pro 原生多模态能力的边界与工程落地
人工智能·大模型·llm·api·ai gateway
被制作时长两年半的个人练习生19 小时前
agent和知识库技术发展的一个可能性
大模型·agent·知识库
骚戴20 小时前
架构设计之道:构建高可用的大语言模型(LLM) Enterprise GenAI Gateway
java·人工智能·架构·大模型·gateway·api
AI大模型学徒1 天前
大模型应用开发(十六)_知识库2
chatgpt·大模型·知识库·deepseek
愤怒的可乐1 天前
从零构建大模型智能体:OpenAI Function Calling智能体实战
人工智能·大模型·智能体
Thomas_Cai2 天前
MCP服务创建指南
人工智能·大模型·agent·智能体·mcp
谁怕平生太急2 天前
浅读智谱经典之作《MobileRL》
大模型
scx_link2 天前
使用docker安装ollama及ollama拉取模型的总结
运维·docker·容器·ollama