Ollama支持的主流模型列表
一、通用大语言模型
1. Meta Llama系列
-
Llama 3:Meta最新开源模型,支持多语言,性能接近GPT-4
llama3:8b(8B参数,适合日常对话)llama3:70b(70B参数,适合复杂任务)llama3.1:8b(升级版,增强了推理能力)llama3.1:70b(大参数量版本,性能更强)
-
Llama 2:经典开源模型,稳定性好
llama2:7bllama2:13bllama2:70b
2. 国产模型
-
Qwen(通义千问):阿里云开发,中文表现优秀
qwen2:7b(7B参数,平衡性能与资源)qwen2:14b(14B参数,更强推理能力)qwen2.5:3b(轻量版本,适合资源受限环境)qwen2.5:7b(平衡版本)qwen2.5:14b(高性能版本)
-
DeepSeek-R1:深度求索开发,中文理解能力强
deepseek-r1:7bdeepseek-r1:14bdeepseek-r1:32b
3. 其他通用模型
-
Mistral:轻量高效,推理速度快
mistral:7bmistral:8x7b(混合专家模型,性能更强)
-
Gemma:Google开源模型,适合多语言任务
gemma:2b(轻量版本)gemma:7b(标准版本)
-
Falcon:阿联酋TII开发,多语言支持
falcon:7bfalcon:40b
二、代码专用模型
1. DeepSeek-Coder
- 特点 :专为代码生成和理解优化,支持多种编程语言
deepseek-coder:1.3b(轻量版本)deepseek-coder:6.7b(标准版本)deepseek-coder:33b(高性能版本)
2. StarCoder
- 特点 :GitHub与Hugging Face合作开发,代码库训练数据丰富
starcoder:15.5b
三、多模态模型
1. 视觉理解模型
-
Llama 3 Vision:支持图文理解,可处理图像输入
llama3.2-vision:1b(轻量版本)llama3.2-vision:9b(标准版本)
-
CLIP:OpenAI开发,用于图像分类和文本-图像检索
clip:ViT-B/32
四、专业领域模型
1. 数学推理
- Llama 3 Math :增强数学推理能力
llama3-math:70b
2. 医疗领域
- Med-PaLM :专注医疗问答
med-palm:2b
五、模型选择建议
| 模型类型 | 推荐模型 | 适用场景 | 硬件要求 |
|---|---|---|---|
| 通用对话 | llama3:8b, qwen2.5:7b | 日常聊天、简单问答 | 8GB内存以上 |
| 复杂任务 | llama3:70b, qwen2.5:14b | 深度推理、专业知识问答 | 32GB内存以上 |
| 代码开发 | deepseek-coder:6.7b | 代码生成、代码理解 | 16GB内存以上 |
| 轻量部署 | qwen2.5:3b, gemma:2b | 资源受限环境、移动设备 | 4GB内存以上 |
| 多模态任务 | llama3.2-vision:9b | 图文理解、图像描述 | 16GB内存以上 |
六、使用方法
在Ollama中拉取和使用模型:
bash
# 拉取模型
docker exec -it ollama ollama pull llama3:7b
# 运行模型
docker exec -it ollama ollama run llama3:7b
# 通过API调用
curl http://localhost:11434/api/generate \
-d '{"model": "llama3:7b", "prompt": "你好,介绍一下自己", "stream": false}'
注意事项
- 模型大小:参数量越大,性能越强,但需要更多硬件资源
- 语言支持:国产模型(如Qwen、DeepSeek)对中文支持更好
- 更新频率:Ollama会定期更新模型库,建议使用最新版本
- 硬件限制:运行大模型时,确保系统有足够的内存和CPU/GPU资源