【Ollama】Ollama支持的主流模型列表

Ollama支持的主流模型列表

一、通用大语言模型

1. Meta Llama系列

  • Llama 3:Meta最新开源模型,支持多语言,性能接近GPT-4

    • llama3:8b(8B参数,适合日常对话)
    • llama3:70b(70B参数,适合复杂任务)
    • llama3.1:8b(升级版,增强了推理能力)
    • llama3.1:70b(大参数量版本,性能更强)
  • Llama 2:经典开源模型,稳定性好

    • llama2:7b
    • llama2:13b
    • llama2:70b

2. 国产模型

  • Qwen(通义千问):阿里云开发,中文表现优秀

    • qwen2:7b(7B参数,平衡性能与资源)
    • qwen2:14b(14B参数,更强推理能力)
    • qwen2.5:3b(轻量版本,适合资源受限环境)
    • qwen2.5:7b(平衡版本)
    • qwen2.5:14b(高性能版本)
  • DeepSeek-R1:深度求索开发,中文理解能力强

    • deepseek-r1:7b
    • deepseek-r1:14b
    • deepseek-r1:32b

3. 其他通用模型

  • Mistral:轻量高效,推理速度快

    • mistral:7b
    • mistral:8x7b(混合专家模型,性能更强)
  • Gemma:Google开源模型,适合多语言任务

    • gemma:2b(轻量版本)
    • gemma:7b(标准版本)
  • Falcon:阿联酋TII开发,多语言支持

    • falcon:7b
    • falcon:40b

二、代码专用模型

1. DeepSeek-Coder

  • 特点 :专为代码生成和理解优化,支持多种编程语言
    • deepseek-coder:1.3b(轻量版本)
    • deepseek-coder:6.7b(标准版本)
    • deepseek-coder:33b(高性能版本)

2. StarCoder

  • 特点 :GitHub与Hugging Face合作开发,代码库训练数据丰富
    • starcoder:15.5b

三、多模态模型

1. 视觉理解模型

  • Llama 3 Vision:支持图文理解,可处理图像输入

    • llama3.2-vision:1b(轻量版本)
    • llama3.2-vision:9b(标准版本)
  • CLIP:OpenAI开发,用于图像分类和文本-图像检索

    • clip:ViT-B/32

四、专业领域模型

1. 数学推理

  • Llama 3 Math :增强数学推理能力
    • llama3-math:70b

2. 医疗领域

  • Med-PaLM :专注医疗问答
    • med-palm:2b

五、模型选择建议

模型类型 推荐模型 适用场景 硬件要求
通用对话 llama3:8b, qwen2.5:7b 日常聊天、简单问答 8GB内存以上
复杂任务 llama3:70b, qwen2.5:14b 深度推理、专业知识问答 32GB内存以上
代码开发 deepseek-coder:6.7b 代码生成、代码理解 16GB内存以上
轻量部署 qwen2.5:3b, gemma:2b 资源受限环境、移动设备 4GB内存以上
多模态任务 llama3.2-vision:9b 图文理解、图像描述 16GB内存以上

六、使用方法

在Ollama中拉取和使用模型:

bash 复制代码
# 拉取模型
docker exec -it ollama ollama pull llama3:7b

# 运行模型
docker exec -it ollama ollama run llama3:7b

# 通过API调用
curl http://localhost:11434/api/generate \
  -d '{"model": "llama3:7b", "prompt": "你好,介绍一下自己", "stream": false}'

注意事项

  • 模型大小:参数量越大,性能越强,但需要更多硬件资源
  • 语言支持:国产模型(如Qwen、DeepSeek)对中文支持更好
  • 更新频率:Ollama会定期更新模型库,建议使用最新版本
  • 硬件限制:运行大模型时,确保系统有足够的内存和CPU/GPU资源
相关推荐
Daydream.V2 天前
从零搭建 AI Agent:LLM Agent+Function Calling+Dify 本地部署 + Coze 实战全攻略
人工智能·langchain·ollama·functioncalling·大模型部署
悟空码字3 天前
别再让大模型吃灰!Ollama 从安装到生产级调优,一篇搞定
llm·aigc·ollama
福大大架构师每日一题4 天前
ollama v0.23.2 更新:/api/show 缓存提升 6.7 倍,Claude Desktop 集成调整
缓存·ollama
小北的AI科技分享5 天前
大模型应用开发:从API调用到边缘推理的实战指南
应用·模型·延迟
流放深圳6 天前
抓住 AI 人工智能的风口之第 1 章 —— 8万字熟练掌握 SpringAI 编程核心概念
人工智能·大模型·ollama·springai
gs801406 天前
解决 Open WebUI 访问宿主机 Ollama API “连接超时/卡住”的终极指南
ollama·openwebui
AIDF20267 天前
看破 AI 的“马甲”——从算子到 ChatGPT
人工智能·chatgpt·应用·模型·算子
曲幽7 天前
初探:用 FastAPI 搭建你的第一个 AI Agent 接口
python·ai·llm·agent·fastapi·web·chat·httpx·ollama
小明说Java10 天前
Ollama本地安装基础教程
ollama·腾讯云ai代码助手
福大大架构师每日一题10 天前
ollama v0.23.0 发布:原生支持 Claude Desktop 模型推荐与底层稳定性全面升级
ollama