ollama网站模型(主要的 <3b 模型)特征汇总(2026.01采集)
| 模型名称 | 模型大小 | 公司 | 适用场景 | 特点 | 更新时间 |
|---|---|---|---|---|---|
| qwen | 0.5b | 阿里巴巴 | 多语言文本理解 | 参数范围从0.5B到110B Qwen 1.5模型系列 | Jan 13, 2025, 5:55 AM UTC |
| qwen2 | 0.5b | 阿里巴巴 | 通用AI应用 | 支持长达128K上下文窗口的多规格Qwen2模型家族 | Jan 13, 2025, 5:55 AM UTC |
| qwen2.5 | 0.5b | 阿里巴巴 | 多语言文本生成 | 支持长达128K Tokens上下文窗口 | Jan 13, 2025, 5:55 AM UTC |
| qwen2.5-coder | 0.5b | 阿里巴巴 | 代码生成和编程任务 | 在代码推理和修复能力上有显著提升的Qwen专用版本 | Jun 13, 2025, 5:55 AM UTC |
| qwen3 | 0.6b | 阿里巴巴 | 通用AI应用 | 采用MoE架构在推理速度上实现突破 | Oct 13, 2025, 5:55 AM UTC |
| tinydolphin | 1.1b | Eric Hartford | 对话任务 | 基于TinyLlama架构在Dolphin 2.8数据集训练的实验性模型 | Jan 13, 2025, 5:55 AM UTC |
| tinyllama | 1.1b | 独立研究者 | 资源高效推理 | 11亿参数在3万亿token上训练的紧凑型Llama架构模型 | Jan 13, 2025, 5:55 AM UTC |
| deepseek-coder | 1.3b | 深度求索 | 代码生成和理解 | 在2万亿代码和自然语言token上训练的13亿参数专用模型 | Jan 13, 2025, 5:55 AM UTC |
| deepcoder | 1.5b | Notus AI | 编程任务 | 15亿参数在O3-mini级别的完全开源代码模型 | Apr 13, 2025, 5:55 AM UTC |
| deepscaler | 1.5b | 深度求索 | 数学推理任务 | 采用GRPO算法训练的小参数高性能推理模型 | Feb 13, 2025, 5:55 AM UTC |
| deepseek-r1 | 1.5b | 深度求索 | 复杂推理任务 | 蒸馏版模型具备接近顶级模型的推理性能 | Jul 13, 2025, 5:55 AM UTC |
| opencoder | 1.5b | 开源社区 | 代码生成 | 支持中英双语、可复现训练过程的开源代码模型 | Jan 13, 2025, 5:55 AM UTC |
| qwen2-math | 1.5b | 阿里巴巴 | 数学问题解决 | 基于Qwen2架构特化训练的数学推理优化模型 | Jan 13, 2025, 5:55 AM UTC |
| yi-coder | 1.5b | 零一万物 | 代码生成任务 | 15亿参数规模下提供SOTA级编程性能 | Jan 13, 2025, 5:55 AM UTC |
| smollm | 135m | Hugging Face | 端侧部署 | 在高质量数据集上训练的135M到1.7B参数轻量级模型 | Jan 13, 2025, 5:55 AM UTC |
| smollm2 | 135m | Hugging Face | 资源受限环境 | 135M到1.7B参数的高效轻量级模型家族 | Jan 13, 2025, 5:55 AM UTC |
| granite3-moe | 1b | IBM | 边缘计算场景 | MoE架构优化的1B参数模型家族具备快速推理能力 | Jan 13, 2025, 5:55 AM UTC |
| granite3.1-moe | 1b | IBM | 企业级低延迟推理 | 混合专家架构在保持性能的同时降低计算资源需求 | Jan 13, 2025, 5:55 AM UTC |
| llama3.2 | 1b | Meta | 边缘计算和移动设备 | 轻量化设计支持视觉任务并与Llama 3.1 8B性能相当 | Jan 13, 2025, 5:55 AM UTC |
| starcoder | 1b | BigCode | 代码生成和补全 | 在80+编程语言上训练的开源代码模型 | Jan 13, 2025, 5:55 AM UTC |
| exaone-deep | 2.4b | LG AI Research | 深度推理任务 | MoE架构优化推理速度的多规格模型家族 | Apr 13, 2025, 5:55 AM UTC |
| dolphin-phi | 2.7b | Eric Hartford | 通用对话任务 | 无审查版本适合开放域对话 | Jan 13, 2025, 5:55 AM UTC |
| phi | 2.7b | Microsoft | 推理和语言理解 | 基础模型展现强大常识推理能力 | Jan 13, 2025, 5:55 AM UTC |
| functiongemma | 270m | 函数调用推理任务 | 基于Gemma 3骨干网络特化的轻量化模型 | Dec 23, 2025, 5:55 AM UTC | |
| codegemma | 2b | 代码生成和补全 | 基于Gemma架构专为编程任务优化的2B参数模型家族 | Jan 13, 2025, 5:55 AM UTC | |
| gemma | 2b | 通用语言任务 | 轻量高效适合资源受限环境 | Jan 13, 2025, 5:55 AM UTC | |
| gemma2 | 2b | 高性能推理任务 | 架构优化在单GPU上实现卓越性能 | Jan 13, 2025, 5:55 AM UTC | |
| granite3-dense | 2b | IBM | 企业RAG和工具调用场景 | 稠密架构优化的2B参数模型支持长上下文 | Jan 13, 2025, 5:55 AM UTC |
| granite3-guardian | 2b | IBM | AI安全检测 | 专门设计用于检测提示词和响应中风险的2B参数治理模型 | Jan 13, 2025, 5:55 AM UTC |
| granite3.1-dense | 2b | IBM | 企业级文本生成 | 在12万亿token上训练的2B参数稠密模型具备工具调用能力 | Jan 13, 2025, 5:55 AM UTC |
| granite3.2 | 2b | IBM | 长上下文推理 | 具备思考能力的2B参数长文本理解优化模型 | Mar 13, 2025, 5:55 AM UTC |
| granite3.3 | 2b | IBM | 企业级RAG和工具使用 | 2B参数模型在指令遵循和推理能力上显著提升 | Apr 13, 2025, 5:55 AM UTC |
| phi3.5 | 3.8b | Microsoft | 多语言理解和推理 | 轻量化设计支持128K上下文 | Jan 13, 2025, 5:55 AM UTC |
| phi4-mini | 3.8b | Microsoft | 多语言AI应用 | 38亿参数模型在保持推理能力的同时优化了端侧部署效率 | Mar 13, 2025, 5:55 AM UTC |
| granite4 | 350m | IBM | 企业级AI部署 | 在工具调用和RAG场景优化长上下文理解能力 | Nov 13, 2025, 5:55 AM UTC |
| deepseek-ocr | 3b | 深度求索 | 光学字符识别 | 30亿参数视觉语言模型支持高效token级别的OCR识别 | Dec 13, 2025, 5:55 AM UTC |
| granite-code | 3b | IBM | 代码智能应用 | 3B参数基础模型系列覆盖代码生成、翻译和缺陷修复场景 | Jan 13, 2025, 5:55 AM UTC |
| hermes3 | 3b | Nous Research | 通用任务和函数调用 | 基于llama3架构的微调和优化版本 | Jan 13, 2025, 5:55 AM UTC |
| phi3 | 3b | Microsoft | 本地部署的轻量级AI应用 | 在单GPU上实现高性能推理,涵盖多种规格 | Jan 13, 2025, 5:55 AM UTC |
| smallthinker | 3b | 独立研究者 | 轻量级推理任务 | 基于Qwen架构优化的3B参数高效推理模型 | Jan 13, 2025, 5:55 AM UTC |
| stable-code | 3b | Stability AI | 代码生成和补全 | 30亿参数模型性能媲美70亿参数的Code Llama 7B | Jan 13, 2025, 5:55 AM UTC |
| stablelm-zephyr | 3b | Stability AI | 对话生成任务 | 3B参数模型在消费级硬件上提供准确响应 | Jan 13, 2025, 5:55 AM UTC |
| starcoder2 | 3b | BigCode | 代码生成和理解 | 基于Stack数据集训练的透明化训练流程代码模型 | Jan 13, 2025, 5:55 AM UTC |
| olmo-3 | 7b | AI2 | 语言模型科学研究 | 完全开放数据和训练过程的可复现模型 | Dec 16, 2025, 5:55 AM UTC |