大语言模型总结整理(不定期更新)

《【快捷部署】016_Ollama(CPU only版)》 介绍了如何一键快捷部署Ollama,今天就来看一下受欢迎的模型。

模型 简介
gemma Gemma是由谷歌及其DeepMind团队开发的一个新的开放模型。 参数:2B(1.6GB)、7B(4.8GB)
llava LLaVA是一种多模式模型,它结合了视觉编码器和Vicuna,用于通用视觉和语言理解,实现了模仿多模式GPT-4精神的令人印象深刻的聊天功能。 参数:7B(4.7GB)、13B(8.0GB)、34B(20GB)
qwen Qwen是阿里云基于transformer的一系列大型语言模型,在大量数据上进行预训练,包括网络文本、书籍、代码等。 参数:0.5B、1.8B、4B (default)、7B、14B、 32B (new) 、 72B
llama2 Llama 2由Meta Platforms发布。该模型默认情况下支持4096的上下文长度。Llama 2聊天模型根据超过100万条人工注释进行了微调,专为聊天而设计。 参数:7B(3.8GB)、13B(7.4GB)、70B(39GB)
deepseek-coder DeepSeek编码程序是从零开始训练的87%的代码和13%的英语和中文自然语言。每个模型都在2万亿个tokens上进行了预训练。 参数:1.3B(0.8GB)、6.7B(3.8GB)、33B(19GB)
yi 零一万物出品 参数:6B(3.5GB)、34B(19GB)
phi 由微软研究公司开发的2.7B语言模型,展示了卓越的推理和语言理解能力。 参数:2.7B(1.6GB)
THUDM/GLM系列 智谱清言,https://chatglm.cn,知名的ChatGLM-6B、GLM-130B,以及最新的ChatGLM3-6B
nomic-embed-text 大上下文嵌入模型
grok-1 Grok-1,马斯克xAI,314B,这个的使用门槛就比较高了。

点击模型文字,进入ollama library。选择对应的模型,就可以看到下载的命令。

注意:运行7B模型至少需要8 GB RAM, 13B 模型至少需要16 GB RAM, 33B 需要 32 GB。

更多模型请参见:

https://ollama.com/library

https://huggingface.co/models

大模型榜单:https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard

往期精彩内容推荐

👉 【快捷部署】016_Ollama(CPU only版)

👉 【快捷部署】015_Minio(latest)

👉 【快捷部署】014_elasticsearch(7.6)

👉 「快速部署」第一期清单

👉 云原生:5分钟了解一下Kubernetes是什么

相关推荐
10000guo几秒前
kreuzberg MCP搭建以及配合claude使用
ai·word·ai编程
小芝麻咿呀几秒前
边缘计算网关-EG8200Mini导轨版
java·人工智能·边缘计算
ZC跨境爬虫6 分钟前
3D 地球卫星轨道可视化平台开发 Day5(简介接口对接+规划AI自动化卫星数据生成工作流)
前端·人工智能·3d·ai·自动化
木卫二号Coding7 分钟前
第八十四篇-V100-32G+Easyclaw+Ollama+Qwopus3.5-27B-V3
人工智能
xiaoxiang960910 分钟前
TDD测试驱动开发:从理论到实战的完整指南(含AI增强工作流)
人工智能·驱动开发·tdd
小张同学82411 分钟前
Python 封神技巧:1 行代码搞定 90% 日常数据处理,效率直接拉满
开发语言·人工智能·python
源码之家15 分钟前
计算机毕业设计:Python棉花产业数据可视化与预测系统 Django框架 ARIMA算法 数据分析 可视化 爬虫 大数据 大模型(建议收藏)✅
人工智能·python·算法·信息可视化·数据挖掘·django·课程设计
chatexcel15 分钟前
北大ChatExcel团队推出AI办公桌宠“仓鼠元元”:桌面宠物开始做效率助手了
人工智能·宠物
数字供应链安全产品选型15 分钟前
从影子AI到合规溯源:悬镜安全灵境AIDR如何覆盖智能体安全全生命周期?
人工智能
梵得儿SHI17 分钟前
(第一篇)Spring AI 架构设计与优化:从单实例到万级 QPS 分布式服务的演进之路
人工智能·分布式架构·spring ai·万级 qps·ai 服务高并发·模型 / 向量 / 业务·qps分布式服务