1760 亿参数、大小 281GB,Mixtral 8x22B 开源模型登场:可 Torrent 下载

转载《1760 亿参数、大小 281GB,Mixtral 8x22B 开源模型登场:可 Torrent 下载 - IT之家 (ithome.com)

IT之家 4 月 11 日消息,Mistral AI 公司近日推出了 Mixtral 8x22B 开源模型,共有 1760 亿个参数,Context 长度(上下文文本)为 6.5 万个 token,可以通过 Torrent 下载。

Mistral AI 公司自成立以来一直备受外界关注,"6 人团队,7 页 PPT,8 亿融资"不断缔造传奇,而且在得到微软的投资之后更是进入发展快车道。

该公司今天发布的 Mixtral 8x22B 开源模型是个开源模型,官方目前放出了 Torrent 种子链接,文件大小为 281GB。用户可以通过磁性链接直接下载,或者通过 HuggingFace 和 Perplexity AI Labs 平台进行下载。IT之家附上相关截图如下:

Mixtral 8x22B 共有 1760 亿个参数,Context 长度(上下文文本)为 6.5 万个 token,不过为单一任务可以调用部分模型(440 亿参数),因此使用起来更加灵活。

相关推荐
张彦峰ZYF19 分钟前
大模型LLM ACA - ACP认证考试模拟试卷六
大模型·llm·aca - acp
swipe12 小时前
AI 应用里的 Memory,不是“保存聊天记录”,而是管理上下文预算
前端·llm·agent
橙序员小站12 小时前
Harness Engineering:从 OpenClaw 看 AI 助理的基础设施建设
后端·aigc·openai
GISer_Jing15 小时前
AI Agent操作系统架构师:Harness Engineer解析
前端·人工智能·ai·aigc
AAI机器之心16 小时前
这个RAG框架绝了:无论多少跳,LLM只调用两次,成本暴降
人工智能·python·ai·llm·agent·产品经理·rag
晴栀ay17 小时前
Generator + RxJS 重构 LLM 流式输出的“丝滑”架构
javascript·后端·llm
Langchain18 小时前
2026 年 AI 最值得关注的方向:上下文工程!
人工智能·python·自然语言处理·llm·agent·大模型开发·rag
陆业聪19 小时前
AI 时代最被低估的工程师技能:把需求写清楚
android·人工智能·aigc
GISer_Jing20 小时前
Claude Code架构深度解析:从核心文件到Harness的确定性控制体系
ai·架构·aigc
墨风如雪20 小时前
Obsidian 写作环境搭建:这 6 款插件让我的博客管理效率翻倍
aigc