1760 亿参数、大小 281GB,Mixtral 8x22B 开源模型登场:可 Torrent 下载

转载《1760 亿参数、大小 281GB,Mixtral 8x22B 开源模型登场:可 Torrent 下载 - IT之家 (ithome.com)

IT之家 4 月 11 日消息,Mistral AI 公司近日推出了 Mixtral 8x22B 开源模型,共有 1760 亿个参数,Context 长度(上下文文本)为 6.5 万个 token,可以通过 Torrent 下载。

Mistral AI 公司自成立以来一直备受外界关注,"6 人团队,7 页 PPT,8 亿融资"不断缔造传奇,而且在得到微软的投资之后更是进入发展快车道。

该公司今天发布的 Mixtral 8x22B 开源模型是个开源模型,官方目前放出了 Torrent 种子链接,文件大小为 281GB。用户可以通过磁性链接直接下载,或者通过 HuggingFace 和 Perplexity AI Labs 平台进行下载。IT之家附上相关截图如下:

Mixtral 8x22B 共有 1760 亿个参数,Context 长度(上下文文本)为 6.5 万个 token,不过为单一任务可以调用部分模型(440 亿参数),因此使用起来更加灵活。

相关推荐
冬奇Lab21 分钟前
RAG 系列(二):用 LangChain 搭建你的第一个 RAG Pipeline
人工智能·langchain·llm
龙虾闯荡江湖5 小时前
2026年了,聊聊AI Agent工程化落地的几个关键问题
aigc
西索斯6 小时前
MiniMax M2.7 实测:和 Claude Sonnet 4.6、GPT-5.5 放一起跑,结果有点意外
aigc·claude
薛定谔的猫3696 小时前
深度解析:大语言模型 (LLM) Agent 的架构与演进趋势
ai·llm·agent·技术趋势·artificial intelligence
牛奶6 小时前
AI双层代码治理:Monorepo × Harness Engineering
前端·aigc·ai编程
han_7 小时前
一篇看懂国内外主流大模型:GPT、Claude、Gemini、DeepSeek、通义千问有什么区别?
前端·人工智能·llm
卢子墨7 小时前
Hermes Agent + 钉钉适配文档(重点解决图片引用识别问题)
人工智能·aigc·harness
小民AI实战笔记7 小时前
GitHub Actions + 钉钉,半小时搭个免费的热榜推送机器人
人工智能·aigc·ai编程
imbackneverdie8 小时前
sci期刊示意图、流程图、机制图怎么画?
人工智能·ai·aigc·科研绘图·ai工具·科研工具·ai生图
却尘9 小时前
Codex CLI 的 config.toml 比你想象的能玩:六层优先级、信任沙箱、还有一堆官方默默打开的好东西
aigc·openai·ai编程