1760 亿参数、大小 281GB,Mixtral 8x22B 开源模型登场:可 Torrent 下载

转载《1760 亿参数、大小 281GB,Mixtral 8x22B 开源模型登场:可 Torrent 下载 - IT之家 (ithome.com)

IT之家 4 月 11 日消息,Mistral AI 公司近日推出了 Mixtral 8x22B 开源模型,共有 1760 亿个参数,Context 长度(上下文文本)为 6.5 万个 token,可以通过 Torrent 下载。

Mistral AI 公司自成立以来一直备受外界关注,"6 人团队,7 页 PPT,8 亿融资"不断缔造传奇,而且在得到微软的投资之后更是进入发展快车道。

该公司今天发布的 Mixtral 8x22B 开源模型是个开源模型,官方目前放出了 Torrent 种子链接,文件大小为 281GB。用户可以通过磁性链接直接下载,或者通过 HuggingFace 和 Perplexity AI Labs 平台进行下载。IT之家附上相关截图如下:

Mixtral 8x22B 共有 1760 亿个参数,Context 长度(上下文文本)为 6.5 万个 token,不过为单一任务可以调用部分模型(440 亿参数),因此使用起来更加灵活。

相关推荐
摆烂仙君1 小时前
南京邮电大学金工实习答案
人工智能·深度学习·aigc
DisonTangor2 小时前
阿里巴巴开源移动端多模态LLM工具——MNN
人工智能·开源·aigc
乌旭8 小时前
开源GPU架构RISC-V VCIX的深度学习潜力测试:从RTL仿真到MNIST实战
人工智能·深度学习·stable diffusion·架构·aigc·midjourney·risc-v
RuizhiHe8 小时前
从零开始实现大语言模型(十六):加载开源大语言模型参数
人工智能·chatgpt·llm·大语言模型·deepseek·从零开始实现大语言模型
LeeZhao@8 小时前
【AGI】大模型微调数据集准备
人工智能·数据挖掘·aigc·agi
SunStriKE8 小时前
SgLang代码细读-1.从req到batch
llm·推理
RuizhiHe11 小时前
从零开始实现大语言模型(十五):并行计算与分布式机器学习
人工智能·chatgpt·llm·大语言模型·deepseek·从零开始实现大语言模型
SoraLuna1 天前
「Mac畅玩AIGC与多模态41」开发篇36 - 用 ArkTS 构建聚合搜索前端页面
前端·macos·aigc
SoraLuna2 天前
「Mac畅玩AIGC与多模态40」开发篇35 - 用 Python 开发服务对接 SearxNG 与本地知识库
python·macos·aigc
有梦想的攻城狮2 天前
大语言模型与多模态模型比较
人工智能·语言模型·自然语言处理·llm·大语言模型