1760 亿参数、大小 281GB,Mixtral 8x22B 开源模型登场:可 Torrent 下载

转载《1760 亿参数、大小 281GB,Mixtral 8x22B 开源模型登场:可 Torrent 下载 - IT之家 (ithome.com)

IT之家 4 月 11 日消息,Mistral AI 公司近日推出了 Mixtral 8x22B 开源模型,共有 1760 亿个参数,Context 长度(上下文文本)为 6.5 万个 token,可以通过 Torrent 下载。

Mistral AI 公司自成立以来一直备受外界关注,"6 人团队,7 页 PPT,8 亿融资"不断缔造传奇,而且在得到微软的投资之后更是进入发展快车道。

该公司今天发布的 Mixtral 8x22B 开源模型是个开源模型,官方目前放出了 Torrent 种子链接,文件大小为 281GB。用户可以通过磁性链接直接下载,或者通过 HuggingFace 和 Perplexity AI Labs 平台进行下载。IT之家附上相关截图如下:

Mixtral 8x22B 共有 1760 亿个参数,Context 长度(上下文文本)为 6.5 万个 token,不过为单一任务可以调用部分模型(440 亿参数),因此使用起来更加灵活。

相关推荐
kakaZhui4 小时前
【llm对话系统】大模型源码分析之 LLaMA 位置编码 RoPE
人工智能·深度学习·chatgpt·aigc·llama
山顶夕景5 小时前
【LLM-agent】(task2)用llama-index搭建AI Agent
大模型·llm·agent·智能体·llama-index
GISer_Jing9 小时前
AIGC时代的Vue或React前端开发
vue.js·react.js·aigc
kakaZhui12 小时前
【llm对话系统】大模型 Llama 源码分析之 LoRA 微调
pytorch·深度学习·chatgpt·aigc·llama
大模型之路13 小时前
DeepSeek Janus-Pro:多模态AI模型的突破与创新
llm·强化学习·deepseek·deepseekr1
qq_4177199819 小时前
DIFY源码解析
人工智能·aigc·源码·注释·dify
kakaZhui1 天前
【llm对话系统】大模型 Llama 源码分析之 Flash Attention
人工智能·chatgpt·aigc·llama
kakaZhui1 天前
【llm对话系统】大模型 Llama 源码分析之并行训练方案
人工智能·chatgpt·aigc·llama