1760 亿参数、大小 281GB,Mixtral 8x22B 开源模型登场:可 Torrent 下载

转载《1760 亿参数、大小 281GB,Mixtral 8x22B 开源模型登场:可 Torrent 下载 - IT之家 (ithome.com)

IT之家 4 月 11 日消息,Mistral AI 公司近日推出了 Mixtral 8x22B 开源模型,共有 1760 亿个参数,Context 长度(上下文文本)为 6.5 万个 token,可以通过 Torrent 下载。

Mistral AI 公司自成立以来一直备受外界关注,"6 人团队,7 页 PPT,8 亿融资"不断缔造传奇,而且在得到微软的投资之后更是进入发展快车道。

该公司今天发布的 Mixtral 8x22B 开源模型是个开源模型,官方目前放出了 Torrent 种子链接,文件大小为 281GB。用户可以通过磁性链接直接下载,或者通过 HuggingFace 和 Perplexity AI Labs 平台进行下载。IT之家附上相关截图如下:

Mixtral 8x22B 共有 1760 亿个参数,Context 长度(上下文文本)为 6.5 万个 token,不过为单一任务可以调用部分模型(440 亿参数),因此使用起来更加灵活。

相关推荐
Mintopia21 小时前
🧠 量子计算对AIGC的潜在影响:Web技术的未来可能性
前端·javascript·aigc
在未来等你1 天前
AI Agent设计模式 Day 3:Self-Ask模式:自我提问驱动的推理链
设计模式·llm·react·ai agent·plan-and-execute
墨风如雪1 天前
全模态大模型『组合定律』首揭秘:美团UNO-Bench重塑评估格局
aigc
Sirius Wu1 天前
深入浅出:Tongyi DeepResearch技术解读
人工智能·语言模型·langchain·aigc
Larcher2 天前
新手也能学会,100行代码玩AI LOGO
前端·llm·html
架构师日志2 天前
使用大模型+LangExtract从复杂文本提取结构化数据(三)——提取表格列表类型数据
llm
智泊AI2 天前
AI圈炸锅了!大模型的下一片蓝海,彻底爆发了!
llm
常先森2 天前
【解密源码】 RAGFlow 切分最佳实践- naive parser 语义切块(excel & csv & txt 篇)
架构·llm·agent
大模型教程2 天前
RAG核心基础 Embedding 概念与技术详解
程序员·llm·agent
大模型教程2 天前
一文搞懂大模型:何为深入理解Agent?
程序员·llm·agent