技术栈
mixtral
engchina
1 年前
mixtral
·
salesgpt
本地部署 SalesGPT
最近有同事想玩玩 SalesGPT,结果发现使用 OpenAI API 时,会发生超过 Limit 的问题无法继续对话。
HuggingFace
1 年前
moe
·
moe模型
·
mixtral
欢迎 Mixtral - 当前 Hugging Face 上最先进的 MoE 模型
最近,Mistral 发布了一个激动人心的大语言模型: Mixtral 8x7b,该模型把开放模型的性能带到了一个新高度,并在许多基准测试上表现优于 GPT-3.5。我们很高兴能够在 Hugging Face 生态系统中全面集成 Mixtral 以对其提供全方位的支持 🔥!