技术栈

mixtral

engchina
1 年前
mixtral·salesgpt
本地部署 SalesGPT最近有同事想玩玩 SalesGPT,结果发现使用 OpenAI API 时,会发生超过 Limit 的问题无法继续对话。
HuggingFace
1 年前
moe·moe模型·mixtral
欢迎 Mixtral - 当前 Hugging Face 上最先进的 MoE 模型最近,Mistral 发布了一个激动人心的大语言模型: Mixtral 8x7b,该模型把开放模型的性能带到了一个新高度,并在许多基准测试上表现优于 GPT-3.5。我们很高兴能够在 Hugging Face 生态系统中全面集成 Mixtral 以对其提供全方位的支持 🔥!