Mistral开源8X22B大模型,OpenAI更新GPT-4 Turbo视觉,都在欺负谷歌

真有围剿 Google 的态势啊!

在谷歌昨晚 Cloud Next 大会进行一系列重大发布时,你们都来抢热度:前有 OpenAI 更新 GPT-4 Turbo,后有 Mistral 开源 8X22B 的超大模型。

谷歌内心:南村群童欺我老无力。

第二大开源模型:Mixtral 8X22B

今年 1 月,Mistral AI 公布了 Mixtral 8x7B 的技术细节,并推出了 Mixtral 8x7B -- Instruct 聊天模型。该模型的性能在人类评估基准上明显超过了 GPT-3.5 Turbo、Claude-2.1、Gemini Pro 和 Llama 2 70B 聊天模型。

短短 3 个月后,Mistral AI 开源了 Mistral 8X22B 模型,为开源社区带来了又一个性能强劲的大模型。

有人已经查看了 Mistral 8X22B 模型的细节,模型文件大小约为 262 GB。

由此,Mistral 8X22B 仅次于 xAI 此前推出的 Grok-1(参数量为 3140 亿),成为迄今为止第二大开源模型。

还有人惊呼,MoE 圈子又来了个「大家伙」。MoE 即专家混合模型,此前 Grok-1 也为 MoE 模型。

GPT-4 Turbo 视觉功能新升级

另一边,OpenAI 宣布 GPT-4 Turbo with Vision 现在可以通过 API 使用了,并且 Vision 功能也可以使用 JSON 模式和函数调用了。

下面为 OpenAI 官网细节。

虽然如此,各路网友对 OpenAI 的小修小补「并不感冒」。

参考链接:

platform.openai.com/docs/models...

相关推荐
玖日大大21 小时前
损失函数详解:原理、分类与代码实现
人工智能
小陈phd21 小时前
大语言模型实战(十五)——MCP Sampling采样请求完全解析:LLM参数微调与人工干预的完美融合
人工智能·语言模型·自然语言处理
kuankeTech21 小时前
“AI+数据”驱动决策:外贸ERP陪伴新能源汽车走向世界的数字化伙伴
人工智能·汽车·软件开发·erp
取个名字真难呐21 小时前
个人思考-信号与系统、数值分析和神经网络
人工智能·深度学习·神经网络
Wzx19801221 小时前
2025年末AI跨年演讲
人工智能
海棠AI实验室21 小时前
第十四章:数据合并:merge / join(Pandas)
人工智能·pandas
ArmSoM21 小时前
ArmSoM CM5驱动全球首创AI预警浮,守护新西兰“搁浅海湾”的领航鲸
人工智能
bryant_meng21 小时前
【Robot Vacuum】learning notes
人工智能·扫地机·robot vacuum
公链开发21 小时前
NFT Marketplace与GameFi链游开发 - 达普韦伯全流程技术服务
人工智能
2503_9469718621 小时前
【CFD/MicroArch】2026年度高精度流体仿真与微资源调度基准索引 (Benchmark Index)
人工智能·微服务·数据集·工程学