Mistral开源8X22B大模型,OpenAI更新GPT-4 Turbo视觉,都在欺负谷歌

真有围剿 Google 的态势啊!

在谷歌昨晚 Cloud Next 大会进行一系列重大发布时,你们都来抢热度:前有 OpenAI 更新 GPT-4 Turbo,后有 Mistral 开源 8X22B 的超大模型。

谷歌内心:南村群童欺我老无力。

第二大开源模型:Mixtral 8X22B

今年 1 月,Mistral AI 公布了 Mixtral 8x7B 的技术细节,并推出了 Mixtral 8x7B -- Instruct 聊天模型。该模型的性能在人类评估基准上明显超过了 GPT-3.5 Turbo、Claude-2.1、Gemini Pro 和 Llama 2 70B 聊天模型。

短短 3 个月后,Mistral AI 开源了 Mistral 8X22B 模型,为开源社区带来了又一个性能强劲的大模型。

有人已经查看了 Mistral 8X22B 模型的细节,模型文件大小约为 262 GB。

由此,Mistral 8X22B 仅次于 xAI 此前推出的 Grok-1(参数量为 3140 亿),成为迄今为止第二大开源模型。

还有人惊呼,MoE 圈子又来了个「大家伙」。MoE 即专家混合模型,此前 Grok-1 也为 MoE 模型。

GPT-4 Turbo 视觉功能新升级

另一边,OpenAI 宣布 GPT-4 Turbo with Vision 现在可以通过 API 使用了,并且 Vision 功能也可以使用 JSON 模式和函数调用了。

下面为 OpenAI 官网细节。

虽然如此,各路网友对 OpenAI 的小修小补「并不感冒」。

参考链接:

platform.openai.com/docs/models...

相关推荐
IT_陈寒几秒前
SpringBoot实战:3个隐藏技巧让你的应用性能飙升50%
前端·人工智能·后端
. . . . .4 分钟前
Claude Code Plugins 目录结构与加载机制
人工智能
GJGCY5 分钟前
2026企业级智能体架构:记忆机制、RAG检索与任务规划对比
人工智能·经验分享·ai·智能体
SuniaWang16 分钟前
《Spring AI + 大模型全栈实战》学习手册系列 ·专题三:《Embedding 模型选型指南:从 MMTEB 排名到实际应用》
人工智能·学习·spring
爱学习的程序媛22 分钟前
“数字孪生”详解与前端技术栈
前端·人工智能·计算机视觉·智慧城市·信息与通信
数业智能心大陆22 分钟前
科技赋能心育服务,心大陆 AI 减压舱守护校园心灵健康
人工智能·心理健康
安逸sgr29 分钟前
Agent 记忆系统完整实现(二):记忆系统架构全景——分层设计与核心模块!
ai·系统架构·大模型·aigc·负载均衡·agent
程序员Sunday30 分钟前
Claude Code 生态爆发:5个必知的新工具
前端·人工智能·后端
智算菩萨1 小时前
【How Far Are We From AGI】6 AGI的进化论——从胚胎到终极的三级跃迁与发展路线图
论文阅读·人工智能·深度学习·ai·agi
前端付豪1 小时前
实现一个用户可以有多个会话
前端·后端·llm