微软:GPT-4o-mini只有8B,o1-mini仅100B

关于主流闭源LLM的参数规模一直讨论不断,在2024年最后2天来自微软的一篇关于检测和纠正临床笔记中医疗错误的测试基准MEDEC的研究一不小心直接漏了它们的参数规模:o1-preview, GPT-4,GPT-4o和Claude 3.5 Sonnet。

  1. Claude 3.5 Sonnet(2024-10-22),~175B

  2. ChatGPT,~175B

  3. GPT-4,约1.76T

  4. GPT-4o,~200B

  5. GPT-4o-mini(gpt-4o-2024-05-13)只有8B

  6. 最新的o1-mini(o1-mini-2024-09-12)仅100B

  7. o1-preview(o1-preview-2024-09-12)~300B

实验部分也是将大模型参数规模分为3挡:7-8B,~100-300B,~1.7T ,而GPT-4o-mini被分在第一档,只有8B着实让人有点不可思议~

PromptWizard 概述

复制代码
https://arxiv.org/pdf/2412.19260v1MEDEC: A BENCHMARK FOR MEDICAL ERROR DETECTION AND CORRECTION IN CLINICAL NOTES

来源 | PaperAgent

相关推荐
清铎4 分钟前
大模型训练_week3_day15_Llama概念_《穷途末路》
前端·javascript·人工智能·深度学习·自然语言处理·easyui
OJAC11113 分钟前
当DeepSeek V4遇见近屿智能:一场AI进化的叙事正在展开
人工智能·深度学习·机器学习
Quintus五等升1 小时前
深度学习②|实现人数回归预测
人工智能·深度学习·学习·机器学习·回归
AI街潜水的八角1 小时前
基于paddle框架的MobileNetV2深度学习神经网络番茄/西红柿叶子病虫害识别系统源码
深度学习·神经网络·paddle
计算机C9硕士_算法工程师1 小时前
基于深度学习风力叶片缺陷检测系统 无人机自动巡检风电场 - 风电运维智能诊断平台 - 缺陷生命周期追踪系统
运维·深度学习·无人机
大模型最新论文速读1 小时前
ProFit: 屏蔽低概率 token,解决 SFT 过拟合问题
人工智能·深度学习·机器学习·语言模型·自然语言处理
cskywit1 小时前
VMamba环境本地适配配置
人工智能·深度学习·mamba
victory04311 小时前
minimind SFT失败原因排查和解决办法
人工智能·python·深度学习
跳跳糖炒酸奶1 小时前
基于深度学习的单目深度估计综述阅读(1)
人工智能·深度学习·数码相机·单目深度估计
逄逄不是胖胖2 小时前
《动手学深度学习》-48全连接卷积神经网络FCN实现
人工智能·深度学习·cnn