微软:GPT-4o-mini只有8B,o1-mini仅100B

关于主流闭源LLM的参数规模一直讨论不断,在2024年最后2天来自微软的一篇关于检测和纠正临床笔记中医疗错误的测试基准MEDEC的研究一不小心直接漏了它们的参数规模:o1-preview, GPT-4,GPT-4o和Claude 3.5 Sonnet。

  1. Claude 3.5 Sonnet(2024-10-22),~175B

  2. ChatGPT,~175B

  3. GPT-4,约1.76T

  4. GPT-4o,~200B

  5. GPT-4o-mini(gpt-4o-2024-05-13)只有8B

  6. 最新的o1-mini(o1-mini-2024-09-12)仅100B

  7. o1-preview(o1-preview-2024-09-12)~300B

实验部分也是将大模型参数规模分为3挡:7-8B,~100-300B,~1.7T ,而GPT-4o-mini被分在第一档,只有8B着实让人有点不可思议~

PromptWizard 概述

https://arxiv.org/pdf/2412.19260v1MEDEC: A BENCHMARK FOR MEDICAL ERROR DETECTION AND CORRECTION IN CLINICAL NOTES

来源 | PaperAgent

相关推荐
铮铭33 分钟前
DINOv2+Qwen2.5-VL-2B+LoRA实现image caption的微调
python·深度学习·机器学习·具身智能·vla
梁小憨憨2 小时前
深度学习中的正则化方法
人工智能·笔记·深度学习
gs801402 小时前
使用 TFJob 进行分布式深度学习任务的多 GPU 协调指南
人工智能·分布式·深度学习·tensorflow·kubeflow·tfjob
FL16238631292 小时前
遥感图像塔吊检测数据集VOC+YOLO格式1567张1类别
深度学习·yolo·机器学习
微学AI2 小时前
内网穿透的应用-自托管文件分享系统PicoShare搭建流程与远程共享实战教程
深度学习·远程
代码行者1232 小时前
Gary Marcus 预测2025年AI发展的25项展望:深刻反思与前瞻
人工智能·深度学习·计算机视觉·百度·目标跟踪
深鱼~3 小时前
【多线程初阶篇¹】线程理解| 线程和进程的区别
java·开发语言·人工智能·深度学习·计算机视觉
chian-ocean4 小时前
循环神经网络指南:构建强大序列模型的秘密
人工智能·rnn·深度学习
cxr82811 小时前
五类推理(逻辑推理、概率推理、图推理、基于深度学习的推理)的开源库 (二)
人工智能·深度学习