微软:GPT-4o-mini只有8B,o1-mini仅100B

关于主流闭源LLM的参数规模一直讨论不断,在2024年最后2天来自微软的一篇关于检测和纠正临床笔记中医疗错误的测试基准MEDEC的研究一不小心直接漏了它们的参数规模:o1-preview, GPT-4,GPT-4o和Claude 3.5 Sonnet。

  1. Claude 3.5 Sonnet(2024-10-22),~175B

  2. ChatGPT,~175B

  3. GPT-4,约1.76T

  4. GPT-4o,~200B

  5. GPT-4o-mini(gpt-4o-2024-05-13)只有8B

  6. 最新的o1-mini(o1-mini-2024-09-12)仅100B

  7. o1-preview(o1-preview-2024-09-12)~300B

实验部分也是将大模型参数规模分为3挡:7-8B,~100-300B,~1.7T ,而GPT-4o-mini被分在第一档,只有8B着实让人有点不可思议~

PromptWizard 概述

复制代码
https://arxiv.org/pdf/2412.19260v1MEDEC: A BENCHMARK FOR MEDICAL ERROR DETECTION AND CORRECTION IN CLINICAL NOTES

来源 | PaperAgent

相关推荐
人工智能培训几秒前
如何利用大语言模型的能力进行实体关系抽取
大数据·人工智能·深度学习·语言模型·自然语言处理·大模型·数字孪生
大写的z先生1 分钟前
【深度学习 | 论文精读】MMTC:融合社交网络特征与图文信息的多模态虚假新闻检测
深度学习·语言模型
一招定胜负43 分钟前
机器学习 + 深度学习经典面试真题
深度学习·机器学习·面试
啊巴矲1 小时前
小白从零开始勇闯人工智能:深度学习汇总(复习大纲篇)
人工智能·深度学习
梦醒过后说珍重1 小时前
Python 工程化实战:如何将复杂的EndoMamba感知损失封装为“即插即用”的独立模块包
python·深度学习
CoovallyAIHub1 小时前
编码智能体做 CV 任务,实际能力到哪一步了?——五项视觉任务实测解读
深度学习·算法·计算机视觉
梦醒过后说珍重1 小时前
PyTorch 工程实践:如何优雅地将 ViT 大模型封装为即插即用的感知损失(Perceptual Loss)
python·深度学习
霖大侠1 小时前
Towards Generalizable Scene Change Detection
人工智能·深度学习·机器学习
2601_950760791 小时前
UA-MHC H-2D(b)/EGSRNQDWL gp100四聚体-APC标记在抗原特异性T细胞检测中的应用
人工智能·深度学习·机器学习
deephub1 小时前
知识引导上下文优化(KgCoOp):一种解决灾难性遗忘的 Prompt Tuning 机制
人工智能·深度学习·机器学习·微调·prompt