微软:GPT-4o-mini只有8B,o1-mini仅100B

关于主流闭源LLM的参数规模一直讨论不断,在2024年最后2天来自微软的一篇关于检测和纠正临床笔记中医疗错误的测试基准MEDEC的研究一不小心直接漏了它们的参数规模:o1-preview, GPT-4,GPT-4o和Claude 3.5 Sonnet。

  1. Claude 3.5 Sonnet(2024-10-22),~175B

  2. ChatGPT,~175B

  3. GPT-4,约1.76T

  4. GPT-4o,~200B

  5. GPT-4o-mini(gpt-4o-2024-05-13)只有8B

  6. 最新的o1-mini(o1-mini-2024-09-12)仅100B

  7. o1-preview(o1-preview-2024-09-12)~300B

实验部分也是将大模型参数规模分为3挡:7-8B,~100-300B,~1.7T ,而GPT-4o-mini被分在第一档,只有8B着实让人有点不可思议~

PromptWizard 概述

复制代码
https://arxiv.org/pdf/2412.19260v1MEDEC: A BENCHMARK FOR MEDICAL ERROR DETECTION AND CORRECTION IN CLINICAL NOTES

来源 | PaperAgent

相关推荐
立秋678926 分钟前
从零开始:使用 PyTorch 构建深度学习网络
人工智能·pytorch·深度学习
21级的乐未央38 分钟前
论文阅读(四):Agglomerative Transformer for Human-Object Interaction Detection
论文阅读·深度学习·计算机视觉·transformer
埃菲尔铁塔_CV算法2 小时前
深度学习驱动下的目标检测技术:原理、算法与应用创新(二)
深度学习·算法·目标检测
KangkangLoveNLP2 小时前
Llama:开源的急先锋
人工智能·深度学习·神经网络·算法·机器学习·自然语言处理·llama
久邦科技3 小时前
《Deepseek从入门到精通》清华大学中文pdf完整版
人工智能·深度学习·机器学习
来自于狂人3 小时前
给大模型“贴膏药”:LoRA微调原理说明书
人工智能·深度学习·transformer
tyatyatya4 小时前
MATLAB中进行深度学习网络训练的模型评估步骤
网络·深度学习·matlab
carpell5 小时前
【语义分割专栏】:FCN原理篇
人工智能·深度学习·计算机视觉·语义分割
一点.点15 小时前
自然语言处理的简单介绍
人工智能·深度学习·自然语言处理
深度学习入门17 小时前
学习深度学习是否要先学习机器学习?
人工智能·深度学习·神经网络·学习·机器学习·ai·深度学习入门