微软:GPT-4o-mini只有8B,o1-mini仅100B

关于主流闭源LLM的参数规模一直讨论不断,在2024年最后2天来自微软的一篇关于检测和纠正临床笔记中医疗错误的测试基准MEDEC的研究一不小心直接漏了它们的参数规模:o1-preview, GPT-4,GPT-4o和Claude 3.5 Sonnet。

  1. Claude 3.5 Sonnet(2024-10-22),~175B

  2. ChatGPT,~175B

  3. GPT-4,约1.76T

  4. GPT-4o,~200B

  5. GPT-4o-mini(gpt-4o-2024-05-13)只有8B

  6. 最新的o1-mini(o1-mini-2024-09-12)仅100B

  7. o1-preview(o1-preview-2024-09-12)~300B

实验部分也是将大模型参数规模分为3挡:7-8B,~100-300B,~1.7T ,而GPT-4o-mini被分在第一档,只有8B着实让人有点不可思议~

PromptWizard 概述

复制代码
https://arxiv.org/pdf/2412.19260v1MEDEC: A BENCHMARK FOR MEDICAL ERROR DETECTION AND CORRECTION IN CLINICAL NOTES

来源 | PaperAgent

相关推荐
渡我白衣3 小时前
C++:链接的两难 —— ODR中的强与弱符号机制
开发语言·c++·人工智能·深度学习·网络协议·算法·机器学习
翔云 OCR API4 小时前
基于深度学习与OCR研发的报关单识别接口技术解析
人工智能·深度学习·ocr
3Bronze1Pyramid5 小时前
深度学习参数优化
人工智能·深度学习
小彭律师5 小时前
QCES项目Windows平台运行指南
深度学习·金融·科研·科研记录
九章云极AladdinEdu6 小时前
神经符号系统架构:结合深度学习与符号推理的混合智能
人工智能·深度学习·知识图谱补全·神经符号系统·可微分推理·符号规则引擎·混合智能
夫唯不争,故无尤也7 小时前
三大AI部署框架对比:本地权重与多模型协作实战
人工智能·python·深度学习
be_humble7 小时前
GPU机器-显卡占用
pytorch·python·深度学习
WWZZ20258 小时前
快速上手大模型:深度学习4(实践:多层感知机)
人工智能·深度学习·计算机视觉·机器人·大模型·slam·具身智能
大明者省10 小时前
案例分析交叉熵和交叉验证区别和联系
人工智能·深度学习·神经网络·计算机视觉·cnn
会笑的小熊16 小时前
论文阅读笔记——自注意力机制
深度学习·计算机视觉·自然语言处理