微软:GPT-4o-mini只有8B,o1-mini仅100B

打印 上一主题 下一主题

主题 1049|帖子 1049|积分 3147

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

x
关于主流闭源LLM的参数规模一直讨论不断,在2024年最后2天来自微软的一篇关于检测和纠正临床笔记中医疗错误的测试基准MEDEC的研究一不警惕直接漏了它们的参数规模:o1-preview, GPT-4,GPT-4o和Claude 3.5 Sonnet。


  • Claude 3.5 Sonnet(2024-10-22),~175B
  • ChatGPT,~175B
  • GPT-4,约1.76T
  • GPT-4o,~200B
  • GPT-4o-mini(gpt-4o-2024-05-13)只有8B
  • 最新的o1-mini(o1-mini-2024-09-12)仅100B
  • o1-preview(o1-preview-2024-09-12)~300B


实行部门也是将大模型参数规模分为3挡:7-8B,~100-300B,~1.7T,而GPT-4o-mini被分在第一档,只有8B着实让人有点不可思议~
 PromptWizard 概述






  1. https://arxiv.org/pdf/2412.19260v1MEDEC: A BENCHMARK FOR MEDICAL ERROR DETECTION AND CORRECTION IN CLINICAL NOTES
复制代码
泉源 | PaperAgent











免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

钜形不锈钢水箱

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表