论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
IT评测·应用市场-qidao123.com
»
论坛
›
开源技术
›
开源技术
›
(2024|JAMIA|上交,知识注入,指令微调,数据集构建,L ...
(2024|JAMIA|上交,知识注入,指令微调,数据集构建,LLaMA)PMC-LLaMA: ...
用户国营
金牌会员
|
2025-3-17 03:48:38
|
显示全部楼层
|
阅读模式
楼主
主题
980
|
帖子
980
|
积分
2940
马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
PMC-LLaMA: Towards Building Open-source Language Models for Medicine
目录
1. 择要
2. 相关工作
2.1 大型语言模型(LLM)
2.2 指令微调
2.3 医学基础语言模型
3. 数据集构建
3.1 基础医学知识数据集(MedC-K)
3.2 医学指令数据集(MedC-I)
4. 练习
5. 实行与评估
5.1 评测基准
5.2 结果分析
1. 择要
近年来,大型语言模型(LLMs)在自然语言理解方面表现出色。然而,在医学范畴,由于缺乏专业知识,现有模型容易产生看似正确但实则错误的结论,这大概会导致严峻结果。
别的,LLMs(如 ChatGPT 和 GPT-4)已广泛应用于各种任务,但其练习细节和架构未公开,限制了在医学范畴的适用性。开源LLMs(如 LLaMA 系列)在通用任务上表现良好,但在医学范畴仍存在以下挑战:
缺乏医学专业知识
:现有模型未经过医学范畴的深度练习,容易天生错误答案。
推理本领不足
:难以在临床场景下举行精准推理。
缺乏指令对齐
:无法灵活适应医学任务的多样性。
本文提出了
PMC-LLaMA
,一个专门针对医学范畴的开源语言模型。研究贡献包罗:
医学知识注入(Med-K)
:整合 480 万篇生物医学论文和 3 万本医学讲义,以加强医学专业知识的理解本领。
医学指令微调(Med-I)
:构建了一个包罗 202M tokens 的医学指令数据集,涵盖医学问答、推理和对话。
性能验证
:在多个医学问答基准测试中,PMC-LLaMA(13B 参数)表现优于 ChatGPT。
2. 相关工作
2.1 大型语言模型(LLM)
近年来,LLM 在自然语言处理范畴取得突破,如 ChatGPT、GPT-4 和 LLaMA。然而,现有 LLM 在医学范畴仍存在知识整合不足、推理本领有限等问题。
2.2 指令微调
指令微调(Instruction Tuning):使用通过指令形貌的任务集合对模型微调,以有用提高 LLM 的零样本和少样本泛化本领。
雷同的医学范畴模型(如 Med-Alpaca、Chat-Doctor、MedPaLM-2)已经举行了一些探索,但数据和练习细节仍不透明。
2.3 医学基础语言模型
已有的医学专用模型(如 BioBERT、BioMedGPT)重要基于 BERT 架构,规模较小,无法高效支持大规模医学任务。
本文的 PMC-LLaMA 采用更先辈的 LLM 架构,联合医学知识注入和指令微调,填补了这一空缺。
3. 数据集构建
3.1 基础医学知识数据集(MedC-K)
PMC-LLaMA 的知识注入依赖两大数据来源:
学术论文
:基于 PubMed Central (PMC) 选取了
480万篇
生物医学论文,共计
75B tokens
。
医学讲义
:收集了
3万本医学讲义
,涵盖
解剖学、药理学、病理学、肿瘤学
等多个范畴,共计
4B tokens
。
数据混合策略
:练习过程中,以
册本15: 论文4: 通用语料1
的比例举行混合,以包管医学基础知识的全面性。
3.2 医学指令数据集(MedC-I)
在知识注入后,进一步举行指令微调。数据来源包罗:
医学问答(QA)
:基于 MedMCQA、PubMedQA 等数据集,加强推理本领。
医学对话
:收罗医生-患者对话数据,提升模型对话本领。
医学知识图谱
:使用 UMLS 医学知识图谱,加强模型的实体识别和关系推理本领。
终极,构建了一个包罗
202M tokens
的医学指令数据集。
4. 练习
PMC-LLaMA 的练习分为两个阶段
:
1)知识注入阶段(Data-centric Knowledge Injection)
:
使用医学文献构建医学知识库,使模型掌握基础医学知识。
在
MedC-K
数据集上采用
自回归损失
举行练习,练习
5轮
,批量大小 3200,使用 32 张 A100 GPU。
2)医学指令微调(Medical-specific Instruction Tuning)
:
使用医学指令集微调模型,以适应临床对话、医学推理和问答任务。
在
MedC-I
数据集上举行
3轮练习
,批量大小 256,使用 8 张 A100 GPU。
采用全分片数据并行(Fully Sharded Data Parallel,FSDP)和 bf16 数据格式,优化练习服从。
5. 实行与评估
5.1 评测基准
采用 3 个医学问答数据集:
PubMedQA
(基于生物医学论文)
MedMCQA
(印度医学考试题库)
USMLE
(美国医学执照考试题库)
5.2 结果分析
1)消融实行
仅使用 LLaMA 基础模型,MedQA 准确率:
45.48
举行
知识注入
后,MedQA 准确率提升至
48.15
加入
指令微调
后,MedQA 准确率进一步提升至
49.32
联合
医学对话和知识图谱
后,终极达到
56.36
2)模型对比
PMC-LLaMA 在多个医学 QA 数据集上
超越ChatGPT
,且模型体积更小(13B vs 175B)。
论文地点:
https://arxiv.org/abs/2304.14454
项目页面:
https://github.com/chaoyi-wu/PMC-LLaMA
进 Q 学术交流群:922230617 或加 V:CV_EDPJ 进 V 交流群
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
用户国营
金牌会员
这个人很懒什么都没写!
楼主热帖
Beta 阶段事后分析
iOS全埋点解决方案-APP和H5打通 ...
Ubuntu22.04+ROS2中实现Moveit2控制gaz ...
Android studio实现网上订餐app
mysql主从搭建
完整版彻底卸载SQL Server2019
分布式锁
复杂「场景」数据导入导出
【云原生】-如何搭建配置Docker私有仓 ...
什么是谓词下推,看这一篇就够了 ...
标签云
AI
运维
CIO
存储
服务器
快速回复
返回顶部
返回列表