qidao123.com技术社区-IT企服评测·应用市场

标题: (2024|JAMIA|上交,知识注入,指令微调,数据集构建,LLaMA)PMC-LLaMA: [打印本页]

作者: 用户国营    时间: 2025-3-17 03:48
标题: (2024|JAMIA|上交,知识注入,指令微调,数据集构建,LLaMA)PMC-LLaMA:
PMC-LLaMA: Towards Building Open-source Language Models for Medicine


目录
1. 择要
2. 相关工作
2.1 大型语言模型(LLM)
2.2 指令微调
2.3 医学基础语言模型
3. 数据集构建
3.1 基础医学知识数据集(MedC-K)
3.2 医学指令数据集(MedC-I)
4. 练习
5. 实行与评估
5.1 评测基准
5.2 结果分析


1. 择要

近年来,大型语言模型(LLMs)在自然语言理解方面表现出色。然而,在医学范畴,由于缺乏专业知识,现有模型容易产生看似正确但实则错误的结论,这大概会导致严峻结果。
别的,LLMs(如 ChatGPT 和 GPT-4)已广泛应用于各种任务,但其练习细节和架构未公开,限制了在医学范畴的适用性。开源LLMs(如 LLaMA 系列)在通用任务上表现良好,但在医学范畴仍存在以下挑战:

本文提出了 PMC-LLaMA,一个专门针对医学范畴的开源语言模型。研究贡献包罗:


2. 相关工作

2.1 大型语言模型(LLM)

近年来,LLM 在自然语言处理范畴取得突破,如 ChatGPT、GPT-4 和 LLaMA。然而,现有 LLM 在医学范畴仍存在知识整合不足、推理本领有限等问题。
2.2 指令微调

指令微调(Instruction Tuning):使用通过指令形貌的任务集合对模型微调,以有用提高 LLM 的零样本和少样本泛化本领。
雷同的医学范畴模型(如 Med-Alpaca、Chat-Doctor、MedPaLM-2)已经举行了一些探索,但数据和练习细节仍不透明。
2.3 医学基础语言模型

已有的医学专用模型(如 BioBERT、BioMedGPT)重要基于 BERT 架构,规模较小,无法高效支持大规模医学任务。
本文的 PMC-LLaMA 采用更先辈的 LLM 架构,联合医学知识注入和指令微调,填补了这一空缺。
  3. 数据集构建

3.1 基础医学知识数据集(MedC-K)

PMC-LLaMA 的知识注入依赖两大数据来源:

数据混合策略:练习过程中,以册本15: 论文4: 通用语料1的比例举行混合,以包管医学基础知识的全面性。
3.2 医学指令数据集(MedC-I)

在知识注入后,进一步举行指令微调。数据来源包罗:

终极,构建了一个包罗 202M tokens 的医学指令数据集。

4. 练习

PMC-LLaMA 的练习分为两个阶段
1)知识注入阶段(Data-centric Knowledge Injection)

2)医学指令微调(Medical-specific Instruction Tuning)

5. 实行与评估

5.1 评测基准

采用 3 个医学问答数据集:
PubMedQA(基于生物医学论文)
MedMCQA(印度医学考试题库)
USMLE(美国医学执照考试题库)
5.2 结果分析

1)消融实行


2)模型对比
PMC-LLaMA 在多个医学 QA 数据集上 超越ChatGPT,且模型体积更小(13B vs 175B)。

论文地点:https://arxiv.org/abs/2304.14454
项目页面:https://github.com/chaoyi-wu/PMC-LLaMA

进 Q 学术交流群:922230617 或加 V:CV_EDPJ 进 V 交流群

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 qidao123.com技术社区-IT企服评测·应用市场 (https://dis.qidao123.com/) Powered by Discuz! X3.4