IT评测·应用市场-qidao123.com技术社区

标题: 重磅!多语言医疗大模子MMed-Llama 3发布,首个开源多语言医疗语料库助力全 [打印本页]

作者: 老婆出轨    时间: 2025-2-16 04:38
标题: 重磅!多语言医疗大模子MMed-Llama 3发布,首个开源多语言医疗语料库助力全
研究配景

比年来,大型语言模子在医疗领域展现出巨大潜力。GPT-4和MedPalm-2等闭源模子在医疗问答中表现精彩,甚至乐成通过美国医疗执照考试(USMLE)。同时,开源模子如MEDITRON、PMC-LLaMA等也在逐步缩小与闭源模子的差距。
然而,目前医疗大模子主要局限于英语应用,这极大限定了其服务全球多语种人群的潜力。虽然BLOOM和InternLM 2等开源多语言模子在通用领域表现不错,但在非英语医疗查询方面表现欠佳,主要是因为通用数据集中医疗内容占比较少。
为解决这一问题,上海交通大学和上海人工智能实验室的研究团队发布了一项开创性工作,他们构建了首个大规模多语言医疗语料库MMedC,并基于此开发了高性能的开源多语言医疗大模子MMed-Llama 3。
主要贡献

论文的主要贡献可以概括为三个方面:




论文图1展示了团体框架,包罗MMedC语料库构建、MMedBench基准开发和模子评估三个主要部分
多语言医疗语料库MMedC详解

1. 数据泉源

MMedC的数据来自四个主要泉源:
a)医疗内容过滤

关键词密度盘算公式:
此中,表示文本总长度,表示关键词k在文本T中出现的次数。
b)医学讲义

c)医疗网站

d)现有小规模语料库

2. 数据分布


论文图2展示了MMedC的语言分布和各数据源的贡献情况:

多语言医疗基准MMedBench

1. 数据组成

MMedBench整合了多个现有医疗问答数据集:


论文图3展示了MMedBench的具体统计信息:

2. 评估指标

模子性能评估采用两个主要指标:

实验结果

1. 多语言评估


论文表1展示了在MMedBench上的多语言评估结果:

2. 英语基准测试


论文表3展示了在英语医疗基准上的表现:

这些结果证明MMed-Llama 3不仅在多语言场景表现精彩,在专门的英语医疗使命上也具有竞争力。
代码与数据开源

项目相关资源已全部开源:

总结与展望

这项工作初次构建了大规模多语言医疗语料库,为开发高性能多语言医疗大模子奠定了基础。MMed-Llama 3的优秀表现证明白这一方向的可行性和重要性。
将来工作将从以下几个方面继续推进:
这项工作为推动全球医疗AI发展迈出了重要一步,有望帮助更多非英语地区获得优质的AI医疗服务。
Q&A深度解析

Q1: MMedC语料库的数据质量如何保证?特别是从通用语料库筛选医疗内容的部分。
A: MMedC采用了多层次的质量控制机制:



Q2: 模子在天生解释(rationale)时如何保证准确性?评估尺度是什么?
A: 模子的解释天生和评估采用了多维度方法:




Q3: MMed-Llama 3相比其他开源模子的主要优势在那里?为什么能取得更好的效果?
A: MMed-Llama 3的优势主要表现在以下方面:




Q4: MMedBench基准测试的计划考虑了哪些因素?如何确保其全面性和代表性?
A: MMedBench的计划非常全面:




Q5: 论文中提到的自回归练习(auto-regressive training)具体是如何实现的?有什么特别的练习策略吗?
A: 自回归练习的具体实现包罗:



Q6: 模子在现实临床应用中可能面临哪些挑衅?论文提出了哪些解决方案?
A: 主要挑衅息争决方案包罗:




Q7: 论文中提到的多语言能力是如何实现平衡的?各语言间的性能差别是否明显?
A: 多语言能力平衡通过以下方式实现:



Q8: 模子的解释能力(rationale)是如何练习得到的?为什么这个功能很重要?
A: 解释能力的练习和重要性:



Q9: 针对论文提到的数据偏见问题,有什么具体的解决方案吗?
A: 数据偏见的解决方案包罗:



Q10: 模子在差别医学专业领域的性能是否有明显差别?如何进一步提拔单薄领域的表现?
A: 领域性能差别和提拔策略:



论文GitHub使用教程:MMedLM多语言医疗大模子论文复现指南

一、项目概述

1. 项目简介

本项目是Nature Communications发表的论文"Towards Building Multilingual Language Model for Medicine"的官方代码库。项目主要包含三个核心组件:

2. 相关资源链接

论文链接:

模子下载:

数据集:

二、环境配置

1. 硬件要求


2. 软件依赖

基础环境:
  1. # 主要依赖
  2. torch==1.13.0
  3. transformers==4.37.0
  4. # LoRA微调额外依赖
  5. peft  # 版本根据transformers选择
复制代码
三、代码结构

项目主要包含四个核心模块:
  1. MMedLM/
  2. ├── pretrain/         # MMedC预训练代码
  3. ├── finetune/         # MMedBench微调代码
  4. ├── inference/        # 模型推理代码
  5. ├── data_collection/  # 数据收集pipeline
复制代码
四、使用指南

1. 预练习阶段(Pretraining)

位置:pretrain/目次
主要步骤:
注意事项:

2. 微调阶段(Fine-tuning)

位置:finetune/目次
支持两种微调方式:
主要参数:
  1. # 全量微调配置
  2. global_batch_size = 128
  3. learning_rate = 1e-6
  4. data_type = "BF16"
  5. # LoRA配置
  6. rank = 16  # 默认推荐值
复制代码
3. 推理阶段(Inference)

位置:inference/目次
功能:

4. 数据网络Pipeline

位置:data_collection/目次
主要功能:

五、实验结果复现

1. 英语基准测试

模子在多个权势巨子医疗基准上的表现:

2. 多语言评估

在MMedBench上评估模子的:

六、常见问题解答




最后的最后

感谢你们的阅读和喜好,作为一位在一线互联网行业奋斗多年的老兵,我深知在这个瞬息万变的技术领域中,连续学习和进步的重要性。
为了帮助更多热爱技术、渴望成长的朋友,我特别整理了一份涵盖大模子领域的宝贵资料集。
这些资料不仅是我多年积累的心血结晶,也是我在行业一线实战经验的总结。
这些学习资料不仅深入浅出,而且非常实用,让大家系统而高效地掌握AI大模子的各个知识点。假如你愿意花时间沉下心来学习,信赖它们一定能为你提供实质性的帮助。
这份完整版的大模子 AI 学习资料已经上传CSDN,朋友们假如需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
大模子知识脑图

为了成为更好的 AI大模子 开发者,这里为大家提供了总的路线图。它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。

经典册本阅读

阅读AI大模子经典册本可以帮助读者提高技术程度,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验。对于想要深入学习AI大模子开发的读者来说,阅读经典册本是非常有必要的。

实战案例

光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到现实当中去,这时候可以搞点实战案例来学习。

面试资料

我们学习AI大模子必然是想找到高薪的工作,下面这些面试题都是总结当前最新、最热、最高频的面试题,并且每道题都有具体的答案,面试前刷完这套面试题资料,小小offer,不在话下

640套AI大模子陈诉合集

这套包含640份陈诉的合集,涵盖了AI大模子的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,照旧对AI大模子感爱好的爱好者,这套陈诉合集都将为您提供宝贵的信息和启示。

这份完整版的大模子 AI 学习资料已经上传CSDN,朋友们假如需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 IT评测·应用市场-qidao123.com技术社区 (https://dis.qidao123.com/) Powered by Discuz! X3.4