论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
IT评测·应用市场-qidao123.com
»
论坛
›
数据库
›
分布式数据库
›
Mental-LLM——通过在线文本数据利用大型语言模型进行生 ...
Mental-LLM——通过在线文本数据利用大型语言模型进行生理健康预测 ...
欢乐狗
论坛元老
|
2024-9-4 10:12:32
|
显示全部楼层
|
阅读模式
楼主
主题
1015
|
帖子
1015
|
积分
3045
概述
源码地址:https://github.com/neuhai/Mental-LLM.git
论文地址:https://arxiv.org/abs/2307.14385
在一项关于哪些法律硕士得当精力健康护理的研究中,对以下五种法律硕士进行了比力
羊驼-7b。
羊驼-LoRA。
FLAN-T5-XXL
GPT-3.5
GPT-4.
作为本研究的配景,生理健康护理范畴是近年来备受贸易和构造管理研究关注的一个范畴。然而,关于 LLM 在生理健康护理范畴的体现及其准确性如何,还没有进行过全面的研究,因此本文将对 LLM 在综合生理健康护理范畴的潜力进行观察。
与以往研究的区别
本文介绍了几项相干研究,并不是说根本没有与生理保健有关的法律硕士观察和研究。不外,论文指出,大多数研究都不如本研究全面,而且大多数研究都是利用简单的提示工程进行的零点研究。
本研究与现有研究的不同之处还在于,本研究全面研究和评估了各种技能,以进步 LLM 在生理健康范畴的本领,如模型性能随提示的厘革、微调时应注意的数据量或项目,以及用户对文本推理的评估。本研究的目的是
研究结果
这项研究的结果可大致归纳如下
(i) 在生理健康护理范畴,我们证实 GPT-3 和 GPT-4 在其知识空间中存储了足够的知识。
(ii) 微调结果表明,LLMs 的本领可以在不同数据集上同时针对多个生理健康特定任务得到显著进步。
(iii) 我们为生理健康预测任务提供了开放的微调 LLM。
(iv) 提供了一个框架,包括数量和质量,以便为 LLMs 创建数据集,用于将来生理保健范畴的研究。
关于(i)和(ii)
下表显示了每个模型的结果,从最上面一行开始依次为:零镜头学习、零镜头学习 + 添加比题目更多的上下文、零镜头学习 + 赋予 LLM 脚色、零镜头学习 + 添加比题目更多的上下文 + 赋予 LLM 脚色。
下面是 “Few-Shot Learning”,此中介绍并回答了一些题目。
从这些结果来看,TASK#1 中体现最好的竟然是现有的 BERT 模型 Mental-RoBERTa。微调模型在其他任务中的体现也优于现有的 GPT,而在 GPT 内部的比力显示,"零镜头 "和 "少镜头 "之间没有显著差异,这表明 GPT 系列所把握的知识空间包罗了足够的生理健康知识。这表明,在 GPT 系列所把握的知识空间中,有足够的生理健康知识。
Alpaca 和 FLAN-T5 在微调前后的其他比力结果表明,微调前,Alpaca 和 FLAN-T5 的性能压倒性地优于 FLAN-T5。然而,微调后的结果显示,Alpaca 的性能已赶上 FLAN-T5。这一结果表明,与基于 LLM 的网络相比,FLAN-T5 等早期网络对自然语言的明白本领较差。因此,本研究以为,在微调过程中,Alpaca 可能从微调数据中吸收了更多信息,并接近了 FLAN-T5 的结果。
(iv) 关于
下图(论文中的图 1)显示了第(iii)点所述的已发布的 Mental-Alpaca 模型在改变训练集时的准确度厘革。结果表明,颠末微调后,准确率与基础模型相比根本有所进步。此外,可以看出数据集的大小与系统并不一定有直接关系。这表明,在 LLM 中微调数据集时,质量和多样性比数量题目更重要。
实验细节
至于提示语,我们实验了三种模式–无语境、在语境中包罗相似信息和让模型饰演专家脚色–以及后两种模式的组合,以解决从句子中预测生理状态标签的任务,并比力绩效。
结果表明,如前所述,无论提示中是否存在信息,GPT 系列的体现都很好,而且我们判定有关精力护理的知识已作为根本信息嵌入知识空间。
下图分别为 "零镜头 "和 "少镜头 "的提示设计。
接下来,实验中利用的数据集是 Dreaddit、DepSeverity、SDCNL 和 CSSRS-Suicide。下面将简要介绍每个数据集。
**Dreaddit
**Dreaddit 数据集是 Reddit(美国一个盛行的交际网站)上的帖子集合,包罗五个范畴(荼毒、交际、焦急、创伤后应激停滞和金融)的 10 个子数据集。多名流类注释者对海报中的某段文字是否表现压力进行了评估,并将注释汇总天生最终标签。该数据集用于后级二元压力预测(任务 1)。
**DepSeverity
**DepSeverity 数据集采取了与 Dreaddit 上收集的相同的提交内容,但不同之处在于它侧重于抑郁症:两名流类注释员根据 DSM-5 将提交内容分为四个抑郁症等级:极轻度、轻度、中度和重度。数据集以任务集的形式提供。该数据集用于两个贡献级任务。(i) 二元抑郁预测(即一篇帖子是否表明至少有轻度抑郁,任务 2)和 (ii) 四级抑郁预测(任务 3)。
**SDCNL
**SDCNL 数据集也是 Reddit 上帖子的集合,包括 r/SuicideWatch 和 r/Depression。通过人工标注,每篇帖子都被标志为表明有自尽意念或没有自尽意念。我们利用该数据集进行帖子级二元自尽意念预测(任务 4)。
**CSSRS-Suicide
**CSSRS-Suicide 数据集包罗来自 15 个生理健康相干子论坛的贡献,四名活跃的精力病学家按照哥伦比亚自尽严峻水平评定量表(C-SSRS)的指导原则对 500 名用户进行了注释。我们从五个层面临用户进行了人工标注:支持、指标、意念、行为和自尽未遂风险。我们利用该数据集完成了两项用户级任务:二元自尽风险预测(即用户是否至少体现出一个自尽指标,任务 5)和五级自尽风险预测(任务 6)。
训练数据和测试数据的分割比例以及数据数量如下图所示。
这些结果已在前面介绍过。
总结
当没有用于微调的数据和计算资源时,利用注意任务解决的 LLM 可能会产生更好的结果。在有足够数据和计算资源的环境下,对基于对话的模型进行微调已被证实是更好的选择。
另一方面,我们也注意到,像 Alpaca 这样具有交互式对话功能的模型可能更得当下游应用,比方为最终用户提供生理健康支持。
将来的挑衅有两个
必要进行更多的案例研究,使其更接近实际应用。
多个数据集,必要利用更多 LLM 进行验证
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
欢乐狗
论坛元老
这个人很懒什么都没写!
楼主热帖
C# 读写文件从用户态切到内核态,到底 ...
LeetCode刷题100道,让你滚瓜烂熟拿下S ...
我的 Java 学习&面试网站又又又升级了 ...
SQL server 2008 r2 安装教程
不到一周我开发出了属于自己的知识共享 ...
基于梯度优化的混沌PSO算法matlab仿真 ...
x64dbg 配置插件SDK开发环境
dfs学习笔记
Spring Boot 多数据源配置
KubeEdge在边缘计算领域的安全防护及洞 ...
标签云
AI
运维
CIO
存储
服务器
浏览过的版块
程序人生
前端开发
快速回复
返回顶部
返回列表