多任务学习的新招数:提示学习,让模型学习服从翻倍!更加安全! ...

络腮胡菲菲  金牌会员 | 昨天 03:42 | 来自手机 | 显示全部楼层 | 阅读模式
打印 上一主题 下一主题

主题 545|帖子 545|积分 1635

【提示学习】是一种新兴的范式,通过将自然语言提示嵌入到预练习模型中,引导模型适应特定的下游任务,而无需改变模型参数。这种方法利用了预练习模型在大规模数据上获得的知识,通过少量的参数调解实现快速任务适应。提示学习在多任务学习、范畴自适应等场景中展现出了显著的有用性,提高了模型的泛化能力和灵活性。别的,它还为解决模型在实际应用中的隐私保护题目提供了新思绪,如通过差分隐私技术保护提示数据的安全性。总的来说,提示学习为自然语言处理和计算机视觉范畴带来了一种高效、灵活且具有潜力的模型适配策略。
为了帮助各人全面掌握【提示学习】的方法并寻找创新点,本文总结了最近两年【提示学习】相关的25篇顶会顶刊论文研究成果,这些论文、来源、论文的代码都整理好了,希望能给各位的学术研究提供新的思绪。
三篇论文详解

1、Domain Adaptation via Prompt Learning

方法



  • 本文提出了一种新颖的无监视范畴自适应(UDA)方法,称为通过提示学习进行范畴适应(DAPL)。与传统的UDA方法不同,DAPL不通过最小化范畴间的统计差别或对抗性练习来对齐源域和目标域的特性空间,而是利用预练习的视觉-语言模型,并仅优化少少数参数。
  • DAPL的焦点头脑是将范畴信息嵌入到提示(prompts)中,提示是一种由自然语言生成的表示情势,用于执行分类任务。这种范畴信息仅由同一范畴的图像共享,从而根据每个范畴的特性动态适应分类器。
  • 提示由三部分组成:范畴不可知的上下文、范畴特定的上下文和类别标签(token)。每个图像通过提示中的类别标签与真实类别相对应。
  • 采用对比学习目标进行练习,图像和文本形成正例对仅当它们的范畴和类别分别匹配时,而其他环境为负例对。
  • 利用对比性语言图像预练习(CLIP)作为后端,以促进提示学习和对比学习。
创新点



  • 提示学习的应用:初次将提示学习应用于无监视范畴适应题目,利用自然语言生成的提示来适应不同范畴的特性。
  • 范畴特定上下文的利用:提出在提示中利用范畴特定的上下文,避免了以牺牲语义信息为代价的范畴对齐,能够为每个类别和范畴学习一连的语义表示。
  • 高效的练习和实现:与以往的方法相比,DAPL在多个跨范畴基准测试中不但表现更好,而且练习服从高,实现简朴。
  • 对比学习目标:通过对比学习目标,实现了范畴信息和类别信息的解耦,使得模型能够在不同范畴间有用迁移。
  • 跨范畴性能提拔:在Office-Home和VisDA-2017数据集上取得了开始进的性能,相较于强基线CLIP,正确率分别提高了2.5%。
  • 无监视范畴适应的新范式:通过嵌入范畴信息到提示中,而不是传统的特性空间对齐,DAPL提供了一种新的UDA范式,解决了传统方法大概引起的语义信息丢失题目。

2、Flocks of Stochastic Parrots: Differentially Private Prompt Learning for Large Language Models

方法



  • 论文提出了两种主要方法来实现对大型语言模型(LLMs)的隐私保护提示学习:

  • PromptDPSGD:这是一种参数高效的替代方法,用于在保持原始LLM参数稳定的同时,对软提示(soft prompts)进行隐私保护的梯度下降练习。该方法通过计算与提示输入相关的梯度,并应用差分隐私(DP)算法来更新提示嵌入,从而保护下游数据的隐私。
  • PromptPATE:这是一种针对离散提示(discrete prompts)的隐私保护学习方法。它利用了教师模型集合(即“随机鹦鹉群”)对私有数据集进行差分隐私学习,并通过对公共数据进行带噪声的多数投票来生成单个输出,以此实现隐私保护。
创新点



  • 初次提出:论文初次提出了针对提示数据的隐私保护方法,并通过实例化一种高效的成员资格推断攻击(MIA),验证了LLMs中提示数据的隐私风险。
  • PromptDPSGD:提出了一种新颖的算法,它优化了远少于LLM参数数目的提示参数,同时保持了原始LLM的冻结状态,提供了在保持隐私的同时进行有用学习的解决方案。
  • PromptPATE:提出了一种新颖的方法,它只需要对LLM进行黑盒访问,即可实现隐私保护的提示学习,使其能够容易地与现有的贸易API一起部署。
  • 隐私与实用性的平衡:通过实行,论文展示了所提出的方法能够在保持强大隐私保护的同时,实现与非隐私基线相近的下游任务性能。
  • 数据服从:PromptPATE方法利用了提示的数据服从,即利用少量的标记样本就能生成高性能的学生提示。
  • 扩展性:论文还探究了所提出方法的扩展性,包括对更大模型和更多提示数据的利用,表现出随着模型性能的提拔,隐私提示的性能也随之提高。

3、Hierarchical Prompt Learning for Multi-Task Learning

方法



  • 本文提出了一种名为条理化提示学习(Hierarchical Prompt, HiPro)的方法,用于多任务学习(Multi-Task Learning, MTL)。
  • HiPro基于视觉-语言模型(Vision-Language Models, VLMs),通过提示学习(Prompt Learning)来适应多个下游任务。
  • HiPro起首量化任务间的亲和度,构建一个条理化的任务树,该树通过聚合条理聚类实现。
  • 树的内部节点代表任务组,学习任务共享的提示(task-shared prompts),而叶节点学习针对每个任务的个体提示(task-individual prompts)。
  • 在推理时,HiPro通过合并与目标任务相关的提示生成的分类器权重,利用全部任务中的信息来提高单个任务的性能。
创新点



  • 条理化任务树:HiPro通过条理化聚类方法探索任务间的相关性,构建任务树,这有助于在不同粒度上捕捉任务间的共享信息。
  • 多粒度共享信息:与传统的单一任务共享提示或个体任务提示不同,HiPro学习了不同条理上的提示,这允许模型在保持任务特异性的同时,利用跨任务的共享知识。
  • 淘汰负迁移:条理化的布局有助于淘汰不同任务间大概存在的显著差别,从而低落负迁移的风险。
  • 有用的多任务学习:HiPro不但学习任务个体提示,还学习非叶节点上的多粒度任务共享提示,这为多任务学习提供了一种有用的策略。
  • 无需手动设计提示:HiPro通过数据驱动的方式自动学习提示,避免了手动设计提示的困难和大概的次优性。
  • 实行验证:在多个多任务学习数据集上的实行结果表明,HiPro方法有用,与其他提示学习方法相比,展现出显著的性能提拔。
  • 可视化分析:论文还提供了任务亲和度和条理化任务树的可视化分析,有助于更深入地理解模型的行为和任务之间的关系。

零基础怎样学习大模型 AI

领取方式在文末
为什么要学习大模型?

学习大模型课程的重要性在于它能够极大地促进个人在人工智能范畴的专业发展。大模型技术,如自然语言处理和图像辨认,正在推动着人工智能的新发展阶段。通过学习大模型课程,可以掌握设计和实现基于大模型的应用系统所需的根本原理和技术,从而提拔自己在数据处理、分析和决策订定方面的能力。别的,大模型技术在多个行业中的应用日益增长,掌握这一技术将有助于提高就业竞争力,并为未来的创新创业提供坚固的基础。
大模型典型应用场景

AI+教育:智能教学助手和自动评分系统使个性化教育成为大概。通过AI分析学生的学习数据,提供量身定制的学习方案,提高学习结果。
AI+医疗:智能诊断系统和个性化医疗方案让医疗服务更加精准高效。AI可以分析医学影像,辅助医生进行早期诊断,同时根据患者数据订定个性化治疗方案。
AI+金融:智能投顾和风险管理系统帮助投资者做出更明智的决策,并及时监控金融市场,辨认潜在风险。
AI+制造:智能制造和自动化工厂提高了生产服从和质量。通过AI技术,工厂可以实现设备推测性维护,淘汰停机时间。
AI+零售:智能保举系统和库存管理优化了用户体验和运营成本。AI可以分析用户行为,提供个性化商品保举,同时优化库存,淘汰浪费。
AI+交通:自动驾驶和智能交通管理提拔了交通安全和服从。AI技术可以实现车辆自动驾驶,并优化交通信号控制,淘汰拥堵。

这些案例表明,学习大模型课程不但能够提拔个人技能,还能为企业带来实际效益,推动行业创新发展。
学习资料领取

如果你对大模型感爱好,可以看看我整合而且整理成了一份AI大模型资料包,需要的小同伴文末免费领取哦,无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给各人发


部分资料展示

一、 AI大模型学习门路图

整个学习分为7个阶段

二、AI大模型实战案例

涵盖AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研职员、工程师,还是对AI大模型感爱好的爱好者,皆可用。

三、视频和册本PDF合集

从入门到进阶这里都有,跟着老师学习事半功倍。


四、LLM面试题


如果二维码失效,可以点击下方链接,一样的哦
【CSDN大礼包】最新AI大模型资源包,这里全都有!无偿分享!!!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

络腮胡菲菲

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表