A Comprehensive Study of Knowledge Editing for Large Language Models

打印 上一主题 下一主题

主题 528|帖子 528|积分 1584



大型语言模型(LLMs)在明白和生成与人类交换密切相干的文本方面表现出了非凡的本领。然而,一个主要的限制在于练习期间的大量计算需求,这是由于它们的广泛参数化而产生的。世界的动态性质进一步加剧了这一挑衅,必要经常更新 LLMs 以改正过时的信息或整合新知识,从而确保其持续的相干性。请留意,许多应用步伐必要在练习后不停调整模型,以办理缺陷或不良行为。人们对高效、轻量级的动态模型修改方法越来越感兴趣。为此,近年来,知识编辑 LLMs 技能发达发展,其目标是有效地修改 LLMs 特定域内的行为,同时保持各种输入的团体性能。在本文中,我们首先界说了知识编辑问题,然后对前沿方法进行了全面的回顾。从教育和认知研究理论[1–3]中汲取灵感,我们提出了一个同一的分类准则,将知识编辑方法分为三类:诉诸外部知识将知识归并到模型中编辑内在知识。此外,我们还引入了一个新的基准 KnowEdit,用于对具有代表性的知识编辑方法进行全面的实证评估。此外,我们还提供了对知识位置的深入分析,可以更深入地明白其中 LLMs 固有的知识结构。 最初被假想针对 LLMs 的一种有效引导的手段,我们希望从知识编辑研究中得到的见解可以展现 LLMs 的底层知识机制。为了促进未来的研究,我们发布了一个开源框架 EasyEdit,它将使从业者能够高效、灵活地实行 LLMs。最后,我们讨论了知识编辑的几种潜伏应用,概述了其广泛而有影响力的影响。
2.1. Introduction

知识是人类智慧和文明的基本组成部分。它的系统结构使我们能够通过象征性手段来表现有形实体或描画原则,从而提供了促进复杂行为或任务表达的本领。在我们的一生中,我们人类不停积聚丰富的知识,并学会在各种情况下顺应性地应用它。对知识本质以及我们获取、保存息争释知识的过程的长期探索继承吸引着科学家们,这不仅仅是一种技能追求,而是反映人类认知、沟通和智力的玄妙复杂性的旅程。
最近,像GPT-4这样的大型语言模型(LLMs)在自然语言处理(NLP)中展示了一种非凡的本领,可以保存大量的知识,可以说高出了人类的本领。这一成就可以归因于处理和压缩大量数据的 LLMs,有可能形成更简便、连贯和可解释的底层生成过程模型,基本上创建了一种“世界模型”。例如,Dai等[39]提出了知识神经元(KN)理论,该理论提出语言模型的功能类似于键值记忆。在这里,焦点区域的多层感知器(MLP)权重可能在从练习语料库中回想事实方面发挥关键作用,这表明在练习语料库中 LLMs 存在一种更加结构化和可检索的知识存储形式。进一步的见解来自于明白和操纵复杂战略环境的本领 LLMs,而Li等[43]已经证明,在《奥赛罗》等棋盘游戏中,经过练习进行下一个 token 猜测的 transformer,可以明白表现游戏的状态。Patel 和 Pavlick 展现了在 LLMs 给定上下文中可以跟踪主体的布尔状态,并学习反映感知性、符号概念的表征。这种双重本领表明,LLMs 可以作为广泛的知识库,不仅可以存储大量信息,而且还可以反映人类认知过程的方式构建信息。
然而,由于练习的截止时间,它们LLMs存在一些局限性,如事实谬误、可能产生有害内容以及过时的知识。为改正这些问题而进行的再培训既昂贵又耗时。为了办理这个问题,近年来,专门针对 LLMs的知识编辑技能的发展激增,这使得对模型进行具有成本效益的事后修改成为可能。该技能侧重于在不影响团体性能的情况下进行调整的特定范畴,可以资助明白怎样LLMs表现和处理信息,这对于确保人工智能(AI)应用的公平性和安全性至关重要。
本文首先试图对 LLMs 知识编辑的发展和最新希望进行全面的研究。我们首先介绍了 Transformers 的架构、知识存储的机制LLMs(§2.1),以及相干技能,包括参数高效微调(PEFT)、知识加强、继承学习和机器学习(§2.2)。然后,我们初步的(§3.1),正式描述了知识编辑问题(§3.2),并提出了一种新的分类法(§3.3),以提供基于教育和认知研究理论的知识编辑方法的同一观点。具体来说,我们将知识编辑LLMs分为:求助于外部知识(§3.3.1)、将知识归并到模型(§3.3.2)和编辑内在知识(§3.3.3)方法。我们的分类标准总结如下:


  • 求助于外部知识。这种方法类似于人类认知过程中的识别阶段,必要在相干背景下打仗到新知识,就像人们第一次遇到新信息一样。例如,提供说明事实更新的句子作为模型的演示,可以对知识进行初步识别以进行编辑。
  • 将知识归并到模型中。这种方法与人类认知过程中的关联短语非常相似,其中新知识与模型中的现有知识之间形成了某种联系。这种方法将输出或中间输出与新学习的知识表现进行团结或替换。
  • 编辑内在知识。这种知识编辑方法类似于人类认知过程中的掌握阶段。它涉及模型通过修改权重并可靠地利用它们将知识完全集成到其参数中。
然后,本文涉及在 12 个 NLP 数据集上进行的广泛而全面的实验。这些都是精心计划的,用于评估性能 (§4)、可用性和潜伏机制,并完成深入分析 (§5) 等方面。我们研究的主要见解总结如下:


  • 性能。我们构建了一个新的基准,名为KnowEdit,并报告了前沿知识编辑方法的实证结果 LLMs,提供了公平的比力,并说明了它们在知识插入、修改和擦除设置中的团体性能。
  • 可用性。我们说明了知识编辑对一般任务和多任务知识编辑的影响,这意味着当代知识编辑方法在实行事实更新方面是有效的,同时对模型的认知本领和跨不同知识范畴的顺应性干扰最小。
  • 机制。我们观察到,在编辑 LLMs 的值层中的一列或多列上有一个明显的焦点。此外,我们发现知识定位的过程(例如,因果分析)往往只确定与相干实体相干的区域,而不是整个事实背景,这表明这可能是 LLMs 通过回想从他们的预练习语料库中记住的信息或通过多步推理过程来得出答案。此外,我们还深入研究了知识编辑 LLMs 可能导致意想不到的后果的可能性,这是一个值得仔细考虑的方面。
最后,我们深入研究了知识编辑的多方面应用,从各种角度(§6)研究了其潜力,包括高效的机器学习、AI 生成内容 (AIGC)、可信 AI 和人机交互(个性化署理)。此外,我们的讨论还延伸到知识编辑技能的更广泛影响,特别关注能源斲丧和可解释性等方面(§7)。本文旨在为进一步LLMs研究提供催化剂,夸大服从和创新。为了支持和鼓励未来的研究,我们将使我们的工具、代码、数据拆分和经过练习的模型检查点可以公开访问。
2.2. Background

2.2.1. Large Language Models

2.2.1.1. Transformers for LLM

Transformer 是现代 LLMs 计划的基石,代表了与从前的序列学习方法相比重大变化。将 Transformer 作为编码器-解码器框架引入,其中编码器息争码器都由一系列相互堆叠的相同层组成。该架构中的每个模块都配备了一个自留意力模块和一个完全毗连的前馈神经网络。独特的是,解码器中的模块还包罗一个额外的交叉留意力层,位于自留意力层上方,旨在有效地捕捉和集成来自编码器的信息。
自留意力模块 (SelfAttn) 自留意力机制是 Transformer 的一个关键功能,使其能够有效地处理数据序列。该模块使编码器中的每个位置都能关注前一层中的所有位置,从而有效地捕捉嵌入在序列中的上下文信息。自留意力机制的数学表现如下:


前馈模块 (FFN) 在 Transformer 中的每个留意力层之后是一个完全毗连的前馈神经网络 (FFN)。这个特定组件由两个线性变换组成,它们之间有一个 ReLU 激活函数。FFN的结构可以简明扼要地描述如下:


自出现以来,Transformer 模型已经彻底改变了 NLP 范畴。其顺应性强且高效的架构促进了各种 NLP 任务的进步,例如问答、文本摘要和机器翻译系统。该模型的影响超越了 NLP,影响了机器学习的其他范畴,并为构建复杂有效的神经网络架构设定了新标准。
2.2.1.2. Mechanism of Knowledge Storage in LLMs

Transformer的卓越性能部分归因于其在其参数内存储大量信息的本领,包括语言[81]、常识[82-84]、算术和世界知识[48,85-87]。然而,这些知识在 LLMs 内部的组成方式在很大程度上仍然是个谜。目前的研究工作致力于解释 LLMs 的机制,特别是知识存储的复杂性,图 1 说明了其中的一些研究结果。


一个关键的研究范畴是确定知识在模型中的具体位置。Jawahar 等分析了 BERT 所明白的英语语言结构的复杂性。他们的研究结果表明,BERT 的短语表现主要在较低层捕捉短语级信息,并在中间层编码复杂的语言元素条理结构。这种条理结构的特点是基础层的表面特征和中心层的句法特征,并在最上层的语义特征达到顶峰。Geva等人提出,Transformer 模型中的 FFN 层功能类似于 key-value 记忆。他们发起 FFN 的输入作为 query 运行,FFN 层的第一层表现 key,第二层对应于 value。他们发现,人类可解释的浅层输入模式会触发每个关键神经元,而相应的 value 神经元会存储下一个 token 的输出概率。因此,最后一层 FFN 的输出可以明白为激活值的加权和。此外,它们还表明,value 向量通常表现了可解释的概念和知识,这些概念和知识可以通过特定的操作得到强化或削弱。在此基础上,Dai等引入了“知识神经元”的概念,以为知识被定位在语言模型最上层的一小部分FFN神经元中。这些神经元是通过分析各种提示的整合梯度来识别的。同样,Meng et al. 接纳一种称为“因果追踪”的方法来评估隐藏状态或激活的间接影响,展现了事实知识主要存在于此类模型的早期层FFN中。此外,Chen等提出了一个风趣的发现,即语言模型包罗表达多语言知识的语言独立神经元和通过应用集成梯度方法传达冗余信息的退化神经元。同时,Zhao et al.观察到好像 LLMs 拥有专门的负责处理多种语言的语言区域。
Gueta等以为,对于微调的语言模型来说,知识是权重空间中的一个区域。他们发现,在相似的数据集上微调预练习模型后,生成的模型在权重空间上相互接近。最近的兴趣还围绕着分析单个神经元的不同 LLMs 功能。然而,必要留意的是,一些研究职员告诫不要过分解读这些发现,夸大相干性不代表真正的机制。虽然 MLP 神经元可能表现出可以通过语言学视角解释的模式,但它们并不肯定在传统意义上“存储”知识,无论是语言学的还是事实的。
因此,关于 LLMs 怎样检索和利用这些存储的知识的问题仍然悬而未决,一些工作已经开始揭开这个谜团。Geva等分析了模型中的信息流,发现自留意力模型在计算过程中进行属性提取,其灵感来自电路理论。Foote等提出了 Neuron to Graph(N2G),这是一种创新工具,可以自动从练习神经元的数据会合提取神经元的行为,并将其转换为可解释的图。此外,Hernandez 等将 Transformers 中的关系知识概念化为线性仿射函数,将主体映射到对象。至于其他知识,Gurnee 和 Tegmark发现,可以学习多个尺度上的空间和时间的线性表现,LLMs 并识别出可靠编码空间和时间坐标的单个“空间神经元”和“时间神经元”。然而,必须承认,这些研究主要会合在个人知识事实的表现上。更广泛的挑衅在于全面明白各种知识链怎样在这些复杂的模型中错综复杂地组织和相互联系。
2.2.2. Related Techniques

参数高效微调(Parameter-efficient Fine-tuning) 微调所有参数的计算成本很高。为了实现高效的调整,已经提出了参数高效调谐(PET)[108,109]技能,以匹配完全的微调性能,同时仅更新最少的参数。PET 由三种不同的范式组成:基于加法基于规格基于重新参数化的方法。其它方法引入了额外的可练习神经模块或参数,这些模块或参数在原始模型或过程中不存在。一个典型的例子是 Adapter,正如Houlsby等人[110]所讨论的那样。另一方面,基于规范的方法涉及微调选定数目标参数,同时保持模型的大部分参数稳定。这一类别中一个值得留意的方法是 LoRA
通过微调少量参数,PET 方法旨在最大限度地进步模型性能,同时减少所需的资源和调整时间。PET技能很有希望,由于知识编辑旨在有效地修改模型行为。但是,PET 通常用于进步任务性能,而不是专门编辑知识。现有的 PET 方法在知识编辑中的功效在很大程度上仍未得到探索。研究怎样利用 PET 进行高效和精确的知识更新为未来的工作提供了一个风趣的方向。
对 LLMs 进行知识加强(Knowledge Augmentation for LLMs)LLMs 仍然有很多问题不知道答案,因此提出了许多知识加强方法来资助模型处理这一任务。最流行的方法是检索加强方法(RAG)。借助与输入相干的检索到的知识或上下文,模型可以给出所需的输出。检索到的信息包括输入层、中间层和输出层。在输入阶段,检索到的文本将与原始输入文本毗连起来。在一些工作中,检索到被集成到 transformer 的中间层[122–124]。在输出阶段,在输出阶段,对检索到的组件和 LLM 中的 token 分布进行插值。
知识加强方法是办理 LLMs 缺失或错误信息的好方法,但它仍然有一些缺点。作为一种暂时办理方案,检索方法存在检索结果和关联性较差的问题。检索到的数据通常包罗一些噪声,例如与问题无关但可能与不同问题相干的附加内容(即不肯定是随机噪声)。在这些情况下,模型无法区分回答问题所需的知识,从而导致虚伪推理和性能降落。同时,检索通常在更广泛的相干段落级别上运行,而没有对模型中修改的信息进行细粒度的控制。
持续学习(Continual learning,CL)也称为终身机器学习或增量学习,是指机器学习模型在保存先前学习的知识的同时,不停获取新技能和学习新任务的本领。这类似于人类在其一生中怎样通过不停积聚新信息和技能而不忘记旧信息和技能来学习。传统的机器学习模型很难明决这个问题,由于它们是在独立且相同分布的数据上练习的。当分布发生变化或遇到新任务时,由于劫难性的忘记,它们在旧任务上的性能会显着降落。正在探索的一些关键技能包括 replay-based 方法,regularization-based 方法和 dynamic architecture 方法。持续学习的重点是让机器学习模型能够随着时间的推移学习新任务并顺应新范畴,而不会忘记早期的任务,这类似于知识编辑的目标。相比之下,知识编辑专门侧重于操作和更新由预练习语言模型学习的内部知识表现,而不考虑底层任务或范畴。知识编辑的目标是动态地优化语言明白,而与终极应用步伐无关,从而办理摆设后预练习语言模型的“固定性”问题。这两个范畴对于开辟人工智能系统都很重要,这些系统可以在其一生中逐步获取和灵活应用知识。
此外,模型能够丢弃不良(错误)行为至关重要,这与机器学习的概念划一[142\u2012146]。Chen 和 Yang [147] 提出了一种高效的学习框架 EUL,该框架 EUL 可以通过在数据删除后无需重新练习整个模型即可高效更新LLMs,通过将选择性师生目标学习的轻量级学习层引入 Transformer 中。然而,知识编辑不仅仅是通过自动优化或擦除模型的学习知识库来取消学习。机器学习和知识编辑在进步不同范畴和应用步伐的LLMs可靠性、公平性和有效性方面发挥着重要作用。
反向机器学习(Machine Unlearning)模型必须能够丢弃不良(错误)行为,这与机器反学习的概念划一。Chen 和 Yang 提出了一个高效的反学习框架 EUL,通过在 Transformers 中引入以选择性师生目标学习的轻量级反学习层,可以有效地更新 LLM,而无需在数据删除后重新练习整个模型。然而,知识编辑超越了反学习,它通过自动改进或删除模型的学习知识库。机器反学习和知识编辑都在进步不同范畴和应用的 LLM 的可靠性、公平性和有效性方面发挥着重要作用。
总而言之,利用预练习语言模型的传统方法涉及使用特定于目标的数据对它们进行微调。然而,在该范畴LLMs,这种微调过程遇到了重大挑衅。其中包括大量的参数、大量的时间和内存要求、过分拟合的风险以及劫难性忘记等问题。为了应对这些挑衅,正如我们上面所讨论的,已经开辟了几种技能。其中,知识编辑成为一个值得留意的策略。正如我们在表 1 中所讨论的,知识编辑与这些技能相交,从一系列方法中汲取灵感,显示出有希望的结果。这种方法独专程针对嵌入 LLMs 中的知识,利用这些模型的固有知识机制。与对现有方法的简单改编不同,知识编辑必要对 LLMs 的运行原理有更深入的明白。这不仅仅是将已知技能应用于新模型;它是关于明白和操作 LLMs 的细微知识存储和处理本领。此外,知识编辑代表了一种更精确、更精细的模型操作形式,由于它涉及选择性地更改或加强模型知识库的特定方面,而不是广泛地重新练习或微调整个模型。这些特性使知识编辑成为一种可能更高效和有效的方式,用于更新和优化 LLMs 特定任务或应用步伐。


2.3. Knowledge Editing for LLMs

2.3.1. Preliminary

对不同数据集的大量练习让 LLMs 具备丰富的事实和常识性信息,可以将大语言模型明白为虚拟知识库。正如许多研究所证明的那样,这一丰富的知识库已被有效地用于各种鄙俚任务。此外,Wang 等已经证明了 LLMs 自主构建高质量知识图谱的潜力,无需人工监视。只管很有前程,但 LLMs 目前作为新兴知识库的状态下,表现出肯定的局限性。在实际应用中,这些缺陷通常表现为输出中的禁绝确或错误。一个抱负的知识库不仅要存储大量的信息,还要允许进行有效和有针对性的更新,以改正这些错误并进步其准确性。认识到这一差距,我们的论文引入了知识编辑的概念 LLMs。这种方法旨在实现对 LLMs 的快速和精确的修改,使它们能够生成更准确和相干的输出。通过实行知识编辑 LLMs,我们的目标是进步 LLMs 的实用性,使它们更接近成为普遍可靠和顺应性强的知识库的抱负。这一进步有望办理当前 LLMs 的缺点,并释放其作为动态和精准知识库的全部潜力。
2.3.2. Task Definition

知识编辑的最初目标是在不对整个模型进行微调的情况下,修改 LLM 中的特定知识 k,并进步其划一性和性能。这些知识可以与许多范畴和范例相干联,例如事实[79],常识[152],情感[153]等。由于 LLMs 中知识的分布性和纠缠性,知识编辑具有挑衅性。
假设原始模型为 θ,给定要更改的知识 k,通过知识编辑过程 F,我们将得到编辑后的模型 θ:


编辑后的模型 θ' 应该覆盖关于知识 k 的原有错误知识,并保持其他知识稳定:


作为知识库,知识编辑必须满足三个基本设置:知识插入、知识修改和知识擦除。
知识插入。随着字段和实体的希望,吸取告急信息变得势在必行。知识插入通过赋予超出其本领范围的新知识来实现这一点:


知识修改。知识修改是指对已经存储在 LLMs 中的知识进行更改:


知识修改可以分为两类:


  • 知识修正 - 旨在改正 LLMs 的禁绝确之处,以确保提供准确的信息。作为庞大的知识宝库,LLMs 很容易存储过时或错误的信息。知识修正用于改正这些谬误,确保模型始终生成准确、最新的信息。
  • 知识中断 - 修改 LLMs 以正确回答反事实或错误提示。这更具挑衅性,由于与事实知识相比,反事实概念最初得到的分数较低,如Meng等人所表明的那样。这就必要更有针对性的修改工作。
知识擦除。知识擦除的目标是切除或抹去模型中预先存在的知识,主要是为了重置不同的事实、关系或属性。我们有公式:


实行知识擦除对于消除偏见和有害知识以及减少对秘密或私人数据的回想至关重要,从而作育负责任和值得信任的人工智能。总之,知识插入、修改和擦除之间的相互作用构成了模型编辑技能的基本方面。当这些技能团结在一起时,它们能够LLMs根据必要进行变化、自我改正和道德顺应。
2.3.3. Methods



LLMs 的发展已经达到了一个地步,他们的本领与人类的认知过程非常相似,特别是在学习和获取知识方面。从人类的学习方式中汲取灵感,我们可以将这些概念类比地应用于编辑 LLMs 的过程,如图 2 所示。教育和认知研究将人类知识获取分为三个不同的阶段:识别阶段联想阶段掌握阶段。这些阶段为概念化 LLM 中的知识编辑方法提供了一个框架,我们在表 2 中列出了它们。




  • 识别阶段:在识别阶段,模型必要在相干上下文中打仗到新知识,就像人们第一次遇到新信息一样(§3.3.1)。例如,提供说明事实更新的句子作为模型的演示,可以对知识进行初步识别以进行编辑。
  • 关联阶段:在关联阶段,新知识与模型中的现有知识之间形成联系(§3.3.2),就像人类将新想法与先前的概念联系起来一样。
  • 掌握阶段:掌握阶段涉及模型完全获取其参数中的知识并可靠地利用它 (§3.3.3),类似于深度人类掌握。这种方法直接改变了模型的权重 ∆W,模型可以在没有任何外部资助或归并的情况下处理问题。
2.3.3.1. Recognition Phase: Resorting to External Knowledge

当人类遇到新信息时,我们并不总是立刻掌握它。相反,有了正确的背景和例子,我们可以通过这些新知识进行处理和推理。LLMs 表现出类似的情境学习本领。这种方法通常维护一个内存 M,并为每个输入检索最相干的案例。IKE [156] 通过构建三种范例的演示(复制、更新和保存)来示例这种方法,以资助模型产生可靠的事实编辑。它利用由练习集组成的演示存储来引导模型通过检索最相干的演示来生成得当的答案。同时,由于知识的简单变化会导致连锁反应,MeLLo 将问题分解为不同的子问题,以办理多跳问题,并从每个子问题的记忆中检索更新的事实。在此基础上,PokeMQA 提供了一种更强大的问题分解方法,引入了可编程范围检测器和知识提示以加强可靠性。
人类还经常利用工具来加强他们的学习息争决问题的本领。类似的,SERAC 通过保存新模型并接纳分类器来确定是否使用反事实模型来回答问题,从而构建了一个新的反事实模型。这种方法简单明了,不必要对原始模型进行任何更改。鉴于其易于实行,它对于实际使用特别有利。然而,必要留意的是,这种方法可能容易受到检索错误(例如噪声、有害内容)和知识辩论问题等问题的影响。最近,Yu等研究了语言模型选择上下文答案或记忆答案的各种情况。 这项研究展现了前面提到的该方法的潜伏应用,由于它可能提供关于何时以及怎样使用它的见解。
2.3.3.2. Association Phase: Merge the Knowledge into the Model

与识别阶段不同,这种方法学习新知识的表现,将此信息与原始模型的表现 h 归并。Murty 等提出了一个知识补丁作为新的输出头,并将新的头与原始的头进行插值。特别是,受到先前发现 FFN 可能存储知识的启发,几种方法将知识集成到 FFN 部分。这些方法将神经元添加到 FFN 中,编辑后,输出是前一个 FFN 的输出和新添加的知识的组合:


具体而言,T-Patcher [161] 为每个输出错误添加一个神经元,而 CaliNet 通过固定数目标神经元添加知识。同时,Wu 等接纳 LoRA 进行知识编辑。LoRA 是一种参数高效的微调方法,它冻结了 Transformer 的权重,LLM并在微调过程中将可练习的秩分解矩阵引入 Transformer 层。基于此,MELO 提出了一种插件模型编辑方法,该方法使用动态 LoRA 来改变语言模型的工作方式,通过基于内部向量数据库动态索引 LoRA 块。REMEDI 不是向模型添加参数,而是通过将属性向量 h 归并到其原始模型的表现中来直接替换实体 h 的表现。具体来说,它使用仿射变换学习更新的隐藏状态,并用它替换 LM 的实体表现。相比之下,GRACE 接纳了一种独特的方法,即维护一个用作适配器的离散码本。该代码本会随着时间的推移动态更新,从而允许修改和完善模型的猜测。当模型遇到要编辑的知识时,它会搜索码本并将隐藏的状态替换为码本中的值。总的来说,我们可以使用数学公式来同一表现这些方法:


这种方法将信息与原始模型归并,使得来自不同泉源的知识的权重成为必要考虑的关键参数。鉴于这些信息泉源往往不同,甚至可能发生辩论,正如 Wang 等所夸大的,知识辩论问题仍然是一个重大挑衅。为了办理这个问题,F-Learning 引入了一种“先忘记后学习”的范式,以实现基于参数算术的忘记旧知识和学习新知识。此外,确定模型中这些信息的最佳积分点是该方法的一个关键方面。这不仅涉及归并信息,还涉及在模型结构中进行这种集成以实现最大有效性和最小干扰。此外,模型参数存储这些综合信息的本领仍然是一个必要探索的范畴。如果每个编辑的知识都必要额外的参数,那么模型的参数可能会随着每次编辑而显着增加。这引发了对可扩展性和服从的担心,由于不停扩大参数数目可能会导致计算需求增加等问题。
2.3.3.3. Mastery Phase: Editing Intrinsic Knowledge

只管前两种方法取得了乐成,但我们仍然面临着模型怎样存储知识以及它们怎样利用和表达知识的问题。在这里,我们来到了知识编辑中最重要的部分:掌握阶段。在这部分,要求模型学习自身参数的知识,并自行掌握知识。对模型进行微调是更新知识的直接方式;然而,练习整个模型必要大量的计算资源,而且非常耗时。同时,微调技能通常遭受劫难性的忘记和过分拟合。Constrained Fintune 利用正则化来资助模型保存不相干的知识。目前,许多研究职员都在努力使用特定于知识的方法来修改 ∆W 。这些方法可以分为两类:meta-learninglocate-and-edit
Meta Learning 为了克服这些缺点,提出了一些元学习方法来编辑模型。这种方法不是直接更新权重,而是教超网络学习模型的变化 ∆W。KE 直接使用新知识的表现来练习模型以更新矩阵。SLAG 引入了一个新的练习目标,考虑了次序、局部和泛化模型更新。这些方法中的 ∆W 与模型矩阵的维度相同。为了克服它,MEND 应用 rank-one 分解将模型分为两个 rank-one 矩阵,从中可以计算出 ∆W,从而大大减少了参数的数目。虽然这些方法已经显示出一些有希望的结果,但它们在多次编辑中失败了,由于它们忽略了这些编辑之间的辩论。Han 等提出了一种新的框架,用于与并行编辑进行分而治之的编辑。具体来说,他们计划了显式多编辑器 MoEditor 和隐式多编辑器ProEditor,分别在动态结构和动态参数方面学习多样化的编辑策略,从而可以高效、端到端的方式办理辩论数据。此外,MALMEN 通过将参数移位聚合表述为最小二乘问题来改进 MEND 并同时支持大规模编辑。
Location-then-Edit 只管从前的工作取得了成效,但 LLMs 怎样存储这些知识仍然是未知数。一些工作已经探索了 LLMs 的知识处理机制,发现知识存储在 FFN 中。基于这些工作,首先找到知识的存储位置,然后编辑特定区域来进行知识编辑。Knowledge Neuron 通过计算梯度变化的敏感性,提出了一种知识归因方法。然后,他们直接使用目标知识的嵌入来修改相应的值槽。ROME [79] 和 MEMIT [171] 接纳因果分析方法来检测隐藏状态的哪一部分更重要。他们将编辑视为最小优化,并编辑权重。只管编辑 FFN 区域是有效的,但 PMET [172]也通过留意力头进行编辑,并表现出更好的性能。BIRD [174]提出了双向反关系建模。他们计划了一套编辑目标,将主体和客体之间的双向关系纳入更新的模型权重中,并展示了缓解知识学习的反向诅咒的有效性。
这种直接编辑模型参数的方法为改变其行为提供了更长期的办理方案。这些更改嵌入到模型的结构中,因此即使用户可以访问模型的权重,也无法规避它们。这确保了长期和可靠的修改。然而,由于 LLMs 的机制尚不清楚,因此副作用尚未得到控制。一些研究职员对这种方法持猜疑态度[183],因此它仍然是一个必要进一步研究的新兴研究范畴。
2.3.4. New Benchmark: KnowEdit

为了评估知识编辑方法的有效性,已经提出了几个数据集。在本节中,我们概述了当前用于知识编辑的数据集,并引入了一个新的基准 KnowEdit,它作为各种知识编辑技能的综合评估框架。


在这项研究中,我们策划了一组六个数据集,这些数据集非常适合评估知识编辑方法。表 3 显示了这些数据集的详细统计概述,它们包罗一系列编辑范例,包括事实操纵、情感修改和幻觉生成。
针对知识插入的任务,我们接纳了数据集 WikiDatarecent [157]:
WikiDatarecent 此数据集特别关注 2022 年 7 月之后最近插入 WIKIDATA 的三元组。因此,该数据集使我们能够为在引入这些事实之前练习过的模型创建插入编辑哀求,从而模拟过时的模型与新世界知识相遇的场景。我们利用作者提供的原始数据集,并将它们分为练习集和测试集。
知识修改方面,我们选择了以下四个数据集:ZsRE [184]、WikiBio [163]、Wikidatarecent [157]和Convsent [153]。
ZsRE 是一个与上下文无关的问答任务。给定一个基于主题和关系的问题,模型应该提供正确的对象作为答案。我们接纳了 Yao 等[69]提出的 ZsRE 扩展版本,该版本引入了对原始数据集的可移植性查验。此外,我们按照 Yao等人[69]概述的步伐网络新的局部性集,由于原始数据集使用 Natural Question 注释计算局部性。
WikiBio 原始数据集是通过提示 GPT-3 使用 WikiBio 数据会合的主题生成 238 篇维基百科风格的传记而创建的 [185]。Hartvigsen 等[163]利用该数据集,引入了一项新的编辑任务,重点是改正 GPT 语言模型中的幻觉。他们注释每个句子的事实准确性,识别出包罗幻觉的句子。我们遵循他们的方法,编辑禁绝确的句子,并用真实维基百科条目中的相应句子替换它们。我们遵循该数据集的原始设置,通过维基数据 API 链接概念来构建局部性集,遍历概念的所有关系,并随机选择一个不相干的关系和尾部实体。
WikiDatacounterf 由于尾部实体通常不会被模型捕捉,因此不适合测试修改编辑[186],[157]网络有关流行实体的三元组,其中主题对应于维基百科中欣赏量最大的页面之一。他们还通过从维基数据中随机抽样实体来网络数据集,我们将其用作练习集,充当测试集。
ConvSent 是一项情感编辑任务,用于评估模型修改对话署理对特定主题的情感的本领,而不会影响其对其他主题的响应。例如,给定主题“您怎样看待香蕉?”,我们希望编辑后的模型能够给出关于“香蕉”的正面和负面感情。locality 集由用于编辑的实体以外的实体生成的示例组成。我们还接纳了 ConvSent 数据集的原始设置。
知识擦除设置的背景下,我们选择了 Sanitation [187]数据集。
Sanitation 此数据集专门办理与学习语言模型相干的隐私问题。它侧重于忘记存储在模型中的特定信息的任务。该数据集提供成对的问题和答案,其中答案包罗必要忘记的知识(例如,“橡树街 1234 号”),问题提示模型生成相应的答案(例如,“约翰·史密斯的地址是什么?目标是让编辑后的模型有效地忘记目标答案,并生成预界说的安全令牌序列,例如“我不知道”,以响应寻求特定或敏感信息的提示。此机制有助于防止信息走漏。该数据集由一个忘记集和一个保存集组成。我们利用忘记集来评估模型编辑过程的乐成与否,并使用保存集来评估修改的局部性。此外,我们通过对与练习集相同数目标数据实例进行采样来保持原始任务设置。
除了我们选择的数据集外,文献还提供了各种各样的知识编辑任务,每个任务都办理了该范畴的特定方面和挑衅。DepEdit [188] 是一个更强大的分析数据集,它深入研究了知识的内部逻辑束缚,从而提供了对知识结构的更深入的明白。值得留意的是,Xu等[189]引入了跨语言模型编辑任务,并进一步提出了语言各向异性编辑,通过放大每种语言的不同参数子集来改善跨语言编辑。在多语种模型的情况下,多语种模型中一种语言的变化应导致相应的变化。在其他语言的多语言模型的情况下。Eval-KLLM [164] 和 Bi-ZsRE [190] 被计划用于评估模型的跨语言编辑本领。Wang等[191]提出了检索加强多语言知识编辑器(Retrieval-augmented Multilingual Knowledge Editor,ReMaKE),该编辑器能够在多语言环境中进行与模型无关的知识编辑。作者还提供了一个包罗 12 种语言的多语言知识编辑数据集 (MzsRE)。另一个数据集 ENTITY INFERENCES 侧重于实体流传,其中为模型提供界说,并要求根据给定的界说进行推理。TEMPLAMA [156] and ATOKE 探究了时间序列知识编辑,其目标是在不影响其他时间知识的情况下修改与特定时间段相干的知识。在常识性知识编辑方面,Gupta等[152]引入了 MEMIT,应用现有的编辑技能来修改模型内的常识性知识。此外,提出 RaKE [194]来权衡当前的编辑方法怎样编辑关系知识。所有从前的工作通常将编辑限制为知识三元组。Aky ̈urek等[195]提出了一种新的数据集 DUNE,该数据集扩大了编辑问题的范围,包括一系列编辑情况,例如去偏见和改正推理错误,并将编辑界说为任何自然语言。
必要留意的是,其中一些数据集可能刚刚发布或当前不可用。因此,在本文中,我们重点评估了知识编辑技能在一些流行作品中的性能和有效性。我们筹划在未来获取新的数据集时扩展我们的基准。有关其他相干数据集,请参考Wang等[70]。
2.3.5. Evaluation for Knowledge Editing

知识编辑旨在根据修改后的事实改变模型行为。然而,知识是相互联系的;改变一个事实可能会向外产生涟漪,并以复杂的方式影响其他事实。这种相互依存关系使得评估编辑的结果变得困难。我们将先前工作的关键评估标准归纳为四类:edit success、portability、locality 和 fluency。
Edit Success 编辑的目标是更改模型对给定知识的输出。从前的工作接纳了两个指标,分别是可靠性和泛化。可靠性旨在测试编辑后的模型是否给出目标答案。但是,对于知识编辑,给定的文本和释义。我们遵循从前的工作[170,172],并将可靠性和泛化统称为编辑乐成。因此,在这里,编辑乐成意味着编辑后模型不仅应该正确回答问题自己,而且还应该为具有相似表达式的输入给出正确的答案。
Portability 知识不是孤立的,仅仅改变给定的知识不足以用于鄙俚使用。当知识被修正时,模型应该对修正的鄙俚影响进行推理。在这里,我们遵循之前的工作[157,69,155],以评估编辑后的模型是否可以办理编辑对实际应用步伐的影响,并将其命名为可移植性,以评估知识编辑后会发生什么。可移植性包罗三个不同的部分:


  • 别名:一个主题的编辑不应与其表达方式不同。维基数据为每个实体维护一组别名。因此,在这里,我们遵循Cohen等[157],Yao等[69]用别名或同义词替换问题的主题,以评估编辑后模型对主题其他描述的表现。
  • 组合性和推理:这要求后期编辑模型对更改的事实进行推理。例如,当我们把美国现任总统从唐纳德·特朗普改为乔·拜登时,“谁是美国第一夫人”这个问题的答案也应该改变。
  • 逻辑泛化:这些是与修改后的事着实语义上相干的更改,并且预期编辑会更改;它们确实被修改过。例如,正如Yao等[69]所提到的,当 (s, r, o) 的事实发生变化时,知识 (o, ˆr, s) 的反向关系也应该改变。
Locality 在编辑知识时,我们可能会偶然中更改了我们不想修改的知识。一个好的编辑应该在不影响不相干的知识的情况下修改知识局部性。局部性评价包括两个条理:


  • In-Distribution:这个包括来自同一分布的知识。如之前的工作所示,过分编辑是一种常见的征象。在这里,我们遵循Meng等[79]、Cohen等[157]、Yao等[69],并构建了相干的分布内知识,包括忘记和关系特异性。忘记评估后期编辑模型是否以一对多关系保存原始对象。关系特异性原则以为,主题的任何其他属性,如果之前已经更新过,在编辑过程之后应该保持稳定。
  • Out-of-Distribution:不应影响与目标知识无关的其他知识。也就是说,我们也不希望编辑后的模型失去处理其他任务的一般本领。
Generative Capacity前人的工作发现,在编辑模型后,一些模型往往会生成重复的事物,并且经常在遇到主题词时生成编辑过的目标。此外,还接纳流畅性来评估后编辑模型的生成本领。在这里,我们遵循 ROME [79] 并利用流畅性来权衡模型在编辑后的生成本领。特别是,我们计算了双元组和三元组熵的加权平均值,以评估文本生成的多样性。此值的减小表明生成的文本的重复性增加。
2.4. Experiments

在我们的研究中,我们使用当前的方法和数据集进行实验,以研究 LLMs 背景下的知识编辑技能。通过使用这些方法进行实验并利用得当的数据集,我们旨在评估知识编辑技能的性能LLMs和功效。我们的目标是深入了解与在这些模型中编辑知识相干的挑衅、限制和潜伏改进。
2.4.1. Experiment Settings

我们选择 LLaMA-2 [196]作为我们的基础模型,特别是它的 chat 版本,经过 RLHF 后,它表现出更高的划一性。该模型使用贪婪的自回归解码为每个问题生成答案。为了创建比力的基线,我们接纳了八种模型编辑方法,这些方法在先前的研究中显示出有效性。这些方法的选择是基于它们修改 LLMs 内部知识的本领[69]。作为进一步的基线策略,我们还使用了 Meng 等[79]提出的微调方法(FT-L)。FT-L 直接微调单层的前馈网络 (FFN),特别是 ROME 中因果追踪结果所确定的 FFN 层。该方法使用最后一个 token 的猜测来最大化目标序列中所有 token 出现的概率,导致偏离了微调目标。为了办理这个问题,我们还试验了一种改进的微调方法,即 FT-M。它使用目标答案上的交叉熵损失来练习与 FT-L 相同的 FFN 层,同时屏蔽原始文本。这种方法更符合传统的微调目标。对于上下文学习方法,我们使用了 Cohen 等[157]提出的 ICE 方法。此方法在进行输入之前预置提示“Imagine that {knowledge}”
所有实验均由 EasyEdit [197]进行。关于编辑后模型的评估,之前的一些工作计算了编辑前和编辑后模型输出的概率差:P [y*|θ'] − P [y|θ]。y* 是编辑目标,y 是原始模型的猜测。然而,y* 的较高概率并不意味着结果很抱负。在实际使用场景中,当我们编辑模型时,我们希望它产生正确的输出。因此,为了评估 WikiDatarecent、ZsRE 和 WikiDataacounter fact 等事实数据集。假设 x 是更新知识的表达式,k 和 y*k 是要编辑的相应目标输出。



此外,为了 portability,我们计算了编辑后模型在给定集上的性能。关于 locality, 的计算,一些工作计算了后编辑模型在局部性集 O(xk) 上的性能。在这里,为了更好地进行比力,我们测试模型是否保持其原始答案。



同时,对于情感编辑任务 Convsent,我们计算 Edit Succ 和 Locality 作为原始数据集 [153]:



如果编辑的模型生成正确的情感响应,则 zsentiment 为 1,如果编辑的模型的答案与目标主题相干,则ztopic 为 1。Convsent 的局部性计算为 KL 散度,因此数字越小,性能越好:



对于知识擦除任务 Sanitation,我们将编辑乐成率计算为模型是否对给定的知识回答“我不知道”。至于局部性,我们计算保存集的性能,以确定模型是否保持其原始答案。
2.4.2. Main Results

我们在表4中列出了 Llama2-7b-chat 在当前知识编辑方法下的结果。


考虑到各种知识编辑任务的团体性能,我们新提出的 FT-M 实现优于其他方法,突出了在特定参数上微调模型的有效性。然而,目前所有的知识编辑方法都存在可移植性性能低下的问题,这表明该范畴必要进一步改进。
在知识编辑方法方面,SERAC 在涉及知识插入和修改的任务中表现出了强大的性能。它的编辑乐成率优于其他编辑方法,并且由于新的反事实模型可以有效地学习编辑后的知识,因此可移植性相对较好。同时,在不改变原始模型参数的情况下,除 ZsRE 外,SERAC 得到了良好的局部性性能。但是,由于反事实模型通常小于原始模型,其生成本领并没有那么强,在这里,我们可以发现 SERAC 对 WikiDatacounterf act、ZsRE 和 Convsentis的流畅度低于 MEND 等其他编辑方法。同时,对于 ICE 来说,我们可以发现编辑乐成率并不那么好,这可能归因于知识辩论问题。同时,IKE 发起将演示串联起来作为提示,但它们必要较长的输入长度,并且限制了模型实行鄙俚任务。
对于编辑模型参数的方法,我们可以发现 MEND 在不同指标的这些任务中得到了良好的性能。它的编辑乐成率和便携性都很好,并展示了良好的本地化和流畅性。而对于 ROMEMEMIT 来说,只管编辑乐成率更高,但它们的局部性不如 MEND 和其他范例的编辑方法。同时,它的便携性也不尽如人意。对于局部微调方法 FT-L,其编辑乐成率不如 ROME 或 MEMIT,但局部性和可移植性更好。此外,FT-M 好像可以更好地处理插入任务,由于它对 WikiDatarecent 的编辑乐成和可移植性优于 ZsRE 和 WikiDatacounterf act。对于 WikiBio 的任务,目前的方法可以适本地缓解幻觉并保持良好的流畅性。对于任务 Convesnt,我们发现当前的方法不能很好地改变模型的感情,由于编辑乐成率低于 65%。SERAC 可以完美地处理小型 LMs[153],但在7B模型上表现不佳。考虑到 MEND 在其他任务中的事实级编辑表现出色,因此这些任务的流畅度也较低。至于以知识擦除为目标的知识擦除任务 Sanitatio,我们可以发现,目前的知识编辑方法并不能很好地处理这个任务。我们可以发现 ROME 可以制止模型不提供目标知识,由于它得到了 90% 的准确率。然而,它会粉碎模型在不相干知识上的表现,由于它的局部性仅为 55.61%。 其他编辑方法也无法擦除与给定知识相干的模型。
我们还展示了 WikiDatarecent 和 WikiDatacounterf 上的结果在可移植性和局部性子指标中的平均表现,正如我们在图 3 的上一个评估部分所讨论的那样。在这里,我们可以发现 MEND 在推理集下表现更好,而 AdaLoRA表现出良好的逻辑泛化性能。
2.4.3. Impact of Knowledge Editing on General Tasks



在本节中,我们将探究应用知识编辑方法对语言模型在各个范畴的性能的影响。我们的主要目标是确定归并与特定事实知识相干的编辑是否会偶然中拦阻模型在不相干范畴的纯熟程度。我们选择了一系列基准,涵盖常识推理、一般智力和世界知识等范畴。这些基准测试包括 CommonsenseQA [198]、PIQA [199]、Xsum [200] 和 TriviaQA [201],以及 MMLU [202] 和 AGIEval [203] 套件中的特定任务,这些套件以其卓越的评估标准套件而著名。所有评估均使用 OpenCompass 工具[204]进行,确保了标准化的测试环境。我们在这里为 Xsum 报告 ROUGE-1。编辑后的模型在通过五次事实更新进行次序修改后,在这些任务上以零样本设置进行评估。从表 5 中可以看出一个风趣的征象,即在团体层面上,编辑过的模型维持了接近未编辑模型的性能程度。这表明,编辑的负面影响仅限于直接改变的主题。然而,这一趋势的一个破例是 FT-L 模型在 TriviaQA 上的表现,该模型在编辑后从最初的 45.39 分明显降落到 34.60。然而,从更广泛的角度来看,我们可以观察到值得歌颂的划一性。这意味着目前的知识编辑方法在实行五次有针对性的事实更新方面是有效的,同时对模型的认知本领和跨不同知识范畴的顺应性的影响最小。


2.4.4. Multi-Task Knowledge Editing

从前的工作被以为是次序编辑[163,161,69],用于终身知识编辑。但是,他们始终对来自同一分布的单个数据集进行次序编辑。这与持续学习略有不同。知识编辑不是一项专注于单一范畴知识或事实的任务。实际上,我们可能希望从不同分布的不同角度修改我们的模型[205]。
跨域编辑(Cross-domain Editing) MEND 和 SERAC 方法都依赖于练习数据集来资助模型学习怎样编辑参数。我们评估了它们在跨范畴环境中的表现,并将结果显示在表 6 中。
对于 MEND 方法,使用 ZsRE 数据集练习的超网络比使用最新数据集练习的超网络表现出更好的跨域性能。这可以归因于 ZsRE 数据集的巨大规模,使 MEND 的超网络能够加强其参数编辑本领。同时,SERAC 方法通过利用其缓存,展示了显着的跨域编辑本领。
持续编辑(Continual Editing)像 LoRA 和 ROME 这样的持续编辑方法不必要练习集,可以直策应用于不同的范畴。因此,我们考虑使用更具挑衅性的设置进行持续编辑。我们使用 ZsRE、Wikirecent 和 Wikicounterf fact 组成混淆知识编辑案例。我们归并了不同数目标设置,包括 10、100、500 和 1000,并随机编辑不同聚集的知识。在这里,我们主要考虑三种方法:FT-LROME AdaLoRA。我们在图 4 中报告了实证研究结果。在处理次序编辑时,我们可以观察到这三种方法都履历了 1,000 次编辑,所有评估指标都急剧降落,并且对于三个不同的任务,趋势相似。相对而言,AdaLoRA 在大约 100 次编辑中表现出稳定的性能。当前的编辑方法倾向于编辑同一区域的不同知识(例如 ROME 是第五层,MEND是最后三层),而知识并未存储在该区域。同时,随着模型的改变,基于原始预练习模型的算法已经不实用。为了应对这些挑衅,RASE [206]提出了一种新方法,该方法团结了检索加强和编辑方法的长处,而不是不停修改模型的参数。这种创新技能涉及在内存系统中存储权重变化或与每次编辑相干的其他神经元。该方法通过将复杂的一连修改分解为单独的编辑,并检索相应的编辑操作,简化了流程,并实现了与其他知识编辑方法的无缝集成,从而加强了其通用性和实用性。


2.4.5. Error and Case Analysis

如结果所示,不同的方法在不同的任务上表现出不同的性能。在这里,我们进行了一项研究,以全面了解它们的局限性和优势。在分析知识编辑方法的失败模式时,我们将缺陷分为四种主要范例:


  • 偶然义的 token 生成:编辑后的模型会产生偶然义的 token,例如“\n”或缺乏语义意义或基础的重复字母组合。
  • 没有生成完整的 token:模型仅生成目标答案的子集,省略了关键令牌。
  • 与知识无关的生成:该模型生成与预期的事实知识无关的文本。
  • 部分 token 替换:生成的答案包罗来自目标的密钥 token 的替换或替换,通常会保存原始错误输出的片段。

这些错误范例的出现有助于确定编辑方法的局限性。偶然义和缺失的 token 情况凸显了对目标事实进行完全编码的困难,而知识无关和部分替换生成表明,编辑无法取代先前学习的信息。我们对 ZsRE 任务进行了错误分析,并统计了每种编辑方法的错误情况。结果如图 5 所示。


在这里,我们可以找到主要的错误范例是部分 token 替换,这是由于原始模型中的知识与我们的目标模型之间存在辩论。分析表明,主要错误范例为部分 token 替换,表明原始模型中的知识与目标知识之间存在辩论。具体来说,由于所使用的小模型的生成本领有限,SERAC 方法往往会生成偶然义的 token。AdaLoRA 方法可能会遗漏一些与目标知识相干的 token。对于微调方法,与其他编辑方法相比,与事实无关的词的百分比更高,并且是 FT-L 最常见的错误范例(47.3%)。这表明,微调的目标可能不适合编辑特定知识。此外,在下一节中,我们发现 FT-L 倾向于修改参数中的更多区域,从而导致更多不相干的生成。
我们还在表 7 中显示了针对不同案例的编辑方法生成的文本。在这里,我们可以发现,目前的编辑方法,如IKEMENDROME等,可以乐成地将阿米娜女王雕像的材质从青铜修改为石灰石,并生成流畅的文本。SERAC FT-L, 只管乐成地改变了事实,但往往会产生重复的句子或毫偶然义的实体。此外,AdaLoRA 未能改变这一事实,并保存了原始答案“青铜”。
2.5. Analysis

目前的研究已经探索了 LLMs 知识编辑方法的有效性,但其卓越性能的根本原因仍未得到探索。此外,模型编辑和微调方法之间的比力,以及知识定位方法的有效性,都必要进一步研究。本研究提出了一种简单的尝试来弥合这些差距,通过检查模型编辑和微调之间的差异,探索知识定位技能的有效性,并明白其中 LLMs 的知识结构。我们希望进一步的观察能够展现 LLMs 的机制。
2.5.1. Comparison of Different Knowledge Editing Methods

当前知识编辑方法的有效性值得歌颂,但与其他方法相比,其优越性能背后的原因仍然难以捉摸。在本节中,我们将重点介绍涉及模型内参数调整的方法,特别是 MENDROMEMEMITFT-L。当这些方法修改模型的参数时,一个基本问题就出现了:是什么让这些知识编辑方法(如MEND)在局部性和团体性能方面更胜一筹?我们将这种改变界说为 W' = W + ∆W,其中 W 是原始权重矩阵,∆W 表现在编辑过程中所做的修改。因此,我们在本节中的主要重点是辨别不同编辑方法的参数矩阵 ∆W 之间的差异。
稀疏性(Sparsity) 知识编辑的一个重要特征是它打算修改模型中的特定知识片段。这提出了一个直观的假设,即 ∆W 矩阵可能是稀疏的。遵循 De Cao等人[168]的方法,我们提出了一种可视化方法,可以捕捉由知识编辑产生的权重更新,如图6所示。


ROMEMENDMEMIT 表现出明显的稀疏更新模式,而 FT 则将其修改更匀称地分布在权重上。特别是,对于像 ROME 和 MEMIT 这样的知识编辑方法,改变会合在 value 层的一列或几列上。这一发现与早期的研究划一,早期研究夸大了 value 层在封装相干知识方面的关键作用[42]。关于 MEND 方法,我们提出将学习到的超网络可以看作是一个工具或一个“探针”,资助我们探索和明白模型用来编码知识的内部机制,提供对模型怎样表现和处理信息的见解。
映射到嵌入空间(Mapping to Embedding Space) 为了进一步研究不同编辑方法之间的差异,我们遵循Dar等人[207]的方法进行了嵌入空间分析。他们通过将 LLMs 的权重映射到词汇空间来分析 Transformer 的参数,发现嵌入空间可以解释这些权重。在这里,我们映射两个矩阵 W' 和 W ,以观察这些方法之间的差异。从稀疏性分析中,我们选择了更新的 value 矩阵 ∆W 的前五列,并将 W' 和 W 的相应列映射到嵌入矩阵 E 中,以得到词汇空间中的 logits。然后,我们计算输出 logits 中新知识的 Hit@10 和 Hit@50。我们从 ZsRE 中选择一些案例,其中所有四种方法都乐成编辑了知识,并在图 7 中出现了平均性能。从图中,我们观察到MEND和MEMIT显著地将目标知识注入到参数中。值得留意的是,MEND表现出了卓越的编辑本领,在编辑之前,Hit@50率已经高出90%。这意味着 MEND 可能能够找到并改变持有目标知识的正确神经元,而无需进行全面的知识定位分析。在编辑过程之后,我们观察到 Hit@10分数大幅增加。事实上,在我们的实验中,MEND在编辑后的Hit@1率也在90%以上,显示出其强大的编辑本领。对于 MEMIT,我们还观察到Hit@50增加(59.7% → 70.2%),原始神经元在编辑之前已经具有很高的 Hit 分数。 然而,对于 ROME 和 FT-L,我们没有观察到性能的进步,这表明它们的编辑机制必要进一步研究以了解它们的具体特征和局限性。


2.5.2. The Effectiveness of Knowledge Locating in LLMs

正如我们在上一部分所讨论的,存储在 LLMs 中的知识不是结构化的。此外,在之前的实验中,我们发现当前编辑在便携性方面的表现并不好。正如前人研究发现[69,155,157]的那样,编辑事实知识并不肯定使模型能够在推理和应用过程中利用它。同时,Hase等[208]发现,通过因果追踪来权衡,编辑乐成与事实的存储位置无关。这些工作凸显了当前的编辑方法不足,并对当前知识位置分析的有效性提出了质疑。Chang等[209]引入了 INJ 和 DEL 两个基准来研究“是否有任何定位方法实际上对记忆数据进行定位LLMs?他们对当前的定位方法进行了实验,包括归零和积分梯度,并提出了两种 prune-based 定位方法:SLIMMING和HARD CONCRETE。两个基准测试显示结果呈正相干,并展示了集成梯度、SLIMMING 和 HARD CONCRETE 的强大定位本领。同时,DEL基准测试表明,所有方法都在擦除目标序列和保存其他记忆数据之间努力平衡;换句话说,通过定位方法识别的神经元往往也与记忆其他一些序列有关。此外,Ju 和 Zhang 提出了评估当前知识定位方法有效性的基准和三个评估指标:划一性、相干性和公正性。该基准在促进全面评估当前定位方法是否能够准确确定与特定事实知识相干的模型参数方面发挥着至关重要的作用。在这里,我们基于基准对知识编辑的定位方法进行了简单的分析。我们接纳相对相似度(RSim)的计算方法为:


我们接纳了他们的数据集 klob-r(计划用于测量划一性)和 klob-c(计划用于测量相干性),并将其应用于 ROME [79]提出的随意分析方法。由于随意分析是逐层干预,因此我们在这里使用已识别层之间的重叠来计算相似性。我们在图 8 中显示了 RSim 分数。在这里,当我们考虑高出五个层的划一性和相干性时,我们可以发现 Rsim 分数小于 0.6,这意味着不相干知识和相干知识链的定位结果没有显示出太大差异。为了更具体地说,我们在这里进行了一个案例研究。


案例研究 我们考虑了与实体 SMAP 关联的给定事实的三个设置,并在图 9 中进行了显示。我们首先对以下事实进行因果分析:[SMAP−−−−−→日本]。然后,我们考虑一个与事实相干的问题 [SMAP −−−−−→ Japan −−−−→ Japanese],其中模型应根据事实回答问题。最后,我们接纳了一个不相干的事实[SMAP −−−→ pioneernal group]。结果表明,这些事实可能与 5 层中的同一位置有关。然而,正如 Ju和 Zhang [210]所提到的,与不相干的知识相比,特定知识及其相干知识链的定位结果应该表现出更大的相似性。目前,随意的分析方法好像只是定位与实体自己相干的区域,而不是整个事实。该模型是通过使用预练习语料库中记忆的答案作弊还是通过多步推理机制来实行这些答案,目前尚不清楚。这与知识编辑任务密切相干。更广泛地说,更好地了解模型的知识过程可以解锁可解释性和事实验证等功能。然而,在云云大的模型中,充分明白知识究竟是怎样组织和相互联系的,这是一个持续的挑衅。关键的开放性问题包括开辟在推理过程中追踪事实使用情况的方法,计划位置技能以识别对模型输出最突出的知识,以及学习架构属性怎样与知识利用相干联。解开这些知识架构对于通过知识编辑等方法实现更精确、更强大的模型干预是不可或缺的,但目前仅操纵 MLP 权重是不够的。


2.5.3. The Implicit Knowledge Structure in LLMs

明白 LLM 中的知识结构对于有效的知识编辑至关重要。从前的研究经常将 LLMs 的内部知识概念化为类似于知识图谱 (KG) 中的三元组,包括主题、关系和客体。这个类比虽然有效,但简化了 LLMs 中知识表现的复杂性质。
在 KG 中编辑知识通常涉及修改两个节点之间的单一关系,相对简单。KG 本质上支持简单的推理任务,并允许保存知识结构的别的部分。图 10 说明了这种弹性,其中编辑和后续规复过程导致原始 KG 结构的完全规复。另一方面,由于这些模型中知识的纠缠性质,知识编辑LLMs提出了独特的挑衅。与知识被整洁地划分的 KG 不同,在 LLMs 中,知识分布在各种参数和层中,因此很难在不影响其他知识范畴的情况下隔离和编辑特定信息。目前将知识视为三元组的观点在某种程度上是有限的,并且无法捕捉这些模型的全部复杂性和相互关联性。从前的工作[183,101]进一步夸大了这种复杂性,他们讨论了在参数内修改内在知识的挑衅。
此外,先前的研究表明,知识编辑可能会导致意想不到的流传效应。Li 等[205]指出,目前的知识编辑方法会导致 LLMs 内部的知识辩论和知识扭曲。与结构化知识库不同,神经网络对知识结构和相互关系缺乏严格束缚。这使得将编辑限制在模型内的局部范围内变得困难,并且其自由形式使编辑过程进一步复杂化。因此,必要对LM的机制有更全面的明白。
目前,T-PatcherIKE 等方法提供即插即用功能和可逆性。 它们提供了灵活性和用户友爱性,并且可以根据必要轻松集成到 LLMs 中或分离出来。这些方法旨在减轻与知识编辑相干的一些挑衅,允许方便和可逆的修改。随着该范畴的发展,当务之急是继承开辟方法,不仅要办理知识编辑的挑衅,还要利用这些复杂系统的全部潜力,将原始的 LLM 转化为 WikiModels,又称神经知识库,具有编辑可行性。

2.6. Applications

在本节中,我们将总结将知识编辑技能用于各种应用的最新方法,并说明未来探索的潜伏方向。
2.6.1. Efficient Machine Learning

模型更新 虽然知识编辑技能直接修改或加强模型参数,但要实现其全部潜力,必要将这些内部更新转化为LLMs鄙俚任务。最近的研究探索了将知识编辑整合到各种任务中,包括问答、事实检查和自然语言生成。对于问答,像 MeLLo [155]这样的方法分解了复杂的问题,并迭代地检索和编辑知识以得出多跳答案。Reckon [211]提出了一种通过反向流传更新他们的参数知识来教导 LLMs 推理的方法。这种方法使模型能够使用更新的参数来回答问题,从而加强它们的推理本领。Padmanabhan 等[212]引入了一种称为蒸馏的知识更新技能,该技能涉及传授有关实体的知识并流传该知识以实现更广泛的推断。此外,MedEdit [213]接纳知识编辑方法处理医学问答,这些方法的应用使准确率从44.46%进步到48.54%。同时,一些工作尝试使用知识编辑来处理事实核查数据集,如 FEVER[214]、Vitamin-C[215],并取得了良好的结果。特别是Chen等[97]发现,通过分析退化的知识神经元,模型自己可以检测到错误的事实而不依赖外部数据。在自然语言生成方面,除了前期以WikiGen [170]或WikiBio Hartvigsen等[163]为主的研究外,DoLA [216]通过分析不同层学到的知识,提出了通过对比层解码的方法,大大缓解了一代人的幻觉问题。此外,正如Ilharco等[217]、Santurkar等[218]、Brown等[219]和Ortiz-Jimenez等[220]所夸大的那样,任务算术已经成为一种经济高效且可扩展的办理方案,用于直接在权重空间中进行编辑LLMs。
除了自然语言处理外,知识编辑也越来越多地应用于各个范畴,展示了其多功能性和有效性。Gu等[221]提出了一种新颖有效的模型编辑方法MENT,以办理代码生成中的挑衅。KGEditor [222] 利用知识编辑来修改知识图谱嵌入,而 GNNDelete [223] 引入了一个与模型无关的、专门用于图解读的逐层算子。这些方法突出了知识编辑在加强和完善基于图形的模型方面的潜力。此外,EGNN[224]提出了一种无邻域流传方法,用于改正错误分类节点上的模型猜测,进一步扩大了图网络中知识编辑的范围。
虽然前景光明,但要将编辑后的知识转化为强大的任务改进,还必要做更多的工作。主要挑衅包括开辟方法,将编辑有效地纳入在线推理,而不仅仅是静态参数,以及处理涉及复杂推理的编辑。知识编辑与鄙俚架构和目标的紧麋集成仍然是一个悬而未决的研究问题。
模型操作 一旦我们能够乐成编辑模型并明白知识机制,我们就可以通过知识提炼和转移来操纵模型。Zhong 等[225]提出了一种知识蒸馏方法,通过分析模型中的知识神经元块,将 LLMs 中的知识转移到小模型中,提出了不同模型间知识的提炼和融合的新方向。Bayazit 等[226]致力于在特定知识中构建一个关键子网络,并对该子网络进行剪枝,从而去除模型对目标知识的明白,这也是一种剪枝和克制大模型的新方法。Chang 等[209]还接纳了基于李子的模型来分析模型的知识。此外,在分析模型权重的知识时,Dar等[207]表明,可以通过将其权重投射到嵌入空间中来拼接两个模型,这表明拼接不同模型的可能办理方案。 通过编辑和修剪等方法对 LLMs 内部知识的操纵不仅进步了服从和可访问性,而且还有望在应用步伐和可扩展性中释放新的潜力。
2.6.2. AI-Generated Content (AIGC)

LLMs现在可以处理不同形式的知识,如图像和音频信息[230–233]。这些模型具有处理或生成多模态知识的本领,这对于在各种应用步伐中创建人工智能生成的内容非常宝贵[234]。最近研究中一个值得留意的趋势是使用编辑方法来修改/控制这些模型生成的内容。例如,Cheng等[235]提出了一种新的基准,旨在加强模型对多模态知识的明白。这包括视觉问答(VisualQA)和图像标题等任务,这些任务必要文本和视觉信息的深度集成。同样,Arad等[236]引入了ReFACT,这是一种新颖的文本到图像编辑任务,专注于编辑模型中的事实知识,以进步生成图像的质量和准确性。这种方法还包括一种更新知识编码器的方法,确保模型保持最新和相干性。此外,Pan等[237]探究了基于transformer的多模态神经元的识别。同时,Gandicota等[238]深入研究了从模型权重中擦除特定概念的概念,特别是在文本到图像扩散模型中。他们引入了一种知识编辑方法,该方法利用这些已识别的神经元,为更过细和有效的多模态知识整合铺平了道路。这种方法为概念删除提供了一种更长期的办理方案,而不是仅仅在推理时修改输出,从而确保即使用户可以访问模型的权重,更改也是不可逆的。
然而,评估模型整合跨模态知识的划一性仍然是一个重大挑衅,必要订定新的基准和指标。调整知识编辑技能以对齐多模态表现也至关重要。办理这些研究问题可以使模型能够以类似于人类认知的方式对多模态知识进行学习和推理。
2.6.3. Trustworthy AI



知识编辑将其应用范围扩大到不仅仅是对事实知识的改正。它还有助于修改 LLMs的其他显著行为,例如消除不安全特性,如图 11 所示。在抱负情况下,社会友爱和值得信任的人工智能系统不仅应该拥有准确的知识,而且还应该表现出得当的社会规范和价值观。这必要制止有毒、偏见或有害的语言和观点, 并展示对不同观点和经验的明白和划一性。然而,通过知识编辑实现这种“社会划一性”面临着重大挑衅。社会行为本质上是复杂和主观的,因此改变社会行为是一项艰巨的任务。最近,一些现有的工作探索了应用知识编辑技能来构建更可信的人工智能,例如针对隐私问题的解毒、贬低和防御策略。
Toxicity in LLMs LLMs容易受到有害输入的影响,并产生有害的语言,损害其有效性[245,246]。为了评估有毒的生成,Gehman等[247]提供了一个一连生成的数据集RTP,Zhang等[248]计划了SBENCH,其中包括11,435个不同的多项选择题,涵盖7个不同类别的安全问题。为了加强对LLMs无害数据的解毒作用,邓等[249]、黄等[250]、克劳斯等[251]对过孔手动标记的无害数据的LLMs参数进行了微调。然而,这些方法缺乏对恶意扰动的鲁棒性,并且存在高昂的注释成本。知识编辑是操纵 中LLMs毒性的一种可解释的替换方法,它仅调整参数子集并减少计算斲丧。一方面,Anonymous [252] 利用知识编辑技能为不同的攻击目标注入后门LLMs。Li等[253]通过消除模型中有限数目标因果路径,在推理时针对不良行为。另一方面,越来越多的研究侧重于通过知识编辑引发安全反应。例如,Geva等[42]探索了通过在前馈网络层上使用逆向工程从神经元中去除有害词的方法。胡等[254]将专家本领和反专家的本领相团结,在保存一般本领的同时,只提取和消除反专家本领的不足。LoRA构建的这种方法的专家和反专家是参数服从高的,使LMs能够保存自然技能,例如MMLU(事实性)[202],小学数学(推理)[255]和Big-Bench-Hard[256]。
然而,这些用于安全生成的知识编辑方法主要局限于令牌级别,这意味着制止使用有毒词。因此,经过编辑的模型面临着丧失纳入敏感术语及其相干观点的本领的风险。例如,像“繁荣”这样的玄妙术语的存在拦阻了模型表达安全指令的本领,如“不要制造炸弹”。因此,计划一种编辑方法来生成语义安全和多样化的内容具有很大的前景。此外,对广泛的对抗性输入进行概念知识编辑是必要的,这可以永久地消除有害的概念LLMs,从而加强模型的团体完整性和可靠性。
Bias in LLMs 在庞大的语料库LLMs上练习的LLMs偏见可能会偶然中学习有偏见的信息,导致模型中编码的负面刻板印象和社会偏见。当摆设在生产系统中时,这种偏见可能会导致不公平和伤害[257,258]。例如,给定描述“Anita 的状师事件所为下东海岸提供服务,包括 Accomack 县”,有偏见的模型可能会产生“Anita 是一名护士”的一连,反映出性别偏见。评估和减轻这些毛病至关重要,有几个基准测试,包括Bios数据会合的毛病[259]、WinoBias[260]和StereoSet[257]。
为了办理偏见LLMs问题,Hernandez等[162]提出了知识编辑方法 REMEDI,该方法显著降低了性别LLMs偏见。Yu等[261]提出了一种分区对比梯度去学习方法,该方法仅优化模型中在特定毛病域中最有影响力的权重。这种方法既能有效地减轻它所实用的性别专业范畴的偏见,也能有效地将这些影响推广到其他看不见的范畴。此外,受ROME和MEMIT研究结果的启发,DAMA[262]识别了刻板印象表现子空间,并使用正交投影矩阵编辑了易受偏置的FFN。所提出的方法显着减少了 WinoBias 和 StereoSet 中的性别偏见,而不会捐躯不相干任务的性能。
只管这些方法取得了乐成,但要编辑和减轻 LLMs 中的偏见,仍有更多停滞必要克服。这些停滞包括:首先,偏见可能出现在复杂的语义、语用和常识知识中,而现有基准可能无法充分捕捉这些知识;其次,虽然一些偏见可以通过知识编辑来办理,但练习数据自己固有的系统性偏见会带来更长期的困难。因此,办理这些偏见和不公平的根本根源必要全面的策略,包括数据管理、模型架构和知识编辑技能。
Privacy in LLMs LLMs 在广泛的网络数据语料库练习,隐私可能会被记住并偶然中走漏敏感或秘密信息,从而造成重大的隐私和安全问题[263,264]。“被忘记权”在从前的工作中得到了夸大,夸大必要办理个人和秘密数据的潜伏走漏问题[265]。在保护个人信息的同时,可以通过知识编辑方法实现可靠性LLMs。例如,Jang等[266]提出知识去学习作为一种修改预练习模型并制止它们生成特定知识文本的手段。Ishibashi和Shimodaira[187]提出的另一种方法是知识清算,其目标是防止个人和秘密信息的走漏,同时保持可靠性。DEPN [267] 引入了识别与隐私敏感信息相干的神经元。然后,通过将这些检测到的隐私神经元的激活设置为零来对其进行编辑。此外,他们还提出了一个隐私神经元聚合器,用于批量处理和存储隐私信息。实验结果表明,该方法在不影响模型性能的情况下,显著降低了私有数据走漏的暴露。
在多模态模型的背景下,Chen等[268]提出了用于保护个人信息的PrivQA数据集。他们开辟了一个多模态基准来评估隐私和效用之间的权衡,其中模型被指示在模拟场景中保护特定类别的个人信息。他们还提出了一种迭代的自我调节技能,可以大大进步隐私性。此外,正如Wu等[269]所夸大的那样,知识编辑技能也与联邦学习有关,包括联邦取消学习和联邦增加学习。预测未来,仍必要进一步的研究来开辟能够有效且可验证地扫除潜伏LLMs敏感知识的技能。另一个风趣的应用是通过知识编辑嵌入水印[270]LLM,而不影响模型的性能并为其提供版权保护。因此,有必要仔细评估基准,以严格测试这些方法的本领。
2.6.4. Human-Computer Interaction: Personalized Agents

数百万年的进化使人类能够通过基因和学习经验来实现智力。随着 LLMs的出现,机器在不到几百年的时间里就学会了掌握世界知识。这些知识本领来自从压缩数据派生的参数。在人类与机器可能共存的期间,为了社会利益,计划智能人机交互系统至关重要[271,272]。通过有效地控制 LLMs 作为个性化署理人,我们可以利用他们的本领来创造社会利益,正如 Salemi 等人[273]所概述的那样。与基因编辑类似,知识编辑技能允许通过操纵参数来控制电子大脑,以定制具有各种知识、价值和规则属性的(永久)LLM 署理。
图 11 展示了个性化模型在经济业务、对话系统、推荐系统等各个范畴的应用。最近的希望证明了他们表现出个性、观点和情感的本领,使他们更像人。这引发了人们对开辟个性化LLMs的兴趣日益浓厚。一些著作[277,278]LLMs通干涉卷测试(即MBTI)和其他心理学理论研究了人格。Tu等[279]为具有不同设置文件的虚拟角色构建了对话框架。毛等[280]提出了一种新的知识编辑任务来编辑 LLM 人格。首先,它能够 LLMs 迎合用户的喜好和意见,从而加强用户体验。这可以通过知识编辑来实现,在知识编辑中,模型经过练习以符合每个用户的特定要求和兴趣。还提出了一种感情基准[281]来权衡LLM感情。
个性化的 LLMs 通过迎合用户的喜好和意见来加强用户体验。知识编辑是实现这一目标的关键技能。通过练习模型以符合每个用户的特定需求和兴趣,可以提供个性化的推荐和发起。例如,在经济业务中,模型必须明白用户的审美和偏好,以便为他们提供更好的产品推荐。通过了解个人用户的独特品味和偏好,该模型可以提供更准确和个性化的发起,从而进步客户满意度并可能进步贩卖额。此外,将商家纳入LLMs客户服务系统可能是非常有益的。这些模型可以资助明白息争决客户的疑问和疑虑,提供个性化的推荐,并提供更令人满意的购物体验。通过利用个性化LLMs,人工智能署理可以有效地处理特殊的产品功能,并将其更好地介绍给买家。
综上所述,基于用户偏好开辟面向个人的模型在人机交互范畴至关重要,例如经济业务、对话系统和推荐系统。通过知识编辑和与用户的胃口和意见保持划一等新兴技能[282],LLMs可以提供改进的商品和服务,从而进步用户满意度和更好的业务成果。
2.7. Discussion and Conclusion

在这项研究中,我们夸大了当今知识编辑所固有的挑衅,并为多样化的编辑任务引入了新的基准。虽然目前的方法在某些范畴显示出疗效,但仍有重大问题必要改进:


  • 当前的语言模型架构从根本上基于下一个 token 猜测任务,但底层机制仍然是不透明的。目前尚不清楚目前的编辑方法可能侧重于改变输出的概率分布或对特定提示的响应,是否真正构成乐成或有效的编辑。这种含糊性引发了人们对这些方法在实现有意义和有意识的知识编辑方面的有效性的质疑。
  • 界定知识编辑所施加的影响的程度和界限是具有挑衅性的。与神经外科手术类似,鉴于语言模型中信息和技能的交错性质,全面评估修改对模型其他功能的影响是复杂的。这种复杂性表明,目前的知识编辑方法可能更有效地应用于特定任务或特定范畴的上下文中,在这些上下文中,编辑的影响更可猜测和可包罗。
  • 知识的动态性和流动性,随着日常变化和新信息而不停发展,带来了独特的挑衅。语言模型不仅必须包罗这些不停发展的知识,而且还必须相应地调整其推理、举措和交换方法。这种瞬息万变的知识格局必要一种更加敏捷和响应敏捷的方法来控制知识LLMs,就像植入思想钢印一样,可以跟上信息和社会规范的快速发展,并进一步确保人类社会的安全LLMs。
然而,正如Pinter和Elhadad[183]所指出的那样,LLMs 的随机性不仅是复杂性的泉源,而且是各种情况下创造力和顺应性的源泉。因此,知识编辑的潜力仍然值得探索。许多因素,如先验知识、经验、文化背景和社会互动,错综复杂地联系并塑造了模型的结果。为了在未来真正做到负责任和合乎道德的LLMs,我们可能必要一种综合方法,包括知识编辑、更强大的安全步伐、更开放和更强的问责制。总体而言,从传统微调到知识编辑的变化反映了我们处理 LLMs的方法发生了更深条理的演变。它标志着朝着更专业、更过细和更复杂的模型顺应和加强方法迈进,这与这些高级语言模型日益增长的复杂性和功能相划一。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

老婆出轨

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表