ToB企服应用市场:ToB评测及商务社交产业平台

标题: LLM&Graph:MindMap-Knowledge Graph Prompting Sparks Graph of Thoughts i [打印本页]

作者: 耶耶耶耶耶    时间: 8 小时前
标题: LLM&Graph:MindMap-Knowledge Graph Prompting Sparks Graph of Thoughts i
写在论文前

论文地址
该论文发表在 CCF A类会议 ACL ,来自 伊利诺伊大学香槟分校
实际上基于知识图谱增强盛模子已经有了很多方法,最经典的应该是 Microsoft 的 GraphRAG
但是该论文做了一些更加精细的图增强,比方路径+子图的证据子图, 以及基于,值得亲自阅读和学习
Motivation

Problem Now

现在LLM在天生和推理时遇到的问题:
Related Work

为了解决以上提到的LLM的三个问题,人们提出了一些方法
因此,基于chain of thought ,Graph RAG 以及 Prompt Engineering, 作者提出了一个即插即用的 Graph Prompt 框架,可以实用于LLM APIs 来增强盛模子的终极答复。
![[minmap-motivation.png]]

Method

MindMap 方法的焦点思想是将外部知识图谱中的信息转化为雷同“头脑导图”的结构,引导 LLM 进行更有效、更透明的推理。 该方法重要包含三个步骤:

证据图发掘

证据图发掘由实体辨认和证据子图索(大概会裁剪一些子图)构成
实体辨认: 使用LLM从问题                                   Q                              Q                  Q中提取一些关键实体                                             V                            q                                       V_{q}                  Vq​ , 实际上这一步采用的Prompt Engineering来增强LLM对于实体辨认的效果,比方
  1. Learn to extract entities from the following medical answers: <一个构建的示例>
  2. Learn to extract entities from the following medical questions: <一个构建的示例>
复制代码
  完整Prompt Engineering在附录中
  这一步可以根据自己的任务替换Prompt,因为作者重要是在医学问答数据集上进行测试,因此提供的Prompt都是与医学相关的
证据子图探索: 根据实体辨认提取的关键实体                                             V                            q                                       V_{q}                  Vq​,通过两种方式天生 连接关键实体的子图:
证据图聚合

要天生终极的附加知识子图输入,从 最少                                   k                              k                  k 个 基于路径的子图和基于一阶邻居的子图 中提取三元组, 比方                                   (                         F                         a                         t                         i                         g                         u                         e                         ,                         N                         a                         u                         s                         e                         a                         )                         −                         i                         s                         S                         y                         m                         p                         o                         t                         o                         m                         O                         f                         −                         L                         i                         v                         e                         r                         P                         r                         o                         b                         l                         e                         m                              (Fatigue,Nausea)-isSympotomOf-LiverProblem                  (Fatigue,Nausea)−isSympotomOf−LiverProblem ,然后将他们构成一个序列                                             P                            1                                  ,                                   P                            2                                  ,                         ⋯                                   P                            n                                  ,                                   N                            1                                  ,                                   N                            2                                  ,                         ⋯                                   N                            n                                       P_{1},P_{2},\cdots P_{n},N_{1},N_{2},\cdots N_{n}                  P1​,P2​,⋯Pn​,N1​,N2​,⋯Nn​ ,然后使用 提示词工程 让LLM把这些序列转换成 自然语言。
  1. There are some knowledge graph path. They follow entity-> relationship->entity format. \n\n {Path} \n\n Use the knowledge graph information. Try to convert them to natural language, respectively. Use single quotation marks for entity name and relation name. And name them as Path-based Evidence 1, Path-based Evidence 2,...\n\n
复制代码
这里有两个地方需要注意:
LLM头脑导图推理

为了天生头脑导图,作者采用几个Prompt 来 引导模子天生:

实行

作者使用的是 ChatDoctor 和 QASystemOnMedicalKG 的json 来自己构建了两个知识图谱: EMCKG 和 CMCKG。
bechmark


baseline


Metrics:

作者使用了 Win/Tie/Lose 的评判标准来比力差别模子的性能。 这是一个相对简朴的评判标准,用于比力两个模子在同一问题上的答复质量。 详细来说:

此外,还有一些其他的标准:

结果

win-tie-lose测试结果:

问答准确率

有个风趣的地方是,LLM-only的GPT-3.5 比 KG Retrieve 和 BM25 Retriever增强的LLM性能还好。作者给出的表明是这种差异源于不匹配的外部知识,导致对语言模子(LLM)的误导性影响。该模子通常依靠于检索到的知识,当不准确时,LLM大概会产生错误。
实际上这也是RAG的一个重大缺陷,由于引入了大量的上下文,LLM的答复基本知识基于RAG的结果,LLM本身的知识在推理时被 上下文粉饰了
与GPT-4的答复盘算bert得分

溶解实行

案例



免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 ToB企服应用市场:ToB评测及商务社交产业平台 (https://dis.qidao123.com/) Powered by Discuz! X3.4