盘算机前沿技术-人工智能算法-大语言模子-最新研究进 2024-12-22 ...

打印 上一主题 下一主题

主题 791|帖子 791|积分 2373

盘算机前沿技术-人工智能算法-大语言模子-最新研究进 2024-12-22


目次


  

1. FaultExplainer: Leveraging Large Language Models for Interpretable Fault Detection and Diagnosis

Authors: Abdullah Khan, Rahul Nahar, Hao Chen, Gonzalo E. Constante Flores, Can Li
https://arxiv.org/abs/2412.14492
故障表明器:利用大型语言模子举行可表明的故障检测和诊断
摘要:
本文介绍了FaultExplainer,一个基于大型语言模子(LLM)的天然语言系统,用于故障检测、诊断和表明。该系统集成了主身分分析(PCA)和T2统计量,并联合过程形貌,提供基于地面的故障表明。系统还提供了一个用于实时监控和用户友爱交互的Web界面,并展示了在诊断未见过的故障时的合理性能。

创新点:


  • 集成PCA和T2统计量与LLM,提供基于过程形貌的故障表明。
  • 提供Web界面,实实际时监控和用户交互。
  • 在未见过的故障诊断中表现出合理的性能。
算法模子:


  • 利用GPT-4o和o1-preview模子评估LLM的推理能力。
  • 联合PCA和特征紧张性分析来加强故障表明。
实验效果:


  • 实验效果表明,系统在生成合理和可利用的表明方面具有优势,但也存在局限性,如对PCA选择特征的依靠和偶然的幻觉现象。
保举阅读指数: 8/10
2. Answer Set Networks: Casting Answer Set Programming into Deep Learning

Authors: Arseny Skryagin, Daniel Ochs, Phillip Deibert, Simon Kohaut, Devendra Singh Dhami and Kristian Kersting
https://arxiv.org/abs/2412.14814
答案集网络:将答案集编程转化为深度学习
摘要:
只管答案集编程(ASP)允许约束神经符号(NeSy)系统,但其应用受到盘算稳定模子的高本钱和CPU限制性的限制。因此,我们提出了答案集网络(ASN),这是一种基于图神经网络(GNN)的可扩展方法,用于基于ASP的深度概率逻辑编程(DPPL)。我们展示了如何将ASP转换为ASN,并证明了ASN如何通过利用GPU的批处理和并行化能力高效解决编码题目。

创新点:


  • 将ASP转换为等价的GNN,引入了推理图(RG)。
  • ASN利用前向推理生成表明,然后过滤以获得全部ASP的稳定模子。
算法模子:


  • 基于GNN的ASN,通过消息传递和模子简化来获得稳定模子。
实验效果:


  • ASN在多个任务上逾越了CPU限制的NeSy系统,特别是在无人机宪法导航任务中,比基线快三个数量级。
保举阅读指数: 9/10
3. Critical-Questions-of-Thought: Steering LLM reasoning with Argumentative Querying

Authors: Federico Castagna, Isabel Sassoon, Simon Parsons
头脑的关键题目:用论证性查询引导LLM推理
摘要:
只管AI研究取得了突破性希望,但纵然是开始进的大型语言模子(LLM)在实行逻辑和数学推理时仍面临挑衅。本文利用论证理论中的关键题目概念,特别是Toulmin的论证模子,展示了如何通过这些题目提高LLM的推理能力。

创新点:


  • 利用Toulmin模子中的关键题目来改进LLM的推理能力。
  • 通过探测模子推理过程背后的逻辑,LLM可以评估是否发生逻辑错误,并在提供终极回复之前举行纠正。
算法模子:


  • 基于Toulmin模子的论证结构和关键题目。
实验效果:


  • 在MT-Bench推理和数学任务上对所提出的方法举行了广泛的评估,显示出与基线相比的明显改进。
保举阅读指数: 7/10
4. Fake News Detection: Comparative Evaluation of BERT-like Models and Large Language Models with Generative AI-Annotated Data

Authors: haina Raza, Drai Paulen-Patterson and Chen Ding
https://arxiv.org/abs/2412.14276
假消息检测:BERT类模子与生成性AI注释数据的大型语言模子的比较评估
摘要:
本研究对BERT类编码器模子和自回归解码器大型语言模子(LLM)在假消息检测方面的性能举行了比较评估。我们引入了一个由GPT-4辅助标记的消息文章数据集,并由人类专家验证以确保可靠性。

创新点:


  • 引入了一个新的数据集,该数据集由GPT-4辅助标记,并由人类专家验证。
  • 开发了一个在推理期间举行多数投票的指令调解LLM方法,用于标签生成。
算法模子:


  • 比较了BERT类模子和LLM在假消息检测任务上的性能。

实验效果:


  • BERT类模子通常在分类任务中优于LLM,而LLM在文本扰动下表现出更好的鲁棒性。
保举阅读指数: 8/10
5. Multi-OphthaLingua: A Multilingual Benchmark for Assessing and Debiasing LLM Ophthalmological QA in LMICs

Authors: David Restrepo, Chenwei Wu, Zhengxu Tang, Zitao Shuai, Thao Nguyen
Minh Phan, Jun-En Ding, Cong-Tinh Dao, Jack Gallifant, Robyn Gayle Dychiao,
Jose Carlo Artiaga, Andr’e Hiroshi Bando, Carolina Pelegrini Barbosa
Gracitelli, Vincenz Ferrer, Leo Anthony Celi, Danielle Bitterman, Michael G
Morley, Luis Filipe Nakayama
https://arxiv.org/abs/2412.14304
多语言眼科问答基准:评估和镌汰LLM在低中收入国家的眼科问答偏见
摘要:
当前的眼科临床工作流程受到太过转诊、长时间等待和复杂异质的医疗记录的困扰。大型语言模子(LLM)提供了主动化各种步伐的有远景的解决方案,如分诊、开端测试(如视力评估)和报告总结。然而,LLM在差别语言的天然语言问答任务中表现出明显的性能差别,大概加剧低中收入国家(LMICs)的医疗差距。

创新点:


  • 引入了第一个多语言眼科问答基准,包罗跨语言的人工筹谋题目,允许直接跨语言比较。
  • 提出了CLARA(跨语言反思署理系统),一种新颖的推理时去偏见方法,利用检索加强生成和自我验证。
算法模子:


  • 评估了6个流行的LLM在7种差别语言上的性能,并提出了CLARA方法来镌汰多语言偏见。
实验效果:


  • CLARA方法不仅提高了全部语言的性能,还明显镌汰了多语言偏见差距。

保举阅读指数: 9/10

跋文

假如您对我的博客内容感爱好,欢迎三连击(点赞,关注和评论),我将连续为您带来盘算机人工智能前沿技术(尤其是AI相干的大语言模子,深度学习,盘算机视觉相干方向)最新学术论文及工程实践方面的内容分享,助力您更快更准更系统地了解 AI前沿技术

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

麻花痒

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表