马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。
您需要 登录 才可以下载或查看,没有账号?立即注册
x
https://www.sciencedirect.com/science/article/pii/S1566253524001908?via%3Dihub
论文的具体信息如下:
问题:
- 哪些医疗应用使用了解释性人工智能工具?
- 医疗应用中的可解释性当前采用了哪些方法?
- 如何为特定终端用户实施和评估强大的可解释人工智能?
- 在医疗领域使用可解释人工智能的潜伏未来趋势和关键挑战是什么?
挑战:
- 人工智能算法复杂,难以提供易于明白的决策解释,导致终端用户不信托,尤其是在医疗保健领域。
- 深度学习模子如 DNN 的输出难以明白和信托,与传统机器学习方法相比,其训练过程复杂,增长了明白难度。
- 对于黑箱模子,缺乏透明度,决策过程难以明白,引发对模子可靠性的质疑。
- 尽管可解释性紧张,但在追求高精度时,往往会捐躯模子的可解释性。
- 解释性方法本身存在局限性,如依赖人类解释可能导致认知毛病,且解释的性能难以保证。
创新点:
- 对医疗领域中可解释机器学习(IML)和可解释人工智能(XAI)的整个过程举行了首次系统综述,并提供了逐步评估和实施蹊径图。
- 提出了一个跨三个层次的临床决策支持系统可解释性框架,具体探讨了每个层次中与 XAI 相关的康健应用。
- 夸大了从数据收集到决策的整个智能康健系统过程中实施可解释系统的紧张性。
贡献:
- 提供了医疗领域中可解释人工智能的一般定义。
- 介绍了临床决策支持系统可解释性框架,涵盖预处置处罚可解释性、可解释建模和后处置处罚可解释性。
- 探讨了框架各层级中与 XAI 相关的康健应用,并基于相关实行效果举行分析。
- 讨论了用于评估智能康健系统中 XAI 的质量评估工具。
- 提出了在临床情况中实施 XAI 的分步蹊径图。
提出的方法:
- 遵循系统评价和聚集分析的首选陈诉项目(PRISMA)尺度举行系统综述,包括确定搜索技术、选择尺度和数据提取方法。
- 提出智能康健系统的可解释性过程,夸大在临床系统的整个过程中需要多样化、用户友好且可信的解释,以增能人工智能与临床医生之间的沟通并满意终端用户需求。
- 创建康健到数据中央(D2H),该中央包含临床医生 - 人工智能沟通台、数据科学家资助台、质量评估委员会和伦理审查委员会四个关键组件,作为将强大的可解释性和可解释性集成到医疗保健中的系统方法。
指标:
论文未明确提及特定的评估指标,但在质量评估和改进可解释性过程部门,重点关注终端用户(如患者、医生、护士、护理职员、卫生系统管理职员和其他领域专家)对解释的可明白性,以此来评估所提出的可解释性框架在医疗保健和医学中的有效性。
模子结构:
论文未提及具体的模子结构,主要围绕智能康健系统中可解释性和可解释人工智能的过程、方法、应用、挑战等方面举行研究,提出了包含预处置处罚可解释性、可解释建模和后处置处罚可解释性的可解释性过程分类,以及由临床医生 - 人工智能沟通台、数据科学家资助台、质量评估委员会和伦理审查委员会构成的康健到数据中央(D2H)框架结构,但并非传统意义上的模子结构描述。
结论:
人工智能有望极大影响医学未来,但仅依赖解释性来指导个体患者决策可能并非最佳计谋。当前解释性方法无法保证特定决策的正确性、加强信托或证实人工智能推荐的临床应用公道性。然而,这并不削弱在医疗保健和医学中实施强大的可解释机器学习(IML)和可解释人工智能(XAI)的紧张性,其对于进步终端用户对康健系统的信托、促进临床医生与人工智能之间的沟通至关紧张。
剩余挑战和未来工作:
- 确定哪种解释方法最有效以及如何评估解释质量。
- 如何根据特定终端用户定制解释。
- 如安在性能和可解释性之间取得平衡。
- 如何针对特定康健应用计划系统并确保持续改进。
数据集:
论文未提及使用特定的数据集,主要是对已发表的关于在医疗情况中应用 IML 和 XAI 的研究举行系统综述,通过在 PubMed、Scopus 和 Web of Science 数据库中使用敏感和特定的搜索字符串举行文献搜索,颠末去重、筛选、质量评估等步骤,最终选择了 74 篇出版物举行数据提取,包括 10 篇有见地的综述和 64 篇相关实行研究,但未明确涉及特定数据集的使用情况。
原文
抽象的
背景
基于人工智能(AI) 的医疗设备和数字康健技术,包括医疗传感器、可穿着康健追踪器、远程医疗、移动医疗 (mHealth)、大型语言模子(LLM) 和数字护理孪生 (DCT),极大地影响了医疗保健和医疗应用中临床决策支持系统(CDSS)的过程。然而,思量到医疗决策的复杂性,至关紧张的是,AI 工具天生的效果不但要正确,而且要颠末细致评估、可明白和可向最终用户(尤其是临床医生)解释。在转达 AI 临床决策时缺乏可解释性,这可能导致决策者之间的不信托和不愿使用这些技术。 客观的
本文系统地回顾了医疗保健和医学领域中可解释机器学习(IML) 和可解释人工智能 (XAI)相关的过程和挑战。其主要目标是研究 IML 和 XAI 的过程、它们的相关方法、应用以及它们在数字康健干预 (DHI) 中带来的实施挑战,特别是从质量控制的角度,以资助明白和改善 AI 系统与临床医生之间的沟通。IML 过程分为预处置处罚可解释性、可解释建模和后处置处罚可解释性。本文旨在通过回顾相关实行效果,全面明白临床决策支持系统(CDSS) 中妥当可解释性方法的紧张性。目标是为未来的研究职员提供见解,以创建在医疗保健决策支持系统中更具交流性的临床医生 AI 工具,并提供对其挑战的更深入了解。 方法
我们的研究问题、资格尺度和主要目标是使用系统评价和聚集分析的首选陈诉项目 (PRISMA) 指南和 PICO(人群、干预、控制和效果)方法验证的。我们使用敏感且特定的搜索字符串系统地搜索了PubMed、Scopus和 Web of Science 数据库。随后,使用 EndNote 和 Covidence 删除了重复的论文。然后在 Covidence 上举行了两阶段的选择过程,起首按标题和择要举行筛选,然后举行全文评估。使用元质量评估工具 (MetaQAT) 评估质量和偏倚风险。最后,采用尺度化数据提取工具举行可靠的数据挖掘。 效果
搜索共得到 2,241 条记录,其中删除了 555 篇重复论文。在标题和择要筛选步骤中,共排除了 958 篇论文,在全文审查步骤中,共排除了 482 项研究。随后,在质量和偏倚风险评估中,共删除了 172 篇论文。最终选择了 74 篇出版物举行数据提取,形成了 10 篇富有洞察力的评论和 64 篇相关的实行研究。 结论
本文对医学领域的可解释人工智能 (XAI) 给出了一般定义,并介绍了一个跨三个层次的临床决策支持系统可解释性框架。它探讨了该框架每个层级内与 XAI 相关的康健应用,并以相关实行效果的回顾为底子。别的,本文还具体讨论了用于评估智能康健系统中 XAI 的质量评估工具。它还介绍了在临床情况中实施 XAI 的分步蹊径图。为了引导未来的研究弥合当前的差距,本文从各个角度研究了 XAI 模子的紧张性并承认了它们的局限性。 关键词
可解释的机器学习 基于人工智能的医疗设备 非结构化数据 医学大型语言模子 人机交互 可穿着医疗设备 可解释的因果分析 负责任的人工智能 1.引言
如今,人工智能(AI) 已深深融入我们的生活,资助各个领域应对复杂挑战并彻底改变传统的决策方法[1]。机器学习(ML) 和AI 模子可用于我们日常生活的很多方面,比方在汽车中用于导航、在智能手表中用于追踪康健状态[2]、在智能手机中用于辨认我们的声音、在诊所中用于猜测疾病[3]、在医院中用于协助医生举行手术[4]、在医学中用于药物研发[5]等等。别的,由于 AI 办理方案与传统方法相比具有显著的服从[6] ,各个行业都在探索将 AI 办理方案应用到其流程中。在医疗保健和医学领域,特别是在临床决策支持系统中, AI 技术的应用在不绝发展和进步。智能康健系统中的正确猜测需要大量数据,而大多数电子病历(EMR) 都是多维的且极其复杂[7] 。别的,由于经典机器学习算法(比方随机丛林(RF)、决策树(DT) 和线性回归(LR))在从临床数据中提取隐藏模式方面不如深度神经网络(DNN)正确,因此必须应用复杂的 DNN [8] 。然而,随着这些猜测模子中的层数、特征和超参数数量的增长,这些 AI 工具的操纵变得越来越难以明白。[9]。 由于正则化、超参数调解和丧失函数, DNN 方法的训练过程非常复杂。因此,与RF、DT 和KNN [10]等经典ML 方法的输出相比, DNN 算法的输出更难明白和信托。根据这些效果,决策者和护理职员面临着一个重大挑战:黑箱模子[11]。根本 ML 模子更容易解释。在这种情况下,解释是指提供易于明白的解释的能力,旨在加强临床决策支持系统 (CDSS) [12]中的临床医生与 AI 的沟通。更简单的 ML 模子被视为白盒模子,不需要添加参数或函数即可产生透明的效果。别的,另有一个介于黑盒和白盒模子之间的概念,称为灰盒模子。如果计划得当,这些方法很容易解释[13]。以下段落将描述医疗保健系统中黑盒模子面临的挑战。 1.1医疗保健领域可解释性的一般概念
人工智能是一项创新技术,可为实际应用中的决策者带来诸多好处。然而,由于算法的复杂性,现代人工智能系统在为其决策提供易于明白的解释方面面临挑战。这种不透明性可能导致最终用户的不信托,特别是在医疗保健和医学等关键领域[14]。为了办理黑箱问题,开发职员必须优先思量可解释性,而不是正确性和性能。这一优先事项导致了近年来可解释机器学习(IML) 和可解释人工智能 (XAI) 的兴起。解释机器学习模子涉及明白其猜测以及患者、临床医生和开发职员的决策过程。可解释性在很多情况下都至关紧张,无论是为了满意法律要求、防止私见决策还是加强用户信心[15]。可解释性有几个长处,包括 (1) 资助用户在 ML 模子中找到清楚的模式;(2) 使用户可以或许明白不正确猜测背后的缘故起因;(3) 在模子猜测中创建最终用户之间的信托; (4) 使用户可以或许检测 ML 模子中的毛病;(5) 提供额外的安全步伐以防止过度拟合。在大多数情况下,ML 和DL方法充当黑盒模子,用户不知道内部工作原理、如何选择特征以及如何举行猜测。这种缺乏透明度的情况经常导致人们产生猜疑,并引发有关医疗系统决策者对模子可靠性的根本问题。图 1阐明了有关 AI 决策过程的常见问题和担忧。 图 1.阐明了关于医疗保健领域人工智能的常见问题,比方模子乐成或失败的情况、特征选择的缘故起因以及模子输出的团体可信度。
XAI 在医疗保健和医学领域有很多应用。 目前,可解释性是医学领域的主要关注点,以便为患者和护理职员提供易于明白的效果,并加强他们对特定应用的信托,比方药物发现 [16]、 甲状腺 [17]、父母压力 [18]、可穿着康健追踪器和生物传感器 [19]和 呼吸系统疾病 [20]。当系统无法清楚解释模子如何得出决策时,人工智能就会出现黑盒问题。黑盒、灰盒和白盒这几个术语描述了 机器学习算法内部运作的不同透明度级别。 可解释性的根本原理与可解释性密切相关;如果人类可以或许明白方法的工作原理并做出决策,则方法被认为是可解释的。 1.2医疗保健透明度的紧张性
透 明度和可解释性对于医疗情况中的 AI 实施至关紧张,由于不正确的决策(比方疾病猜测)可能导致严峻挑战[11]。医疗系统中的护理职员和决策者过于担心 AI 工具的黑箱性质。该方法涉及创建在可解释性和正确性之间取得平衡的 ML 模子,这可以通过以下方式实现:(a) 计划本质上可解释的白盒或灰盒模子 [21],同时保持高精度;或 (b) 当白盒或灰盒模子无法到达 可接受的精度水平常,用根本的可解释性加强黑盒模子。虽然一些研究职员认为解释黑盒模子是有益的,但最好从 开发过程一开始就创建可解释的模子 [21]。依赖解释黑盒工具,而不是本质上计划可解释的模子,可能会导致临床情况中的患者出现严峻结果。可解释性方法超越了简单的猜测;它提供了额外的信息来了解 AI 临床决策支持系统的工作原理。这对于开发职员和临床医生等终端用户尤其有用 [10]。另一方面,可解释性让终端用户了解临床决策过程,这有助于创建信托,信赖人工智能工具可以或许根据信息做出正确、公正的决策 [1]。 换句话说,白盒模子专为可解释性而计划,使其效果更容易明白,但可能导致正确度略低。它们实用于可解释性和透明度至关紧张的应用,比方 医疗诊断 [14]。另一方面,黑盒模子虽然更正确,但可解释性较差。它们实用于以实现最高 猜测正确度为主要目标、可解释性不太紧张的任务,比方犯罪问题的图像辨认。灰盒模子提供了一种平衡,在可解释性和正确性之间提供了良好的衡量。它们实用于广泛的应用,在白盒模子和黑盒模子之间提供了一个中间立场 [22]。 图2显示了这些模子之间的差异。 图 2. a ) 白盒、b) 灰盒和 c) 黑盒模子的比力:阐明了不同类型的机器学习模子之间的衡量:a) 白盒模子完全透明且易于明白,尽管正确度可能较低,但仍能赢得用户信托;b) 灰盒模子在一定的可解释性和中等复杂性之间取得平衡,但最终用户仍在寻求进一步的清楚度;c) 黑盒模子正确度高但缺乏透明度,导致最终用户对决策过程感到狐疑。 1.3 .平衡医疗保健系统中的正确性和可解释性
在医疗保健和医学领域,研究职员努力寻找合适的模子,而临床医生则寻求易于明白和解释的模子。然而,优先实现最高精度可能会导致更复杂、更难明释的模子。随着人工智能在医学领域的日益遍及,认识到这种平衡对于有效的医疗决策至关紧张,尤其是在 慢性病猜测 分析等领域。在一些实行中,结合可解释的模子可以提供更多可解释的见解;然而,为了实现最大的正确性,可能会捐躯一定程度的可解释性。比方,虽然决策树 (DT) 本质上是可解释的,但当它们被反复使用并组合在 RF 等模子中时,它们会变得难以明白。这夸大了像 DNN 这样的复杂模子可能会为了更高的正确性而捐躯可解释性。在这种情况下,可解释性变得更加关键,由于它有助于明白复杂的黑箱系统 [22]。比方,像 CNN (卷积神经网络) 这样的 深度学习技术比 RF 更难明释,而像 DT 这样的经典 ML 方法比 RF 更容易解释。虽然经典的机器学习模子(比方 LR)具有较少的功能,使其更易于明白,但随着参数数量的增长,模子会变得非常复杂。 [23]。在黑盒、灰盒和白盒模子之间定义明确的界限具有挑战性。 值得夸大的是,一些作者指出,没有科学证据支持正确性和可解释性之间的总体平衡 [23]。虽然大多数 ML 模子在追求最高精度的过程中往往会捐躯可解释性,但从预处置处罚阶段开始计划正确的可解释性可能会导致可解释性和性能之间的显著衡量。别的,鉴于医疗决策 支持系统的关键紧张性及其对个人生活的潜伏改变影响,在智能医疗系统的整个过程中(从数据收集到决策)实现可解释的系统至关紧张。解释对于明白整个过程、加强最终用户和系统之间的信托、改善临床医生和人工智能之间的交互和沟通、资助决策支持系统随着时间的推移举行学习和更新以及简化不同 ML 模子之间的比力至关紧张 [23]。近年来,研究职员越来越多地夸大在医疗保健和医学中实施 IML 和 XAI 的紧张性 [ 24 , 16 ]。 本研究全面概述了可解释性过程在临床决策支持系统中的紧张性,包括预处置处罚可解释性、可解释建模和后处置处罚可解释性。可解释性超越了学术爱好;它将成为未来医疗保健和医学领域 人工智能应用的一个紧张方面,影响数百万护理职员和患者的日常生活。 1.4 .可解释性在数字康健干预(DHI)中的作用
XAI 工具旨在遵循 WHO(天下卫生构造)的指导方针 [25] ,使智能医疗系统对 数字康健干预 (DHI)(包括患者、患者家属、医疗专业职员、医疗系统管理职员和 数据服务)更具沟通性和透明度。自动化临床决策和办理问题的系统可能明白医学多维数据中的复杂结构,但难以解释黑箱模子中的隐藏模式。这表明人工智能带来了创造性的办理方案,同时也带来了安全性、隐私性、包涵性和多样性以及透明度等关键挑战 [26]。 图 3通过在 DHI 领域实施 XAI 打开了一扇窗户来突出显示其优势。 图 3。XAI在数字康健干预中的作用:展示了 XAI 对数字康健领域不同长处相关者的益处:进步患者信托度、资助医疗保健提供者举行决策、进步管理职员的系统服从、促进数据服务的产品开发。
DHI 分类应用于实施智能康健系统,以满意可解释决策等康健需求,从而加强临床医生的 AI 沟通。该框架概述了需求和挑战,以资助决策者夸大可解释性和可解释性对电子康健效果的紧张性 [10]。这种 DHI 分类还描述了实用于各种康健系统的方法,比方 电子康健记录(EHR)、 远程医疗平台和 临床决策支持系统(CDSS)。根据世卫构造旨在进步 AI 可解释性过程中高可沟通性的指南,必须将医疗数字办理方案中的所有这些 DHI(数字康健干预)类别视为目标和非目标客户之间的传输和 通信系统。别的,它们还充当 医疗保健提供者之间的决策支持、咨询和沟通系统 [27]。 1.5当前康健应用中的可解释性方法
机器学习决策主要有两种解释:固有可解释性和后处置处罚可解释性方法。固有可解释性是指直接且易于明白的输入数据与模子输出之间的联系。DT 或 LR 等模子体现了这种方法。然而,即使是简单易懂的模子也会受到无法立刻辨认的隐藏因素的限定。人机交互研究表明,过度透明度会阻碍用户指出和改正重大模子错误的能力。这可能是由于用户被信息沉没了。即使对于故意计划的清楚且易于解释的模子,这种现象也是云云。别的,更多的研究证实,即使是数据科学家偶然也会过度依赖可解释性工具,导致难以正确描述这些工具天生的可视化效果。因此,虽然可解释性对于明白和信托机器学习模子至关紧张,但在不让用户不知所措的情况下实现透明度的得当平衡仍旧是一项重大挑战 [28]。 与本质上可解释的模子不同, 很多现代人工智能应用涉及的数据和模子过于复杂和多维,无法通过简单的输入和输出关系轻松明白。此类复杂模子的示例包括为图像分析、文本处置处罚和声音辨认等任务而计划的模子。 在这些情况下,重点已转向分析模子的决策过程,这种做法称为可解释性。虽然显著图作为事后可解释工具在 医学成像中很受接待,但它也有局限性。它们可能会突出显示混合了有用和不太有用信息的区域。别的,它们不能正确洞察模子认为哪些方面对诊断很紧张。比方,目前尚不清楚模子的决策是由特定的非常、外形还是 技术细节引导的 [29]。 机器学习中的可解释性方法通常面临可解释性差距,由于它们依赖于人类来弄清楚给定解释的寄义。然而,人类倾向于给出积极的解释,认为他们认为紧张的特征就是模子所使用的特征。这种倾向是一种众所周知的认知错误,称为确认毛病。计算机科学家 Cynthia Rudin 简洁地概括了这个问题,她主张不再使用解释黑箱机器学习模子来做高风险决策,而是提倡使用可解释的模子。这种方法旨在淘汰对人类解释的依赖,并减轻确认毛病带来的潜伏私见。通过采用本质上可解释的模子(如 DT 或 LR),长处相关者可以更有信心明白和信托决策过程,而无需复杂的解释 [21]。 除了 热图之外,人们还开发了各种其他方法来解释复杂的医疗数据。其中包括特征可视化等技术。特征可视化涉及创建强烈激活机器学习模子特定部门的合成输入。这使得每个模子决策都可以被明白为在输入中检测到的特征的组合。然而,这种方法的一个局限性是合成输入通常不直接对应于易于解释的人类特征。因此,它们面临着与热图雷同的可解释性问题。比方,如果合成输入雷同于人类用于规划的特征(比方狗检测 AI 模子中的毛皮状纹理),人类仍旧需要弄清楚这是否意味着模子做出了正确的决定。换句话说, 虽然特征可视化提供了对模子如何工作的洞察,但对这些合成输入的解释仍旧是主观的,需要细致思量以确保故意义的洞察[30]。其他众所周知的当前解释方法也存在雷同的问题,如局部可解释的模子不可知解释 (LIME) 和 Shapley 值 (SHAP)。 LIME 专注于明白个人层面的决策,方法是稍微改变输入示例并找出哪些改变最有可能影响决策。图像分析涉及遮挡图像的某些部门,从而天生描述决策关键构成部门的热图。然而,这些解释面临着与显着性映射雷同的可解释性挑战。LIME 和 SHAP 都用途广泛,可用于各种类型的 医疗保健数据,包括来自 电子康健记录的结构化数据和脑电图波形数据 [ 31 , 32 ]。 1.6 .本综述的动机和目标
近年来,医疗卫生和医学领域的学者研究了XAI和IML在疾病诊断等现实医疗应用中的作用。然而,该领域现有的大多数评论和调查主要会集于比力各种XAI方法之间的差异 [24],探索白盒模子的好处 [33],讨论制止使用黑盒模子的缘故起因 [34],以及研究卫生系统中的相关指南 [26]。一些评论夸大了XAI在特定康健应用中的作用,如 肿瘤学 [35]、心脏病 [36]和药物发现 [16]。 附录4总结了医疗卫生和医学领域的紧张调查和XAI。在医疗卫生和医学领域,在临床决策支持系统的整个过程中,包括预处置处罚、处置处罚和后处置处罚阶段,解释和明白AI模子至关紧张。然而,根据我们目前的知识,还没有一篇评论从预处置处罚阶段彻底研究过XAI和IML的实施。现有的大多数研究主要会集于解释模子及其效果。别的,在深入研究白盒或灰盒模子的选择,或尝试明白黑盒模子在患者 猜测分析和决策中的作用之前,在预处置处罚阶段使用相关的解释工具至关紧张。这些工具可以深入了解数据的分布、质量和关系,资助辨认可能影响模子性能的潜伏问题或毛病。通过提前了解数据状态,医疗保健专业职员可以就模子选择和解释做出更明智的决策,从而进步 AI 驱动的医疗保健办理方案的可靠性和有效性。 在人工智能的可解释性背景下,研究职员面临着一个重大挑战:解释通常缺乏性能保证。它们的性能很少得到严格评估,而且在测试时,它通常依赖于启发式测量,而不是直接思量人类的观点。这带来了一个问题,由于解释只近似于模子的决策过程,可能无法完全代表底层模子的行为方式。 使用后处置处罚可解释人工智能工具来评估模子决策会引入额外的潜伏错误泉源。天生的解释可能是正确的,也可能是不正确的,就像模子一样。鉴于这些挑战,研究职员必须思量是倾向于完整的复杂模子,这种模子可能超出人类的明白范围,但具有颠末验证的高性能,还是选择可能导致正确性低沉和未履历证的解释机制。可解释性方法虽然并非无用,但确实有局限性。它们偶然会在明白复杂的人工智能行为时造成肴杂或误导。当它们描述模子的行为方式时,它们并不总是能证实其决策的公道性。这种差距导致依赖直觉,从而引入私见。过度依赖解释可能会导致对人工智能系统的监督不敷谨慎。检测和防备算法毛病至关紧张,但目前的研究工作还不敷。与其对每个猜测都使用解释,不如将它们视为模子运作方式的所有视角。比方,如果热图始终显示诊断模子专注于不相关的区域,则可能表示测试数据存在问题。举例来说,在皮肤癌检测模子中,热图显示它更关注手术标记而不是实际的 皮肤病变,这突显了模子训练或数据质量的潜伏问题 [37]。 解释另有助于在 眼科和 放射学等领域发现新见解。解释的集体行为提供了有价值的见解,而不是仅仅依靠一种特定的猜测 [38]。单靠解释可能无法提供所有答案,但这并不意味着盲目信托人工智能的猜测。必须一丝不苟地确认人工智能系统的安全性和有效性,雷同于药品和 医疗器械的评估过程。采用严格的评估,特别是通过 随机对照试验,至关紧张。别的,在调查人工智能中的种族私见等情况下,仅靠透明度可能还不敷。需要全面分析投入、输出和效果以发现任何私见。解释可以作为一种有价值的分析工具,特别是对于人工智能系统的开发者、审计师和监管者而言。它们不但仅实用于人工智能的最终用户或主体。本文 系统地回顾了IML 和 XAI 的过程及其在临床领域的应用。别的,它还具体介绍了 XAI 在数字 康健技术(如医疗传感器、可穿着康健追踪器和大型临床 语言模子)中的应用。我们还提出了分步 实施蹊径图,并讨论了在智能康健系统中实施 IML 的主要挑战和未来方向。本文的主要目标是回顾 IML 和 XAI 的过程、相关方法、应用及其在医疗保健和医学背景下的实施挑战,特别是在 CDSS 中。可解释性过程分为预处置处罚可解释性、可解释建模和后处置处罚可解释性。值得注意的是,本文探讨了 IML 在医疗保健和医疗问题中的作用,夸大其在数字康健办理方案中的必要性。本文旨在通过回顾相关实行效果,全面了解可解释性在康健决策系统中的紧张性。目标是为未来的研究职员提供见解,以便在医疗保健中更可靠地实施 AI 工具,并 更深入地了解他们可能面临的挑战。据我们所知,本文首次 系统地回顾了智能康健系统中可解释性和可解释性的整个过程,并附上了分步评估和实施蹊径图。为此,我们使用 PICO 框架提出了 5 个研究问题 [ 39 , 40 ]:
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |