X-Node:自解释即所需一切

发表
Prajit SenguptaPrajit Sengupta 提交
作者: Prajit SenguptaPrajit Sengupta, Islem Rekik

摘要

图神经网络(GNN)通过捕获数据实例之间的结构依赖性,在计算机视觉和医学图像分类任务中取得了最先进的结果。然而,它们的决策过程在很大程度上不透明,这限制了它们在需要可解释性的高风险临床应用中的可信度。现有的GNN可解释性技术通常是事后和全局的,对个体节点决策或局部推理提供的洞察有限。我们引入了X-Node,一个自解释的GNN框架,其中每个节点都在预测过程中生成自己的解释。对于每个节点,我们构建了一个结构化上下文向量,编码可解释的线索,例如其局部拓扑中的度、中心性、聚类、特征显著性和标签一致性。一个轻量级的推理器模块将此上下文映射到一个紧凑的解释向量,该向量具有三个目的:(1)通过解码器重建节点的潜在嵌入以强制保持忠实性,(2)使用预训练的LLM(例如Grok或Gemini)生成自然语言解释,以及(3)通过“文本注入”机制将解释反馈到消息传递管道中,从而指导GNN本身。我们在两个源自MedMNIST和MorphoMNIST的图数据集上评估X-Node,并将其与GCN、GAT和GIN骨干集成。我们的结果表明,X-Node在保持有竞争力的分类准确性的同时,生成了忠实的、每个节点的解释。仓库:https://github.com/basiralab/X-Node
查看 arXiv 页面查看 PDF

评论

Prajit SenguptaPrajit Sengupta
论文作者
论文提交者

图神经网络(GNN)通过捕捉数据实例之间的结构依赖关系,在计算机视觉和医学图像分类任务中取得了最先进的成果。然而,它们的决策过程仍然大多不透明,这限制了它们在高风险临床应用中的可信度,而在这些应用中可解释性至关重要。现有的GNN可解释性技术通常是后验的和全局的,对单个节点决策或局部推理提供的洞察力有限。我们引入了X-Node,这是一个自解释GNN框架,其中每个节点在预测过程中生成自己的解释。对于每个节点,我们构建了一个结构化上下文向量,编码了可解释的线索,如其局部拓扑中的度、中心性、聚类、特征显著性和标签一致性。一个轻量级的推理器模块将此上下文映射到一个紧凑的解释向量,该向量具有三个目的:(1)通过解码器重建节点的潜在嵌入以确保忠实性,(2)使用预训练的LLM(例如Grok或Gemini)生成自然语言解释,以及(3)通过“文本注入”机制引导GNN本身,将解释反馈到消息传递管道中。我们在源自MedMNIST和MorphoMNIST的两个图数据集上评估了X-Node,并将其与GCN、GAT和GIN骨干网集成。我们的结果表明,X-Node在保持有竞争力的分类准确性的同时,生成了忠实的、逐节点的解释。

image.png