市场营销求职招聘交流微信群 http://m.jpm.cn/article-123830-1.html图神经网络的可解释性是目前比较值得探索的方向,今天解读的最新综述,其针对近期提出的GNN解释技术进行了系统的总结和分析,归纳对比了该问题的解决思路。作者还为GNN解释性问题提供了标准的图数据集和评估指标,将是这一方向非常值得参考的一篇文章。fig1论文标题:ExplainabilityinGraphNeuralNetworks:ATaxonomicSurvey论文 图5文本情感图对于每个文本序列,将其转换为一个图,每个节点代表一个单词,而边则反映不同单词之间的关系。作者采用Biaffine解析器[71]来提取词的依赖关系。图5中展示了生成的情感图的一个例子。生成的图是有向的,但边标签被忽略了,因为大多数GNNs不能捕获边标签信息。用BERT[72]来学习单词嵌入,并将这种嵌入作为图节点的初始嵌入。建立一个模型,采用预训练好的BERT作为特征提取器,采用一层平均池化的GCN作为分类器。最后预训练的BERT为每个词提取维的特征向量,作为情感图数据中的节点特征。作者建立了三个情感图数据集,分别为Graph-SST2、Graph-SST5和Graph-Twitter,并即将公开,可以直接用于研究不同的可解释技术。这些数据集的统计和属性如表2所示。为了验证本文生成的情感数据集具有可解释信息,作者分别再新生成的情感数据集和原始数据集进行实验。作者展示了两层GNNs在这些数据集上的预测精度,包括GCNs、GATs和GINs。还展示了使用原始句子数据集的预训练的BERT[72]的微调精度。结果表明,与原始句子数据集相比,作者构建的情感图数据集可以达到具有竞争力的性能这些数据集是实现图模型解释的合理选择。根据不同词的语义和情感标签,我们可以研究可解释方法是否能识别出具有关键意义的词以及不同词之间的关系5.1.3Moleculedata分子数据集也被广泛用于解释任务,如MUTAG[73]、BBBP和Tox21[74]。这类数据集中的每个图对应一个分子,其中节点代表原子,边是化学键。分子图的标签一般由分子的化学功能或性质决定。采用这样的数据集进行解释任务需要领域知识,例如什么化学基团对其官能性更具有鉴别性。例如,在数据集MUTAG中,不同的图形是根据它们对细菌的诱变作用来标注的。例如,已知碳环和NO2化学基团可能导致诱变效应[73],那么可以研究可解释方法是否能识别出对应类别的patterns(在不同的领域中,不同的局部结构是具有区分力的,可解释方法是否能够识别这些模式?)5.2EvaluationMetrics即使可视化的结果可以让人理解解释性方法是否合理,但由于缺乏groundtruths,这种评估并不完全可信。为了比较不同的解释性方法,我们需要研究每个输入样例的结果,这很耗时。因此评估度量对于研究可解释方法至关重要。好的度量方法应该从模型的角度来评估预测结果,比如解释是否忠实于模型[75],[76]。作者将介绍最近提出的几种针对解释性问题的评估度量方法。5.2.1Fidelity/Infidelity首先,从模型的预测结果上分析解释性方法的性能,解释应该忠于模型,解释方法应该识别对模型重要的输入特征。为了评估这一点,最近提出了Fidelity[50]度量方法。关键思想在于如果解释技术所识别的重要输入特征(节点/边/节点特征)对模型具有判别力,那么当这些特征被移除时,模型的预测结果应该会发生显著变化。因此,Fidelity被定义为原始预测与遮蔽掉重要输入特征后的新预测之间的精度之差[50],[77],即衡量两种预测结果的差异性。可解释方法可以看作是一个硬重要性映射,其中元素为0(表示特征不重要)或1(表示特征重要)。对于现有方法,例如ZORRO[51]和CausalScreening[53]等方法,生成的解释是离散掩码,可以直接作为重要性映射。对于GNNExplainer[42]和GraphLime[56]等方法,重要性分数是连续值,那么可以通过归一化和阈值化得到重要性地映射。最后,预测精度的Fidelity得分可以计算为:其中是图的原始预测,是图的数量。表示去掉重要输入特征的补全掩码,是将新图输入训练好的GNN时的预测值。指示函数如果和相等则返回1,否则返回0。注意,指标研究的是预测精度的变化。通过对预测概率的
转载请注明:
http://www.aideyishus.com/lkzp/7651.html