Feature importance
特征重要性在材料科学界是一个非常流行的模型处理解释方法,特征重要性技术解释模型如何处理输入数据,通过回答诸如“这个输入的什么独特特征使它能代表输出?”这样的答案通常表示为输入数据特征的权重。权重越大,从模型的角度来看对应的特征越重要。在对物理知之甚少的复杂或新颖材料系统中,特征重要性权重可以帮助材料科学家理解该系统及其基础物理。在物理已经被理解的材料系统中,特征重要性权重可以帮助材料科学家在模型预测中获得信任(如果特征权重符合物理定律)或提高模型性能(如果特征权重揭示了模型失败的原因)。 Explanation by example
第二种解释神经网络模型推理的方法是展示说明性数据示例。对人类推理的研究表明,举例对战略决策至关重要。一些例子有时比一长段的描述或一组复杂的预先确定的方程和系数更有表现力。数据示例解释的一个常见用例是ML模型可信性的评估。ML模型的可信度通常通过测试精度来评估,测试精度反映了模型在训练过程中未显示的新数据实例上的性能。然而,测试的准确性并不完美,因为并不是所有的新数据实例都是相同的。 Surrogate models
第三种解释黑盒模型数据处理的方法是构建简单的代理模型,这些代理模型的行为与原始黑盒相似,但更容易解释。注意,前两种数据处理解释方法(热图和数据示例)旨在解释原始黑匣子的特定决策。代理模型方法的角度略有不同,它只使用原始黑箱来训练代理模型。换句话说,解释是从代理模型而不是从原始黑箱中派生出来的。隐含的假设是,原始模型和替代模型的相似行为表明它们已经学习了相似的知识集。