我一直在努力与shap
包裹。我想从我的逻辑回归模型中确定形状值。与此相反TreeExplainer
, the LinearExplainer
需要一个所谓的掩蔽器。这个掩码器到底有什么作用,独立掩码器和分区掩码器有什么区别?
另外,我对测试集中的重要功能很感兴趣。然后我是否将掩蔽器安装在训练集或测试集上?下面您可以看到一段代码。
model = LogisticRegression(random_state = 1)
model.fit(X_train, y_train)
masker = shap.maskers.Independent(data = X_train)
**or**
masker = shap.maskers.Independent(data = X_test)
explainer = shap.LinearExplainer(model, masker = masker)
shap_val = explainer(X_test)```
Masker 类提供了背景数据来“训练”你的解释器。即,在:
explainer = shap.LinearExplainer(model, masker = masker)
您正在使用由 masker 确定的背景数据(您可以通过访问来查看使用了哪些数据masker.data
属性)。您可以阅读更多有关“忠实于模型”或“忠实于数据”的解释here or here.
根据上面的计算,希望你可以同时执行这两项操作:
masker = shap.maskers.Independent(data = X_train)
or
masker = shap.maskers.Independent(data = X_test)
explainer = shap.LinearExplainer(model, masker = masker)
但从概念上讲,我认为以下内容更有意义:
masker = shap.maskers.Independent(data = X_train)
explainer = shap.LinearExplainer(model, masker = masker)
这与平常类似train/test
范例,您可以在训练数据上训练模型(和解释器),并尝试预测(和解释)测试数据。
与问题无关。 masker 为您采样数据的另一种方法是明确提供可以允许比较 2 个数据点的背景:用于比较的点和感兴趣的点,例如this笔记本。通过这种方式,人们可以找出为什么两个看似相似的数据点被不同地分类。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)