如何解决机器学习树集成模型的解释性问题
为了得到整体水平上每个特征的重要度情况,我们可以画出所有特征对于所有sample的SHAP值,然后根据SHAP值之和来降序排序,颜色代表特征重要度(红色代表高,蓝色代表低),每个点代表一个样本。
output: 我们也可以只是显示SHAP值的所有样本的均值,画出bar图。
output: References [1] A Unified Approach to Interpreting Model Predictions http://papers.nips.cc/paper/7... [2] Consistent Individualized Feature Attribution for Tree Ensembles https://arxiv.org/pdf/1802.03... [3] Interpretable Machine Learning https://christophm.github.io/... [4] shap 官方文档 https://github.com/slundberg/... 本文由博客一文多发平台 OpenWrite 发布!
(编辑:衢州站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |