About 1,150 results
Open links in new tab
  1. 有问题,就会有答案 - 知乎

    SHAP(SHapley Additive exPlanations)は、機械学習モデルの予測を説明するための指標であり、特徴の重要性を評価します。

  2. shap图怎么看? - 知乎

    给定解释的每个实例由每个特征流上的一个点表示;点的 x 位置由该特征的 SHAP 值 ( shap_values.value[instance,feature]) 确定,并且点沿每个特征行“堆积”以显示密度; 条形图与 …

  3. 何时使用shap value分析特征重要性? - 知乎

    shap 属于模型事后解释的方法,它的核心思想是计算特征对模型输出的边际贡献,再从全局和局部两个层面对“黑盒模型”进行解释。shap构建一个加性的解释模型,所有的特征都视为“贡献者”。

  4. shap - 知乎

    SHAP (SHapley Additive exPlanation)是旨在解释具有独特视觉效果和性能价值的机器学习模型的输出。CatBoost和SHAP结合在一起构成了一个强大的组合,可以产生一些非常准确并且可以 …

  5. 我在计算随机森林和XGBoost的SHAP时出现了不同的情况,这是为 …

    - **随机森林**:在shap.summary_plot中,会区分class0和class1,因为随机森林的预测是一个概率分布,shap需要区分正面和负面的预测。 - **XGBoost**:由于其预测通常是得分而不是概 …

  6. shap特征重要性可以用来分析stacking模型吗? - 知乎

    Jul 28, 2024 · SHAP 是解释机器学习模型的重要工具,它在 Stacking 模型的特征重要性分析中同样具有强大的应用价值。 通过 SHAP,用户可以深入了解每个基础学习器的贡献和元学习器 …

  7. 在机器学习中,shap值的base value是怎么计算的? - 知乎

    SHAP 的 base value 通常是根据模型和数据自动计算得到的,这个值代表了在没有任何特征影响下模型的预测输出。 因此,从理论上讲,base value 是由数据和模型决定的,不建议进行手动 …

  8. SHAP模型解释LSTM模型的代码? - 知乎

    深度学习模型 SHAP 可视化! 往期精彩内容: 时序预测:LSTM、ARIMA、Holt-Winters、SARIMA模型的分析与比较 - 知乎 (zhihu.com) 建模先锋:风速预测(八)VMD-CNN …

  9. SHAp值很大的特征对模型精度有何影响? - 知乎

    shap值可以用来评估单个预测结果下的各个特征重要性,也可以评估一系列预测结果下整体特征重要性。 针对你遇见的问题,首先考虑你是如何计算精度的,以及如何计算SHAP值的,是单次 …

  10. 有没有用于解释LSTM的时间序列分析的shap分析方法的代码呢? …

    知乎,中文互联网高质量的问答社区和创作者聚集的原创内容平台,于 2011 年 1 月正式上线,以「让人们更好的分享知识、经验和见解,找到自己的解答」为品牌使命。知乎凭借认真、专业 …