欧美无码
  • 首页
  • 成人卡通动漫
  • 成人卡通漫画
  • 成人卡通片
  • h成人动漫
  • 糗百成人版
  • 糗百-成人版
  • 糗百成人版你的位置:欧美无码 > 糗百成人版 > 【ONSD-403】地上波では見られない‘本番’4時間 R言语迅速丛林的模子讲明(预防)
    【ONSD-403】地上波では見られない‘本番’4時間 R言语迅速丛林的模子讲明(预防)
    发布日期:2024-08-24 05:23    点击次数:186

    【ONSD-403】地上波では見られない‘本番’4時間 R言语迅速丛林的模子讲明(预防)

    三月系列【ONSD-403】地上波では見られない‘本番’4時間

    图片

    图片

    图片

    图片

    图片

    图片

    图片

    今天给大家先容如何使用randomForestExplainer对迅速丛林模子的成果进行讲明。

    从名字就能看出来,randomForestExplainer是特意为randomForest包开辟的模子讲明R包,亦然DrWhy.AI系列器用的一部分。

    比拟于其他的通用的模子讲明R包,这个包有一些私有的功能,不错对迅速丛林模子进行非常预防的讲明。

    装配
    # 2选1install.packages("randomForestExplainer")devtools::install_github("ModelOriented/randomForestExplainer")
    加载R包和数据

    使用一个追念数据集进行演示。其中medv是成果变量(房价),其余是展望变量(13个展望变量)

    library(randomForest)library(randomForestExplainer)data(Boston, package = "MASS")Boston$chas <- as.logical(Boston$chas)str(Boston)## 'data.frame':    506 obs. of  14 variables:##  $ crim   : num  0.00632 0.02731 0.02729 0.03237 0.06905 ...##  $ zn     : num  18 0 0 0 0 0 12.5 12.5 12.5 12.5 ...##  $ indus  : num  2.31 7.07 7.07 2.18 2.18 2.18 7.87 7.87 7.87 7.87 ...##  $ chas   : logi  FALSE FALSE FALSE FALSE FALSE FALSE ...##  $ nox    : num  0.538 0.469 0.469 0.458 0.458 0.458 0.524 0.524 0.524 0.524 ...##  $ rm     : num  6.58 6.42 7.18 7 7.15 ...##  $ age    : num  65.2 78.9 61.1 45.8 54.2 58.7 66.6 96.1 100 85.9 ...##  $ dis    : num  4.09 4.97 4.97 6.06 6.06 ...##  $ rad    : int  1 2 2 3 3 3 5 5 5 5 ...##  $ tax    : num  296 242 242 222 222 222 311 311 311 311 ...##  $ ptratio: num  15.3 17.8 17.8 18.7 18.7 18.7 15.2 15.2 15.2 15.2 ...##  $ black  : num  397 397 393 395 397 ...##  $ lstat  : num  4.98 9.14 4.03 2.94 5.33 ...##  $ medv   : num  24 21.6 34.7 33.4 36.2 28.7 22.9 27.1 16.5 18.9 ...
    树立模子

    树立迅速丛林模子:

    添加localImp = TRUE暗示需要筹谋每个展望变量对每个不雅测的展望成果的孝敬。

    set.seed(2017)forest <- randomForest(medv ~ ., data = Boston, localImp = TRUE)forest## ## Call:##  randomForest(formula = medv ~ ., data = Boston, localImp = TRUE) ##                Type of random forest: regression##                      Number of trees: 500## No. of variables tried at each split: 4## ##           Mean of squared residuals: 9.793518##                     % Var explained: 88.4
    模子讲明

    底下会预防先容这个R包的几个函数,通过从多个方濒临这个成果进行讲明。

    最小深度散布

    在方案树或者迅速丛林中,树的深度是一个迫切的超参数,常常一个特征(变量)的深度越小,证实这个特征越迫切(也不十足是这么哈)。

    咱们不错筹谋每个特征的深度散布,就不错简略了解这个特征的迫切性。这个历程不错通过min_depth_distribution结束:

    min_depth_frame <- min_depth_distribution(forest)head(min_depth_frame, n = 10)##    tree variable minimal_depth## 1     1      age             3## 2     1    black             5## 3     1     chas             9## 4     1     crim             2## 5     1      dis             4## 6     1    indus             3## 7     1    lstat             1## 8     1      nox             4## 9     1  ptratio             2## 10    1      rad             5

    这个成果不错径直画出来,使用plot_min_depth_distribution即可可视化每个特征的最小深度的散布以及它的平均值:

    plot_min_depth_distribution(min_depth_frame)

    图片

    你径直把forest这个对象提供给plot_min_depth_distribution亦然不错的,然则使用min_depth_frame的平正是,淌若你要画图多个最小深度的图,不错幸免类似筹谋,这个筹谋历程还挺费技艺的.

    在筹谋平均最小深度时,plot_min_depth_distribution提供3种筹谋交替:

    mean_sample = "all_trees":莫得效于区分的变量的最小深度等于树的平均深度mean_sample = "top_trees":这个是默许树立.只使用其中一部分树进行筹谋mean_sample = "relevant_trees":忽略缺失值,只使用非缺失值筹谋平均最小深度

    从上图来看dis这个变量的排行是高于indus的,因为平均深度小,然则从图中不错看出dis这个变量莫得在深度为0时使用过,是以也有可能indus的排行应该靠前.

    淌若某个数据有好多缺失值,咱们不错尝试使用mean_sample = "relevant_trees"来碰交运成果会不会不同(关于咱们这个数据成果同样)

    plot_min_depth_distribution(min_depth_frame, mean_sample = "relevant_trees",                             k = 15)

    图片

    不错看到dis的排行仍是高于indus的.

    在稽查这个最小深度散布图时,需要把平均值和散布详细来看,不可只看平局值.

    变量迫切性

    径直筹谋变量迫切性,这个历程也比较慢,然则会同期筹谋多种计算变量迫切性的揣摸打算:

    importance_frame <- measure_importance(forest)importance_frame##    variable mean_min_depth no_of_nodes mse_increase node_purity_increase## 1       age        3.21800        9070    4.2510362            1126.8328## 2     black        3.51400        8015    1.7101238             779.6626## 3      chas        6.45162         736    0.7706690             223.7377## 4      crim        2.55400        9388    8.2946300            2245.7347## 5       dis        2.54200        9210    7.3374224            2458.3168## 6     indus        3.43000        4239    5.6495909            2372.2088## 7     lstat        1.28600       11129   63.2892439           12394.3668## 8       nox        2.45400        6248   10.4210162            2814.5932## 9   ptratio        2.58800        4595    7.3896667            2665.5869## 10      rad        4.99746        2666    1.4400123             357.2610## 11       rm        1.42600       11514   33.9459827           12558.5167## 12      tax        3.31400        4420    4.8688001            1519.1153## 13       zn        5.85152        1633    0.7628575             332.5409##    no_of_trees times_a_root       p_value## 1          500            2 4.469233e-242## 2          500            1  7.699206e-95## 3          403            0  1.000000e+00## 4          500           20 1.774755e-298## 5          500            1 3.014263e-266## 6          500           63  1.000000e+00## 7          500          132  0.000000e+00## 8          500           40  9.508719e-01## 9          500           56  1.000000e+00## 10         499            3  1.000000e+00## 11         500          143  0.000000e+00## 12         500           33  1.000000e+00## 13         488            6  1.000000e+00

    第一列是变量名字,背面是变量迫切性的计算揣摸打算,关于追念和分类露馅的变量迫切性是不同样的,咱们这里是追念:

    mean_min_depth:平均最小深度no_of_nodes:使用该变量进行区分的总的节点的个数mse_increase:变量律例被打乱后,均方特殊的平局加多量node_purity_increase:使用某个变量区分后,节点纯度的加多量,通过泛泛和的减少来计算no_of_trees:使用该变量进行区分的总的树的个数times_a_root:使用该变量算作根节点进行区分的树的个数p_value:单侧二项散布测验的p值

    淌若是分类问题,会露馅以下几列:

    accuracy_decrease:当变量律例被打乱后,平均展望准确率下跌了几许gini_decrease:使用某个变量区分后,基尼统统的平均减极少

    不错看到成果中亦然有mean_min_depth的,是以measure_importance也允许你使用不同的交替筹谋这个成果.

    不错结束多个迫切性揣摸打算可视化,即是同期可视化两个变量迫切性揣摸打算.

    比如同期展示mean_min_depth和times_a_root两个揣摸打算,同期把点的大小映射给no_of_nodes,其实黑白常于展示了3个揣摸打算:

    plot_multi_way_importance(importance_frame, size_measure = "no_of_nodes")

    图片

    也不错通过x_measure/y_measure指定不同的揣摸打算:

    plot_multi_way_importance(importance_frame,                           x_measure = "mse_increase",                           y_measure = "node_purity_increase",                           size_measure = "p_value",                           no_of_labels = 5)## Warning: Using alpha for a discrete variable is not advised.

    图片

    还不错径直借助ggpairs比较多个变量迫切性揣摸打算的关联,其实即是筹谋有关联数并进行可视化:

    plot_importance_ggpairs(importance_frame)

    图片

    由于是借助了GGally包中的ggpairs这个函数,是以不错更正图形的散布形貌,就不错用来展示不同揣摸打算的排行:

    plot_importance_rankings(importance_frame)

    图片

    交互作用讲明

    在证据变量迫切性揣摸打算采取好咱们的变量之后,还不错探索下它们之间的交互作用。

    比如咱们先证据mean_min_depth和no_of_trees采取前5个最迫切的变量:

    (vars <- important_variables(importance_frame, k = 5,                              measures = c("mean_min_depth", "no_of_trees")))## [1] "lstat" "rm"    "nox"   "dis"   "crim"

    然后探索交互作用(很慢):

    interactions_frame <- min_depth_interactions(forest, vars)head(interactions_frame[order(interactions_frame$occurrences,                               decreasing = TRUE), ])##    variable root_variable mean_min_depth occurrences interaction## 33    lstat         lstat       1.279749         479 lstat:lstat## 8     black         lstat       2.464367         477 lstat:black## 53       rm         lstat       1.431866         475    lstat:rm## 3       age         lstat       2.178071         473   lstat:age## 18     crim         lstat       1.848217         473  lstat:crim## 23      dis         lstat       1.735482         473   lstat:dis##    uncond_mean_min_depth## 33                 1.286## 8                  3.514## 53                 1.426## 3                  3.218## 18                 2.554## 23                 2.542

    这个成果给出了每个变量和其他变量交互作用的最小深度等信息,occurrences是交互作用出现的次数。

    成果可视化:

    plot_min_depth_interactions(interactions_frame)

    图片

    这个成果横坐标是变量间的交互作用,是按照交互作用出现次数递减排序的,最前边的是lstat:lstat,同期它的mean_min_depth亦然最小的。

    底下咱们采取lstat:rm(你采取我方需要的)不息探索这个交互作用对展望成果的影响:

    plot_predict_interaction(forest, Boston, "rm", "lstat")

    图片

    从图中不错看出,rm越大,lstat越小,房价越高。

    生成证明

    用一转代码不错生成一个预防的模子讲明证明,内部包含扫数成果,还有一些讲明【ONSD-403】地上波では見られない‘本番’4時間,非常便捷:

    explain_forest(forest, interactions = TRUE, data = Boston)
    本站仅提供存储就业,扫数实质均由用户发布,如发现存害或侵权实质,请点击举报。

    Powered by 欧美无码 @2013-2022 RSS地图 HTML地图

    Copyright Powered by站群 © 2013-2022 版权所有