SAS中文论坛

 找回密码
 立即注册

扫一扫,访问微社区

查看: 663|回复: 0
打印 上一主题 下一主题

转载:分类回归树 classification and regression tree(C&RT)

[复制链接]

49

主题

76

帖子

1462

积分

管理员

Rank: 9Rank: 9Rank: 9

积分
1462
楼主
 楼主| 发表于 2010-10-28 14:13:17 | 只看该作者

转载:分类回归树 classification and regression tree(C&RT)

From crackman's blog on Baidu


               
                <div class="entry-content">
<p>分类回归树  classification and regression tree(C&amp;RT) </p>
<p>优点<br>
(1)可自动忽略对目标变量没有贡献的属性变量,也为判断属性变量的重要性,减少变量数据提供参考;<br>
(2)在面对诸如存在缺失值、变量数多等问题时C&amp;RT 显得非常稳健(robust);<br>
(3)估计模型通常不用花费很长的训练时间;<br>
  (4) 推理过程完全依据属性变量的取值特点(与 C5.0不同,C&amp;RT的输出字段既可以是数值型,也可以是分类型)<br>
(5)比其他模型更易于理解&mdash;&mdash;从模型中得到的规则能得到非常直观的解释,决策推理过程可以表示成&nbsp;&nbsp;  IF…THEN的形式<br>
(6)目标是定类变量为分类树,若目标变量是定距变量,则为回归树;<br>
(7)通过检测输入字段,通过度量各个划分产生的异质性的减小程度,找到最佳的一个划分。<br>
(8)非常灵活,可以允许有部分错分成本,还可指定先验概率分布,可使用自动的成本复杂性剪枝来得到归纳性更强的树。</p>
<p>决策树生长的核心是确定决策树的分枝准则。<br>
一、 如何从众多的属性变量中选择一个当前的最佳分支变量;<br>
也就是选择能使异质性下降最快的变量。<br>
异质性的度量:GINI、TWOING、least squared deviation。<br>
前两种主要针对分类型变量,LSD针对连续性变量。</p>
<p>代理划分、加权划分、先验概率</p>
<p>二、 如何从分支变量的众多取值中找到一个当前的最佳分割点(分割阈值)。<br>
(1) 分割阈值:<br>
A、数值型变量&mdash;&mdash;对记录的值从小到大排序,计算每个值作为临界点产生的子节点的异质性统计量。能够使异质性减小程度最大的临界值便是最佳的划分点。<br>
B、分类型变量&mdash;&mdash;列出划分为两个子集的所有可能组合,计算每种组合下生成子节点的异质性。同样,找到使异质性减小程度最大的组合作为最佳划分点。<br>
&nbsp;&nbsp;<br>
三、 决策树停止生长的条件<br>
满足以下一个即停止生长。<br>
(1) 节点达到完全纯性;<br>
(2) 数树的深度达到用户指定的深度;<br>
(3) 节点中样本的个数少于用户指定的个数;<br>
(4) 异质性指标下降的最大幅度小于用户指定的幅度。</p>
<p>剪枝:完整的决策树对训练样本特征的描述可能&ldquo;过于精确&rdquo;(受噪声数据的影响),缺少了一般代表性而无法较好的用对新数据做分类预测,出现 &rdquo;过度拟合&ldquo;。<br>
&mdash;&mdash;移去对树的精度影响不大的划分。使用 成本复杂度方法,即同时度量错分风险和树的复杂程度,使二者越小越好。<br>
剪枝方式:<br>
A、 预修剪(prepruning):停止生长策略<br>
B、后修剪(postpruning):在允许决策树得到最充分生长的基础上,再根据一定的规则,自下而上逐层进行剪枝。<br>
预测:<br>
回归树&mdash;&mdash;预测值为叶节点目标变量的加权均值<br>
分类树&mdash;&mdash;某叶节点预测的分类值应是造成错判损失最小的分类值。</p>
<p>四、 模型评价:<br>
减少在冒险因素或损失因素方面的不确定性。<br>
不仅包括不同模型的比较,而且还要对模型产生结果的商业价值进行比较。<br>
模型评价的角度<br>
-风险(risk)<br>
-收益(gain)<br>
-利润(profits)</p>
</div> <a href="http://hi.baidu.com/crack%5Fman/blog/item/cb239827872b344bac34de9a.html">阅读全文</a>
               
                <br/><b>类别:</b><a href="http://hi.baidu.com/crack%5Fman/blog/category/Data%20Mining">Data Mining</a>&nbsp;<a href="http://hi.baidu.com/crack%5Fman/blog/item/cb239827872b344bac34de9a.html#comment">查看评论</a>
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|小黑屋|手机版|Archiver|SAS中文论坛  

GMT+8, 2026-2-3 20:13 , Processed in 0.084085 second(s), 20 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表