一、决策树(分析-分类-决策树)
“决策树”过程创建基于树的分类模型。它将个案分为若干组,或根据自变量(预测变量)的值预测因变量(目标变量)的值。此过程为探索性和证实性分类分析提供验证工具。
1、分段。确定可能成为特定组成员的人员。
2、层次。将个案指定为几个类别之一,如高风险组、中等风险组和低风险组。
3、预测。创建规则并使用它们预测将来的事件,如某人将拖欠贷款或者车辆或住宅潜在转售价值的可能性。
4、数据降维和变量筛选。从大的变量集中选择有用的预测变量子集,以用于构建正式的参数模型。
5、交互确定。确定仅与特定子组有关的关系,并在正式的参数模型中指定这些关系。
6、类别合并和连续变量离散化。以最小的损失信息对组预测类别和连续变量进行重新码。
7、示例。一家银行希望根据贷款申请人是否表现出合理的信用风险来对申请人进行分类。根据各种因素(包括过去客户的已知信用等级),您可以构建模型以预测客户将来是否可能拖欠贷款。
二、增长方法(分析-分类-决策树)
1、CHAID.卡方自动交互检测。在每一步,CHAID选择与因变量有最强交互作用的自变量(预测变量)。如果每个预测变量的类别与因变量并非显著不同,则合并这些类别。
2、穷举CHAID.CHAID的一种修改版本,其检查每个预测变量所有可能的拆分。
3、CRT.分类和回归树。CRT将数据拆分为若干尽可能与因变量同质的段。所有个案中因变量值都相同的终端节点是同质的“纯”节点。
4、QUEST.快速、无偏、有效的统计树。一种快速方法,它可避免其他方法对具有许多类别的预测变量的偏倚。只有在因变量是名义变量时才能指定QUEST。
三、验证(分析-分类-决策树-验证)
1、交叉验证:交叉验证将样本分割为许多子样本(或样本群)。然后,生成树模型,并依次排除每个子样本中的数据。第一个树基于第一个样本群的个案之外的所有个案,第二个树基于第二个样本群的个案之外的所有个案,依此类推。对于每个树,估计其误分类风险的方法是将树应用于生成它时所排除的子样本。
1.1、最多可以指定25个样本群。该值越大,每个树模型中排除的个案数就越小。
1.2、交叉验证生成单个最终树模型。最终树经过交叉验证的风险估计计算为所有树的风险的平均值。
2、分割样本验证:对于分割样本验证,模型是使用训练样本生成的,并在延续样本上进行测试。
2.1、您可以指定训练样本大小(表示为样本总大小的百分比),或将样本分割为训练样本和测试样本的变量。
2.2、如果使用变量定义训练样本和测试样本,则将变量值为1的个案指定给训练样本,并将所有其他个案指定给测试样本。该变量不能是因变量、权重变量、影响变量或强制的自变量。
2.3、您可以同时显示训练样本和测试样本的结果,或者仅显示测试样本的结果。
2.4、对于小的数据文件(个案数很少的数据文件),应该谨慎使用分割样本验证。训练样本很小可能会导致很差的模型,因为在某些类别中,可能没有足够的个案使树充分生长