zoukankan      html  css  js  c++  java
  • ID3很不错的讲解(matlab程序实现)

    1)决策树之ID3

    决策树算法是分类算法的一种,基础是ID3算法,C4.5、C5.0都是对ID3的改进。ID3算法的基本思想是,选择信息增益最大的属性作为当前的分类属性。

    看Tom M. Mitchell老师的《Machine Learing》第三章中的例子:

    我们先解释一下这张表,表中有14条实例数据,就是我们的训练数据,其中 Outlook,Temperature,Humidity ,Wind 称作条件属性PlayTennis 称作是决策属性(标签)

    每一个属性都有各自的值记做:Value(Outlook)={Sunny,OverCast,Rain},Value(Temperature)={Hot,Mild,Cool},Value(Humidity)={High,Normal},Value(Wind)={Strong,Weak},Value(PlayTennis)={NO,Yes}。

    第一个重要的概念:Entropy。

    我们数一下  决策属性PlayTennis,一共有两个类别:Yes,No。Yes的实例数是 9,No的实例数是 5。计算决策属性的Entropy(熵):计算结果为:0.940286

    这里的决策属性S的值只有两个值(Yes,No),当然可以有多个值(s1,s2,s3,...,sk),这些决策属性的值的概率分别为:p1,p2,p3,...,pk所以决策属性的Entroy的计算公式:

    第二个重要的概念:information gain(信息增益)

    我们只拿Outlook条件属性举例,其他的属性一样:

    Value(Outlook)={Sunny,OverCast,Rain}:Outlook是sunny的实例数为5(其中Yes的个数为2,No的个数为3),占总的实例数为5/14,那么针对sunny的Entropy:

    Entropy(Sunny)=,计算结果为:0.97095

    Outlook是OverCast的实例数为4(其中Yes的个数为4,No的个数为0),占总的实例数为4/14,那么针对Overcast的Entropy:

    ,计算结果为:0

    Outlook是Rain的实例数为5(其中Yes的个数为3,No的个数为2),占总的实例数为5/14,那么针对Rain的Entropy,

    ,计算结果为:0.97095

    那么最后针对Outlook条件属性的information gain为:

    ,计算结果为:0.24675

    所以针对某一条件属性的information gain为:

            

    那么其他三个条件属性Temperature、Humidity、Wind的信息增益为:

    我们看到Outlook的信息增益是最大的,所以作为决策树的一个根节点。即:

     

    然后,从Outlook下面出来三个树枝,最左边的Sunny,我们从Outlook是Sunny的实例数据中,找到信息增益最大的那一个,依次类推。
    (注释:http://blog.csdn.net/mmc2015/article/details/42525655;而下面程序本人写的)
    clc;
    clear all;
    close all;
    
    
    %% 导入数据
    %data = [1,1,1;1,1,1;1,0,0;0,1,0;0,1,0];
    
    data = [0,2,0,0,0;
        0,2,0,1,0;
        1,2,0,0,1;
        2,1,0,0,1;
        2,0,1,0,1;
        2,0,1,1,0;
        1,0,1,1,1;
        0,1,0,0,0;
        0,0,1,0,1;
        2,1,1,0,1;
        0,1,1,1,1;
        1,1,0,1,1;
        1,2,1,0,1;
        2,1,0,1,0];
    % data = {'sunny','hot','high','week','no';
    %              'sunny','hot','high','strong','no';
    %              'overcast','hot','high','week','yes';
    %              'rain','midd','high','week','yes';
    %              'rain','cool','nomal','week','yes';
    %              'rain','cool','nomal','strong','no';
    %              'overcast','cool','nomal','strong','yes';
    %              'sunny','midd','high','week','no';
    %              'sunny','cool','nomal','week','yes';
    %              'rain','midd','nomal','week','yes';
    %              'sunny','midd','nomal','strong','yes';
    %              'overcast','midd','high','strong','yes';
    %              'overcast','hot','nomal','week','yes';
    %              'rain','midd','high','strong','no'};
    %sunuy-0,overcast-1,rain-2;--hot-2,midd-1,cool-2---high-0,nomal-1--week-0,strong-1,no-0,yes-1
    
    %% 生成决策树
    make_tree(data);
    
    function  make_tree(train_data)
    %input                 train_data          训练数据
    %output               
    
    [m,n] = size(train_data);
    disp('original data');
    disp(train_data);
    class_list = train_data(:,n);
    class_first = 1;
    
    for i = 2:m
       if train_data(i,n) ==  class_list(1,:)
    %    if strcmp(train_data(i,n),class_list(1,:))
            class_first = class_first + 1;
        end
    end
    
    %% 退出程序条件
    if class_first == m || n == 1
        disp('final data');
        disp(train_data);
        return;
    end
    
    %% 建立决策树
    bestfeat = choose_bestfeat(train_data);
    
    disp(['bestfeature:',num2str(bestfeat)]);
    
    featvalue = unique(train_data(:,bestfeat));
    
    featvalue_num = length(featvalue);
    
    for i = 1:featvalue_num
        make_tree(splitData(train_data,bestfeat,featvalue(i,:)));
        disp('--------------------------------------------');
    end
    end
    
    function [best_feature] = choose_bestfeat(data)
    %input                 data                        输入数据
    %output               bestfeature             选择特征值
    
    [m,n] = size(data);
    feature_num = n - 1;
    baseentropy = calc_entropy(data);
    
    best_gain = 0;
    best_feature = 0;
    
    %% 挑选最佳特征位
    for j =1:feature_num
        feature_temp = unique(data(:,j));
        num_f = length(feature_temp);
        new_entropy = 0;
        for i = 1:num_f
            subSet = splitData(data, j, feature_temp(i,:));
            [m_s,n_s] = size(subSet);
            prob = m_s./m;
            new_entropy = new_entropy + prob * calc_entropy(subSet);
        end
        inf_gain = baseentropy - new_entropy;
        if inf_gain > best_gain
            best_gain = inf_gain;
            best_feature = j;
        end
    end
    end
    
    function [entropy] = calc_entropy(train_data)
    %input                 train_data          训练数据
    %output               entropy             熵值
    
    [m,n] = size(train_data);
    
    %% 得到类的项并统计每个类的个数
    label_value = train_data(:,n);
    label = unique(label_value);
    label_number = zeros(length(label),2);
    label_number(:,1) = label';
    for i = 1:length(label)
        label_number(i,2) = sum(label_value == label(i));
    end
    
    %% 计算熵值
    label_number (:,2) = label_number(:,2) ./ m;
    entropy = 0;
    entropy = sum(-label_number(:,2).*log2 (label_number(:,2)));
    
    end
    
    function [subSet] = splitData(data, j, value)
    %input                 data              训练数据
    %input                  j                   对应第j个属性
    %input                 value             第j个属性对应的特征值
    %output               sunset              熵值
    
    subSet = data;
    subSet(:,j) = [];
    k = 0;
    for i = 1:size(data,1)
        if data(i,j) ~= value
            subSet(i-k,:) =[];
            k = k + 1;
        end
    end
    end
    
    function [subSet] = splitData(data, j, value)
    %input                 data              训练数据
    %input                  j                   对应第j个属性
    %input                 value             第j个属性对应的特征值
    %output               sunset              熵值
    
    subSet = data;
    subSet(:,j) = [];
    k = 0;
    for i = 1:size(data,1)
        if data(i,j) ~= value
            subSet(i-k,:) =[];
            k = k + 1;
        end
    end
    end
  • 相关阅读:
    HTML与CSS(图解1):标志
    CSS :focus 伪类
    JAVA: java产生随机数的几种方式
    HTML:文件类型
    JAVA:Random类 (java.util)
    电脑知识:ping
    cih病毒源代码
    JAVA:控制台输入问题
    HTML:校验器
    第二十三模板 6类模板的定义 简单
  • 原文地址:https://www.cnblogs.com/Kermit-Li/p/4503427.html
Copyright © 2011-2022 走看看