zoukankan      html  css  js  c++  java
  • 机器学习实战笔记-支持向量机

    本文不涉及SVM和SMO的公式推导,在下面几篇文章有详细的推导: 
    http://blog.csdn.net/jinshengtao/article/details/40900865 
    http://blog.csdn.net/zouxy09/article/details/17291543 
    6.1 基于最大间隔分隔数据 
    优点:泛化错误率低,计算开销不大,结果易解释。 
    缺点:对参数调节和核函数的选择敏感,原始分类器不加修改仅适用于处理二类问题。 
    适用数据类型:数值型和标称型数据。

    这里写图片描述

    如图所示的数据集被称为线性可分的。我们的数据并不总是存在于二维的平面上,假设有一个n维线性可分的数据集,那么可以分隔这个数据集的对象就被称为超平面

    我们希望找到离分隔超平面最近的点,确保它们离分隔面的距离尽可能远。这里点到分隔面的距离被称为间隔(margin)。我们希望间隔尽可能地大,这是因为如果我们犯错或者在有限数据上训练分类器的话,我们希望分类器尽可能健壮。

    支持向量(support.vector)就是离分隔超平面最近的那些点。接下来要试着最大化支持向量到分隔面的距离,需要找到此问题的优化求解方法。

    6.2寻找最大间隔 
    这里写图片描述 
    A到分隔超平面的距离为:|wTA+b|/||w||

    问题描述: 
    找到具有最小间隔的数据点,而这些数据点也就是前面提到的支持向量。一旦找到具有最小间隔的数据点,我们就需要对该间隔最大化。 
    转化为数学公式: 
    这里写图片描述 
    这个公式的约束条件为label(wTx+b)>=1 
    引入拉格朗日乘子,通过对w和b求偏导之后简化的公式为: 
    这里写图片描述 
    其约束条件为:这里写图片描述 
    但是这里有个假设:数据必须100%线性可分。目前为止,我们知道几乎所有数据都不那么“干净”。这时我们就可以通过引人所谓松弛变量(slack variable),来允许有些数据点可以处于分隔面的错误一侧。这样我们的优化目标就能保持仍然不变,但是此时新的约束条件则变为: 
    这里写图片描述 
    常数C用于控制“最大化间隔”和“保证大部分点的函数间隔不小于1.0” 这两个目标的权重

    6.2.2 SVM应用的一般框架 
    SVM的一般流程: 
    ⑴收集数据:可以使用任意方法。 
    (2)准备数据:需要数值型数据。 
    (3)分析数据:有助于可视化分隔超平面。 
    (4)训练算法:SVM的大部分时间都源自训练,该过程主要实现两个参数的调优。 
    (5)测试算法:十分简单的计算过程就可以实现。 
    (6)使用算法:几乎所有分类问题都可以使用SVM,值得一提的是,SVM 本身是一个二类分类器,对多类问题应用8 1 需要对代码做一些修改。

    6.3 SMO(sequential minimal optimization)高效优化算法 
    Platt的SMO算法是将大优化问题分解为多个小优化问题来求解的。这些小优化问题往往很容易求解,并且对它们进行顺序求解的结果与将它们作为整体来求解的结果是完全一致的。在结果完全相同的同时,SMO算法的求解时间短很多。 
    SMO算法的工作原理是:每次循环中选择两个alpha进行优化处理。一旦找到一对合适的alpha,那么就增大其中一个同时减小另一个。这里所谓的“合适” 就是指两个alpha必须要符合一定的条件,条件之一就是这两个alpha必须要在间隔边界之外,而其第二个条件则是这两个alpha还没有进行过区间化处理或者不在边界上。

    6.3.2 应用简化版SMO算法处理小规模数据集 
    我们将会对算法进行简化处理,以便了解算法的基本工作思路,之后再基于简化版给出完整版。简化版代码虽然量少但执行速度慢。Platt SMO算法中的外循环确定要优化的最佳alpha对。而简化版却会跳过这一部 
    分,首先在数据集上遍历每一个alpha , 然后在剩下的alpha集合中随机选择另一个alpha,从而构建alpha对。这里有一点相当重要,就是我们要同时改变两个alpha 。之所以这样做是因为我们有一个约束条件: 
    这里写图片描述 
    由于改变一个alpha 可能会导致该约束条件失效,因此我们总是同时改变两个alpha。

    SMO算法中的辅助函数,代码如下:

    def loadDataSet(fileName):
        dataMat = []; labelMat = []
        fr = open(fileName)
        for line in fr.readlines():
            lineArr = line.strip().split('	')
            dataMat.append([float(lineArr[0]), float(lineArr[1])])
            labelMat.append(float(lineArr[2]))
        return dataMat,labelMat
    
    def selectJrand(i,m):
        j=i #we want to select any J not equal to i
        while (j==i):
            j = int(random.uniform(0,m))
        return j
    
    def clipAlpha(aj,H,L):
        if aj > H: 
            aj = H
        if L > aj:
            aj = L
        return aj

    该SMO函数的伪代码大致如下 
    创建一个alpha向量并将其初始化为0向量 
    当迭代次数小于最大迭代次数时(外循环) 
    对数据集中的每个数据向量(内循环): 
    如果该数据向量可以被优化: 
    随机选择另外一个数据向量 
    同时优化这两个向量 
    如果两个向量都不能被优化,退出内循环 
    如果所有向量都没被优化,增加迭代数目,继续下一次循环

    简化版SMO算法,代码:

    def smoSimple(dataMatIn, classLabels, C, toler, maxIter):
        dataMatrix = mat(dataMatIn); labelMat = mat(classLabels).transpose()
        b = 0; m,n = shape(dataMatrix)
        alphas = mat(zeros((m,1)))
        iter = 0
        while (iter < maxIter):
            alphaPairsChanged = 0
            for i in range(m):
                fXi = float(multiply(alphas,labelMat).T*(dataMatrix*dataMatrix[i,:].T)) + b
                Ei = fXi - float(labelMat[i])#if checks if an example violates KKT conditions
                if ((labelMat[i]*Ei < -toler) and (alphas[i] < C)) or ((labelMat[i]*Ei > toler) and (alphas[i] > 0)):
                    j = selectJrand(i,m)
                    fXj = float(multiply(alphas,labelMat).T*(dataMatrix*dataMatrix[j,:].T)) + b
                    Ej = fXj - float(labelMat[j])
                    alphaIold = alphas[i].copy(); alphaJold = alphas[j].copy();
                    if (labelMat[i] != labelMat[j]):
                        L = max(0, alphas[j] - alphas[i])
                        H = min(C, C + alphas[j] - alphas[i])
                    else:
                        L = max(0, alphas[j] + alphas[i] - C)
                        H = min(C, alphas[j] + alphas[i])
                    if L==H: print("L==H"); continue
                    eta = 2.0 * dataMatrix[i,:]*dataMatrix[j,:].T - dataMatrix[i,:]*dataMatrix[i,:].T - dataMatrix[j,:]*dataMatrix[j,:].T
                    if eta >= 0: print("eta>=0"); continue
                    alphas[j] -= labelMat[j]*(Ei - Ej)/eta
                    alphas[j] = clipAlpha(alphas[j],H,L)
                    if (abs(alphas[j] - alphaJold) < 0.00001): print("j not moving enough"); continue
                    alphas[i] += labelMat[j]*labelMat[i]*(alphaJold - alphas[j])#update i by the same amount as j
                                                                            #the update is in the oppostie direction
                    b1 = b - Ei- labelMat[i]*(alphas[i]-alphaIold)*dataMatrix[i,:]*dataMatrix[i,:].T - labelMat[j]*(alphas[j]-alphaJold)*dataMatrix[i,:]*dataMatrix[j,:].T
                    b2 = b - Ej- labelMat[i]*(alphas[i]-alphaIold)*dataMatrix[i,:]*dataMatrix[j,:].T - labelMat[j]*(alphas[j]-alphaJold)*dataMatrix[j,:]*dataMatrix[j,:].T
                    if (0 < alphas[i]) and (C > alphas[i]): b = b1
                    elif (0 < alphas[j]) and (C > alphas[j]): b = b2
                    else: b = (b1 + b2)/2.0
                    alphaPairsChanged += 1
                    print("iter: %d i:%d, pairs changed %d" % (iter,i,alphaPairsChanged))
            if (alphaPairsChanged == 0): iter += 1
            else: iter = 0
            print("iteration number: %d" % iter)
        return b,alphas

    测试截图: 
    这里写图片描述

    6.4利用完整Platt SMO算法加速优化 
    Platt SMO算法是通过一个外循环来选择第一个alpha值的,并且其选择过程会在两种方式之间进行交替:一种方式是在所有数据集上进行单遍扫描另一种方式则是在非边界alpha中实现单遍扫描。而所谓非边界alpha指的就是那些不等于边界0或C的alpha值。对整个数据集的扫描相当容易,而实现非边界alpha值的扫描时,首先需要建立这些alpha的列表,然后再对这个表进行遍历。同时,该步骤会跳过那些已知的不会改变的alpha值。

    完整版版Platt SMO的支持函数,代码如下:

    class optStructK:
        def __init__(self,dataMatIn, classLabels, C, toler):  # Initialize the structure with the parameters 
            self.X = dataMatIn
            self.labelMat = classLabels
            self.C = C
            self.tol = toler
            self.m = shape(dataMatIn)[0]
            self.alphas = mat(zeros((self.m,1)))
            self.b = 0
            self.eCache = mat(zeros((self.m,2))) #first column is valid flag
    
    def calcEkK(oS, k):
        fXk = float(multiply(oS.alphas,oS.labelMat).T*(oS.X*oS.X[k,:].T)) + oS.b
        Ek = fXk - float(oS.labelMat[k])
        return Ek
    
    def selectJ(i, oS, Ei):         #this is the second choice -heurstic, and calcs Ej
        maxK = -1; maxDeltaE = 0; Ej = 0
        oS.eCache[i] = [1,Ei]  #set valid #choose the alpha that gives the maximum delta E
        validEcacheList = nonzero(oS.eCache[:,0].A)[0]
        if (len(validEcacheList)) > 1:
            for k in validEcacheList:   #loop through valid Ecache values and find the one that maximizes delta E
                if k == i: continue #don't calc for i, waste of time
                Ek = calcEk(oS, k)
                deltaE = abs(Ei - Ek)
                if (deltaE > maxDeltaE):
                    maxK = k; maxDeltaE = deltaE; Ej = Ek
            return maxK, Ej
        else:   #in this case (first time around) we don't have any valid eCache values
            j = selectJrand(i, oS.m)
            Ej = calcEk(oS, j)
        return j, Ej
    
    def updateEkK(oS, k):#after any alpha has changed update the new value in the cache
        Ek = calcEk(oS, k)
        oS.eCache[k] = [1,Ek]

    完整Platt SMO算法中的优化例程,代码如下:

    def innerLK(i, oS):
        Ei = calcEk(oS, i)
        if ((oS.labelMat[i]*Ei < -oS.tol) and (oS.alphas[i] < oS.C)) or ((oS.labelMat[i]*Ei > oS.tol) and (oS.alphas[i] > 0)):
            j,Ej = selectJ(i, oS, Ei) #this has been changed from selectJrand
            alphaIold = oS.alphas[i].copy(); alphaJold = oS.alphas[j].copy();
            if (oS.labelMat[i] != oS.labelMat[j]):
                L = max(0, oS.alphas[j] - oS.alphas[i])
                H = min(oS.C, oS.C + oS.alphas[j] - oS.alphas[i])
            else:
                L = max(0, oS.alphas[j] + oS.alphas[i] - oS.C)
                H = min(oS.C, oS.alphas[j] + oS.alphas[i])
            if L==H: print("L==H"); return 0
            eta = 2.0 * oS.X[i,:]*oS.X[j,:].T - oS.X[i,:]*oS.X[i,:].T - oS.X[j,:]*oS.X[j,:].T
            if eta >= 0: print("eta>=0"); return 0
            oS.alphas[j] -= oS.labelMat[j]*(Ei - Ej)/eta
            oS.alphas[j] = clipAlpha(oS.alphas[j],H,L)
            updateEk(oS, j) #added this for the Ecache
            if (abs(oS.alphas[j] - alphaJold) < 0.00001): print("j not moving enough"); return 0
            oS.alphas[i] += oS.labelMat[j]*oS.labelMat[i]*(alphaJold - oS.alphas[j])#update i by the same amount as j
            updateEk(oS, i) #added this for the Ecache                    #the update is in the oppostie direction
            b1 = oS.b - Ei- oS.labelMat[i]*(oS.alphas[i]-alphaIold)*oS.X[i,:]*oS.X[i,:].T - oS.labelMat[j]*(oS.alphas[j]-alphaJold)*oS.X[i,:]*oS.X[j,:].T
            b2 = oS.b - Ej- oS.labelMat[i]*(oS.alphas[i]-alphaIold)*oS.X[i,:]*oS.X[j,:].T - oS.labelMat[j]*(oS.alphas[j]-alphaJold)*oS.X[j,:]*oS.X[j,:].T
            if (0 < oS.alphas[i]) and (oS.C > oS.alphas[i]): oS.b = b1
            elif (0 < oS.alphas[j]) and (oS.C > oS.alphas[j]): oS.b = b2
            else: oS.b = (b1 + b2)/2.0
            return 1
        else: return 0

    完整版Platt SMO的外循环代码

    def smoP(dataMatIn, classLabels, C, toler, maxIter,kTup=('lin', 0)):    #full Platt SMO
        oS = optStruct(mat(dataMatIn),mat(classLabels).transpose(),C,toler, kTup)
        iter = 0
        entireSet = True; alphaPairsChanged = 0
        #如果迭代字数大于最大迭代数,或者遍历完整个集合还没有找到一对i和j可以优化,那么退出迭代
        while (iter < maxIter) and ((alphaPairsChanged > 0) or (entireSet)):
            alphaPairsChanged = 0
            if entireSet:   #go over all
                for i in range(oS.m):        
                    alphaPairsChanged += innerL(i,oS)
                    print("fullSet, iter: %d i:%d, pairs changed %d" % (iter,i,alphaPairsChanged))
                iter += 1
            else:#go over non-bound (railed) alphas
                nonBoundIs = nonzero((oS.alphas.A > 0) * (oS.alphas.A < C))[0]
                for i in nonBoundIs:
                    alphaPairsChanged += innerL(i,oS)
                    print("non-bound, iter: %d i:%d, pairs changed %d" % (iter,i,alphaPairsChanged))
                iter += 1
            if entireSet: entireSet = False #toggle entire set loop
            elif (alphaPairsChanged == 0): entireSet = True  
            print("iteration number: %d" % iter)
        return oS.b,oS.alphas

    测试截图如下: 
    这里写图片描述

    6.5 在复杂数据上应用核函数 
    这里写图片描述 
    显而易见,在该数据中存在某种可以识别的模式。接下来,我们就要使用一种称为核函数(kernel) 的工具将数据转换成易于分类器理解的形式。

    6.5.1 利用核函数将数据映射到高维空间 
    在这个例子中,我们将数据从一个特征空间转换到另一个特征空间。在新空间下,我们可以很容易利用巳有的工具对数据进行处理。数学家们喜欢将这个过程称之为从一个特征空间到另一个特择空间的映射。在通常情况下,这种映射会将低维特征空间映射到高维空间。 
    这种从某个特征空间到另一个特征空间的映射是通过核函数来实现的。 
    SVM优化中一个特别好巧地方就是,所有的运算都可以写成内积(inner product,也称点积)的形式。向量的内积指的是两个向量相乘,之后得到单个标量或者数值。我们可以把内积运算替换成核函数,而不必做简化处理。将内积替换成核函数的方式被称为核技巧(kernel trick)或 者核”变电”(kernel substation)。

    6.5.2 径向基核函数 
    径向基函数是SVM中常用的一个核函数。径向基函数是一个采用向量作为自变量的函数,能够基于向量距离运算输岀一个标量。这个距离可以是从<0,0>向量或者其他向量开始计算的距离。径向基函数的高斯版本,具体公式: 
    这里写图片描述 
    其中,σ是用户定义的用于确定到达率(reach) 或者说函数值跌落到0的速度参数。

    核转换函数,代码如下:

    def kernelTrans(X, A, kTup): #calc the kernel or transform data to a higher dimensional space
        m,n = shape(X)
        K = mat(zeros((m,1)))
        if kTup[0]=='lin': K = X * A.T   #linear kernel
        elif kTup[0]=='rbf':
            for j in range(m):
                deltaRow = X[j,:] - A
                K[j] = deltaRow*deltaRow.T
            K = exp(K/(-1*kTup[1]**2)) #divide in NumPy is element-wise not matrix like Matlab
        else: raise NameError('Houston We Have a Problem -- 
        That Kernel is not recognized')
        return K
    class optStruct:
        def __init__(self,dataMatIn, classLabels, C, toler, kTup):  # Initialize the structure with the parameters 
            self.X = dataMatIn
            self.labelMat = classLabels
            self.C = C
            self.tol = toler
            self.m = shape(dataMatIn)[0]
            self.alphas = mat(zeros((self.m,1)))
            self.b = 0
            self.eCache = mat(zeros((self.m,2))) #first column is valid flag
            self.K = mat(zeros((self.m,self.m)))
            #对xi做核转换
            for i in range(self.m)
                self.K[:,i] = kernelTrans(self.X, self.X[i,:], kTup)

    6.5.3 在测试中使用核函数 
    利用核函数进行分类的径向基测试函数,代码如下:

    def testRbf(k1=1.3):
        dataArr,labelArr = loadDataSet('testSetRBF.txt')
        b,alphas = smoP(dataArr, labelArr, 200, 0.0001, 10000, ('rbf', k1)) #C=200 important
        datMat=mat(dataArr); labelMat = mat(labelArr).transpose()
        svInd=nonzero(alphas.A>0)[0]
        sVs=datMat[svInd] #get matrix of only support vectors
        labelSV = labelMat[svInd];
        print("there are %d Support Vectors" % shape(sVs)[0])
        m,n = shape(datMat)
        errorCount = 0
        for i in range(m):
            kernelEval = kernelTrans(sVs,datMat[i,:],('rbf', k1))
            predict=kernelEval.T * multiply(labelSV,alphas[svInd]) + b
            if sign(predict)!=sign(labelArr[i]): errorCount += 1
        print("the training error rate is: %f" % (float(errorCount)/m))
        dataArr,labelArr = loadDataSet('testSetRBF2.txt')
        errorCount = 0
        datMat=mat(dataArr); labelMat = mat(labelArr).transpose()
        m,n = shape(datMat)
        for i in range(m):
            kernelEval = kernelTrans(sVs,datMat[i,:],('rbf', k1))
            predict=kernelEval.T * multiply(labelSV,alphas[svInd]) + b
            if sign(predict)!=sign(labelArr[i]): errorCount += 1    
        print("the test error rate is: %f" % (float(errorCount)/m))   

    测试截图如下,σ=0.1
    这里写图片描述 
    支持向量有88个,训练集错误率为0%,测试集错误率为8%

    σ=1.3
    这里写图片描述 
    支持向量23个,训练错误率3%,测试错误率9%。

    σ=1.1
    这里写图片描述

    总结:支持向量的数目存在一个最优值。SVM的优点在于它能对数据进行高效分类。如果支持向量太少,就可能会得到一个很差的决策边界(下个例子会说明这一点);如果支持向量太多,也就相当于每次都利用整个数据集进行分类,这种分类方法称为k近邻。

    6.6 示例:手写识别问题回顾 
    示例:基于SVM的数宇识别 
    (1)收集数据:提供的文本文件。 
    (2)准备数据:基于二值图像构造向量。 
    (3)分析数据:对图像向量进行目测。 
    (4)训练算法:采用两种不同的核函数,并对径向基核函数采用不同的设置来运行SMO算法。 
    (5)测试算法:编写一个函数来测试不同的核函数并计算措误率。 
    (6)使用算法:一个图像识别的完整应用还需要一些图像处理的知识,这里并不打算深入介绍。

    基于SVM的手写数字识别,代码如下:

    def testDigits(kTup=('rbf', 10)):
        dataArr,labelArr = loadImages('trainingDigits')
        b,alphas = smoP(dataArr, labelArr, 200, 0.0001, 10000, kTup)
        datMat=mat(dataArr); labelMat = mat(labelArr).transpose()
        svInd=nonzero(alphas.A>0)[0]
        sVs=datMat[svInd] 
        labelSV = labelMat[svInd];
        print("there are %d Support Vectors" % shape(sVs)[0])
        m,n = shape(datMat)
        errorCount = 0
        for i in range(m):
            kernelEval = kernelTrans(sVs,datMat[i,:],kTup)
            predict=kernelEval.T * multiply(labelSV,alphas[svInd]) + b
            if sign(predict)!=sign(labelArr[i]): errorCount += 1
        print("the training error rate is: %f" % (float(errorCount)/m))
        dataArr,labelArr = loadImages('testDigits')
        errorCount = 0
        datMat=mat(dataArr); labelMat = mat(labelArr).transpose()
        m,n = shape(datMat)
        for i in range(m):
            kernelEval = kernelTrans(sVs,datMat[i,:],kTup)
            predict=kernelEval.T * multiply(labelSV,alphas[svInd]) + b
            if sign(predict)!=sign(labelArr[i]): errorCount += 1    
        print("the test error rate is: %f" % (float(errorCount)/m))

    测试截图如下: 
    这里写图片描述

    各种σ值,以及线性核函数的性能对照表: 
    这里写图片描述

    表6-,1给出的结果表明,当径向基核函数中的参数0取10左右时,就可以得到最小的测试错误率。该参数值比前面例子中的取值大得多,而前面的测试错误率在1.3左右。为什么差距如此之大?原因就在于数据的不同。在手写识别的数据中,有 1024个特征,而这些特征的值有可能高达1.0。而在6.5节的例子中,所有数据从-1到1变化,但是只有2个特征。如何才能知道该怎么设置呢?说老实话,在写这个例子时我也不知道。我只是对不同的设置进行了多次尝试。C的设置也会影响到分类的结果

  • 相关阅读:
    vue computed 可以使用getter和setter
    java压缩zip文件中文乱码问题
    python使用zipfile解压中文乱码问题
    python操作Excel的几种方式
    用python解析word文件(段落篇(paragraph) 表格篇(table) 样式篇(style))
    Python 解压缩Zip和Rar文件到指定目录
    table--边框样式设置
    Postman使用详解
    BootStrap一页通(样式+组件+插件)
    远程连接软件TeamViewer
  • 原文地址:https://www.cnblogs.com/kevincong/p/7837309.html
Copyright © 2011-2022 走看看