zoukankan      html  css  js  c++  java
  • 机器学习实战笔记-树回归

    9.1 复杂数据的局部性建模

    第3章使用决策树来进行分类。决策树不断将数据切分成小数据集,直到所有目标变量完全相 同 ,或者数据不能再切分为止决策树是一种贪心算法,它要在给定时间内做出最佳选择,但并不关心能否达到全局最优

                                    树回归
    

    优点:可以对复杂和非线性的数据建模。
    缺点:结果不易理解。
    适用数据类型:数值型和标称型数据。

    第3章使用的树构建算法是ID3。ID3的做法是每次选取当前最佳的特征来分割数据,并按照该特征的所有可能取值来切分。也就是说,如果一个特征有4种取值,那么数据将被切成4份。一旦按某特征切分后,该特征在之后的算法执行过程中将不会再起作用,所以有观点认为这种切分方式过于迅速。另外一种方法是二元切分法,即每次把数据集切成两份。如果数据的某特征值等于切分所要求的值,那么这些数据就进人树的左子树,反之则进人树的右子树。
    除了切分过于迅速外,ID3算法还存在另一个问题,它不能直接处理连续型特征。只有事先将连续型特征转换成离散型,才能在ID3算法中使用。但这种转换过程会破坏连续型变量的内在性质。而使用二元切分法则易于对树构建过程进行调整以处理连续型特征。具体的处理方法是:如果特征值大于给定值就走左子树,否则就走右子树。另外,二元切分法也节省了树的构建时间,但这点意义也不是特别大,因为这些树构建一般是离线完成,时间并非需要重点关注的因素。
    CART是十分著名且广泛记载的树构建算法,它使用二元切分来处理连续型变量。对CART稍作修改就可以处理回归问题。第3章中使用香农熵来度量集合的无组织程度。如果选用其他方法来代替香农熵,就可以使用树构建算法来完成回归。
    下面将实观CART算法和回归树。回归树与分类树的思路类似,但叶节点的数据类型不是离散型,而是连续型。

                                    树回归的一般方法
    

    (1) 收集数据:采用任意方法收集数据。
    (2) 准备数据:需要数值型的数据,标称型数据应该映射成二值型数据。
    (3) 分析数据:绘出数据的二维可视化显示结果,以字典方式生成树。
    (4) 训练算法:大部分时间都花费在叶节点树模型的构建上。
    (5)测试算法:使用测试数据上的R2值来分析模型的效果。
    (6)使用算法:使用训练出的树做预测,预测結果还可以用来做很多事情

    9.2 连续和离散型特征的树的构建

    在树的构建过程中,需要解决多种类型数据的存储问题。与第3章类似,这里将使用一部字典来存储树的数据结构,该字典将包含以下4个元素
    □待切分的特征。
    □待切分的特征值。
    □右子树。当不再需要切分的时候,也可以是单个值。
    □左子树。与右字树类似。

    这与第3章的树结构有一点不同。第3章用一部字典来存储每个切分,但该字典可以包含两个或两个以上的值。而CART算法只做二元切分,所以这里可以固定树的数据结构。树包含左键和右键,可以存储另一棵子树或者单个值。字典还包含特征和特征值这两个键,它们给出切分算法.所有的特征和特征值

    函数createTree()的伪代码大致如下:
    找到最佳的待切分特征:
      如果该节点不能再分,将该节点存为叶节点
      执行二元切分
      在右子树调用createTree()方法
      在左子树调用createTree()方法

    CART的实现代码如下:

    from numpy import *
    
    #注意,这次将xmat和ymat合在一起了,后面通过xmat[:,-1]获取xmat
    #general function to parse tab -delimited floats
    #assume last column is target value
    def loadDataSet(fileName):      
        dataMat = []                
        fr = open(fileName)
        for line in fr.readlines():
            curLine = line.strip().split('	')
            #通过map(),将每一行的数据转换为float,在python3中需要再转换为list
            fltLine = list(map(float,curLine)) #map all elements to float()
            dataMat.append(fltLine)
        return dataMat
    
    #二分数据集
    def binSplitDataSet(dataSet, feature, value):
        #assume dataSet is NumPy Mat so we can array filtering
        #通过数组过滤分离出dataSet中feature特征大于,小于等于value的数据
        #我用的python3,书中的代码是python2,跑不成功,我自己把这两行调整了一下
        mat0 = dataSet[nonzero(dataSet[:,feature] > value)[0],:]
        mat1 = dataSet[nonzero(dataSet[:,feature] <= value)[0],:]
        return mat0,mat1
    #leafType,求叶节点的函数
    #errType,误差计算函数(分离出的左右子树对应ymat方差乘以子树数据集长度的累加)
    #ops,元组,第一个值为误差阈值,第二个值为子树对应数据集的行数
    def createTree(dataSet, leafType=regLeaf, errType=regErr, ops=(1,4)):
    
        #通过最小化ymat方差选出拆分数据集的最好特征值
        feat, val = chooseBestSplit(dataSet, leafType, errType, ops)
        #choose the best split
        #if the splitting hit a stop condition return val
        retTree = {}
        retTree['spInd'] = feat
        retTree['spVal'] = val
        lSet, rSet = binSplitDataSet(dataSet, feat, val)
        retTree['left'] = createTree(lSet, leafType, errType, ops)
        retTree['right'] = createTree(rSet, leafType, errType, ops)
        return retTree  

    书中createTree的解读:
    该函数首先尝试将数据集分成两个部分,切分由函数chooseBestSplit()完成(这里未给出该函数的实现)。如果满足停止条件,chooseBestSplit()将返回None和某类模型的值,如果不满足停止条件,chooseBestSplit()将创建一个新的Python字典并将数据集分成两份,在这两份数据集上将分别继续递归调用createTree()函数。

    测试代码如下:

    testMat = mat(eye(4))
    print(testMat)
    mat0,mat1 = binSplitDataSet(testMat,1,0.5)
    print(mat0)
    print(mat1)

    测试截图如下:
    这里写图片描述

    9.3 将CART算法用于回归

    为成功构建以分段常数为叶节点的树,需要度量出数据的一致性。可以通过平方误差的总差值求出数据的混乱度,也就是均方差乘以数据集中的样本数来得到。

    9.3.1构建树

    函数chooseBestSplit()只需完成两件事:用最佳方式切分数据集和生成相应的叶节点
    函数chooseBestSplit()伪代码如下:
    对每个特征:
     对每个特征值:
      将数据集切分成两份 .
      计算切分的误差
      如果当前误差小于当前最小误差,那么将当前切分设定为最佳切分并更新最小误差
    返回最佳切分的特征和阈值

    回归树的切分函数,代码如下所示:

    def regLeaf(dataSet):#returns the value used for each leaf
        return mean(dataSet[:,-1])
    
    def regErr(dataSet):
        return var(dataSet[:,-1]) * shape(dataSet)[0]
    
    def chooseBestSplit(dataSet, leafType=regLeaf, errType=regErr,ops=(1,4)):
        tolS = ops[0]; tolN = ops[1]
        #if all the target variables are the same value: quit and return value    
        if len(set(dataSet[:,-1].T.tolist()[0])) == 1: #exit cond 1
            return None, leafType(dataSet)
        m,n = shape(dataSet)
        #the choice of the best feature is driven by Reduction in RSS error from mean
        S = errType(dataSet)
        bestS = inf; bestIndex = 0; bestValue = 0
        #遍历每个特征
        for featIndex in range(n-1):
            #遍历每个特征的每个不同值,找出误差最小的特征值
            for splitVal in set(dataSet[:,featIndex].flatten().A[0]):
                mat0, mat1 = binSplitDataSet(dataSet, featIndex, splitVal)
                #如果切分的子树长度太短,则跳过
                if (shape(mat0)[0] < tolN) or (shape(mat1)[0] < tolN): continue
                newS = errType(mat0) + errType(mat1)
                if newS < bestS: 
                    bestIndex = featIndex
                    bestValue = splitVal
                    bestS = newS
        #if the decrease (S-bestS) is less than a threshold don't do the split
        #如果误差下降值小于容许的误差下降至,那么合并这棵树为叶节点
        if (S - bestS) < tolS: 
            return None, leafType(dataSet) #exit cond 2
        mat0, mat1 = binSplitDataSet(dataSet, bestIndex, bestValue)
        if (shape(mat0)[0] < tolN) or (shape(mat1)[0] < tolN):  #exit cond 3
            return None, leafType(dataSet)
        return bestIndex,bestValue#returns the best feature to split ones
                                  #and the value used for that split
    9.3.2运行代码
    from numpy import *
    myDat = loadDataSet('ex00.txt')
    myMat = mat(myDat)
    myTree = createTree(myMat)
    print(myTree)

    测试截图如下:
    这里写图片描述
    数据点分布如下:
    这里写图片描述
    再看另一个多次切分的数据集,代码如下:

    from numpy import *
    myDat1 = loadDataSet('ex0.txt')
    myMat1 = mat(myDat1)
    print(createTree(myMat1))

    测试截图如下:
    这里写图片描述
    数据集分布如下所示:
    这里写图片描述

    9.4 树剪枝

    一棵树如果节点过多,表明该模型可能对数据进行了“过拟合”。通过降低决策树的复杂度来避免过拟合的过程称为剪枝(pnming)。其实本章前面巳经进行过剪枝处理。在函数chooseBestSplit()中的提前终止条件,实际上是在进行一种所谓的预剪枝(prepruning)操作。另一种形式的剪枝需要使用测试集和训练集,称作后剪枝(postpruning)。

    9 . 4 . 1 预剪

    上节两个简单实验的结果还是令人满意的,但背后存在一些问题。树构建算法其实对输人的参数tolS和tolN常敏感如果使用其他值将不太容易达到这么好的效果。为了说明这一点,在Python提示符下输人如下命令:

    from numpy import *
    myDat = loadDataSet('ex00.txt')
    myMat = mat(myDat)
    myTree = createTree(myMat,ops = (0,1))
    print(myTree)
    print(getWidth(myTree))
    
    #笔者自己写的获取树的宽度的方法
    def getWidth(tree):
        width = 0
        if isTree(tree):
            width += getWidth(tree['left'])
            width += getWidth(tree['right'])
        else:
            return 1
        return width

    测试截图如下:
    这里写图片描述
    与上节中只包含两个节点的树相比,这里构建的树过于臃肿,它甚至为数据集中每个样本都分配了一个叶节点。

    如图所示的散点图,看上去与图9-1非常相似。但如果仔细地观察y轴就会发现,前者的数量级是后者的100倍。这将不是问题,对吧?现在用该数据来构建一棵新的树(数据存放在ex2.txt),在Python提示符下输人以下命令:

    from numpy import *
    myDat = loadDataSet('ex2.txt')
    myMat = mat(myDat)
    myTree = createTree(myMat)
    print(myTree)
    xArr = mat(myDat)[:,0].flatten().A[0]
    yArr = mat(myDat)[:,1].flatten().A[0]
    paint(xArr,yArr)
    
    #paint为笔者自己写的绘图函数
    def paint(xArr,yArr):
        import matplotlib.pyplot as plt
        fig = plt.figure()
        ax = fig.add_subplot(111)
        ax.scatter(xArr,yArr)
        plt.show()

    测试截图如下:
    这里写图片描述
    这里写图片描述

    我们发现,只因为y变为了原来的100倍,构建的树的叶子节点就比原来多了很多。产生这个现象的原因在于停止条件tolS对误差的数量级十分敏感。如果在选项中花费时间并对上述误差容忍度取平方值,或许也能得到仅有两个叶节点组成的树:

    from numpy import *
    myDat = loadDataSet('ex2.txt')
    myMat = mat(myDat)
    myTree = createTree(myMat,ops = (10000,4))
    print(myTree)

    测试截图如下:
    这里写图片描述
    然而,通过不断修改停止条件来得到合理结果并不是很好的办法。事实上,我们常常甚至不确定到底需要寻找什么样的结果

    后剪枝,即利用测试集来对树进行剪枝。由于不需要用户指定参数,后剪枝是一个更理想化的剪枝方法。

    9.4.2 后剪枝

    使用后剪枝方法需要将数据集分成测试集和训练集。首先指定参数,使得构建出的树足够大、足够复杂,便于剪枝。接下来从上而下找到叶节点,用测试集来判断将这些叶点合并是否能降低测试误差。如果是的话就合并。

    函数prune()的伪代码如下:
      基于已有的树切分测试数据:
        如果存在任一子集是一棵树,则在该子集递归剪枝过程
        计算将当前两个叶节点合并后的误差
        计算不合并的误差
        如果合并会降低误差的话,就将叶节点合并

    回归树剪枝函数代码如下:

    def isTree(obj):
        return (type(obj).__name__=='dict')
    
    #从上往下遍历树直到叶节点为止。如果找到两个叶节点则计算它们的平均值。该函数对树进行塌陷处理(即返回树平均值)
    def getMean(tree):
        if isTree(tree['right']): tree['right'] = getMean(tree['right'])
        if isTree(tree['left']): tree['left'] = getMean(tree['left'])
        return (tree['left']+tree['right'])/2.0
    
    def prune(tree, testData):
        if shape(testData)[0] == 0: return getMean(tree) #if we have no test data collapse the tree
        #if the branches are not trees try to prune them
        if (isTree(tree['right']) or isTree(tree['left'])):
            lSet, rSet = binSplitDataSet(testData, tree['spInd'], tree['spVal'])
        if isTree(tree['left']): tree['left'] = prune(tree['left'], lSet)
        if isTree(tree['right']): tree['right'] =  prune(tree['right'], rSet)
        #if they are now both leafs, see if we can merge them
        if not isTree(tree['left']) and not isTree(tree['right']):
            lSet, rSet = binSplitDataSet(testData, tree['spInd'], tree['spVal'])
            #对合并前后的误差进行比较。如果合并后的误差比不合并的误差小就进行合并操作,反之则不合并直接返回
            errorNoMerge = sum(power(lSet[:,-1] - tree['left'],2)) +
                sum(power(rSet[:,-1] - tree['right'],2))
            treeMean = (tree['left']+tree['right'])/2.0
            errorMerge = sum(power(testData[:,-1] - treeMean,2))
            if errorMerge < errorNoMerge: 
                print("merging")
                return treeMean
            else: return tree
        else: return tree

    测试代码如下:

    myDat = loadDataSet('ex2.txt')
    myMat2 = mat(myDat)
    myTree = createTree(myMat2, ops=(0,1))
    print(getWidth(myTree))
    myDatTest = loadDataSet('ex2test.txt')
    myMat2Test = mat(myDatTest)
    prune(myTree,myMat2Test)
    print("####################################################################################################")
    print(getWidth(myTree))
    
    #笔者自己写的计算叶子节点数目的函数
    def getWidth(tree):
        width = 0
        if isTree(tree):
            width += getWidth(tree['left'])
            width += getWidth(tree['right'])
        else:
            return 1
        return width

    测试截图如下:
    这里写图片描述
    由于直接看数字典可能不够清晰,因此我把它转化为对比宽度。可以发现效果还是很明显的但,没有像预期的那样剪枝成两部分,这说明后剪枝可能不如预剪枝有效。一般地,为了寻求最佳模型可以同时使用两种剪枝技术

    9.5模型树

    用树来对数据建模,除了把叶节点简单地设定为常数值之外,还有一种方法是把叶节点设定为分段线性函数,这里所谓的分段线性(piecewise linear) 是指模型由多个线性片段组成。

    考虑图9-4中的数据。如果使用两条直线拟合是否比使用一组常数来建模好呢?答案显而易见。可以设计两条分别从0.0~0.3、从0.3~1.0的直线,于是就可以得到两个线性模型。因为数据集里的一部分数据(0.0~0.3)以某个线性模型建模,而另一部分数据(0.3~1.0)则以另一个线性模型建模,因此我们说采用了所谓的分段线性模型。

    决策树相比于其他机器学习算法的优势之一在于结果更易理解。很显然,两条直线比很多节点组成一棵大树更容易解释。模型树的可解释性是它优于回归树的特点之一。另外,模型树也具有更髙的预测准确度。

    这里写图片描述

    下面将利用树生成算法对数据进行切分,且每份切分数据都能很容易被线性模型所表示。该算法的关键在于误差的计算。应该怎样计算误差呢?前面用于回归树的误差计算方法这里不能再用。稍加变化,对于给定的数据集,应该先用线性的模型来对它进行拟合,然后计算真实的目标值与模型预测值间的差值。最后将这些差值的平方求和就得到了所需的误差。

    模型树的叶节点生成函数,代码如下:

    #根据ws计算公式,求出子树对应的ws矩阵
    #helper function used in two places
    def linearSolve(dataSet):  
        m,n = shape(dataSet)
        #注意,x矩阵第一列全部为1,
        X = mat(ones((m,n))); Y = mat(ones((m,1)))#create a copy of data with 1 in 0th postion
        X[:,1:n] = dataSet[:,0:n-1]; Y = dataSet[:,-1]#and strip out Y
        xTx = X.T*X
        if linalg.det(xTx) == 0.0:
            raise NameError('This matrix is singular, cannot do inverse,
    
            try increasing the second value of ops')
        ws = xTx.I * (X.T * Y)
        return ws,X,Y
    
    #create linear model and return coeficients
    def modelLeaf(dataSet):
        ws,X,Y = linearSolve(dataSet)
        return ws
    #误差计算
    def modelErr(dataSet):
        ws,X,Y = linearSolve(dataSet)
        yHat = X * ws
        return sum(power(Y - yHat,2))

    测试代码如下:

    myDat = loadDataSet('exp2.txt')
    myMat2 = mat(myDat)
    myTree = createTree(myMat2, modelLeaf,modelErr)
    print(myTree) 

    测试截图如下:
    这里写图片描述
    可以看到 ,该代码以0.285 477为界创建了两个模型,而图9-4的数据实际在0.3处分段。createTree ()生成的这两个线性模型分别是y=3 . 468+1.1852x和y=0 . 001 6985+11.964 77x,与用于生成该数据的真实模型非常接近。该数据实际是由模型y=3.5+1.0x和y=0+12再加上高斯噪声生成的。在图9-5上可以看到图9-4的数据以及生成的线性模型。

    绘图代码如下:

    myDat = loadDataSet('exp2.txt')
    myMat2 = mat(myDat)
    myTree = createTree(myMat2, modelLeaf,modelErr)
    leftTree,rightTree = binSplitDataSet(myMat2,myTree['spInd'],myTree['spVal'])
    
    #数据集对应的x,y
    xArr = myMat2[:,0].flatten().A[0]
    yArr = myMat2[:,1].flatten().A[0]
    
    #得出左子树对应的x,以及推测的y
    xMat1 = mat(ones((shape(leftTree)[0],2)))
    xMat1[:,1] = leftTree[:,0]
    xArr1 = leftTree[:,0].flatten().A[0]
    yArr1 = (xMat1*myTree['left']).flatten().A[0]
    
    #得出右子树对应的x,以及推测的y
    xMat2 = mat(ones((shape(rightTree)[0],2)))
    xMat2[:,1] = rightTree[:,0]
    xArr2 = rightTree[:,0].flatten().A[0]
    yArr2 = (xMat2*myTree['right']).flatten().A[0]
    
    #xArr,yArr画散点图
    #xArr1,yArr1和xArr2,yArr2画点图
    paint(xArr,yArr,xArr1,yArr1,xArr2,yArr2)
    
    #笔者自己定义的绘图函数,用来绘制点图和散点图
    def paint(xArr,yArr,xArr1,yArr1,xArr2,yArr2):
        import matplotlib.pyplot as plt
        fig = plt.figure()
        ax = fig.add_subplot(111)
        ax.scatter(xArr,yArr,c="blue")
        ax.plot(xArr1,yArr1,c="red")
        ax.plot(xArr2,yArr2,c="red")
        plt.show()

    测试截图如下:
    这里写图片描述

    模型树、回归树以及第8章里的其他模型,哪一种模型更好呢?一个比较客观的方法是计算相关系数,也称为R2值。该相关系数可以通过调用Numpy库中的命令corrcoef(yHat,y,rowvar=0)来求解,其中yHat是预测值,y是目标变量的实际值。
    前一章使用了标准的线性回归法,本章则使用了树回归法,下面将通过实例对二者进行比较,最后用函数corrcoef()来分析哪个模型是最优的。

    9 . 6 示例:树回归与标准回归的比较

    前面介绍了模型树、回归树和一般的回归方法,下面测试一下哪个模型最好。本节首先给出一些函数,它们开以在树构建好的情况下对给定的输人进行预测,之后利用这些函数来计算三种回归模型的测试误差。这些模型将在某个数据上进行测试,该数据涉及人的智力水平和自行车的速度的关系。

    用树回归进行预测的代码如下:

    #回归树叶节点模型
    def regTreeEval(model, inDat):
        return float(model)
    #模型树叶节点模型
    def modelTreeEval(model, inDat):
        n = shape(inDat)[1]
        #注意,在X中添加第一列为1
        X = mat(ones((1,n+1)))
        X[:,1:n+1]=inDat
        #返回线性模型预测的值
        return float(X*model)
    
    #递归整棵树,直到找到叶节点,然后通过modelEval对应的模型求出对应的预测值
    def treeForeCast(tree, inData, modelEval=regTreeEval):
        if not isTree(tree): return modelEval(tree, inData)
        if inData[tree['spInd']] > tree['spVal']:
            if isTree(tree['left']): return treeForeCast(tree['left'], inData, modelEval)
            else: return modelEval(tree['left'], inData)
        else:
            if isTree(tree['right']): return treeForeCast(tree['right'], inData, modelEval)
            else: return modelEval(tree['right'], inData)
    #循环调用treeForeCast,得出预测值的助阵        
    def createForeCast(tree, testData, modelEval=regTreeEval):
        m=len(testData)
        yHat = mat(zeros((m,1)))
        for i in range(m):
            yHat[i,0] = treeForeCast(tree, mat(testData[i]), modelEval)
        return yHat

    回归树测试代码如下:

    trainMat = mat(loadDataSet('bikeSpeedVsIq_train.txt'))
    testMat = mat(loadDataSet('bikeSpeedVsIq_test.txt'))
    xArr = trainMat[:,0].flatten().A[0]
    yArr = trainMat[:,1].flatten().A[0]
    myTree = createTree(trainMat,ops=(1,20))
    yHat = createForeCast(myTree,testMat[:,0])
    xArr1 = testMat[:,0].flatten().A[0]
    yArr1 = yHat.flatten().A[0]
    print(corrcoef(yHat,testMat[:,-1],rowvar=0)[0,1])
    #paint1为笔者自己写的绘图函数,画出训练数据点和预测数据点
    paint1(xArr,yArr,xArr1,yArr1)

    回归树测试截图:
    这里写图片描述
    这里写图片描述

    线性回归树测试代码如下:

    trainMat = mat(loadDataSet('bikeSpeedVsIq_train.txt'))
    testMat = mat(loadDataSet('bikeSpeedVsIq_test.txt'))
    xArr = trainMat[:,0].flatten().A[0]
    yArr = trainMat[:,1].flatten().A[0]
    myTree = createTree(trainMat,modelLeaf,modelErr,(1,20))
    yHat = createForeCast(myTree,testMat[:,0],modelTreeEval)
    xArr1 = testMat[:,0].flatten().A[0]
    yArr1 = yHat.flatten().A[0]
    print(corrcoef(yHat,testMat[:,-1],rowvar=0)[0,1])
    paint1(xArr,yArr,xArr1,yArr1)

    线性模型树测试截图:
    这里写图片描述
    这里写图片描述

    我们知道,R2值越接近1.0越好,所以从上面的结果可以看出,这里模型树的结果比回归树好 。下面再看看标准的线性回归效果如何,这里无须导人第8章的任何代码,本章已实现过一个线性方程求解函数linearSolve():

    trainMat = mat(loadDataSet('bikeSpeedVsIq_train.txt'))
    testMat = mat(loadDataSet('bikeSpeedVsIq_test.txt'))
    ws,X,Y = linearSolve(trainMat)
    yHat = zeros((shape(testMat)[0],1))
    print(ws)
    for i  in range(shape(testMat)[0]):
        yHat[i] = testMat[i,0]*ws[1,0] + ws[0,0]
    print(corrcoef(yHat,testMat[:,1],rowvar=0)[0,1])

    测试截图如下:
    这里写图片描述
    可以看到,该方法在R2值上的表现上不如上面两种树回归方法。所以,树回归方法在预测复杂数据时会比简单的线性模型更有效

    本章后面章节是利用pythonGUI库Tkinter对回归模型比较,与机器学习关系不大,感兴趣的话可以查阅<机器学习实战>。

  • 相关阅读:
    4-MSP430定时器_定时器中断
    关于STM32的外部引脚中断的问题
    关于stm32的正交解码
    红外接收控制灯亮灭
    mack pro常用快捷键
    liunx操作系统安装<一>
    支付宝架构师:从工程师到架构师的成长之路
    maven之setting.xml的配置详解
    分布式之《保证分布式系统数据一致性的6种解决方案》
    Eclipse中jsp、js文件编辑时,卡死现象解决汇总
  • 原文地址:https://www.cnblogs.com/kevincong/p/7858519.html
Copyright © 2011-2022 走看看