zoukankan      html  css  js  c++  java
  • Kaggle练习002--Predict survival on the Titanic(Titanic Disaster)

    泰坦尼克之灾是Kaggle上的一个入门级比赛项目,主要是利用监督式机器学习,对样本进行训练,建立分类模型,对未标记样本进行分类。

    虽然这是一个“过时”的项目,但自己一步一步的做完,还是很有意义的。通过做项目,主要有3方面作用:

    1.验证理论知识,加深对理论的理解。

    2.掌握常用工具的使用,增加工具的熟练度。

    3.了解项目完整流程,提高工程化思想。

    我已经将代码放到了我的Github上,会持续更新,逐步优化。

    基于模块化的思想,我在编写程序时,将功能分到多个文件中,以后版本更新会尽量保持模块的稳定(主程序是main.py):

    v0.1版本,使用sk-learn建立基本的模型,使用的特征有:Pclass,Sex,Age,Fare以及类别标签Survived。

    其中对于Sex将其进行one-hot编码,对于Age中的空值使用中位数填充。为了方便进行对比,本文仅使用逻辑回归(LR)模型进行训练。

    作为最基本的模型,主要的目标是能够正常运行,因此本版本中使用的LR模型并未进行超参数调整,使用常规设置。

    使用3折交叉验证,对训练样本的精度进行评估:[0.78787879 0.79124579 0.79124579]

    最终上传到Kaggle上,准确率为:75.598%。

    虽然准确率不是很高,但是此版本已经搭建好了基本的结构,为模型的进一步优化提供了良好的支撑。


    v0.2版本,在v1.0的基础上增加了一个新特征Title,这个属性是从Name字段提取出来的,提取出信息后,转化为一个新的离散属性,包含5个类别:

    "Mr": 1, "Miss": 2, "Mrs": 3, "Master": 4, "Rare": 5,增加了这一个新的特征后,继续使用LR模型进行预测,准确率为77.511%,比之前提高了1.9%。


    v0.3版本,参考Kaggle上的一个Kernel,在特征工程方面总共进行了如下的处理:

    1.移除'Ticket'与'Cabin'两个属性。

    2.将'Name'属性进行内容提取,转化为新属性'Title',包含5个类别:'Mr','Miss','Mrs','Master','Rare'。

    3.将'Sex'属性从object类型(male,female)转化为数值型(0,1)。

    4.使用中位数填充'Age'属性的空值。

    5.将填充后的连续数值型的'Age'属性,进行离散化处理,分为5类:'<=16','>16 and <=32','>32 and <=48','>48 and <=64','>=64'。

    6.将'SibSp'与'Parch'这两个属性值相加,产生新属性'FamilySize'。

    7.根据'FamilySize'的数值产生新属性'IsAlone',表示是否是单独乘船。

    8.将'Age'与'Pclass'两个属性相乘,产生新属性'Age*Class'。

    9.将'Embarked'属性中的空值,使用出现次数最多的值'S'进行填充。

    10.将'Embarked'属性进行数值化:S->0,C->1,Q->2。

    11.将'Fare'属性中的空值,使用中位数填充。

    12.将填充后的'Fare'属性进行离散化处理,分为4类:'<=7.91','>7.91 and <=14.454','>14.454 and <=31','>31'。

    经过以上12种特征处理之后,分别使用9种模型进行训练,按照准确率由高到低进行排序:

    Random Forrest :RandomForestClassifier(n_estimators=100)#随机森林
    Decision Tree :DecisionTreeClassifier()#决策树
    KNN or k-Nearest Neighbors :KNeighborsClassifier(n_neighbors = 3)#K近邻
    Support Vector Machines :SVC()#支持向量机
    Logistic Regression :LogisticRegression()#逻辑回归
    Linear SVC :LinearSVC()#线性支持向量机
    Stochastic Gradient Decent :SGDClassifier()#随机梯度下降
    Perceptron :Perceptron()#感知机
    Naive Bayes classifier :GaussianNB()#朴素贝叶斯

    训练完毕后,对测试集进行预测并上传到Kaggle上进行检验,逻辑回归的准确率为76.076%,介于v0.1与v0.2之间。

    而使用效果最好的决策树和随机森林模型,准确率都可以达到78.468%,比v0.2提高了0.96%,是目前最高的准确率。

    虽然只是"照猫画虎"的比划了一下,但完成这个项目的过程中还是有一些心得体会的,现在做一个总结吧:

    1.想要提升模型的效果,既需要敏锐的观察和仔细的分析,也需要多次的尝试和反复的验证。

    2.特征工程与模型的选择密切相关,在进行数据处理的时候,可通过评估不同的模型寻找最佳特征。

    3.从前辈们训练模型的经验中,可以选择出效果比较好的几种模型。

      3.1逻辑回归是使用比较广泛的,执行效率不错,也比较稳定,可以作为基准模型。

      3.2随机森林泛化性比较好,往往是最有可能达到最佳效果的模型,一般考虑作为最终模型,进一步微调。

      3.3其他模型可能根据具体的数据而有不同的表现,在传统机器学习常用的分类模型中,总体而言:

        3.3.1RandomForest多数情况优于DecisionTree,SVM多数情况优于Linear SVM。

        3.3.2LR多数情况优于SGD,但SGD比较适合处理大数据集和稀疏型的数据。

        3.3.3KNN是基于实例而非基于模型,与之前几种的原理不同,其表现不太确定。

        3.3.4Naive Bayes是基于概率计算的,多数情况下表现不够理想。

        3.3.5Perceptron是ANN的基本结构,对于一般线性分类优势不大,而对于复杂的非线性问题,可以考虑DNN,CNN,RNN等深层网络结构。

      3.4因此,如果感觉9个模型太多,可以选择以下4个作为代表:LR、SVM、RandomForest、KNN,基本就够了。

    4.如果数据量比较大,可以抽取出一个用于调试的小样本,减少数据加载和训练的时间。如果问题比较复杂,就直接使用Deep Learning吧。

    5.机器学习流程不一定需要过多考虑设计模式,但"划分模块"、"单元测试"、"版本控制"等软件工程方法,有助于代码的复用,减少Bug,提高工作效率。

  • 相关阅读:
    UIApplication直接应用
    iOS开发之苹果开发者账号注册申请流程
    iOS开发之蓝牙使用-建立连接的
    Swift3.0 UICollectionView简单使用
    CSS网页菜单
    c#qq发邮件
    多文档界面的实现(DotNetBar的superTabControl)
    CE修改器:外挂制作高级技巧
    MariaDB 库的基本操作
    Python-使用PyQT生成图形界面
  • 原文地址:https://www.cnblogs.com/asenyang/p/11161521.html
Copyright © 2011-2022 走看看