zoukankan      html  css  js  c++  java
  • 机器学习算法应用的常用技巧

    参考:Udacity ML纳米学位

    1. 取样

    数据量很大的时候,想要先选取少量数据来观察一下细节。

    indices = [100,200,300]
    
    # 把sample原来的序号去掉重新分配
    samples = pd.DataFrame(data.loc[indices], columns = data.keys()).reset_index(drop = True)
    print "Chosen samples:"
    display(samples)

    2. Split数据

    sklearn.cross_validation.train_test_split 将数据分为 train 和 test 集。
    sklearn

    from sklearn import cross_validation
    X = new_data
    y = data['Milk']
    X_train, X_test, y_train, y_test = cross_validation.train_test_split(X, y, test_size = 0.25, random_state = 0)
    print len(X_train), len(X_test), len(y_train), len(y_test)

    分离出 Features & Label

    有时候原始数据并不指出谁是label,自己判断

    # Store the 'Survived' feature in a new variable and remove it from the dataset
    outcomes = full_data['Survived']
    data = full_data.drop('Survived', axis=1)

    3. 用 train 来训练模型,用 test 来检验

    用 Decision Tree 来做个例子
    sklearn

    from sklearn import tree
    regressor = tree.DecisionTreeRegressor()
    regressor = regressor.fit(X_train, y_train)
    score = regressor.score(X_test, y_test)

    4. 判断 feature 间的关联程度

    pd.scatter_matrix(data, alpha = 0.3, figsize = (14, 8), diagonal = 'kde');

    5. scaling

    当数据不符合正态分布的时候,需要做 scaling 的处理。常用的方法是取log。

    pd.scatter_matrix(log_data, alpha = 0.3, figsize = (14,8), diagonal = 'kde');

     

    scaling前后对比图:


     
     
     
     

    6. Outliers

    方法之一是 Tukey 方法,小于 Q1 – (1.5 × IQR) 或者大于 Q3 + (1.5 × IQR) 就被看作是outlier。

    先把各个 feature 的 outlier 列出来并排好序:

    for feature in log_data.keys():
        Q1 = np.percentile(log_data[feature], 25)
        Q3 = np.percentile(log_data[feature], 75)
        step = 1.5 * (Q3 - Q1)
        print "Outliers for feature '{}':".format(feature)
        print Q1, Q3, step
        display(log_data[~((log_data[feature]>=Q1-step) & (log_data[feature]<=Q3+step))].sort([feature]))

    再配合 boxplot 观察,到底哪些 outlier 需要被移除:

    plt.figure()
    plt.boxplot([log_data.Fresh, log_data.Milk, log_data.Grocery, log_data.Frozen, log_data.Detergents_Paper, log_data.Delicassen], 0, 'gD');
     

    7. 降维-PCA

    n_components为降到多少维,用原数据fit后,再用transform转换成降维后的数据。

    from sklearn.decomposition import PCA
    pca = PCA(n_components = 6)
    pca.fit(good_data)
    reduced_data = pca.transform(good_data)
    reduced_data = pd.DataFrame(reduced_data, columns = ['Dimension 1', 'Dimension 2'])

    8. 聚类-选择类别数

    用 silhouette coefficient 计算每个数据到中心点的距离,-1 (dissimilar) to 1 (similar) 根据这个系数来评价聚类算法的优劣。

    from sklearn.cluster import KMeans
    from sklearn.metrics import silhouette_score
    cluster = KMeans(n_clusters=2, random_state=0).fit(reduced_data)
    preds = cluster.predict(reduced_data)
    score = silhouette_score(reduced_data, preds)

    选择分数最大的个数作为聚类的类别数。


     
     

    9. 恢复维度

    例如数据,先经过 log,又经过 PCA降维, 要恢复回去,先用 pca.inverse_transform,再用 np.exp

    log_centers = pca.inverse_transform(centers)
    true_centers = np.exp(log_centers)
    true_centers = pd.DataFrame(np.round(true_centers), columns = data.keys())

    数据变化:


     
     

    10. 自定义accuracy

    分类问题可以自己写accuracy的函数

    def accuracy_score(truth, pred):
        """ Return accuracy score for input truth and prediction"""
        
        if len(truth)==len(pred):
            return "Accuracy for prediction: {:.2f}%.".format((truth==pred).mean()*100)
        else:
            return "Numbers do not match!"
     


    原文作者:不会停的蜗牛
    链接:https://www.jianshu.com/p/00243fbff314
    來源:简书
    著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。


  • 相关阅读:
    android存储訪问框架Storage Access Framework
    hdu 5338 ZZX and Permutations (贪心+线段树+二分)
    集成CCFlow工作流与GPM的办公系统驰骋CCOA介绍(三)
    PHP中文分词扩展 SCWS
    使用docker 搭建基础的 mysql 应用
    UVA 11090 Going in Cycle!!(Bellman-Ford推断负圈)
    HDU 5237 Base64
    Android 自己定义主菜单
    HDU 1018 Big Number 数学题解
    python经常使用的十进制、16进制、字符串、字节串之间的转换(长期更新帖)
  • 原文地址:https://www.cnblogs.com/YangZnufe/p/8418398.html
Copyright © 2011-2022 走看看