zoukankan      html  css  js  c++  java
  • pandas数据离散化和合并

    为什么要离散化

    连续属性离散化的目的是为了简化数据结构,数据离散化技术可以用来减少给定连续属性值的个数。离散化方法经常作为数据挖掘的工具。

    什么是数据的离散化

    连续属性的离散化就是在连续属性的值域上,将值域划分为若干个离散的区间,最后用不同的符号或整数 值代表落在每个子区间中的属性值。

    离散化有很多种方法,这使用一种最简单的方式去操作

    • 原始人的身高数据:165,174,160,180,159,163,192,184
    • 假设按照身高分几个区间段:150~165, 165~180,180~195

    这样我们将数据分到了三个区间段,我可以对应的标记为矮、中、高三个类别,最终要处理成一个"哑变量"矩阵

    例:

    股票的涨跌幅离散化

    读取股票的数据

    data = pd.read_csv("./data/stock_day.csv")
    data.head() p_change
    = data['p_change']

    使用的工具:

    • pd.qcut(data, q):
      • 对数据进行分组将数据分组,一般会与value_counts搭配使用,统计每组的个数
    • series.value_counts():统计分组次数
    # 自动分成差不多数量的类别
    qcut = pd.qcut(p_change, 10)
    qcut.value_counts()

     自定义区间分组:

    pd.cut(data, bins)

    # 指定分组区间
    bins = [-100, -7, -5, -3, 0, 3, 5, 7, 100]
    p_count = pd.cut(p_change, bins)
    p_count.value_counts()

    什么是one-hot编码:

    把每个类别生成一个布尔列,这些列中只有一列可以为这个样本取值为1.其又被称为热编码。

    把下图中左边的表格转化为使用右边形式进行表示:

    pandas.get_dummies(dataprefix=None)

    • data:array-like, Series, or DataFrame

    • prefix:分组名字

    # 得出one-hot编码矩阵
    dummies = pd.get_dummies(p_counts, prefix="rise")

    合并

    pd.concat实现数据合并

    pd.concat([data1, data2], axis=1)

    • 按照行或列进行合并,axis=0为列索引,axis=1为行索引

    我们将刚才处理好的one-hot编码与原数据合并

    pd.concat([data, dummies],axis=1)

    pd.merge

    pd.merge(left, right, how='inner', on=None)

    • 可以指定按照两组数据的共同键值对合并或者左右各自
    • left: DataFrame
    • right: 另一个DataFrame
    • on: 指定的共同键
    • how:按照什么方式连接
    left = pd.DataFrame({'key1': ['K0', 'K0', 'K1', 'K2'],
                            'key2': ['K0', 'K1', 'K0', 'K1'],
                            'A': ['A0', 'A1', 'A2', 'A3'],
                            'B': ['B0', 'B1', 'B2', 'B3']})
    
    right = pd.DataFrame({'key1': ['K0', 'K1', 'K1', 'K2'],
                            'key2': ['K0', 'K0', 'K0', 'K0'],
                            'C': ['C0', 'C1', 'C2', 'C3'],
                            'D': ['D0', 'D1', 'D2', 'D3']})
    left

    right

     默认内连接

    pd.merge(left, right, on=["key1", "key2"])

    左连接

    pd.merge(left, right, on=["key1", "key2"], how="left")

    右连接

    pd.merge(left, right, on=["key1", "key2"], how="right")

     外连接

    pd.merge(left, right, on=["key1", "key2"], how="outer")

  • 相关阅读:
    Virtual Judge —— Nim TopCoder
    Partial Sums ZOJ
    Partial Sums ZOJ
    Areas on the Cross-Section Diagram Aizu
    Areas on the Cross-Section Diagram Aizu
    Doubly Linked List Aizu
    Doubly Linked List Aizu
    1134:合法C标识符查
    TCP阻塞模式开发
    TCP阻塞模式开发
  • 原文地址:https://www.cnblogs.com/a155-/p/14347127.html
Copyright © 2011-2022 走看看