zoukankan      html  css  js  c++  java
  • pandas读csv、数据处理

     

    panddas 读入 csv 文件

    In [9]:
    import pandas as pd
    f = open('D:/Project/180414山东癌症交接/初始数据/1973to2015.csv')
    all_data = pd.read_csv(f)
    
    In [30]:
    df2014 = all_data[(all_data['year'] == 2014) & (all_data['sex'] == '合计')]
    
    In [31]:
    df2014.rename(columns={ 'cu': 'cu2014', 'norm': 'norm2014'}, inplace=True) 
    In [32]:
    df2005 = all_data[(all_data['year'] == 2005)& (all_data['sex'] == '合计')]
    df2005.rename(columns={ 'cu': 'cu2005', 'norm': 'norm2005'}, inplace=True) 
    In [38]:
    me_data = pd.merge(df2014,df2005,how='inner',on='code')
    In [39]:
    me_data = pd.merge(me_data,df2014,how='inner',on='code')
    
    In [42]:
    norm = me_data[['code','norm1975','norm1992','norm2005','norm2014']]
    cu = me_data[['code','cu1975','cu1992','cu2005','cu2014']]
    
    In [46]:
    norm.to_csv("D:/Project/norm.csv")
    
    In [47]:
    cu.to_csv("D:/Project/cu.csv")
    
  • 相关阅读:
    廖雪峰的多线程 1
    保持良好的心态 戒骄戒躁
    Break camelCase
    int32 to IPv4 (int32到IPv4地址转换)
    Stop gninnipS My sdroW!
    Find The Parity Outlier 找到奇偶校验异常值
    今日新闻整理 2020-7-31
    改造rabbitmq demo 到 jpa
    Flink实战(110):FLINK-SQL应用场景(11)connector(十九)Flink 与 hive 结合使用(七) Flink Hive Connector 使用
    Hadoop基础(六十):面试题 Hadoop数据切片(二)切片机制源码
  • 原文地址:https://www.cnblogs.com/lichunl/p/9005084.html
Copyright © 2011-2022 走看看