zoukankan      html  css  js  c++  java
  • python 基础之文件读操作

    创建一个名为‘尘曦’的文件内容如下

    Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
    用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。
    [1]  Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。
    Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算
    

      文件读操作

    x=open('尘曦','r',encoding='utf8')#定义文件对象及字符集
    cx=x.read()#读取文件
    print(cx)
    x.close()#关闭文件
    

      测试

    D:pythonpython.exe D:/untitled/dir/for.py
    Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
    用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。
    [1]  Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。
    Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算
    
    Process finished with exit code 0
    

      读取文件前9个字符

    x=open('尘曦','r',encoding='utf8')#定义文件对象及字符集
    cx=x.read(9)#读取文件的前9个字符
    print(cx)
    x.close()#关闭文件
    

      测试

    D:pythonpython.exe D:/untitled/dir/for.py
    Hadoop是一个
    
    Process finished with exit code 0
    

      写文件操作

    h=open('尘曦','r',encoding='utf8')# 先读
    ch=h.read()
    print(ch)
    h.close()
    x=open('尘曦','w',encoding='utf8')#定义文件的操作对象及字符集,w写;注意它写之前把文件清空
    x.write('fghgfhh')
    x.close()
    print('修改成功') c=open('尘曦','r',encoding='utf8')#改完后去读,查看内容 cc = c.read() print(cc) c.close()

      测试

    Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
    用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。
    [1]  Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。
    Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算
    修改成功
    fghgfhh
    

      新建一个文件与文件追加操作

    c = open('尘曦-2','w',encoding='utf8')
    c.write('哈哈哈')
    c.write('尘曦')
    

      查看新文件

    哈哈哈尘曦
    

      查看打开的文件句柄

    c = open('尘曦-2','w',encoding='utf8')
    print(c.fileno())  #打印文件句柄
    c.write('哈哈哈')
    c.write('尘曦')
    

      测试

    D:pythonpython.exe D:/untitled/dir/for.py
    3
    
    Process finished with exit code 0
    

      对文件追加内容

    d = open('尘曦','r',encoding='utf8')
    xd = d.read()
    print(xd)
    f = open('尘曦','a',encoding='utf8')
    f.write('
     chenxi hahqa')
    f.write('
     dff')
    f.close()
    x = open('尘曦','r',encoding='utf8')
    cx = x.read()
    print(cx)
    x.close()
    

      测试

    D:pythonpython.exe D:/untitled/dir/for.py
    Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
    用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。
    [1]  Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。
    Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算
    
    Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
    用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。
    [1]  Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。
    Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算
    
     chenxi hahqa
     dff
    

      以列表格式显示

    d = open('尘曦','r',encoding='utf8')
    print(d.readline())
    print(d.readlines())  #以列表形式显示所有内容
    

      测试

    D:pythonpython.exe D:/untitled/dir/for.py
    Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
    
    ['用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。
    ', '[1]  Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。
    ', 'Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算
    ', '
    ', ' chenxi hahqa
    ', ' dff']
    

      正常查看

    d = open('尘曦','r',encoding='utf8')
    for i in d.readlines():
        print(i.strip())
    

      测试

    Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
    用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。
    [1]  Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。
    Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算
    
    chenxi hahqa
    dff
    

      第三行打印的时候加一个字符串

    d = open('尘曦','r',encoding='utf8')
    nu=0
    for i in d.readlines():
        nu += 1
        if nu == 3:
            print(i.strip(),'chenxi')
        else:
            print(i.strip())
    d.close()
    

      测试

    Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
    用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。
    [1]  Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。 chenxi
    Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算
    
    chenxi hahqa
    dff
    

      原文

    漫作年时别泪看。西窗蜡炬尚澜。不堪重梦十年间。
    斗柄又垂天直北,客愁坐逼岁将阑。更无人解忆长安。
    

      一行一行取文件内容

    d = open('尘曦','r',encoding='utf8')
    for i in d:
        print(i.strip())
    d.close()
    

      测试

    D:pythonpython.exe D:/untitled/dir/for.py
    漫作年时别泪看。西窗蜡炬尚澜。不堪重梦十年间。
    斗柄又垂天直北,客愁坐逼岁将阑。更无人解忆长安。
    

      原文

    nihao chenxi haha woai ni
    漫作年时别泪看。西窗蜡炬尚澜。不堪重梦十年间。
    斗柄又垂天直北,客愁坐逼岁将阑。更无人解忆长安。
    

      现在光标所在字符下标;一个中文字符是三个

    d = open('尘曦','r',encoding='utf8')
    print(d.tell())
    print(d.read(4))
    print(d.tell())
    

      测试

    D :pythonpython.exe D:/untitled/dir/for.py
    0
    niha
    4
    
    Process finished with exit code 0
    

      调整光标位置

    d = open('尘曦','r',encoding='utf8')
    print(d.tell())  #查看当前光标所在位置
    print(d.read(4)) # 读取四个字符
    print(d.tell())  #查看当前光标所在位置
    print(d.read(5)) #从光标所在的位置向后读取5个字符
    print(d.tell())# 显示光标所在位置
    print(d.seek(0))#将光标移至文件收字符
    print(d.read(2))#从首字符向后读取2个字符
    print(d.tell())# 查看光标所在位置
    

      测试

    D:pythonpython.exe D:/untitled/dir/for.py
    0
    niha
    4
    o che
    9
    0
    ni
    2
    

      

    草都可以从石头缝隙中长出来更可况你呢
  • 相关阅读:
    POJ 2723 Get Luffy Out(2-SAT)
    ZOJ 3613 Wormhole Transport
    HDU 4085 Peach Blossom Spring
    NBUT 1221 Intermediary
    NBUT 1223 Friends number
    NBUT 1220 SPY
    NBUT 1218 You are my brother
    PAT 1131. Subway Map (30)
    ZSTU OJ 4273 玩具
    ZSTU OJ 4272 最佳淘汰算法
  • 原文地址:https://www.cnblogs.com/rdchenxi/p/11119417.html
Copyright © 2011-2022 走看看