zoukankan      html  css  js  c++  java
  • python爬取各类文档方法归类汇总

    摘自:https://www.jb51.net/article/136941.htm

     
    网络爬虫不仅需要能够抓取HTML中的敏感信息,也需要有抓取其他类型文档的能力这篇文章主要为大家汇总了python爬取各类文档方法,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
     

    HTML文档是互联网上的主要文档类型,但还存在如TXT、WORD、Excel、PDF、csv等多种类型的文档。网络爬虫不仅需要能够抓取HTML中的敏感信息,也需要有抓取其他类型文档的能力。下面简要记录一些个人已知的基于python3的抓取方法,以备查阅。

    1.抓取TXT文档

    在python3下,常用方法是使用urllib.request.urlopen方法直接获取。之后利用正则表达式等方式进行敏感词检索。

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    ### Reading TXT doc ###
    from urllib.request import urlopen
    from urllib.error import URLError,HTTPError
    import re
     
    try:
    except (URLError,HTTPError) as e:
     print("Errors: ")
     print(e)
    #print(textPage.read())
    text = str(textPage.read())
     
    #下面方法用正则匹配含1805的句子
    pattern = re.compile("..*1805(w|,|s|-)*(.)")#不完美,简单示例
    match = pattern.search(text)
    if match is not None:
     print(match.group())
     
    #下面方法不用正则。先用.将句集分片,之后就可遍历了。
    ss = text.split('.')
    key_words = "1805"
    words_list = [x.lower() for x in key_words.split()]
    for item in ss:
     if all([word in item.lower() and True or False for word in words_list]):
      print(item)

    上面的方法是已知目标网页为txt文本时的抓取。事实上,在自动抓取网页时,必须考虑目标网页是否为纯文本,用何种编码等问题。

    如果只是编码问题,可以简单使用print(textPage.read(),'utf-8')等python字符处理方法来解决,如果抓取的是某个HTML,最好先分析,例如:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    from urllib.request import urlopen
    from urllib.error import URLError,HTTPError
    from bs4 import BeautifulSoup
    try:
     html = urlopen("https://en.wikipedia.org/wiki/Python_(programming_language)")
    except (URLError,HTTPError) as e:
     print(e)
    try:
     bsObj = BeautifulSoup(html,"html.parser")
     content = bsObj.find("div",{"id":"mw-content-text"}).get_text()
    except AttributeError as e:
     print(e)
     
    meta = bsObj.find("meta")
    #print(bsObj)
    if meta.attrs['charset'] == 'UTF-8':
     content = bytes(content,"UTF-8")
     print("-----------------UTF-8--------------")
     print(content.decode("UTF-8"))
    if meta.attrs['charset'] == 'iso-8859-1':
     content = bytes(content,"iso-8859-1")
     print("--------------iso-8859-1------------")
     print(content.decode("iso-8859-1"))

    2.抓取CSV文档

    CSV文件是一种常见的数据存档文件,与TXT文档基本类似,但在内容组织上有一定格式,文件的首行为标题列,之后的文件中的每一行表示一个数据记录。这就像一个二维数据表或excel表格一样。 python3中包含一个csv解析库,可用于读写csv文件,但其读取目标一般要求是在本地,要读取远程网络上的csv文件需要用urllib.request.urlopen先获取。例如:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    #csv远程获取,内存加载读取
    from urllib.request import urlopen
    import csv
    from io import StringIO#在内存中读写str,如果要操作二进制数据,就需要使用BytesIO
     
    try:
     data = urlopen("http://pythonscraping.com/files/MontyPythonAlbums.csv").read().decode("ascii","ignore")
    except (URLError,HTTPError) as e:
     print("Errors: ")
     print(e)
     
    dataFile = StringIO(data)
    csvReader = csv.reader(dataFile)
    count = 0
    for row in csvReader:
     if count < 10:
      print(row)
     else:
      print("... ...")
      break
     count += 1
     
    #将数据写入本地csv文件
    with open("./localtmp.csv","wt",newline='',encoding='utf-8') as localcsvfile:
     writer = csv.writer(localcsvfile)
     count = 0
     try:
      for row in csvReader:
       if count < 10:
        writer.writerow(row)
       else:
        break
       count += 1
     finally:
      localcsvfile.close()

    csv文档的标题行(首行)需要特殊处理,csv.DictReader可以很好的解决这个问题。DictReader将读取的行转换为python字典对象,而不是列表。标题行的各列名即为字典的键名。

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    #csv.DictReader读取csv文件,可以有效处理标题行等问题
    from urllib.request import urlopen
    import csv
    from io import StringIO#在内存中读写str,如果要操作二进制数据,就需要使用BytesIO
     
    try:
     data = urlopen("http://pythonscraping.com/files/MontyPythonAlbums.csv").read().decode("ascii","ignore")
    except (URLError,HTTPError) as e:
     print("Errors: ")
     print(e)
     
    dataFile = StringIO(data)
    csvReader = csv.reader(dataFile)
    dictReader = csv.DictReader(dataFile)
    print(dictReader.fieldnames)
    count = 0
    for row in dictReader:
     if count < 10:
      print(row)
     else:
      print("... ...")
      break
     count += 1

    3.抓取PDF文档

    pdf文档的远程抓取与操作,可借助比较流行的pdfminer3k库来完成。

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    #抓取并操作pdf
    #pdf READ operation
    from urllib.request import urlopen
    from pdfminer.pdfinterp import PDFResourceManager,process_pdf
    from pdfminer.converter import TextConverter
    from pdfminer.layout import LAParams
    from io import StringIO,open
     
    def readPDF(filename):
     resmgr = PDFResourceManager()#STEP 1
     retstr = StringIO()#STEP 2
     laparams = LAParams()#STEP 3
     device = TextConverter(resmgr,retstr,laparams=laparams)#STEP 4
     
     process_pdf(resmgr,device,filename)#STEP 5
     device.close()#STEP 6
     
     content = retstr.getvalue()
     retstr.close()
     return content
     
    try:
     
    except (URLError,HTTPError) as e:
     print("Errors: ")
     print(e)
     
    outputString = readPDF(pdffile)#也可以读取由pdffile=open("../../readme.pdf")语句打开的本地文件。
    print(outputString)
    pdffile.close()

    4.抓取WORD

    老版word使用了二进制格式,后缀名为.doc,word2007后出现了与OPEN OFFICE类似的类XML格式文档,后缀名为.docx。python对word文档的支持不够,似乎没有完美解决方案。为读取docx内容,可以使用以下方法:
    (1)利用urlopen抓取远程word docx文件;
    (2)将其转换为内存字节流;
    (3)解压缩(docx是压缩后文件);
    (4)将解压后文件作为xml读取
    (5)寻找xml中的标签(正文内容)并处理

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    #读取word docx文档内容
    from zipfile import ZipFile
    from urllib.request import urlopen
    from io import BytesIO
    from bs4 import BeautifulSoup
     
    wordFile = BytesIO(wordFile)
    document = ZipFile(wordFile)#
    xml_content = document.read("word/document.xml")
    #print(xml_content.decode("utf-8"))
     
    wordObj = BeautifulSoup(xml_content.decode("utf-8"),"lxml")
    textStrings = wordObj.findAll("w:t")
    for textElem in textStrings:
     print(textElem.text)

    5.抓取EXCEL

    6.抓取HTML源文档

    7.抓取HTML表单数据

    8.抓取Javascript数据

    更多内容请参考专题《python爬取功能汇总》进行学习。

    以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持脚本之家。

  • 相关阅读:
    洛谷 P1022.计算器的改良
    洛谷 P1014.Cantor表
    洛谷 P1464.Function
    洛谷 P1426.小鱼会有危险吗
    洛谷 P2089.烤鸡
    洛谷 P1579.哥德巴赫猜想(升级版)
    洛谷 P1618.三连击(升级版)
    通过ES6写法去对Redux部分源码解读
    闲谈Hybrid
    浅谈React、Vue 部分异步
  • 原文地址:https://www.cnblogs.com/LiuYanYGZ/p/14245439.html
Copyright © 2011-2022 走看看