zoukankan      html  css  js  c++  java
  • Python3爬虫--两种方法(requests(urllib)和BeautifulSoup)爬取网站pdf

    • 1、任务简介

    本次任务是爬取IJCAI(国际人工智能联合会议)最新2018年的pdf论文文件。

    本次编码用到了正则表达式从html里面提取信息,如下对正则表达式匹配规则作简要的介绍。

    • 2、正则表达式规则

    w匹配字母数字及下划线

    W匹配非字母数字及下划线

    s匹配任意空白字符,等价于 [ f].

    S匹配任意非空字符

    d匹配任意数字,等价于 [0-9]

    D匹配任意非数字

    A匹配字符串开始

    匹配字符串结束,如果是存在换行,只匹配到换行前的结束字符串

    z匹配字符串结束

    G匹配最后匹配完成的位置

    匹配一个换行符

    匹配一个制表符

    ^匹配字符串的开头

    $匹配字符串的末尾

    .匹配任意字符,除了换行符,当re.DOTALL标记被指定时,则可以匹配包括换行符的任意字符。

    [...]用来表示一组字符,单独列出:[amk] 匹配 'a','m'或'k'

    [^...]不在[]中的字符:[^abc] 匹配除了a,b,c之外的字符。

    *匹配0个或多个的表达式。

    +匹配1个或多个的表达式。

    ?匹配0个或1个由前面的正则表达式定义的片段,非贪婪方式

    {n}精确匹配n个前面表达式。

    {n, m}匹配 n 到 m 次由前面的正则表达式定义的片段,贪婪方式

    a|b匹配a或b

    ( )匹配括号内的表达式,也表示一个组

    • 3、代码实现

    第一种方法实现如下:

     1 # -*- coding: utf-8 -*-
     2 """
     3 Created on Tue Aug  7 12:32:25 2018
     4 
     5 @author: Lenovo
     6 """
     7 import urllib.request
     8 import re
     9 import os
    10 
    11 url = 'http://www.ijcai.org/proceedings/2017/'
    12 
    13 def getHtml(url):
    14     request = urllib.request.Request(url)
    15     request.add_header('User-Agent','Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36')
    16     response = urllib.request.urlopen(request)
    17     html = response.read()
    18     
    19     return html
    20 
    21 html = getHtml(url)
    22 
    23 def getPaper(html):
    24     if not os.path.exists('IJCAI_2017') : #文件夹不存在时,再进行创建
    25         os.mkdir('IJCAI_2017')
    26     os.chdir(os.path.join(os.getcwd(), 'IJCAI_2017'))
    27     
    28     reg = 'href="(d{4}.pdf)"'        #正则表达式
    29     papre = re.compile(reg)
    30     addr_list = re.findall(papre, html.decode('utf-8'))
    31     
    32     num = len(addr_list)
    33     print('论文总数:', num)
    34     
    35     m =1
    36     for paperurl in addr_list:
    37         fname = '%s.pdf' %m#论文下载名
    38         paper_url = url + paperurl#论文下载地址
    39         print(paper_url)
    40         paper = getHtml(paper_url)
    41         
    42         with open(fname, 'wb') as f:
    43            f.write(paper)
    44         
    45         m += 1
    46         
    47         print('已下载')
    48         f.close()
    49 
    50 getPaper(html)

    第二种方法实现如下:

     1 # -*- coding: utf-8 -*-
     2 """
     3 Created on Sun Aug  5 10:41:13 2018
     4 
     5 @author: Lenovo
     6 """
     7 import requests
     8 import os
     9 from bs4 import BeautifulSoup, Comment
    10 
    11 url = 'http://www.ijcai.org/proceedings/2018/'
    12 headers = {'Host' : 'www.ijcai.org', 'User-Agent' : 'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'}
    13  
    14 def find_paper():
    15     html = requests.get(url, headers = headers).content
    16     s = BeautifulSoup(html, 'lxml') 
    17     
    18     #要爬取的信息在页面解析后的注释内,获取注释内容,结果返回所有注释列表
    19     comments = s.find_all(text=lambda text:isinstance(text, Comment))
    20     
    21     #论文信息为comments[2],再次使用beautifulsoup解析
    22     soup = BeautifulSoup(comments[2], 'lxml')
    23     
    24     titles = soup.find_all("div", class_ = "title")#由于class是关键字所以加一个'_'
    25     details = soup.find_all("div", class_ = "details")
    26     
    27     return titles, details
    28 
    29 titles, details = find_paper()
    30 
    31 def download_paper():
    32     if not os.path.exists('IJCAI_2018') : #文件夹不存在时,再进行创建
    33         os.mkdir('IJCAI_2018')
    34     os.chdir(os.path.join(os.getcwd(), 'IJCAI_2018'))#os.path.join(path1[, path2[, ...]])  将多个路径组合后返回,第一个绝对路径之前的参数将被忽略,os.getcwd()获取当前工作目录,即当前python脚本工作的目录路径,os.chdir("dirname")  改变当前脚本工作目录;相当于shell下cd
    35     
    36     num = len(titles)
    37     print('论文总数:', num)
    38         
    39     for i in range(num):
    40         detail = details[i]
    41         
    42         fname = detail.contents[1].get('href')#论文下载名
    43         deatil_url = url + fname#论文下载地址
    44         
    45         print(deatil_url)
    46         r = requests.get(deatil_url)
    47         
    48         with open(fname, 'wb') as f:
    49            f.write(r.content)
    50         
    51         print('已下载:', titles[i].string)
    52         f.close()
    53 
    54 if __name__ == '__main__':
    55     download_paper()

    4、运行结果

    2018年总共870篇结果如下:

  • 相关阅读:
    Android Bundle存储数据类型
    半监督学习(一)
    【读书笔记】Flickr 网站用户标签的质量控制对策
    [算法][LeetCode]Spiral Matrix
    SQL Server 损坏修复 之一 常见错误解读
    如何解决 SQL Server 中的锁升级所致的阻塞问题
    SQL with(unlock)与with(readpast) (转)
    SQL锁(转)
    无法执行 varchar 值到 varchar 的隐式转换,原因是,由于排序规则冲突,该值的排序规则未经解析。
    Java 内存回收机制——GC机制
  • 原文地址:https://www.cnblogs.com/Jm-15/p/9437296.html
Copyright © 2011-2022 走看看