zoukankan      html  css  js  c++  java
  • 爬取任意两个用户在豆瓣上标记的想读的图书信息的交集

    一.实验背景

    爬取豆瓣上任意两个用户标记的想读的图书信息的交集。

    二.爬虫的步骤

    首先获取目标用户在豆瓣上标记的想读的图书的首页的url,见下图。

    将要爬取的目标用户想读的图书的首页的url存储在元组中。通过urllib.request方法构造一个发送请求,在通过urllib.urlopen方法发出请求并取得响应(response)。通过response.read得到页面html,然后在通过beautifulsoup将html解析成beautiful结构soup。通过soup中的一系列方法得到每本图书的url存到set中,将此url和其余的信息存到一个dict中。

    通过判断在当前页是否还有下一页存在(通过页面的标识寻找),如果存在就继续遍历,直至结束。然后通过set中的”与“运算符得到共同想读的书的url,存储在一个新的set中,如果此set的元素的长度为0,则说明两人没有共同想读的图书,如果不为0,则遍历这些url,然后在dict中找到与之对应的图书的具体信息。然后通过xlwt将图书的信息写在excel中保存。

    上图是我在豆瓣上标记的一本图书的具体信息。

    在构造请求时遇到了发起请求后,服务器返回403。它表示服务器理解了客户的请求,但拒绝处理它。解决的办法是在请求的头部添加refer,refer来自通过浏览器访问目标页面时,通过f12在浏览器中找到的。其目的是模拟通过浏览器访问目标页面来爬取数据。有时候在爬取页面的信息时,需要暂停几毫秒,爬的过于频繁,会被服务器端监测到。

    三.运行结果

    上图是程序运行后生成的excel文件,其中包括标题,作者,出版社等信息。

    四.爬虫原理图

     在我的程序中,首先将用户标记的图书的首页作为种子url,然后将此url作为参数向豆瓣服务器发起请求,返回首页的网页,从中获取此页所有的图书信息,再从此网页中解析出待抓取的url,继续将待抓取的url作为参数发起请求,重复上述步骤,遍历到最后一个待抓取的url(最后一页的url)终止。

    代码已上传至github,github地址:https://github.com/041240515lq/python_spider

  • 相关阅读:
    CareerCup Questions List 职业杯题目列表
    [CareerCup] Guards in a museum 博物馆的警卫
    [LeetCode] 7. Reverse Integer 翻转整数
    Python笔记11------一个K-means聚类的小例子
    python笔记10-----便捷网络数据NLTK语料库
    Python笔记9-----不等长列表转化成DataFrame
    Python笔记8----DataFrame(二维)
    Python笔记7----Pandas中变长字典Series
    Python笔记6----数组
    Python笔记5----集合set
  • 原文地址:https://www.cnblogs.com/liquan/p/9020042.html
Copyright © 2011-2022 走看看