zoukankan      html  css  js  c++  java
  • 学习笔记(爬虫):爬取百度贴吧,美女吧图片

    1、摘要

    目的:爬虫项目学习,使用requests方法,爬取百度贴吧美女吧每个帖子的图片,并保存到本地中。

    方法:首先,通过requests请求美女吧网页内容;其次,通过xpath方法清洗数据,获取到每个帖子的url地址;再次,请求每个帖子的地址,并从每个帖子地址中爬取图片链接;最后,请求图片数据,以二进制格式保存数据到本地。

    2、网页分析

    如下图所示,为本次爬取的目标网站,百度美女吧,需求:爬取每个帖子中的图片,并保存到本地。爬取该网站首先需要对该网站的特点进行分析,需要分析的内容包含:网站页面的特点、帖子url地址特点、图片链接地址如何获取。下面我一一介绍这几点需要分析的内容:

     2.1 美女吧网页特点

    美女吧:https://tieba.baidu.com/f?kw=%E7%BE%8E%E5%A5%B3&ie=utf-8&pn=0

    通过观察可以看出:kw是搜索内容,pn是页码,第一页为0,第二页为50,所以页码的公式为pn=(页数-1)*50。

    2.2 帖子url地址特点

    通过右键—检查,可以查看网页源码信息,从中我们可以定位到每一条帖子的代码,如下图所示:

     可以看到,点击“我真的太漂亮”帖子,定位到该条代码,由此可见帖子的url地址就在这条代码里;然后点击href = p/6593341944,发现跳转到帖子“我真的太漂亮”里,并且此时的url地址为:https://tieba.baidu.com/p/6593341944,于是可以发现,帖子的地址主要由两部分组成:https://tieba.baidu.com/+href的内容。于是我们只需要将href =  p/6593341944内容爬取下来,然后拼接,就能得到每一条帖子的地址。

    通过xpath_help工具,写入://div[@class="threadlist_title pull_left j_th_tit "]/a/@href,得到每一条url地址的一部分。

    2.3 获取帖子的图片链接

    获取到每一条帖子的链接,也通过类似操作,查找帖子内图片的链接地址,如下图定位到图片的链接

     如法炮制,通过xpath_help匹配图片链接,代码为://img[@class="BDE_Image"]/@src

     3、程序代码:

    # -*- coding: utf-8 -*-
    import requests
    from lxml import etree
    import os
    #爬虫
    class BtcSpider(object):
        def __init__(self):
            #爬取美女吧图片
            #解析:美女吧url地址,pn值决定页数,pn =0 ,表示第一页,pn = 50 表示第二页……
            self.url = 'https://tieba.baidu.com/f?kw=%E7%BE%8E%E5%A5%B3&ie=utf-8&pn={}'
            self.headers = {
            'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.11 (KHTML, like Gecko) Chrome/23.0.1271.64 Safari/537.11',
            }
            os.makedirs('美女吧图片',exist_ok=True)
            self.dir = '美女吧图片\'
        #发送请求
        def get_response(self,url):
            response = requests.get(url,headers = self.headers)
            data = response.text
            return data
        #发送请求获取网页数据,数据读取方式为二进制content形式
        def get_data(self,url):
            data  = requests.get(url,headers = self.headers).content
            return data
        #解析数据,封装xpath
        def get_xpath(self,html,pattern):
            #构建树
            p = etree.HTML(html)
            #解析网页内容,获取url_lists
            result = p.xpath(pattern)
            return result
        #下载图片&
        def download_src(self,url):
            html = self.get_response(url)
            html = html.replace("<!--", "")
            pattern1 = '//div[@class="threadlist_title pull_left j_th_tit "]/a/@href'
            #获取每个帖子的url地址
            url_lists = self.get_xpath(html,pattern1)
            base_url = "http://tieba.baidu.com/"
            true_lists = []
            for i in url_lists:
                #帖子完整的url地址
                tie_url = "http://tieba.baidu.com" + i
                tie_html = self.get_response(tie_url)
                pattern2 = '//img[@class="BDE_Image"]/@src'
                img_lists = self.get_xpath(tie_html,pattern2)
                #下载图片
                self.save_data(img_lists)
    
        #保存数据
        def save_data(self,url_lists):
            for url in url_lists:
                img_data = self.get_data(url)
                file_name = url[-10:]
                print('正在下载图片:',file_name)
                file_path = self.dir+file_name
                with open(file_path,'wb')as f:
                    f.write(img_data)
        def run(self):
            begin = int(input("请输入起始页:"))
            end = int(input("请输入终止页:"))
            #设置需要爬取的页数
            for i in range(begin,end):
                i = (i-1)*50
                url = self.url.format(i)
                #下载数据
                self.download_src(url)
    if __name__ == "__main__":
        spider = BtcSpider()
        spider.run()

    结果展示:

  • 相关阅读:
    前台开发——处理用户密码登录的修改功能
    前台开发——处理用户收货信息的修改
    Max Sum -- hdu -- 1003
    (深搜)Oil Deposits -- hdu -- 1241
    (博弈 sg入门2)
    (博弈 sg入门)kiki's game -- hdu -- 2147
    (巴什博弈 sg函数入门1) Brave Game -- hdu -- 1846
    (全排列)Ignatius and the Princess II -- HDU -- 1027
    (模拟)Arithmetic Sequence -- HDU -- 5400
    (字符串 键盘转换)Convert QWERTY to Dvorak -- zoj -- 5526
  • 原文地址:https://www.cnblogs.com/maxxu11/p/12626007.html
Copyright © 2011-2022 走看看