zoukankan      html  css  js  c++  java
  • Python爬虫入门教程 18-100 煎蛋网XXOO图片抓取

    写在前面

    很高兴我这系列的文章写道第18篇了,今天写一个爬虫爱好者特别喜欢的网站煎蛋网http://jandan.net/ooxx,这个网站其实还是有点意思的,网站很多人写了N多的教程了,各种方式的都有,当然网站本身在爬虫爱好者的不断进攻下,也在不断的完善,反爬措施也很多,今天我用selenium在揍他一波。

    在这里插入图片描述

    整体看上去,煎蛋网的妹子图质量还是可以的,不是很多,但是还蛮有味道的,这可能也是爬虫er,一批一批的奔赴上去的原因。

    1. 网站分析

    这个网站如果用 selenium 爬取,其实也没什么要分析的,模拟访问就行,导入必备的模块。

    from selenium import webdriver
    from selenium.webdriver.common.by import By
    from selenium.webdriver.support.ui import WebDriverWait
    from selenium.webdriver.support import expected_conditions as EC
    from lxml import etree
    import requests
    
    import time
    

    我使用的是PhantomJS 去加载浏览器,关于这个PhantomJS,去互联网搜索一下吧,资料大把,会看的很爽的,总之呢,它可以模拟一个真实的浏览器做任何事情,得到你想要的数据。

    browser = webdriver.PhantomJS()
    browser.set_window_size(1366, 768)  # 这个地方需要设置一下浏览器的尺寸
    wait = WebDriverWait(browser,10)
    browser.get("http://jandan.net/ooxx")
    
    

    2. 分析数据

    程序获取到数据之后就可以对数据进行处理了,编写一个get_content函数,用来处理网页源码。

    def get_content():
    
        try:
    
            wait.until(
                EC.presence_of_element_located((By.XPATH,'//*[@id="comments"]/ol'))
            )
            #
            print("正在爬取{}".format(browser.current_url))
            page_source = browser.page_source  # 获取网页源码
            html = etree.HTML(page_source)  # 解析源码
            imgs = html.xpath("//li[contains(@id,'comment')]//img/@src")  # 匹配图片
            download(imgs)
    
        except Exception as e:
            print("错误")
            print(e)
        finally:
            browser.close()
    

    图片获取到之后,在上面的代码中,注意有一个地方调用了一个 download函数,这个函数就是用来下载图片的

    
    def download(imgs):
        path = "./xxoo/{}"  # 路径我写死了
        for img in imgs:
            try:
                res = requests.get(img)
                content = res.content
            except Exception as e:
                print(e)
                continue
    
            file_name = img.split("/")[-1] # 获取文件名
    
            with open(path.format(file_name),"wb") as f:
                f.write(content)
                print(file_name,"成功下载文件")
                time.sleep(0.3)
    
        # 循环下载完毕,进行翻页操作 previous-comment-page
        next = wait.until(
            EC.presence_of_element_located((By.XPATH, '//*[@id="comments"]//a[@class="previous-comment-page"]'))
        )
        next.click()
        return get_content()  # 继续调用上面的网页源码分析流程
    
    

    OK,运行一下。

    在这里插入图片描述

  • 相关阅读:
    Spring Cloud是什么
    IDEA中常用的10款插件
    Spring Boot自动配置原理分析
    Spring Security自定义授权管理
    Docker常用命令
    pycharm设置开启时不直接打开最后关闭的项目
    django.db.migrations.exceptions.NodeNotFoundError: Migration users.0001_initial dependencies reference nonexistent parent node ('auth', '0009_auto_20200720_0228')
    使用anaconda创建虚拟环境
    windows安装rabbitmq
    docker安装并配置RabbitMQ
  • 原文地址:https://www.cnblogs.com/happymeng/p/10220923.html
Copyright © 2011-2022 走看看