zoukankan      html  css  js  c++  java
  • 实现PageProcessor

    4.1 实现PageProcessor

    这部分我们直接通过GithubRepoPageProcessor这个例子来介绍PageProcessor的编写方式。我将PageProcessor的定制分为三个部分,分别是爬虫的配置、页面元素的抽取和链接的发现。

    public class GithubRepoPageProcessor implements PageProcessor {

     

        // 部分一:抓取网站的相关配置,包括编码、抓取间隔、重试次数等

        private Site site = Site.me().setRetryTimes(3).setSleepTime(1000);

     

        @Override

        // process是定制爬虫逻辑的核心接口,在这里编写抽取逻辑

        public void process(Page page) {

            // 部分二:定义如何抽取页面信息,并保存下来

            page.putField("author", page.getUrl().regex("https://github\.com/(\w+)/.*").toString());

            page.putField("name", page.getHtml().xpath("//h1[@class='entry-title public']/strong/a/text()").toString());

            if (page.getResultItems().get("name") == null) {

                //skip this page

                page.setSkip(true);

            }

            page.putField("readme", page.getHtml().xpath("//div[@id='readme']/tidyText()"));

     

            // 部分三:从页面发现后续的url地址来抓取

            page.addTargetRequests(page.getHtml().links().regex("(https://github\.com/\w+/\w+)").all());

        }

     

        @Override

        public Site getSite() {

            return site;

        }

     

        public static void main(String[] args) {

     

            Spider.create(new GithubRepoPageProcessor())

                    //从"https://github.com/code4craft"开始抓

                    .addUrl("https://github.com/code4craft")

                    //开启5个线程抓取

                    .thread(5)

                    //启动爬虫

                    .run();

        }

    }

  • 相关阅读:
    Linux libcurl使用 (收藏)
    公钥和私钥与认证和签名
    fedora下配置ipv6 dns服务器
    SHA1
    linux IP 命令
    SSL/TLS协议簇加解密流程
    MD5算法实现原理
    container_of深入理解
    diff和patch使用指南
    oracle 笔记
  • 原文地址:https://www.cnblogs.com/cnblog-long/p/5376495.html
Copyright © 2011-2022 走看看