zoukankan      html  css  js  c++  java
  • Python爬虫入门教程 74-100 Python分布式夯实,夯实,还是**夯实

    写在前面

    对于分布式爬虫学习来说,或者对于技术学习来说,没有捷径,两条路可以走,第一自己反复练习,孰能生巧;第二看别人分享的代码反复学习别人的写法,直到自己做到。

    上篇博客相信你已经可以简单的将分布式爬虫运行起来,你可能会发现分布式爬虫是思想上的一个调整,从代码的写法上并没有过多的改变,但是要知道我们是使用scrapy-redis直接构建的分布式爬虫,相当于是站在了前辈的肩膀上去爬分布式那堵墙,不过作为了解分布式爬虫的第一步“构建”,这个里程碑我们已经实现,接下来我们要把这个里程碑砸的更夯实一些,方便后面的攀爬。

    接下来我将用3篇左右的案例,不断的重复分布式爬虫写法,直到无招。

    今天找个网站做参考,人人都是产品经理 ,声明下不好意思,学习目的,爬来的数据会及时的删除滴

    构建分布式爬虫

    创建一个scrapy爬虫工程

    scrapy.exe startproject woshipm

    通过上述命令创建一个爬虫工程,注意如果你的scrapy.exe没有配置环境变量,请通过完整的路径定位到scrapy.exe然后在执行命令

    创建一个基于CrawlSpider的爬虫文件

    D:python100venvScriptsscrapy.exe genspider -t crawl pm xxx.com

    通过上述命令创建爬虫文件的时候,一定要注意进入到爬虫工程中的spider文件夹内部,如果没有,需要拷贝一下生成的pm.py文件,粘贴到spider文件夹内部

    上述两个步骤实施完毕,现在的目录结构如下

    html>

  • 相关阅读:
    linux ---用uniq实现文件的并集和交集
    vim的.vimrc文件设置
    CURL常用命令
    快速入门系列--MVC--03控制器和IOC应用
    linux下git安装
    openerp child_of操作符深度解析
    apache2 + virtualenv +djangocms
    django-cms安装
    pycharm3.4 下svn 项目checkout&配置
    在django项目外,使用django.db链接数据库(postgres)
  • 原文地址:https://www.cnblogs.com/hzcya1995/p/13311454.html
Copyright © 2011-2022 走看看