一、Scrapy 安装
#Windows安装 pip3 install wheel pip3 install lxml pip3 install pyopenssl pip3 install pywin32#下载并安装pywin32:https://sourceforge.net/projects/pywin32/files/pywin32/ pip3 install scrapy #Linux安装 pip3 install scrapy
二、Scrapy命令介绍
startproject #创建项目 genspider #创建爬虫程序 settings #如果是在项目目录下,则得到的是该项目的配置 runspider #运行一个独立的python文件,不必创建项目 shell #scrapy shell url地址 在交互式调试,如选择器规则正确与否 fetch #独立于程单纯地爬取一个页面,可以拿到请求头 view #下载完毕后直接弹出浏览器,以此可以分辨出哪些数据是ajax请求 version #scrapy version 查看scrapy的版本,scrapy version -v查看scrapy依赖库的版本 Project-only commands: crawl #运行爬虫,必须创建项目才行,确保配置文件中ROBOTSTXT_OBEY = False check #检测项目中有无语法错误 list #列出项目中所包含的爬虫名 edit #编辑器 parse #scrapy parse url地址 --callback 回调函数 #以此可以验证我们的回调函数是否正确 bench #scrapy bentch压力测试
三、创建项目
scrapy startproject mytest #创建项目mytest cd mytest #进入项目目录 scrapy genspider douban.com www.douban.com #创建一个豆瓣的爬虫程序 <C:Users80426mytestmytest>scrapy runspider spiders/douban_com.py #执行爬虫程序 scrapy settings --get BOT_NAME #获取配置文件信息 scrapy fetch --nolog http://www.xiaohua.com #获取响应内容(类似curl命令 scrapy fetch --nolog --headers http://www.xiaohua.com #获取响应的请求头 scrapy list #所有的爬虫名 scrapy check #检测爬虫有没有错误 scrapy shell https://www.baidu.com #直接对目标站点发请求 scrapy bench #压力测试(速度较慢)