Url管理器:
用来管理要抓取的url和已抓取的url,防止重复抓取和循环抓取,url管理器的五个最小功能:
1、添加url到容器中
2、获取一个url
3、判断url是否已在容器中
4、判断是否还有待爬取的url
5、将待爬取的url移到已爬取的url
网页下载器:
网页下载器是爬虫的核心组件,它将url对应的互联网网页已html的形式保存在本地。目前有两种网页下载器,1:urllib2(python基础模块) 2:requests(第三库)
urllib2三种下载网页的方法:
1、简单方式下载
2、添加data和http header
3、添加特殊场景的处理器
import http.cookiejar
import urllib.request
url = "http://www.baidu.com"
print("one")
response1 = urllib.request.urlopen(url)
print(response1.getcode())
print (len(response1.read()))
print("two")
request = urllib.request.Request(url)
request.add_header("user-agent","Mozilla/5.0")
response2 = urllib.request.urlopen(request)
print(response2.getcode())
print (len(response2.read()))
print("three")
cj = http.cookiejar.CookieJar()
opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor(cj))
urllib.request.install_opener(opener)
response3 = urllib.request.urlopen(url)
print(response3.getcode())
print(response3.read())
网页解析器:
从网页中提取有价值数据的工具,常用的网页解析器有以下三种,1、正则表达式,2、html.parser(自带的模块),3、beautiful Soup(第三方的插件),4、lxml;前面一种是基于字符串的解析,后面的三种是基于一种机构化的解析(DOM)。
response1 = urllib.request.urlopen(url)
print(response1.getcode())
print (len(response1.read()))