zoukankan      html  css  js  c++  java
  • python爬虫抓站的一些技巧总结

    使用python爬虫抓站的一些技巧总结:进阶篇
    一、gzip/deflate支持
    现在的网页普遍支持gzip压缩,这往往可以解决大量传输时间,以VeryCD的主页为例,未压缩版本247K,压缩了以后45K,为原来的1/5。这就意味着抓取速度会快5倍。
    然而python的urllib/urllib2默认都不支持压缩,要返回压缩格式,必须在request的header里面写明’accept-encoding’,然后读取response后更要检查header查看是否有’content-encoding’一项来判断是否需要解码,很繁琐琐碎。如何让urllib2自动支持gzip, defalte呢?
    其实可以继承BaseHanlder类,然后build_opener的方式来处理:

    import urllib2
    from gzip import GzipFile
    from StringIO import StringIO
    class ContentEncodingProcessor(urllib2.BaseHandler):
      """A handler to add gzip capabilities to urllib2 requests """
      
      # add headers to requests
      def http_request(self, req):
        req.add_header("Accept-Encoding", "gzip, deflate")
        return req
      
      # decode
      def http_response(self, req, resp):
        old_resp = resp
        # gzip
        if resp.headers.get("content-encoding") == "gzip":
            gz = GzipFile(
                        fileobj=StringIO(resp.read()),
                        mode="r"
                      )
            resp = urllib2.addinfourl(gz, old_resp.headers, old_resp.url, old_resp.code)
            resp.msg = old_resp.msg
        # deflate
        if resp.headers.get("content-encoding") == "deflate":
            gz = StringIO( deflate(resp.read()) )
            resp = urllib2.addinfourl(gz, old_resp.headers, old_resp.url, old_resp.code)  # 'class to add info() and
            resp.msg = old_resp.msg
        return resp
      
    # deflate support
    import zlib
    def deflate(data):   # zlib only provides the zlib compress format, not the deflate format;
      try:               # so on top of all there's this workaround:
        return zlib.decompress(data, -zlib.MAX_WBITS)
      except zlib.error:
        return zlib.decompress(data)
    然后就简单了,
    encoding_support = ContentEncodingProcessor
    opener = urllib2.build_opener( encoding_support, urllib2.HTTPHandler )
      
    #直接用opener打开网页,如果服务器支持gzip/defalte则自动解压缩
    content = opener.open(url).read()



    二、更方便地多线程
    总结一文的确提及了一个简单的多线程模板,但是那个东东真正应用到程序里面去只会让程序变得支离破碎,不堪入目。在怎么更方便地进行多线程方面我也动了一番脑筋。先想想怎么进行多线程调用最方便呢?
    1、用twisted进行异步I/O抓取
    事实上更高效的抓取并非一定要用多线程,也可以使用异步I/O法:直接用twisted的getPage方法,然后分别加上异步I/O结束时的callback和errback方法即可。例如可以这么干:

    from twisted.web.client import getPage
    from twisted.internet import reactor
      
    links = [ 'http://www.verycd.com/topics/%d/'%i for i in range(5420,5430) ]
      
    def parse_page(data,url):
        print len(data),url
      
    def fetch_error(error,url):
        print error.getErrorMessage(),url
      
    # 批量抓取链接
    for url in links:
        getPage(url,timeout=5) 
            .addCallback(parse_page,url)  #成功则调用parse_page方法
            .addErrback(fetch_error,url)     #失败则调用fetch_error方法
      
    reactor.callLater(5, reactor.stop) #5秒钟后通知reactor结束程序
    reactor.run()

    twisted人如其名,写的代码实在是太扭曲了,非正常人所能接受,虽然这个简单的例子看上去还好;每次写twisted的程序整个人都扭曲了,累得不得了,文档等于没有,必须得看源码才知道怎么整,唉不提了。
    如果要支持gzip/deflate,甚至做一些登陆的扩展,就得为twisted写个新的HTTPClientFactory类诸如此类,我这眉头真是大皱,遂放弃。有毅力者请自行尝试。
    这篇讲怎么用twisted来进行批量网址处理的文章不错,由浅入深,深入浅出,可以一看。
    2、设计一个简单的多线程抓取类
    还是觉得在urllib之类python“本土”的东东里面折腾起来更舒服。试想一下,如果有个Fetcher类,你可以这么调用

    f = Fetcher(threads=10) #设定下载线程数为10
    for url in urls:
        f.push(url)  #把所有url推入下载队列
    while f.taskleft(): #若还有未完成下载的线程
        content = f.pop()  #从下载完成队列中取出结果
        do_with(content) # 处理content内容

    这么个多线程调用简单明了,那么就这么设计吧,首先要有两个队列,用Queue搞定,多线程的基本架构也和“技巧总结”一文类似,push方法和pop方法都比较好处理,都是直接用Queue的方法,taskleft则是如果有“正在运行的任务”或者”队列中的任务”则为是,也好办,于是代码如下:

    import urllib2
    from threading import Thread,Lock
    from Queue import Queue
    import time
      
    class Fetcher:
        def __init__(self,threads):
            self.opener = urllib2.build_opener(urllib2.HTTPHandler)
            self.lock = Lock() #线程锁
            self.q_req = Queue() #任务队列
            self.q_ans = Queue() #完成队列
            self.threads = threads
            for i in range(threads):
                t = Thread(target=self.threadget)
                t.setDaemon(True)
                t.start()
            self.running = 0
      
        def __del__(self): #解构时需等待两个队列完成
            time.sleep(0.5)
            self.q_req.join()
            self.q_ans.join()
      
        def taskleft(self):
            return self.q_req.qsize()+self.q_ans.qsize()+self.running
      
        def push(self,req):
            self.q_req.put(req)
      
        def pop(self):
            return self.q_ans.get()
      
        def threadget(self):
            while True:
                req = self.q_req.get()
                with self.lock: #要保证该操作的原子性,进入critical area
                    self.running += 1
                try:
                    ans = self.opener.open(req).read()
                except Exception, what:
                    ans = ''
                    print what
                self.q_ans.put((req,ans))
                with self.lock:
                    self.running -= 1
                self.q_req.task_done()
                time.sleep(0.1) # don't spam
      
    if __name__ == "__main__":
        links = [ 'http://www.verycd.com/topics/%d/'%i for i in range(5420,5430) ]
        f = Fetcher(threads=10)
        for url in links:
            f.push(url)
        while f.taskleft():
            url,content = f.pop()
            print url,len(content)



    三、一些琐碎的经验1、连接池:
    opener.open和urllib2.urlopen一样,都会新建一个http请求。通常情况下这不是什么问题,因为线性环境下,一秒钟可能也就新生成一个请求;然而在多线程环境下,每秒钟可以是几十上百个请求,这么干只要几分钟,正常的有理智的服务器一定会封禁你的。
    然而在正常的html请求时,保持同时和服务器几十个连接又是很正常的一件事,所以完全可以手动维护一个HttpConnection的池,然后每次抓取时从连接池里面选连接进行连接即可。
    这里有一个取巧的方法,就是利用squid做代理服务器来进行抓取,则squid会自动为你维护连接池,还附带数据缓存功能,而且squid本来就是我每个服务器上面必装的东东,何必再自找麻烦写连接池呢。
    2、设定线程的栈大小
    栈大小的设定将非常显著地影响python的内存占用,python多线程不设置这个值会导致程序占用大量内存,这对openvz的vps来说非常致命。stack_size必须大于32768,实际上应该总要32768*2以上
    from threading import stack_sizestack_size(32768*16)3、设置失败后自动重试

    def get(self,req,retries=3):[/size][/font][font=微软雅黑][size=2]        try:
                response = self.opener.open(req)
                data = response.read()
            except Exception , what:
                print what,req
                if retries>0:
                    return self.get(req,retries-1)
                else:
                    print 'GET Failed',req
                    return ''
            return data

    4、设置超时 import socket socket.setdefaulttimeout(10) #设置10秒后连接超时5、登陆
    登陆更加简化了,首先build_opener中要加入cookie支持,参考“总结”一文;如要登陆VeryCD,给Fetcher新增一个空方法login,并在__init__()中调用,然后继承Fetcher类并override login方法:
     

    def login(self,username,password):
        import urllib
        data=urllib.urlencode({'username':username,
                               'password':password,
                               'continue':'http://www.verycd.com/',
                               'login_submit':u'登录'.encode('utf-8'),
                               'save_cookie':1,})
        url = 'http://www.verycd.com/signin'
        self.opener.open(url,data).read()

    于是在Fetcher初始化时便会自动登录VeryCD网站。

    四、总结
    如此,把上述所有小技巧都糅合起来就和我目前的私藏最终版的Fetcher类相差不远了,它支持多线程,gzip/deflate压缩,超时设置,自动重试,设置栈大小,自动登录等功能;代码简单,使用方便,性能也不俗,可谓居家旅行,杀人放火,咳咳,之必备工具。
    之所以说和最终版差得不远,是因为最终版还有一个保留功能“马甲术”:多代理自动选择。看起来好像仅仅是一个random.choice的区别,其实包含了代理获取,代理验证,代理测速等诸多环节,这就是另一个故事了。

  • 相关阅读:
    PAT (Advanced Level) Practice 1100 Mars Numbers (20分)
    PAT (Advanced Level) Practice 1107 Social Clusters (30分) (并查集)
    PAT (Advanced Level) Practice 1105 Spiral Matrix (25分)
    PAT (Advanced Level) Practice 1104 Sum of Number Segments (20分)
    PAT (Advanced Level) Practice 1111 Online Map (30分) (两次迪杰斯特拉混合)
    PAT (Advanced Level) Practice 1110 Complete Binary Tree (25分) (完全二叉树的判断+分享致命婴幼儿错误)
    PAT (Advanced Level) Practice 1109 Group Photo (25分)
    PAT (Advanced Level) Practice 1108 Finding Average (20分)
    P6225 [eJOI2019]异或橙子 树状数组 异或 位运算
    P4124 [CQOI2016]手机号码 数位DP
  • 原文地址:https://www.cnblogs.com/timssd/p/5167314.html
Copyright © 2011-2022 走看看