zoukankan      html  css  js  c++  java
  • 正则爬虫案例

    #coding:utf-8
    
    import requests
    import re
    import json
    
    url='https://movie.douban.com/top250?start=0&filter=' #豆瓣网
    
    def get_page(url):
      #获取网页上的数据 response_html
    =requests.get(url) #response_html.encoding = response_html.apparent_encoding return response_html.text def run(url): response=get_page(url)
      #编译匹配规则,找出用的数据 obj
    =re.compile('<div class="item">.*?<em.*?>(?P<id>d+)</em>.*?<span class="title">(?P<title>.*?)</span>.*?<p .*?>(?P<info>.*?)</p>.*?<span class="rating_num" .*?>(?P<rating>.*?)</span>.*?<span>(?P<appraise>w+)</span>',re.S) res=obj.finditer(response) file={} for i in res: file[i.group('id')]=(i.group('title'),i.group('rating'),i.group('appraise')) # print(file)
         #将有用的信息转成json格式,以字典的格式储存到文件中
         content=json.dumps(file,ensure_ascii=False) f = open('doubian.txt', 'a') f.seek(0,2) f.write(content+' ') file={} i=0 while i < 251:
    #循环取出所有网页里的内容(根据网页不同进行更改) a
    =i run(url) i+=25 url=re.sub('start=d+','start='+str(i),url) print(url)
  • 相关阅读:
    Java 线程之间的通讯,等待唤醒机制
    Java 死锁以及死锁的产生
    2018Java开发面经(持续更新)
    OpenFlow1.3协议wireshark抓包分析
    SDN核心技术剖析和实战指南---读书笔记
    Kafka常用命令
    安装kafka+zk-ui
    flink窗口
    flink架构原理
    安装Flink集群
  • 原文地址:https://www.cnblogs.com/mona524/p/7096190.html
Copyright © 2011-2022 走看看