zoukankan      html  css  js  c++  java
  • 爬虫页面

    9.31

    爬取百度

    import urllib.request

    response=urllib.request.urlopen('http://www.baidu.com')
    print(response.read().decode('utf-8'))

    爬取

    10.1

    1. 主动提交url
      2.设置友情链接
      3.百度会和DNS服务商务合作,抓取新页面​
      爬取步骤
      1.给一个url
      2.写程序,模拟浏览器访问url
      3.解析内容,提取数据
      使用库  urllib equestss4
      解析网页  正则表达式s4xpathjsonpath
      涉及动态html   selenium+phantomjschromeheadless

    10.2

    Python 爬虫架构

    主要由五个部分组成,分别是调度器、URL管理器、网页下载器、网页解析器、应用程序。

    • 调度器:相当于一台电脑的CPU,主要负责调度URL管理器、下载器、解析器之间的协调工作。
    • URL管理器:包括待爬取的URL地址和已爬取的URL地址,防止重复抓取URL和循环抓取URL,实现URL管理器主要用三种方式,通过内存、数据库、缓存数据库来实现。
    • 网页下载器:通过传入一个URL地址来下载网页,将网页转换成一个字符串,网页下载器有urllib2(Python官方基础模块)包括需要登录、代理、和cookie,requests(第三方包)
    • 网页解析器:将一个网页字符串进行解析,可以按照我们的要求来提取出我们有用的信息,也可以根据DOM树的解析方式来解析。网页解析器有正则表达式(直观,将网页转成字符串通过模糊匹配的方式来提取有价值的信息,当文档比较复杂的时候,该方法提取数据的时候就会非常的困难)、html.parser(Python自带的)、beautifulsoup(第三方插件,可以使用Python自带的html.parser进行解析,也可以使用lxml进行解析,相对于其他几种来说要强大一些)、lxml(第三方插件,可以解析 xml 和 HTML),html.parser 和 beautifulsoup 以及 lxml 都是以 DOM 树的方式进行解析的。
    • 应用程序:就是从网页中提取的有用数据组成的一个应用。

    10.3
    scrapy框架
    scrapy-redis组建
    涉及到爬虫-反爬虫-反反爬虫的一些内容UA,代理,验证码,动态页面
    fiddler抓包工具
    1.配置    tools=>options=>https
                 选中:capture  https 
                 decrypt https   trafic
                   ignore    xxx
                点击:action  ok
    配置完成把fiddler关闭重启
    一个页面的呈现,中间有好多的http请求,平均一个网页有10-15个http请求
    抓包
    <>:html内容
    {json}:json数据,很可能就是个接口
    {css}:css文件
    {js}:js文件
    停止抓取 :   file=>copture  点击就会切换
    点击请求:右边选中 Instpectors
            右上:http请求信息
                    raw:请求头部的详细信息
                   webforns:请求所带参数,query_string
    formdata
            右下:http响应信息
                  首先点击黄色条进行解码
                  raw:响应的所有信息
                  headers:响应头
                 json:接口返回内容
            左下黑色框,输入指令
                  clear:清除所有请求
                  select json:选择所有json请求
                  select image:选择图片请求
                 select html:选择html请求
                 ?内容:搜索内容有关的请求
    10.4

      1. urllib库
        模拟浏览器发送请求的库,Pythion自带
        Python2:urllib  urllib2
        python3:urllib.request     urllib.parse
        字符串=>二进制字符串的转换
             encode()字符串=>字节类型
                  如果括号里面不写默认utf8,如果些就是gbk
             decode()字节类型=>字符串
                  如果括号里面不写默认utf8,如果些就是gbk
        ⑴urllib.request属性方法
                 urlopen
                 urlretrieve
        ⑵urlib.parse属性方法
        ⑶response属性方法
               read()读取响应内容,内容是字节类型
               geturl()获取请求的url
             getheaders()获取响应头信息,列表里面有元组
                getcode()获取状态码
            readlines()获取按行读取,还回列表,字节类型
        例子1:
        import    urllib.request
        url='http://www.baidu.com'
        #完整的url
        #url='http://www.baidu.com:80/index.html?name=123#lala
        response=urllib.request.urlopen(url=url)
        #print(response.read( ).decode())发送请求响应
        with open('baidu.html','w',encoding='utf8') as fp:
               fp.write(response.read().deconde())
        10.5
      2. 5.sublime使用
              1.安装,激活
              2.安装插件管理器
                         packagecontrol
                          安装两种方式
                             1.指令安装
                              2.下载包放在指定位置
              3.安装插件
                   输入ctrl+shift+p
                   输入pic,选中 instanll packages
                   进入输入插件名字点击就能安装
  • 相关阅读:
    tetrahedron (公式)
    Subway (树中心 + 树hash)
    包装类的Null值
    基本数据类型的范围边界
    基本数据类型的装箱和拆箱()优先使用基本数据类型
    第三章-python基础 笔记
    第二章-Python起步
    第一章-欢迎来到python世界
    第八章-连接与多张表的操作
    php错误和异常的处理方式
  • 原文地址:https://www.cnblogs.com/cui00/p/11663679.html
Copyright © 2011-2022 走看看