zoukankan      html  css  js  c++  java
  • 爬虫的基本流程

    爬虫的基本流程

    1.发送请求
    使用http库向目标站点发起请求,即发送一个Request
    Request包含:请求头、请求体、路由等
    
    2.获取响应内容
    如果服务器能正常响应,则会得到一个Response
    包含:html页面,json,图片
    
    
    3.解析内容
    解析html数据:正则表达式,第三方解析库如bs4
    解析json数据:json模块
    解析二进制数据:以b的方式写入文件
    
    4.保存数据
    数据库
    文件

    Request请求

    1.请求方式
    常用的请求方式:GET,POST
    其他请求方式:HEAD,PUT,DELETE,OPTHONS
    
    注意:post和get请求最终都会拼接成这种形式:k1=xxx&k2=yyy
    post请求的参数放在请求体内: (参数可以放在data中传递)
        可用浏览器查看,存放于form data内
    get请求的参数直接放在url后面 (把参数放在params中传递)
    
    2.请求头
        User-agent:请求头中没有user-agent客户端配置,服务端可能将你作为一个非法用户
        host
        cookies:cookie用来保存登录信息
    
    一般做爬虫都会带上请求头
    
    3.请求体
        如果是get方式,请求体没有内容
        如果是post方式,请求体是form data,通过浏览器查看

    注意:

    1.登录窗口,文件上传等信息都会附加到请求体内

    2.登录,输入错误的用户密码,然后提交,就可以看到post,正确登录后页面通常会跳转,无法捕捉到post

    Request源码中显示的可以设置的参数

     Response响应

    1.响应状态码
        200:代表成功
        301:代表跳转
        404:文件不存在
        403:权限
        502:服务器错误
    
    2.Response header
        set-cookie:可能有多个,是来告诉浏览器,把cookie保存下来
    
    3、preview就是网页源代码
        最主要的部分,包含了请求资源的内容
        如网页html,图片
        二进制数据等

    总结

    1.总结爬虫流程:
        爬取--->解析--->存储
    
    2.爬虫所需工具
        请求库:request,selenium
        解析库:正则,beautifulsoup,pyquery
        存储库:文件,MySQL,Mongodb,Redis
    
    3.爬虫常用框架:scrapy
  • 相关阅读:
    IO流
    集合中的工具类Collections和Arrays
    排序 查找
    函数及数组
    变量、静态的和单例模式
    java流程控制
    configure使用
    --sysroot
    LD_PRELOAD
    Linux下内存检测工具:asan :编译-连接-运行选项
  • 原文地址:https://www.cnblogs.com/wangcuican/p/11927980.html
Copyright © 2011-2022 走看看