zoukankan      html  css  js  c++  java
  • splash官方文档解读(翻译)

    安装

    splash是一个类似于selenium的自动化浏览器,不过它与selenium还是有很大区别的:比如splash是异步的,splash暴露httpAPI来自动化操作。

    安装很简单,需要先安装docker,然后拉取镜像:
    sudo docker pull scrapinghub/splash
    启动splash:
    sudo docker run -it -p 8050:8050 --rm scrapinghub/splash
    另外,还可以把容器内的目录映射到本地,这样保证了数据的持久化,否则下次启动一个新的容器配置都变了,容器内有四个主要目录:

    • /etc/splash/filters:存放过滤器的文件夹
    • /etc/splash/proxy-profiles:存放代理配置的文件夹
    • /etc/splash/js-profiles:存放js脚本的文件夹
    • /etc/splash/lua_modules:存放lua脚本的文件夹

    映射到本地的命令是(-v就表示映射文件夹),其他类似:
    docker run -p 8050:8050 -v 本地绝对路径:/etc/splash/filters scrapinghub/splash

    Splash HTTP API

    我们可以通过发送某种HTTP请求来使splash执行相应的操作,举个例子:
    我们在浏览器输入127.0.0.1:8050/render.html?url=https://www.baidu.com这样你就可以让splash访问百度了,浏览器显示的内容就是splash返回的内容。但这有什么用呢?注意splash返回的是已经经过js渲染的页面,也就是说它可以加载动态页面,明白有什么用了吧。

    splash 的httpapi既支持get也支持post,其中的一些参数可以作为get的参数发送,也可以作为post的内容发送(注意格式为json,而且请求头建议加入Content-Type: application/json)

    render.html

    返回渲染后页面的HTML
    参数如下:

    • url:字符串,要访问的URL

    • baseurl:如果页面中某些资源包含相对URL,需要使用这个参数来填充前面那部分。

    • timeout:浮点数,超时时间

    • resource_timeout :单个请求的超时时间,注意既然是会渲染页面,说明splash访问URL肯定不是一次请求,其中还包含很多ajax、js和图片的加载。

    • wait:页面加载后的等待时间,一般情况下都会指定一个较小的值(0.5)来防止一些不必要的异常

    • proxy:代理,格式为[protocol://][user:password@]proxyhost[:port],protocol可以是http,也可以是socks5

    • js:需要执行js配置文件名称,也就是/etc/splash/js-profiles目录下的文件名称

    • js_source :需要执行的js代码

    • filters:/etc/splash/filters存放的过滤器的文件名称,支持多个以逗号分隔。

    • allowed_domains:允许访问的域名列表(以逗号分隔)

    • allowed_content_types: 允许加载的内容类型列表,支持* 、?、[]、[!]四种通配符语法,具体参考fnmatch

    • forbidden_content_types:禁止加载的内容类型,我试了一下这两个参数没效果,难道是姿势不对。

    • viewport :网页大小,格式为1024x768(默认)

    • images:是否下载图片。因为有缓存,所以返回的截图可能也是加载了图片的,只是加载的本地缓存而不是请求互联网。

    • headers:为第一个传出的请求设置的请求头,仅post方法支持该参数

    • body:如果目标请求是POST,该参数是POST请求正文

    • http_method:请求方法,默认GET

    • save_args:要放入缓存的参数名称列表,会在响应头中返回X-Splash-Saved-Arguments: name1=9a6747fc6259aa374ab4e1bb03074b6ec672cf99;name2=ba001160ef96fe2a3f938fea9e6762e204a562b3类似这样的内容,下次请求可以通过load_args传递相同的请求头来加载。一般用不上,js_source或lua_source 更方便。

    • load_args:加载save_args保存的参数名称列表,格式可以是save_args返回的响应头,并以请求头的格式发送,也可以是name1和值组成的json对象

    • html5_media:是否播放视频,默认0关闭

    • http2:是否启用http2,默认0

    • engine :要使用的浏览器引擎,默认webkit,也可以是chromium。不建议修改。

    render.png

    返回js渲染后的页面png截图
    参数除了render.html一样,还有:

    • width:宽度
    • height : 宽度
    • render_all : 是否全屏,默认0
    • scale_method : raster(逐像素缩放,默认)和vector(按元素缩放)。vector性能更高,字体更清晰,元素边界更明显。但是可能出现未知的问题,请谨慎使用。

    render.jpeg

    参数同render.png,还有:

    • quality : JPEG图片的质量,取值范围0-100,默认75。不建议大于95。

    render.har

    以HAR格式返回(什么是har格式可以自行百度)
    参数与render.html相同
    额外参数:

    • request_body:是否包含请求内容,默认0
    • response_body:是否包含响应内容,默认0

    render.json

    返回带有javascript渲染网页信息的json编码字典。
    参数同render.jpeg,还有

    • html : 是否包含HTML,默认0
    • png : 是否包含PNG,默认0
    • jpeg :是否包含JPEG,默认0
    • iframes :是否包含子iframe的信息,默认0
    • script : 是否包含执行的js结果,默认0
    • console : 是否包含js控制台消息,默认0
    • history : 是否包含历史响应,默认0
    • har :是否包含HAR数据,默认0
    • request_body :如果值为1,返回结果将包含har记录,而且包含请求内容
    • response_body :如果值为1,返回结果将包含har记录,而且包含响应内容

    execute

    执行自定义脚本并返回结果

    • lua_source : lua脚本字符串
    • timeout : 同上
    • allowed_domains :同上
    • proxy :同上
    • filters :同上
    • save_args : 同上
    • load_args :同上

    run

    参数和作用同execute,区别在于脚本的格式。execute脚本必须包含在main函数中,而run脚本则可以是单独的语句,示例脚本如下:

    execute脚本

    function main(splash, args)
        assert(splash:go(args.url))
        assert(splash:wait(1.0))
        return splash:html()
    end
    

    run脚本

    assert(splash:go(args.url))
    assert(splash:wait(1.0))
    return splash:html()
    

    允许跨域

    docker run -it -p 8050:8050 scrapinghub/splash --js-cross-domain-access

    在网页中执行js代码

    有两种方法:
    1、使用render.html中的js_source参数或者js参数加载指定js文件,示例(建议使用POST请求):

    curl -X POST -H 'content-type: application/json' 
        -d '{"js_source": "document.title="My Title";", "url": "http://example.com"}' 
        'http://localhost:8050/render.html'
    

    2、带有指定请求头

    curl -X POST -H 'content-type: application/javascript' 
        -d 'document.title="My Title";' 
        'http://localhost:8050/render.html?url=http://domain.com'
    

    如果要获取js执行的结果,需使用render.json将script参数设置为1

    请求过滤器(Request Filters)

    Splash支持根据Adblock Plus规则过滤请求。你可以使用其easylist.txt
    来删除广告,或者手动编写来阻止某些请求。例如阻止自定义字体文件的加载可以这些写:

    .ttf|
    .woff|
    

    然后将这个文件命名为nofonts.txt,并在使用docker开启splash的时候将过滤器目录映射到本地(上面有说怎么映射),接着将nofonts.txt放在这个目录。发起请求只需携带参数filters=nofonts就可以执行过滤器规则,例如:

    curl 'http://localhost:8050/render.png?url=http://domain.com/page-with-fonts.html&filters=nofonts'

    另外如果过滤器目录存在default.txt文件,则会自动启用。当然如果你不想启用,可以设置filters=none。关于自定义过滤器的语法请参考:https://help.eyeo.com/en/adblockplus/how-to-write-filters

    代理配置文件(Proxy Profiles)

    同过滤器规则,需先将代理配置目录映射到本地,接着讲代理配置文件放入目录。示例配置文件:

    [proxy]
    
    ; 代理IP和端口,分号为注释
    host=proxy.crawlera.com
    port=8010
    
    ; 代理验证,默认为空
    username=username
    password=password
    
    ; 代理类型,默认HTTP,还支持socks5
    type=HTTP
    
    [rules]
    ;使用代理的白名单,默认.*
    whitelist=
        .*mywebsite.com.*
    
    ; 使用代理的黑名单, 默认为空
    blacklist=
        .*.js.*
        .*.css.*
        .*.png
    

    接着将文件保存在代理目录为myproxy.ini(名称任意),然后只需在请求加入proxy=myproxy参数即可。另外,只有在白名单中并且不再黑名单中的才会使用代理,也就是说如果黑名单和白名单同时匹配,黑名单优先级更高。

    可以看出代理文件的规则很简单,也就是正则编写的表达式以换行分隔就行了。另外,如果存在default.ini,则默认启用。使用proxy=none禁止。

    _gc

    回收内存清理缓存,只支持POST请求,示例:
    curl -X POST http://localhost:8050/_gc

    _debug

    获取有关Splash实例的调试信息(使用的RSS数量上限,使用的文件描述符数量,活动请求,请求队列长度,活动对象的数量),以GET方式请求。
    curl http://localhost:8050/_debug

    _ping

    要ping Splash实例,向/_ping端点发送GET请求,示例:
    curl http://localhost:8050/_ping

    lua脚本

    如果以execute接口来执行lua脚本的话,格式需要遵循:

    function main(splash, args)
      splash:go("http://example.com")
      splash:wait(0.5)
      local title = splash:evaljs("document.title")
      return {title=title}
    end
    

    另外关于一些lua的API可以直接参考:官方文档,写的很详细,很容易看懂。

    scrapy-splash

    如果你想将scrapy和splash整合在一起会怎么写?很简单,就像整合selenium一样添加一个splash中间件。

    实际访问URL,splash其实就是在访问http://splashURL/render.html?url=URL,其他都没有变化所以我们只需在中间件中替换URL就可以了,不过splash还有一些参数怎么传递给中间件呢?使用request.meta即可。

    至于scrapy-splash就不详细介绍了,只需要在settings.py中配置一些参数,然后在spider中将splash的参数添加到meta里即可。当然也可以使用SplashRequest,SplashRequest其实就是将参数保存在meta,做了一个封装。

    SPLASH_URL = 'http://192.168.59.103:8050'
    DOWNLOADER_MIDDLEWARES = {
        'scrapy_splash.SplashCookiesMiddleware': 723,
        'scrapy_splash.SplashMiddleware': 725,
        'scrapy.downloadermiddlewares.httpcompression.HttpCompressionMiddleware': 810,
    }
    SPIDER_MIDDLEWARES = {
        'scrapy_splash.SplashDeduplicateArgsMiddleware': 100,
    }
    DUPEFILTER_CLASS = 'scrapy_splash.SplashAwareDupeFilter'
    HTTPCACHE_STORAGE = 'scrapy_splash.SplashAwareFSCacheStorage'
    

    请求示例:

    yield scrapy.Request(url, self.parse_result, meta={
        'splash': {
            'args': {
                # set rendering arguments here
                'html': 1,
                'png': 1,
    
                # 'url' is prefilled from request url
                # 'http_method' is set to 'POST' for POST requests
                # 'body' is set to request body for POST requests
            },
    
            # optional parameters
            'endpoint': 'render.json',  # optional; default is render.json
            'splash_url': '<url>',      # optional; overrides SPLASH_URL
            'slot_policy': scrapy_splash.SlotPolicy.PER_DOMAIN,
            'splash_headers': {},       # optional; a dict with headers sent to Splash
            'dont_process_response': True, # optional, default is False
            'dont_send_headers': True,  # optional, default is False
            'magic_response': False,    # optional, default is True
        }
    })
    

    更多参考:https://github.com/scrapy-plugins/scrapy-splash

  • 相关阅读:
    vim插件管理利器
    Ubuntu下安装java
    Eclipse的vim插件viPlugin的安装
    Ubuntu下如何检查文件的md5,sha-512码
    C语言的工具集
    ubuntu下禁用和恢复触摸板
    linux下开发C语言需要安装的manpages手册
    linux下C++的man文件安装
    源码编译安装git
    EditText属性详解
  • 原文地址:https://www.cnblogs.com/kanadeblisst/p/12917896.html
Copyright © 2011-2022 走看看