zoukankan      html  css  js  c++  java
  • Robots协议的写法

    Robots协议的写法
    既然网络爬虫在爬取一个网站之前,要先获取到这个文件,然后解析到其中的规则,那么,Robots就必须要有一套通用的语法规则。

    最简单的robots.txt只有两条规则:

    User-agent:指定对哪些爬虫生效

    Disallow:指定要屏蔽的网址

    先说User-agent,爬虫抓取时会声明自己的身份,这就是User-agent,没错,就是http协议里的User-agent。robots.txt利用User-agent来区分各个引擎的爬虫,比如说google网页搜索爬虫的User-agent为Googlebot。

    可能有读者要问了,我怎么知道爬虫的User-agent是什么?你还可以查相关搜索引擎的资料得到官方的数据,比如说百度的爬虫列表是这样的:

    Disallow 行列出的是要拦截的网页,以正斜线 (/) 开头,可以列出特定的网址或模式。要屏蔽整个网站,使用正斜线即可;要屏蔽某一目录以及其中的所有内容,在目录名后添加正斜线;要屏蔽某个具体的网页,就指出这个网页。

    下面我们来看一些Robots的具体写法:

    允许所有的robot访问

    User-agent: *
    Disallow:
    或者也可以建一个空文件 "/robots.txt" file。

    禁止爬虫访问所有目录

    User-agent: *
    Disallow: /
    禁止爬虫访问某些目录

    User-agent: *
    Disallow: /a/
    Disallow: /b/
    Disallow: /c/
    禁止某些爬虫访问

    User-agent: BadBot
    Disallow: /
    只允许某个爬虫访问

    User-agent: MangCrawler
    Disallow:
    User-agent: *
    Disallow: /
    我们再来结合两个真实的范例来学习一下。先看这个例子:

    User-agent: Baiduspider
    Disallow: /
    User-agent: baiduspider
    Disallow: /
    这个是淘宝网的Robots协议内容,相信你已经看出来了,淘宝网禁止百度的爬虫访问。

    再来看一个例子:

    User-agent: *
    Disallow: /?*
    Disallow: /pop/*.html
    User-agent: EtaoSpider
    Disallow: /

  • 相关阅读:
    msvc交叉编译:使用vcvarsall.bat设置命令行编译环境
    DDOS到底是什么,怎么预防,看看就明白了
    服务器安全检测和防御技术
    YApi导入swagger生成的接口
    Springboot swagger2 导出api文档
    使用Swagger2Markup归档swagger生成的API文档
    springboot + swagger2 生成api文档
    swagger2 导出离线Word/PDF/HTML文档
    Swagger使用总结
    springboot配置swagger-rest文档
  • 原文地址:https://www.cnblogs.com/walkersss/p/14765779.html
Copyright © 2011-2022 走看看