zoukankan      html  css  js  c++  java
  • Robots协议的写法

    Robots协议的写法
    既然网络爬虫在爬取一个网站之前,要先获取到这个文件,然后解析到其中的规则,那么,Robots就必须要有一套通用的语法规则。

    最简单的robots.txt只有两条规则:

    User-agent:指定对哪些爬虫生效

    Disallow:指定要屏蔽的网址

    先说User-agent,爬虫抓取时会声明自己的身份,这就是User-agent,没错,就是http协议里的User-agent。robots.txt利用User-agent来区分各个引擎的爬虫,比如说google网页搜索爬虫的User-agent为Googlebot。

    可能有读者要问了,我怎么知道爬虫的User-agent是什么?你还可以查相关搜索引擎的资料得到官方的数据,比如说百度的爬虫列表是这样的:

    Disallow 行列出的是要拦截的网页,以正斜线 (/) 开头,可以列出特定的网址或模式。要屏蔽整个网站,使用正斜线即可;要屏蔽某一目录以及其中的所有内容,在目录名后添加正斜线;要屏蔽某个具体的网页,就指出这个网页。

    下面我们来看一些Robots的具体写法:

    允许所有的robot访问

    User-agent: *
    Disallow:
    或者也可以建一个空文件 "/robots.txt" file。

    禁止爬虫访问所有目录

    User-agent: *
    Disallow: /
    禁止爬虫访问某些目录

    User-agent: *
    Disallow: /a/
    Disallow: /b/
    Disallow: /c/
    禁止某些爬虫访问

    User-agent: BadBot
    Disallow: /
    只允许某个爬虫访问

    User-agent: MangCrawler
    Disallow:
    User-agent: *
    Disallow: /
    我们再来结合两个真实的范例来学习一下。先看这个例子:

    User-agent: Baiduspider
    Disallow: /
    User-agent: baiduspider
    Disallow: /
    这个是淘宝网的Robots协议内容,相信你已经看出来了,淘宝网禁止百度的爬虫访问。

    再来看一个例子:

    User-agent: *
    Disallow: /?*
    Disallow: /pop/*.html
    User-agent: EtaoSpider
    Disallow: /

  • 相关阅读:
    CodeForces
    bzoj 2257: [Jsoi2009]瓶子和燃料
    【NOIP2009】Hankson 的趣味题
    51Nod 1203 JZPLCM
    bzoj 3751: [NOIP2014]解方程
    UOJ #11. 【UTR #1】ydc的大树
    Tenka1 Programmer Contest D
    bzoj 5000: OI树
    bzoj 1407: [Noi2002]Savage
    bzoj 3551: [ONTAK2010]Peaks加强版
  • 原文地址:https://www.cnblogs.com/walkersss/p/14765779.html
Copyright © 2011-2022 走看看