zoukankan      html  css  js  c++  java
  • nginx 访问控制之 user_agent

    user_agent大家并不陌生,可以简单理解成浏览器标识,包括一些蜘蛛爬虫都可以通过user_agent来辨识。

    通过访问日志,可以发现一些搜索引擎的蜘蛛对网站访问特别频繁,它们并不友好。 为了减少服务器的压力,其实可以把除主流搜索引擎蜘蛛外的其他蜘蛛爬虫全部封掉。

    另外,一些cc攻击,我们也可以通过观察它们的user_agent找到规律。

    示例:

    if ($user_agent ~ 'YisouSpider|MJ12bot/v1.4.2|YoudaoBot|Tomato')
    {
        return 403;
    }
    说明:user_agent包含以上关键词的请求,全部返回403状态码。
    
    测试:
    1. curl -A "123YisouSpider1.0"
    2. curl -A "MJ12bot/v1.4.1"
  • 相关阅读:
    Redis 补充
    python 魔法方法补充(__setattr__,__getattr__,__getattribute__)
    Mongodb 补充
    Mysql补充
    HTML
    优秀工具
    优秀文章收藏
    MySQL
    爬虫
    Python
  • 原文地址:https://www.cnblogs.com/yyxianren/p/10837329.html
Copyright © 2011-2022 走看看