Nginx:如何根据用户代理限制请求率

试图在nginx中使用以下行为使用浏览器时,每个ip的默认速率限制为1r / s.bing和google蜘蛛的速率限制为10r / s.拒绝坏机器人.不幸的是谷歌没有发布googlebot的IP地址所以我只限于使用者.到目前为止,这已经接近:http { # Rate limits map $http_user_agent $ua

试图在nginx中使用以下行为

使用浏览器时,每个ip的默认速率限制为1r / s.
bing和google蜘蛛的速率限制为10r / s.
拒绝坏机器人.

不幸的是谷歌没有发布googlebot的IP地址所以我只限于使用者.

到目前为止,这已经接近:

http { 
  # Rate limits
  map $http_user_agent $uatype {
    default 'user';
    ~*(google|bing|msnbot) 'okbot';
    ~*(slurp|nastybot) 'badbot';
  }

  limit_req_zone $binary_remote_addr zone=one:10m rate=1r/s;
  limit_req_zone $binary_remote_addr zone=two:10m rate=10r/s;

  ...

  server {
    ...

    location / {
      if ($uatype == 'badbot) {
        return 403;
      }

      limit_req zone=one burst=5 nodelay;
      if ($uatype != 'user') {
        limit_req zone=two burst=10 nodelay;
      }

      ...
    }

  ...
  }
}

但是 – ‘if’不允许这样做.

$nginx -t

nginx:在/etc/nginx/nginx.conf中不允许使用[emerg]“limit_req”指令
nginx:配置文件/etc/nginx/nginx.conf测试失败

在nginx论坛上有很多未经测试的建议,大多数甚至都没有通过configtest.

看起来很有希望的是Nginx Rate Limiting by Referrer? – 该版本的缺点是所有配置都针对每个不同的限制重复(我有很多重写规则)

谁有好事?

不幸的是你无法以这种方式动态化,限制请求模块不支持这一点.

您找到的链接可能是实现此目的的唯一方法.使用include指令“避免”重复配置.

但是,如果第三方爬虫突然冒充一个好机器人用户代理怎么办?

作者: dawei

【声明】:永州站长网内容转载自互联网,其相关言论仅代表作者个人观点绝非权威,不代表本站立场。如您发现内容存在版权问题,请提交相关链接至邮箱:bqsm@foxmail.com,我们将及时予以处理。

为您推荐

联系我们

联系我们

0577-28828765

在线咨询: QQ交谈

邮箱: xwei067@foxmail.com

工作时间:周一至周五,9:00-17:30,节假日休息

返回顶部