也想出现在这里?联系我们

服务器禁止某些User Agent抓取网站

2015.06.17 服务器相关
  • 文章介绍
  • 升级版本
  • 评价&建议

通过User Agent,可以禁止一些我们想禁止掉的访问,下午,大叔发生nginx日志中好多奇怪的访问抓取记录,特别是利用ApacheBench进行的恶意检测,于是立刻跟6P协会一起讨论起来,根据碗叔和维维的经验,整理了以下教程,方便自己和其他站长学习吧!

一、Apache

①、通过修改 .htaccess文件

修改网站目录下的.htaccess,添加如下代码即可(2种代码任选):
可用代码 (1):

  1. RewriteEngine On
  2. RewriteCond %{HTTP_USER_AGENT} (^$|FeedDemon|JikeSpider|Indy Library|Alexa Toolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|Feedly|UniversalFeedParser|ApacheBench|Microsoft URL Control|Swiftbot|ZmEu|oBot|jaunty|Python-urllib|lightDeckReports Bot|YYSpider|DigExt|YisouSpider|HttpClient|MJ12bot|heritrix|EasouSpider|Ezooms) [NC]
  3. RewriteRule ^(.*)$ - [F]

可用代码 (2):

  1. SetEnvIfNoCase ^User-Agent$ .*(FeedDemon|JikeSpider|Indy Library|Alexa Toolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|Feedly|UniversalFeedParser|ApacheBench|Microsoft URL Control|Swiftbot|ZmEu|oBot|jaunty|Python-urllib|lightDeckReports Bot|YYSpider|DigExt|YisouSpider|HttpClient|MJ12bot|heritrix|EasouSpider|Ezooms) BADBOT
  2. Order Allow,Deny
  3. Allow from all
  4. Deny from env=BADBOT

②、通过修改httpd.conf配置文件

找到如下类似位置,根据以下代码 新增 / 修改,然后重启Apache即可:

  1. DocumentRoot /home/wwwroot/xxx
  2. <Directory "/home/wwwroot/xxx">
  3. SetEnvIfNoCase User-Agent ".*(FeedDemon|JikeSpider|Indy Library|Alexa Toolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|Feedly|UniversalFeedParser|ApacheBench|Microsoft URL Control|Swiftbot|ZmEu|oBot|jaunty|Python-urllib|lightDeckReports Bot|YYSpider|DigExt|YisouSpider|HttpClient|MJ12bot|heritrix|EasouSpider|Ezooms)" BADBOT
  4.         Order allow,deny
  5.         Allow from all
  6.        deny from env=BADBOT
  7. </Directory>

二、Nginx代码

进入到nginx安装目录下的conf目录,将如下代码保存为 agent_deny.conf

cd /usr/local/nginx/conf

vim agent_deny.conf

  1. #禁止Scrapy等工具的抓取
  2. if ($http_user_agent ~* (Scrapy|Curl|HttpClient)) {
  3.      return 403;
  4. }
  5. #禁止指定UA及UA为空的访问
  6. if ($http_user_agent ~ "FeedDemon|JikeSpider|Indy Library|Alexa Toolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|Feedly|UniversalFeedParser|ApacheBench|Microsoft URL Control|Swiftbot|ZmEu|oBot|jaunty|Python-urllib|lightDeckReports Bot|YYSpider|DigExt|YisouSpider|HttpClient|MJ12bot|heritrix|EasouSpider|Ezooms|^$" ) {
  7.      return 403;
  8. }
  9. #禁止非GET|HEAD|POST方式的抓取
  10. if ($request_method !~ ^(GET|HEAD|POST)$) {
  11.     return 403;
  12. }

然后,在网站相关配置中的 location / { 之后插入如下代码:

  1. include agent_deny.conf;

保存后,执行如下命令,平滑重启nginx即可:

  1. /usr/local/nginx/sbin/nginx -s reload

三、PHP代码

将如下方法放到贴到网站入口文件index.php中的第一个 <?php 之后即可:

  1. //获取UA信息
  2. $ua = $_SERVER['HTTP_USER_AGENT'];
  3. //将恶意USER_AGENT存入数组
  4. $now_ua = array('FeedDemon ','BOT/0.1 (BOT for JCE)','CrawlDaddy ','Java','Feedly','UniversalFeedParser','ApacheBench','Swiftbot','ZmEu','Indy Library','oBot','jaunty','YandexBot','AhrefsBot','YisouSpider','jikeSpider','MJ12bot','WinHttp','EasouSpider','HttpClient','Microsoft URL Control','YYSpider','jaunty','Python-urllib','lightDeckReports Bot');
  5. //禁止空USER_AGENT,dedecms等主流采集程序都是空USER_AGENT,部分sql注入工具也是空USER_AGENT
  6. if(!$ua) {
  7. header("Content-type: text/html; charset=utf-8");
  8. wp_die('请勿采集本站,因为采集的站长木有小JJ!');
  9. }else{
  10.     foreach($now_ua as $value )
  11. //判断是否是数组中存在的UA
  12.     if(eregi($value,$ua)) {
  13.     header("Content-type: text/html; charset=utf-8");
  14.     wp_die('请勿采集本站,因为采集的站长木有小JJ!');
  15.     }
  16. }

四、测试效果

如果是vps,那非常简单,使用curl -A 模拟抓取即可,比如:

模拟宜搜蜘蛛抓取:

  1. curl -I -A 'YisouSpider' 2zzt.com

模拟UA为空的抓取:

  1. curl -I -A '' 2zzt.com

模拟百度蜘蛛的抓取:

  1. curl -I -A 'Baiduspider' 2zzt.com

根据结果,可以看出,宜搜蜘蛛和UA为空的返回是403禁止访问标识,而百度蜘蛛则成功返回200,说明生效!

了解到这步,在根据自己访问日志里奇怪的spider名称,进行实际的可需的禁止吧!

五、附录:UA收集

下面是网络上常见的垃圾UA列表,仅供参考,同时也欢迎你来补充。

  1. FeedDemon             内容采集  
  2. BOT/0.1 (BOT for JCE) sql注入  
  3. CrawlDaddy            sql注入  
  4. Java                  内容采集  
  5. Jullo                 内容采集  
  6. Feedly                内容采集  
  7. UniversalFeedParser   内容采集  
  8. ApacheBench           cc攻击器  
  9. Swiftbot              无用爬虫  
  10. YandexBot             无用爬虫  
  11. AhrefsBot             无用爬虫  
  12. YisouSpider           无用爬虫  
  13. jikeSpider            无用爬虫  
  14. MJ12bot               无用爬虫  
  15. ZmEu phpmyadmin       漏洞扫描  
  16. WinHttp               采集cc攻击  
  17. EasouSpider           无用爬虫  
  18. HttpClient            tcp攻击  
  19. Microsoft URL Control 扫描  
  20. YYSpider              无用爬虫  
  21. jaunty                wordpress爆破扫描器  
  22. oBot                  无用爬虫  
  23. Python-urllib         内容采集  
  24. Indy Library          扫描  
  25. FlightDeckReports Bot 无用爬虫  
  26. Linguee Bot           无用爬虫  

最后,作为一名wordpress博客主又肩负着自己维护服务器的朋友们,创作吧,骚年!

有用14
  • 2015.06.17初次和大家见面了!

等待您对该主题的建议

发表评论

还能输入240个字

Hi, 欢迎加入Wordpress技术交流群,带你装逼带你飞!

我要入群
也想出现在这里?联系我们
wordpress加速

我来推荐一个更牛逼的给你看看?

  • 猛戳我吧