一区二区三区在线-一区二区三区亚洲视频-一区二区三区亚洲-一区二区三区午夜-一区二区三区四区在线视频-一区二区三区四区在线免费观看

服務器之家:專注于服務器技術及軟件下載分享
分類導航

云服務器|WEB服務器|FTP服務器|郵件服務器|虛擬主機|服務器安全|DNS服務器|服務器知識|Nginx|IIS|Tomcat|

服務器之家 - 服務器技術 - 服務器知識 - 服務器反爬蟲攻略:Apache/Nginx/PHP禁止某些User Agent抓取網站

服務器反爬蟲攻略:Apache/Nginx/PHP禁止某些User Agent抓取網站

2019-05-27 20:36bcoder服務器之家 服務器知識

以下是服務器反爬蟲攻略:Apache/Nginx/PHP禁止某些User Agent抓取網站,希望對大家有所幫助。

 以下是服務器反爬蟲攻略:Apache/Nginx/PHP禁止某些User Agent抓取網站,希望對大家有所幫助。

一、Apache

①、通過修改 .htaccess 文件

修改網站目錄下的.htaccess,添加如下代碼即可(2 種代碼任選):

可用代碼 (1):


  1. RewriteEngine On 
  2. RewriteCond %{HTTP_USER_AGENT} (^$|FeedDemon|Indy Library|Alexa Toolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|Feedly|UniversalFeedParser|ApacheBench|Microsoft URL Control|Swiftbot|ZmEu|oBot|jaunty|Python–urllib|lightDeckReports Bot|YYSpider|DigExt|HttpClient|MJ12bot|heritrix|EasouSpider|Ezooms) [NC] 
  3. RewriteRule ^(.*)$ – [F] 

可用代碼 (2):


  1. SetEnvIfNoCase ^User–Agent$ .*(FeedDemon|Indy Library|Alexa Toolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|Feedly|UniversalFeedParser|ApacheBench|Microsoft URL Control|Swiftbot|ZmEu|oBot|jaunty|Python–urllib|lightDeckReports Bot|YYSpider|DigExt|HttpClient|MJ12bot|heritrix|EasouSpider|Ezooms) BADBOT 
  2. Order Allow,Deny 
  3. Allow from all 
  4. Deny from env=BADBOT 

②、通過修改 httpd.conf 配置文件

找到如下類似位置,根據以下代碼 新增 / 修改,然后重啟 Apache 即可:

Shell


  1. DocumentRoot /home/wwwroot/xxx 
  2. <Directory “/home/wwwroot/xxx”> 
  3. SetEnvIfNoCase User–Agent “.*(FeedDemon|Indy Library|Alexa Toolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|Feedly|UniversalFeedParser|ApacheBench|Microsoft URL Control|Swiftbot|ZmEu|oBot|jaunty|Python-urllib|lightDeckReports Bot|YYSpider|DigExt|HttpClient|MJ12bot|heritrix|EasouSpider|Ezooms)” BADBOT 
  4.         Order allow,deny 
  5.         Allow from all 
  6.        deny from env=BADBOT 
  7. </Directory> 

服務器反爬蟲攻略:Apache/Nginx/PHP禁止某些User Agent抓取網站

二、Nginx 代碼

進入到 nginx 安裝目錄下的 conf 目錄,將如下代碼保存為 agent_deny.conf


  1. cd /usr/local/nginx/conf 
  2. vim agent_deny.conf 

  1. #禁止Scrapy等工具的抓取 
  2. if ($http_user_agent ~* (Scrapy|Curl|HttpClient)) { 
  3.      return 403; 
  4. #禁止指定UA及UA為空的訪問 
  5. if ($http_user_agent ~* “FeedDemon|Indy Library|Alexa Toolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|Feedly|UniversalFeedParser|ApacheBench|Microsoft URL Control|Swiftbot|ZmEu|oBot|jaunty|Python-urllib|lightDeckReports Bot|YYSpider|DigExt|HttpClient|MJ12bot|heritrix|EasouSpider|Ezooms|^$” ) { 
  6.      return 403;             
  7. #禁止非GET|HEAD|POST方式的抓取 
  8. if ($request_method !~ ^(GET|HEAD|POST)$) { 
  9.     return 403; 

然后,在網站相關配置中的 location / { 之后插入如下代碼:

Shell


  1. include agent_deny.conf; 

如下的配置:

Shell


  1. [marsge@Mars_Server ~]$ cat /usr/local/nginx/conf/zhangge.conf 
  2. location / { 
  3.         try_files $uri $uri/ /index.php?$args; 
  4.         #這個位置新增1行: 
  5.         include agent_deny.conf; 
  6.         rewrite ^/sitemap_360_sp.txt$ /sitemap_360_sp.php last
  7.         rewrite ^/sitemap_baidu_sp.xml$ /sitemap_baidu_sp.php last
  8.         rewrite ^/sitemap_m.xml$ /sitemap_m.php last

保存后,執行如下命令,平滑重啟 nginx 即可:

Shell


  1. /usr/local/nginx/sbin/nginx –s reload 

三、PHP 代碼

將如下方法放到貼到網站入口文件 index.php 中的第一個

PHP


  1. //獲取UA信息 
  2. $ua = $_SERVER[‘HTTP_USER_AGENT’]; 
  3. //將惡意USER_AGENT存入數組 
  4. $now_ua = array(‘FeedDemon ‘,‘BOT/0.1 (BOT for JCE)’,‘CrawlDaddy ‘,‘Java’,‘Feedly’,‘UniversalFeedParser’,‘ApacheBench’,‘Swiftbot’,‘ZmEu’,‘Indy Library’,‘oBot’,‘jaunty’,‘YandexBot’,‘AhrefsBot’,‘MJ12bot’,‘WinHttp’,‘EasouSpider’,‘HttpClient’,‘Microsoft URL Control’,‘YYSpider’,‘jaunty’,‘Python-urllib’,‘lightDeckReports Bot’); 
  5. //禁止空USER_AGENT,dedecms等主流采集程序都是空USER_AGENT,部分sql注入工具也是空USER_AGENT 
  6. if(!$ua) { 
  7.     header(“Content-type: text/html; charset=utf-8”); 
  8.     die(‘請勿采集本站,因為采集的站長木有小JJ!’); 
  9. }else
  10.     foreach($now_ua as $value ) 
  11. //判斷是否是數組中存在的UA 
  12.     if(eregi($value,$ua)) { 
  13.         header(“Content-type: text/html; charset=utf-8”); 
  14.         die(‘請勿采集本站,因為采集的站長木有小JJ!’); 
  15.     } 

四、測試效果

如果是 vps,那非常簡單,使用 curl -A 模擬抓取即可,比如:

模擬宜搜蜘蛛抓取:

Shell


  1. curl –I –A ‘YisouSpider’ bizhi.bcoderss.com 

模擬 UA 為空的抓取:

Shell


  1. curl –I –A ” bizhi.bcoderss.com 

模擬百度蜘蛛的抓取:

Shell


  1. curl –I –A ‘Baiduspider’ bizhi.bcoderss.com  

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 亚洲美女人黄网成人女 | 亚洲成年男人的天堂网 | 亚洲欧美日韩另类在线一 | 粉嫩国产14xxxxx0000 | 大吊小说 | 精品国产91久久久久 | 精品成人一区二区三区免费视频 | 黑人粗又长 | 韩国甜性涩爱在线播放 | 久久视频这里只精品99热在线观看 | 青草免费在线观看 | 精品一区二区国语对白 | 欧美cosplay极品video | 午夜理论片日本中文在线 | 久久精品成人免费网站 | 午夜AV亚洲一码二中文字幕青青 | 亚洲精品视频在线免费 | 福利一区福利二区 | 国产欧美亚洲精品第一页青草 | 2018av在线| 高清视频大片免费观看 | 91国内精品线免费播放 | 99在线观看视频 | 波多野结衣中文字幕 | 99久久99热久久精品免 | 国产精品青青青高清在线观看 | 2021小妲己永久回家地址 | 天天性综合 | 无遮免费网站在线入口 | 91视频免费观看网站 | 草莓茄子丝瓜番茄小蝌蚪 | 精品在线看 | 国产精品色拉拉免费看 | 亚洲黑人巨大videos0 | 色综合视频一区二区三区 | 亚洲高清视频免费 | 日韩高清一区二区三区不卡 | 免费 视频| 国产最新进精品视频 | 免费操比视频 | 香蕉人人超人人超碰超国产 |