育儿论坛

 找回密码
 注册

QQ登录

只需一步,快速开始

搜索
热搜: 活动 交友 discuz
查看: 223|回复: 0

防止网站被爬虫抓取的方法有哪些

[复制链接]

24万

主题

24万

帖子

0

积分

新手上路

Rank: 1

积分
0
注册时间
2022-4-28
发表于 2023-1-1 14:23 | 显示全部楼层 |阅读模式
防止网站被爬虫抓取的方法有哪些
) {& s& \/ P( M* @  e! z+ o3 [5 r
防止网站被爬虫抓取的方法有哪些
( L4 s  t/ Q) ^4 G; P
3 X( T) T1 W  @7 {- Q  i对于网络爬虫,我们是既爱又恨。一方面爬虫可以带来客观的流量,另一方面又会占用服务器资源。因此在面对爬虫时,进行爬虫管理很有必要。那么我们该如何防止网站被爬虫呢?
8 `1 I( r4 p4 N3 ^1 P; K9 w- ]. F8 @
一、分辨爬虫的善恶" `1 e0 n0 Q: {9 `+ E* L

4 t% V  x4 k% Q网络爬虫分为两种,一种是善意爬虫,例如百度、Google等搜索引擎的爬虫,另一种是恶意爬虫,它可能会利用网站漏洞,非法窃取网站数据,或者爬取网站内容,占用服务器资源。恶意爬虫的行为是我们所深恶痛觉的,必须想尽办法予以过滤和阻断。网站或者某一些网页不想被诸如百度、Googl等善意爬虫爬取时,我们也希望能采取一些措施。. Q0 t  Q' x  [* P
9 v. H- S# d+ y( F! k5 z; m! @
二、如何防止网站被爬虫?
  j, R+ Z# H) ]6 m, m! {' o( A8 H( L
针对善意爬虫,几乎所有的搜索引擎爬虫,都会遵守robots协议,只要我们在网站的根目录下存放一个ASCII编码的文本文件,告诉搜索引擎哪些页面不能爬取,搜索引擎的蜘蛛便会遵照协议,不爬取指定页面的内容。
2 ]- b& A% ^( b8 \
  P. }! o; Y. R0 u但是robots并不是一个规范,而是一种君子协议,它只对善意爬虫有效,并不能防止恶意爬虫。9 _$ Y6 F& U' n3 h3 o
& q0 N  W. [4 y! L- R4 d# A
针对恶意爬虫,我们可以采取以下措施来识别和阻断它。
6 Y* `( H& t! v! R" ?* H: h0 T! F+ P. O+ B- ~3 D
1.限制User-Agent字段7 Y1 C9 j6 b' ?% a

4 Z' `- m- P2 {4 N3 y  P( Q' \User-Agent字段能识别用户所使用的操作系统、版本、CPU、浏览器等信息,如果请求来自非浏览器,就能识别其为爬虫,阻止爬虫抓取网站信息。
$ b% C; ]8 ?6 d- q2 K. _7 T+ v/ q! k4 y& G
User-Agent字段虽然有效,但对于精心构造的爬虫来说,效果并不好。攻击者可以通过在恶意爬虫请求的User-Agent字段中带上baidu字符,伪装成百度爬虫绕过这一规则,无法被拦截。
$ b1 k  U% Y, t. h0 X+ T5 a; d# D% N% @
2.限制IP
. {% V+ R: u% v* x
% D& J  ~! e7 N" a! B限制IP是最常见的手段之一,为了效率,恶意爬虫的请求频率往往比正常流量高,找出这些IP并限制其访问,可以有效降低恶意爬虫造成的危害。3 g3 r0 i. F( y& x. s  p' c) X

4 r; V" l0 w6 D不过限制IP也有自己的缺点,容易误伤正常用户,攻击者可以通过搭建IP池的方法,来解决这个问题。
; d! N1 i" s* T2 U8 _. \2 k% i: r" a. f
3. 添加验证码8 l) _* E9 }/ A% m$ K% |* L7 {

. \6 R+ N! U/ r$ @在登录页等页面,添加验证码,以识别是正常流量还是恶意爬虫,也是一种基本的操作。不过如今爬虫技术,早已能解决验证码的问题,例如二值化、中值滤波去噪等等。! L# a* s) o8 t/ d: b3 w/ g! M

, x0 F3 v. j5 m; s- c4 ^% s0 W8 I# ~' A$ \' f2 n3 G& t
' M2 G( j, z# ^( X
原文连接:http://www.szw86.com/thread-9831-1-1.html
您需要登录后才可以回帖 登录 | 注册

本版积分规则

联系我们|小黑屋|手机版|Archiver|育儿网

GMT-5, 2025-1-3 18:33

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表