网站防御爬虫攻击的几种方式 您所在的位置:网站首页 机票查询网站为了防爬虫攻击让用户登录合法吗 网站防御爬虫攻击的几种方式

网站防御爬虫攻击的几种方式

2024-07-16 09:29| 来源: 网络整理| 查看: 265

最近研究一个小软件,但遇到对方服务器有反爬机制,有点尴尬。

那就只好先了解看看网站防御爬虫都有哪些方式,好知己知彼

反爬机制主要有两大策略:

01

控制IP访问频率

最常见的基本都会使用代理IP来进行访问,但是对于一般人来说,几万ip差不多是极限了,所以一个ip还是可能多次请求。意味着爬虫需要付出更多的成本投入在IP资源上,IP越多,爬取的成本越高,自然容易劝退一部分人。

02

控制爬取策略

如果简单的只对目标数据进行爬取,反爬系统只要对访问情况和用户行为进行相关分析,其实很简单就能判定爬虫的那堆ip,你除了这堆数据什么都没访问,一看就不是正经用户。

当然策略这个东西,就需要更多的博弈了。爬虫要增加迷惑度,需要去访问一些无关的东西,最后是研究正常用户的访问流程,然后模拟一遍。再者,控制速度。毕竟反爬系统的统计区间是肯定有限制的,不可能拿一个月的数据都分析一遍找出爬虫。

反爬系统的存在,意义就在于增加这个成本。当然也需要衡量自身的成本,毕竟不能本末倒置,反爬成本太高就没价值了。

那网站一般用什么措施防范爬虫呢?主要有以下几种:

1、限制IP地址单位时间的访问次数

没有哪个常人一秒钟内能访问相同网站5次,除非是程序访问,而有这种喜好的,就剩下搜索引擎爬虫和讨厌的采集器了。

弊端:一刀切,这同样会阻止搜索引擎对网站的收录

适用网站:不太依靠搜索引擎的网站

爬虫:减少单位时间的访问次数,减低采集效率

2、屏蔽ip

通过后台计数器,记录来访者ip和访问频率,人为分析来访记录,屏蔽可疑ip。

弊端:似乎没什么弊端,就是站长忙了点

适用网站:所有网站,且站长能够知道哪些是google或者百度的机器人

爬虫:打游击战呗!利用ip代理采集一次换一次,不过会降低爬虫的效率和网速)。

3、利用js加密网页内容

搜索引擎爬虫和采集器通杀,搞死人

适用网站:极度讨厌搜索引擎和采集器的网站

爬虫:你那么牛,成本不允许,我不爬了

4、网页里隐藏网站版权或者一些随机垃圾文字,这些文字风格写在css文件中

虽然不能防止采集,但是会让采集后的内容充满了你网站的版权说明或者一些垃圾文字,因为一般爬虫不会同时采集你的css文件,那些文字没了风格,就显示出来了。

适用网站:所有网站

爬虫:对于版权文字,好办,替换掉。对于随机的垃圾文字,没办法,勤快点了。

5、用户登录才能访问网站内容

搜索引擎爬虫不会对每个这样类型的网站设计登录程序。

适用网站:极度讨厌搜索引擎,且想阻止大部分爬虫的网站

爬虫:制作拟用户登录提交表单行为的模块。

6、利用脚本语言做分页(隐藏分页)

搜索引擎爬虫不会针对各种网站的隐藏分页进行分析,这影响搜索引擎对其收录。但是,采集者在编写采集规则时,要分析目标网页代码,懂点脚本知识的人,就会知道分页的真实链接地址。

适用网站:对搜索引擎依赖度不高的网站,还有,采集你的人不懂脚本知识

爬虫:反正都要分析你的网页代码,顺便分析你的分页脚本,花不了多少额外时间。

7、防盗链措施 (只允许通过本站页面连接查看,如:Request.ServerVariables(“HTTP_REFERER“) )

asp和php可以通过读取请求的HTTP_REFERER属性,来判断该请求是否来自本网站,从而来限制爬虫,同样也限制了搜索引擎爬虫,严重影响搜索引擎对网站部分防盗链内容的收录。

适用网站:不太考虑搜索引擎收录的网站。

爬虫:伪装HTTP_REFERER,不难。

8、全flash、图片或者pdf来呈现网站内容

对搜索引擎爬虫和采集器支持性不好,这个很多懂点seo的人都知道

适用网站:媒体设计类并且不在意搜索引擎收录的网站

爬虫:不爬了,走人

9、网站随机采用不同模版

因为采集器是根据网页结构来定位所需要的内容,一旦先后两次模版更换,采集规则就失效,不错。而且这样对搜索引擎爬虫没影响。

适用网站:动态网站,并且不考虑用户体验

爬虫:一个网站模版不可能多于10个吧,每个模版弄一个规则就行了,不同模版采用不同采集规则。如果多于10个模版了,既然目标网站都那么费劲的更换模版,成全他,撤。

10、采用动态不规则的html标签

这个比较变态。考虑到html标签内含空格和不含空格效果是一样的,所以< div >和< div>对于页面显示效果一样,但是作为采集器的标记就是两个不同标记了。如果每次页面的html标签内空格数随机,那么采集规则就失效了。但是,这对搜索引擎爬虫没多大影响。

适合网站:所有动态且不想遵守网页设计规范的网站

爬虫:还是有对策的,现在html cleaner还是很多的,先清理了html标签,然后再写采集规则;应该用采集规则前先清理html标签,还是能够拿到所需数据。

了解了以上一些常见反爬措施,就可以对症下药了,大不了模拟人工操作

- End -



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有