如何防止网站被采集_如何防止网站被采集信息

  • 时间:
  • 浏览:0

如何防止网站被采集_如何防止网站被采集信息

对于如何防止网站被采集的问题,我有一些了解和研究,也可以向您推荐一些专业资料和研究成果。希望这对您有所帮助。

文章目录列表:

1.原创网站被人恶意采集和转载怎么办

2.有什么好方法防止自己网页的内容被采集

3.怎样预防网站_信息采集器及吸血鬼等软件搜取自己网站上的数据

4.如何防止别人用软件抓取网页

5.如何防止别人采集你的网站

6.网站怎么防止被采集?

原创网站被人恶意采集和转载怎么办

防止恶意采集

招数一 :经常查看服务器日志,屏蔽掉异常IP,阻止恶意采集者进入网站。

1、采集文章网站的IP。很多网站所在服务器_集服务器是同一个。

2、流量过大的IP。此类IP一般都是采集爬虫,直接屏蔽掉。

3、具体的屏蔽IP的方法很多。

通过对方IP找到对方所在主机服务商或者机房。

联系主机商或者机房。打一份版权声明文本,Email或传真给主机商或机房。让他们停掉采集网站的服务器。再联系对方域名注册商,Email给他们版权声明文本。要求域名注册商停掉对方的域名解析。

防止恶意采集

招数二:文章的命名尽量无规律,比如你的文章是.htm的话,请在前面或后面生成个日期,如:20150914-1.htm,前面是日期,这样对一些初级采集者来说很有效。

防止恶意采集

招数三:不要把所有的文章都放在一个目录下,你可以利用日期生成不同的目录名。

防止恶意采集

招数四:文章选用不同模板,准备多一些的模板,添文章时可选用不同模板,一般的采集程序是有针对性的,采集前会对页面进行分析,如果发现所有页面的排版无规律,采集程序一般都会选择放弃。

有什么好方法防止自己网页的内容被采集

防止自己网页的内容被采集有非常多的方法

方法一:内容配图加水印

当你的文章中含有时候,可以给打上水印,这样就留下了你的信息,对方要采集或者复制您文章后,不可能一张一张的去处水印,这样也算是变相地帮助我们宣传网站。

方法二:内容随机穿插版权信息

在不影响用户阅读体验的情况下,尽量在内容段落之间随机插入一些之间的信息,比如:网站名字,链接,版权作者,QQ等,这样的话,就算对方使用采集器过滤也不可能每篇文章都能过滤得掉。

方法三:作品结尾留作者信息及链接

不过这个方法作用不是很大,因为很多人复制或转载内容时直接去掉了,可以参考方法二,适当在段落结尾处不影响阅读的情况下下随机插入较好。

方法四:主动推送网址给百度收录

百度给出的链接提交方式有以下三种:

1、主动推送:_为快速的提交方式,推荐您将站点当天新产出链接立即通过此方式推送给百度,以保证新链接可以及时被百度收录。

2、sitemap:您可以定期将网站链接放到sitemap中,然后将sitemap提交给百度。百度会周期性的抓取检查您提交的sitemap,对其中的链接进行处理,但收录速度慢于主动推送。

3、手工提交:一次性提交链接给百度,可以使用此种方式。

方法五:利用JS加密网页内容

这个方法是在个别网站上看到的,非常暴力。缺点:搜索引擎爬虫无法识别收录和通杀所有采集器,针对极度讨厌搜索引擎_集器的网站的站长使用,量力而行,您能豁出去了,别人也就没办法采集你了。

方法六:网站随机采用不同模版

分析:因为采集器是根据网页结构来定位所需要的内容,一旦先后两次模版更换,采集规则就失效,不错。而且这样对搜索引擎爬虫没影响。

适用网站:动态网站,并且不考虑用户体验。

采集器会怎么做:一个网站模版不可能多于10个吧,每个模版弄一个规则就行了,不同模版采用不同采集规则。如果多于10个模版了,既然目标网站都那么费劲的更换模版,成全他,撤。

方法七:利用脚本语言做分页(隐藏分页)

分析:还是那句,搜索引擎爬虫不会针对各种网站的隐藏分页进行分析,这影响搜索引擎对其收录。但是,采集者在编写采集规则时,要分析目标网页代码,懂点脚本知识的人,就会知道分页的真实链接地址。

适用网站:对搜索引擎依赖度不高的网站,还有,采集你的人不懂脚本知识。

采集器会怎么做:应该说采集者会怎么做,他反正都要分析你的网页代码,顺便分析你的分页脚本,花不了多少额外时间。

方法八:限制IP地址单位时间的访问次数

分析:没有哪个常人一秒钟内能访问相同网站5次,除非是程序访问,而有这种喜好的,就剩下搜索引擎爬虫和讨厌的采集器了。

弊端:一刀切,这同样会阻止搜索引擎对网站的收录。

适用网站:不太依靠搜索引擎的网站。

采集器会怎么做:减少单位时间的访问次数,减低采集效率。

希望可以帮到你!

怎样预防网站_信息采集器及吸血鬼等软件搜取自己网站上的数据

防采集的一些思路的探讨

1、用不同的模板

对于用程序的网站来说,不大可行,一个网站的模板_多也就几套吧。

2、使用robots禁止访问网页目录

这个方法可以有效的防止采集,不过将搜索引擎也封掉了,对于靠搜索引擎吃饭的站长们来说,得不偿失。

一个例子,Disallow 后面就是禁止访问的目录:

User-agent: *

Disallow: /admin

Disallow: /attachments

Disallow: /images

Disallow: /forumdata

Disallow: /include

3、使用HTTP_REFERER禁止采集,发现来自非本站连接就禁止察看叶面,就像前一段落伍im286.net防DDOS那个禁止调用一样。

这个方法可以比较有效的防止采集,不过也一样把搜索引擎封掉了,对于靠搜索引擎吃饭的站长们来说,得不偿失。

对高手无效,因为HTTP_REFERER可以伪造。但对一般使用采集的人来说,已经足够应付了。

例:

php

if(preg_replace("/');

}

4、使用HTTP_REFERER伪造内容

这个方法可以比较有效的防止采集,不过对于搜索引擎来说,查到的东西跟你伪造的东西一样的,可能会影响收录。(如有不对,请高手指出)

同上,对于高手无效。

5、使用java加密内容。

这个可能会比较有效,但是我对java一窍不通,也就不清楚如何入手了。

但我想,既然你这样使得别人采集到乱码,搜索引擎有可能也是收录到乱码的(我不清楚搜索引擎怎么工作,不过我猜测他们是察看网页源代码的。),也就影响收录。

6、使用java加密网址

同上,有可能让搜索引擎无法搜索到你的网页。

7、生成pdf文件、生成

这个方法可以比较有效的防止采集,不过照样让搜索引擎望而却止。

8、加上自己的版权信息

这个方法_的好处就是不影响搜索引擎,效果马马虎虎,一般上可以让采集者采集到带有自己版权的稿件内容。但是对于可以过滤广告的采集程序来说,不大有效。

以下是作者给俺的PM:

Quote:

你的版权是不是加了你的网站和网址?

只要把网址和网站名替换成他的就可以了啊.这样还让他有了版权功能呢.

反正防采真是头疼....

有点麻烦,我的思路是将网站名称分成一个一个字来显示,他不可能将每个字都替换掉吧?不过要这样我就没办法了。比如说我将我的 武侠网 拆开,分成

武侠网

,$rand_color*是随机颜色,可以自己控制的,如果是动态网页的话,还配合HTTP_REFERER来搞随机,这样子随机性就更大了。一般上,尽量制造难度就是了。模板也可以制造随机性,几个相似的模板轮流来弄,这样子让人采集的难度更大。

不过说实话,要使他们真要搞,那是没办法的事,不过至少要花他们很多的时间去研究。在此之前,他们可能没耐性转向别的站了。

另外,_好不要让人知道你使用随机函数。一般人只是稍微看一下网页代码,就开始采集了。

其实俺地网站也喜欢采集别家的东东,我感觉只要是好的东东,就应该大家一起分享嘛,要真是机密数据,那就_好在每个页面上加随机密码了,但这样也会使搜索引擎找不到你的,得不偿失呀

如何防止别人用软件抓取网页

1> 关键信息通过ajax请求来获取,_好是需要带有临时token作为参数的请求。网站在发布的时候需要做javascript代码压缩和混淆,这样程序人员就很难通过阅读代码或者捕获请求来建立模拟采集。这里说的关键信息,是指那种对业界同行来说比较重要的信息,比如说价格等。除了这些关键信息以为的信息就_好不要用ajax请求来显示了,那样不利于SEO优化,搜索引擎的蜘蛛也不能模拟如此复杂ajax请求。另外如果有分页,一定要用ajax请求来分页。具体例子可以看看 花瓣网 的首页。至于通过表单请求来获取数据,有些采集器已经能模拟带session或者cookie信息的表单请求了,至少Jsoup是可以做到的。

2> 关键信息通过来显示。这种是技术含量比较低的防御了,_的好处是有利于SEO优化,因为通过alt来携带更加丰富的信息。京东的商品价格就是用来显示的,采集器采集到的价格信息需要做OCR文字识别,如果在的格式做些手脚或者加入混淆信息,那别人采集过去的信息准确度就会大大降低。另外通过来显示的另外一个好处就是可以把服务器独立出来,然后通过防火墙设置来只允许来自已知域名的请求。

3> 网页代码结构化混淆。简单的说就是关键信息的显示不是规律性的。这种做法对网站开发人员要求比较高。毕竟html是一种结构化的语言,想要通过不规律的html标签勾勒出美观的结构化界面是比较难的,但不是不可能。比如说同一张页面的上商品价格列表,你可以随机用div,li,span等这些文字标签来封装,然后通过定制css来达到规范布局。不同的页面(分页)上价格列表,_顶层的div的id或者class不一样,而且跟其他页面的的id无规律可循。这样做可以让采集程序很难发掘到采集的规律,那么采集的难度就大大加大了,即使能采集,效率也会相当低下。这种做法基本上不影响SEO优化。

不过话说回来,不管你采取哪种防御措施,想防住真正的高手是不可能的,只要能防住98%的人就可以了。剩下的那2%,你如果发现你的数据被采集了,就采取法律措施吧。前段时间大众点评起诉“食神摇一摇”抄袭数据,就是一个很好的例子。

如何防止别人采集你的网站

1、网站内容采用多套模板,随机模板,给采集程序设置过高的门槛;但这招对整站采集器不起作用。

2、网站内容里随机插入本网站的版权,如域名,网站名称,网站主人,而这些标识可以分开来写,或中间加短横-,或换成全角字符,防止被自动过滤。

3、给我们网站里的打上自己的logo标识,比如在的右下角打上网站的名称 域名;采集者把我们的网站的采集过去,不可能一张一张都ps;所以,他们采集我们的网站内容,等于变相地帮助我们宣传网站。

4、这招比较损。如果对方采集的程序几乎和你的网站同步,那么你可以采用这招了。先在我们的网站里添加几篇标题以及文章开头结尾都很正规的内容,而在文章内容中间偷偷插入非法关键字,有多非法就要多非法,多插入几个,隐蔽工作做的也要到位,然后在我们的网站robots.txt文件里禁止搜索引擎抓取这几篇文章。等对方采集了这几篇文章后,我们立即删除自己网站上的这些文章,然后向采集者服务器当地网警举报。

网站怎么防止被采集?

三种实用的方法。

1、文章头尾加随机广告..

2、文章列表加随机不同的链接标签,比如<a href="",<a class="dds" href=''

3、正文头尾或列表头尾添加<!--重复特征代码-->

_种防采集方法:

下面我详细说一下这三种方法的实际应用:

如果全加上,_可以有效的防采集,单独加一种就可以让采集者头疼。。

完全可以对付通用的CMS采集程序。。

在采集时,通常都是_头尾特征从哪到哪过滤.这里我们先讲_种方法,文章头尾加随机广告..

随机广告是不固定的。

比如你的文章内容是"欢迎访问阿里西西",那么随机广告的加入方法:

<div id="xxx">

随机广告1欢迎访问阿里西西随机广告2

</div>

注:随机广告1和随机广告2每篇文章只要随机显示一个就可以了.

第二种防采集方法:

<!--<div id="xxx_文章ID">-->

其它标题或内容...

<!--<div id="xxx_文章ID">--> <div id="xxx_文章ID">

随机广告1欢迎访问阿里西西随机广告2

<--</div>-->

</div>

<--</div>-->

这是第二种防采集方法。在文章正文页面插入重复特征头尾代码的注释。

当然,这个可以用正则去掉,但足于对付通用的采集系统。。

第三种防采集方法:

第三种加在文章的列表,随便链接样式:

<a href="xxx.html">标题一</a>

<a alt="xxx" href="xxx.html">标题二</a>

<a href='xxx.html'>标题三</a>

<a href=xxx.html>标题四</a>

原理是让采集的人无法抓到列表链接规律,无法批量进行采集.

如果三种方法全部加上,我想一定能让想采集的人头疼半天而放弃的..

如果你还问,如何防止别人复制采集呢?要做到这一点容易,把你的网站的网线拔了,自己给自己看就好了.哈哈.

如果你的文章来自原创,那像可以加上版权声明,别人随意转载时,你可以要求对方删除你有版权的文章.

好了,今天关于“如何防止网站被采集”的话题就讲到这里了。希望大家能够通过我的讲解对“如何防止网站被采集”有更全面、深入的了解,并且能够在今后的学习中更好地运用所学知识。