防采集加密
1. 有什么好方法防止自己网页的内容被采集
防止自己网页的内容被采集有非常多的方法
方法一:内容配图加水印
当你的文章中含有图片时候,可以给图片打上水印,这样就留下了你的信息,对方要采集或者复制您文章后,不可能一张一张的去处水印,这样也算是变相地帮助我们宣传网站。
方法二:内容随机穿插版权信息
在不影响用户阅读体验的情况下,尽量在内容段落之间随机插入一些之间的信息,比如:网站名字,链接,版权作者,QQ等,这样的话,就算对方使用采集器过滤也不可能每篇文章都能过滤得掉。
方法三:作品结尾留作者信息及链接
不过这个方法作用不是很大,因为很多人复制或转载内容时直接去掉了,可以参考方法二,适当在段落结尾处不影响阅读的情况下下随机插入较好。
方法四:主动推送网址给网络收录
网络给出的链接提交方式有以下三种:
1、主动推送:最为快速的提交方式,推荐您将站点当天新产出链接立即通过此方式推送给网络,以保证新链接可以及时被网络收录。
2、sitemap:您可以定期将网站链接放到sitemap中,然后将sitemap提交给网络。网络会周期性的抓取检查您提交的sitemap,对其中的链接进行处理,但收录速度慢于主动推送。
3、手工提交:一次性提交链接给网络,可以使用此种方式。
方法五:利用JS加密网页内容
这个方法是在个别网站上看到的,非常暴力。缺点:搜索引擎爬虫无法识别收录和通杀所有采集器,针对极度讨厌搜索引擎和采集器的网站的站长使用,量力而行,您能豁出去了,别人也就没办法采集你了。
方法六:网站随机采用不同模版
分析:因为采集器是根据网页结构来定位所需要的内容,一旦先后两次模版更换,采集规则就失效,不错。而且这样对搜索引擎爬虫没影响。
适用网站:动态网站,并且不考虑用户体验。
采集器会怎么做:一个网站模版不可能多于10个吧,每个模版弄一个规则就行了,不同模版采用不同采集规则。如果多于10个模版了,既然目标网站都那么费劲的更换模版,成全他,撤。
方法七:利用脚本语言做分页(隐藏分页)
分析:还是那句,搜索引擎爬虫不会针对各种网站的隐藏分页进行分析,这影响搜索引擎对其收录。但是,采集者在编写采集规则时,要分析目标网页代码,懂点脚本知识的人,就会知道分页的真实链接地址。
适用网站:对搜索引擎依赖度不高的网站,还有,采集你的人不懂脚本知识。
采集器会怎么做:应该说采集者会怎么做,他反正都要分析你的网页代码,顺便分析你的分页脚本,花不了多少额外时间。
方法八:限制IP地址单位时间的访问次数
分析:没有哪个常人一秒钟内能访问相同网站5次,除非是程序访问,而有这种喜好的,就剩下搜索引擎爬虫和讨厌的采集器了。
弊端:一刀切,这同样会阻止搜索引擎对网站的收录。
适用网站:不太依靠搜索引擎的网站。
采集器会怎么做:减少单位时间的访问次数,减低采集效率。
希望可以帮到你!
2. 手机如何加密,浏览网站,防止抓取
方法/步骤
设备准备工作:一台带有无线网卡的PC或者笔记本电脑,然后将电脑和手机连接到同一个Wi-Fi网络中,并且保证二者是在同一个ip网段内。
下载安装Fiddler及fiddlercertmaker,其中fiddlercertmaker扩展主要是为了抓取https的加密连接,如果没有这方面的需求,可以省略掉此扩展的下载安装。网络关键字“Fiddler”,第一个是网络下载中心的软件下载,可以直接下载,也可以到第二个的官网下载,官网有两个版本,分别基于.Net4和.Net2,可酌情下载。
安装过程就省略了,没有任何需要功能设置的选项,只需选择安装路径即可。安装后,运行Fiddler。运行后的窗口如下图。
点击“Tools”菜单,选择“Fiddler Options...”菜单,打开设置窗体。
在设置窗体中,切换到“”页面,请对照页面进行完全一样的选项设置。
获取电脑的IP地址,如图所示:在打开的Fiddler窗口中,工具栏的最右边,找到online按钮,鼠标移动到按钮上,既有提示信息显示了。记下这个IP地址,稍后需要在手机中设置此地址。
手机设置,设置代理服务地址及端口。因手上只有小米2一台,所以设置的截图也是此手机的,具体的设置方法可能手机略有不同吧,这个就请自行研究了。
手机访问了天猫,再看看电脑端,哈哈,就是这个数据了。
抓取https的数据包,需要下载一个扩展组件fiddlercertmaker,可以网络这个关键词或是在官网下载。下载后,直接安装即可。
在Fiddler中选项设置中,点击菜单栏上的 Tools - Fiddler Options - HTTPS,勾选上Decrypt HTTPS traffic ,然后重启Fiddler。
在手机浏览器中,直接访问电脑端的IP地址+端口。比如我这里的:192.168.31.162:8888,在打开的页面中点击下载证书连接。
接下来可以手机访问一个https的连接了。看看抓到的数据吧。至此,手机访问的数据都可以在PC端进行抓取分析了。
3. 用MD5加密分页文件名防采集,会影响搜索引擎蜘蛛对其收录吗
目前防采集的方法有很多种,先介绍一下常见防采集策略方法和它的弊端及采集对策:
一、判断一个IP在一定时间内对本站页面的访问次数,如果明显超过了正常人浏览速度,就拒绝此IP访问
弊端:
1、此方法只适用于动态页面,如:asp\jsp\php等…静态页面无法判断某个IP一定时间访问本站页面的次数
2、此方法会严重影响搜索引擎蜘蛛对其收录,因为搜索引擎蜘蛛收录时,浏览速度都会比较快而且是多线程。此方法也会拒绝搜索引擎蜘蛛收录站内文件
采集对策:只能放慢采集速度,或者不采
建议:做个搜索引擎蜘蛛的IP库,只允许搜索引擎蜘蛛快速浏览站内内容。搜索引擎蜘蛛的IP库的收集,也不太容易,一个搜索引擎蜘蛛,也不一定只有一个固定的IP地址。
评论:此方法对防采集比较有效,但却会影响搜索引擎对其收录。
二、用javascript加密内容页面
弊端:此方法适用于静态页面,但会严重影响搜索引擎对其收录情况,搜索引擎收到到的内容,也都是加密后的内容
采集对策:建议不采,如非要采,就把解密码的JS脚本也采下来。
建议:目前没有好的改良建议
评论:建议指望搜索引擎带流量的站长不要使用此方法。
三、把内容页面里的特定标记替换为”特定标记+隐藏版权文字“
弊端:此方法弊端不大,仅仅会增加一点点的页面文件大小,但容易反采集
采集对策:把采集来的含有隐藏版权文字内容的版权文字替掉,或替换成自己的版权。
建议:目前没有好的改良建议
评论:自己感觉实用价值不大,就算是加上随机的隐藏文字,也等于画蛇添足。
四、只允许用户登陆后才可以浏览
弊端:此方法会严重影响搜索引擎蜘蛛对其收录
采集对策:目前落伍已经有人发了对策文章 ,具体对策就看这个吧《ASP小偷程序如何利用XMLHTTP实现表单的提交以及cookies或session的发送》
建议:目前没有好的改良建议
评论:建议指望搜索引擎带流量的站长不要使用此方法。不过此方法防一般的采集程序,还是有点效果的。
五、用javascript、vbscript脚本做分页
弊端:影响搜索引擎对其收录
采集对策:分析javascript、vbscript脚本,找出其分页规则,自己做个对应此站的分页集合页即可。
建议:目前没有好的改良建议
评论:感觉懂点脚本语言的人都能找出其分页规则
六、只允许通过本站页面连接查看,如:Request.ServerVariables(”HTTP_REFERER”)
弊端:影响搜索引擎对其收录
采集对策:不知道能不能模拟网页来源。。。。目前我没有对应此方法的采集对策
建议:目前没有好的改良建议
评论:建议指望搜索引擎带流量的站长不要使用此方法。不过此方法防一般的采集程序,还是有点效果的。
从以上可以看出,目前常用的防采集方法,要么会对搜索引擎收录有较大影响,要么防采集效果不好,起不到防采集的效果。那么,还有没有一种有效防采集,而又不影响搜索引擎收录的方法呢?那就请继续往下看吧,精彩的地方马上呈献给大家。
下面就是我的防采集策略,防采集而又不防搜索引擎
从前面的我讲的采集原理大家可以看出,绝大多数采集程序都是靠分析规则来进行采集的,如分析分页文件名规则、分析页面代码规则。
一、分页文件名规则防采集对策
大部分采集器都是靠分析分页文件名规则,进行批量、多页采集的。如果别人找不出你的分页文件的文件名规则,那么别人就无法对你的网站进行批量多页采集。
实现方法:
我认为用MD5加密分页文件名是一个比较好的方法,说到这里,有人会说,你用MD5加密分页文件名,别人根据此规则也可以模拟你的加密规则得到你的分页文件名。
我要指出的是我们加密分页文件名时,不要只加密文件名变化的部分
如果I代表分页的页码,那么我们不要这样加密
page_name=Md5(I,16)&”.htm”
最好给要加密的页码上再跟进一个或多个字符,如:page_name=Md5(I&“任意一个或几个字母”,16)&”.htm”
因为MD5是无法反解密的,别人看到的会页字母是MD5加密后的结果,所以加人也无法知道你在 I 后面跟进的字母是什么,除非他用暴力****MD5,不过不太现实。
二、页面代码规则防采集对策
如果说我们的内容页面无代码规则,那么别人就无法从你的代码中提取他们所需要的一条条内容。
所以我们要的这一步做到防采集,就要使代码无规则。
实现方法:
使对方需要提取的标记随机化
1、定制多个网页模板,每个网页模板里的重要HTML标记不同,呈现页面内容时,随机选取网页模板,有的页面用CSS+DIV布局,有的页面用table布局,此方法是麻烦了点,一个内容页面,要多做几个模板页面,不过防采集本身就是一件很烦琐的事情,多做一个模板,能起到防采集的作用,对很多人来说,都是值得的。
2、如果嫌上面的方法太麻烦,把网页里的重要HTML标记随机化,也可以。
做的网页模板越多,html代码越是随机化,对方分析起内容代码时,就越麻烦,对方针对你的网站专门写采集策略时,难度就更大,在这个时候,绝大部分人,都会知难而退,因为这此人就是因为懒,才会采集别人网站数据嘛~~~再说一下,目前大部分人都是拿别人开发的采集程序去采集数据,自己开发采集程序去采集数据的人毕竟是少数。
还有些简单的思路提供给大家:
1、把对数据采集者重要,而对搜索引擎不重要的内容用客户端脚本显示
2、把一页数据,分为N个页面显示,也是加大采集难度的方法
3、用更深层的连接,因为目前大部分采集程序只能采集到网站内容的前3层,如果内容所在的连接层更深,也可以避免被采集。不过这样可能会给客户造成浏览上的不便。
如:
大多网站都是 首页—-内容索引分页—-内容页
如果改成:
首页—-内容索引分页—-内容页入口—-内容页
注:内容页入口最好能加上自动转入内容页的代码
4. 火车头采集网站代码加密防采集怎么破解
再加密也会被浏览器解析,可以用抓包工具来破解或者使用火车浏览器 八爪鱼是不行的