php防採集
『壹』 wordpress文章怎麼防止復制採集
wordpress防止復制代碼方法
在後台-外觀-編輯裡面的「footer.php」文件裡面的</body>標簽之前加入
<html><head><title>本章原創文章,不能復制!</title></head><script>functionstop(){alert(「本站版權所有,禁止復制! 「);returnfalse;}document.oncontextmenu=stop;</script><bodyonselectstart=」returnfalse」onpaste=」returnfalse」on=」returnfalse;」oncut=」returnfalse;」></body></html>
能夠防止別人復制你的文章!
wordprss系統文章來源自動生成
禁止右擊復制,其實對於用戶來說不是很友好,所以也有人想出,利用下面這種方法,將文章來源信息自動在復制的時候生成,在wordpress的後台裡面,在外觀–編輯裡面,選擇footer.php裡面,在</body>標簽之前,加入下面這段代碼,在復制的時候,就會自動生成「本文源自:##的博客(首頁網址),詳細參考來自:文章網址」
<script type=」text/javascript」>document.body.on = function (){setTimeout( function (){var text = clipboardData.getData(「text」);if (text){ text = text + 「
本文源自:##的博客 (http://www.ke808.com),詳細參考:「+location.href; clipboardData.setData(「text」, text);}}, 100 )}</script>
注意事項
不過很多瀏覽器自帶屏蔽js腳本執行的功能,只要懂的此項技術的人,就可以利用這個屏蔽js腳本執行的功能,來復制文章,上面三種方法就無法湊效了!
『貳』 php抓取數據
像這樣採集的程序一般把循環的速度搞一下,如果太快,一個網速跟不上,一是伺服器設置了防採集或是防CC攻擊等,如果你每5分鍾採集一次,這樣,肯定不會受到限制,如果你一分鍾採集100或是更多次這伺服器會限制你訪問,認為你是惡意攻擊,明白?就像網路或google 機器人一樣,如果不做限制採集過多,會把伺服器拉死。
『叄』 求一個好用的php函數正文防採集添加版權干擾字元
/**
*正文干擾
*
*@param$contents 正文
*@param$num 干擾次數
*
*@returnstring 有干擾字元的正文
*/
functionganrao($contents,$num=1){
$str=$contents;
$array=array(
'<pstyle="color:white">干擾字元1</p>',
'<divstyle="color:white">干擾字元2</div>',
'<spanstyle="color:white">干擾字元3</span>',
'<pstyle="color:white">干擾字元4</p>',
'<fontcolor="#F5FAFE">干擾字元5</font>',
);
$list=explode('</p>',$str);
$list_total_num=count($list);
$array_total_num=count($array);
for($i=1;$i<=$num;$i++){
$rand_no=rand(0,$list_total_num-2);
$array_no=rand(0,$array_total_num-1);
$list[$rand_no].=$array[$array_no];
}
$result=implode('</p>',$list);
return$result;
}
echoganrao($content,2);
『肆』 ASP與PHP如何防採集
你的內容如果有很多頁的話,一定程度上可以通過session 變數,把頁面的id 訪問的時間存進去,然後刪除5分鍾前訪問的頁面的id,如果發現比如有5個不同的id在session裡面。就直接返回主頁上。當然這個方法也防了一般用戶。這個限制的邏輯在於,一般用戶是不可能在x分鍾之內看超過y個界面。 x y 的定義自己來定.
『伍』 網頁防採集策略
網頁防採集策略
目前防採集的方法有很多種,先介紹一下常見防採集策略方法和它的弊端及採集對策:
一、判斷一個IP在一定時間內對本站頁面的訪問次數,如果明顯超過了正常人瀏覽速度,就拒絕此IP訪問。
弊端:
1、此方法只適用於動態頁面,如:asp\\jsp\\php等...靜態頁面無法判斷某個IP一定時間訪問本站頁面的次數。
2、此方法會嚴重影響搜索引擎蜘蛛對其收錄,因為搜索引擎蜘蛛收錄時,瀏覽速度都會比較快而且是多線程。此方法也會拒絕搜索引擎蜘蛛收錄站內文件。
採集對策:只能放慢採集速度,或者不採。
建議:做個搜索引擎蜘蛛的IP庫,只允許搜索引擎蜘蛛快速瀏覽站內內容。搜索引擎蜘蛛的IP庫的收集,也不太容易,一個搜索引擎蜘蛛,也不一定只有一個固定的IP地址。
評論:此方法對防採集比較有效,但卻會影響搜索引擎對其收錄。
二、用javascript加密內容頁面
弊端:此方法適用於靜態頁面,但會嚴重影響搜索引擎對其收錄情況,搜索引擎收到到的內容,也都是加密後的內容。
採集對策:建議不採,如非要采,就把解密碼的JS腳本也採下來。
建議:目前沒有好的改良建議。
評論:建議指望搜索引擎帶流量的站長不要使用此方法。
三、把內容頁面里的特定標記替換為」特定標記+隱藏版權文字「
弊端:此方法弊端不大,僅僅會增加一點點的頁面文件大小,但容易反採集。
採集對策:把採集來的含有隱藏版權文字內容的版權文字替掉,或替換成自己的版權。
建議:目前沒有好的改良建議。
評論:自己感覺實用價值不大,就算是加上隨機的隱藏文字,也等於畫蛇添足。
四、只允許用戶登陸後才可以瀏覽
弊端:此方法會嚴重影響搜索引擎蜘蛛對其收錄
採集對策:目前落伍已經有人發了對策文章 ,具體對策就看這個吧《ASP小偷程序如何利用XMLHTTP實現表單的提交以及cookies或session的發送》。
建議:目前沒有好的改良建議。
評論:建議指望搜索引擎帶流量的站長不要使用此方法。不過此方法防一般的採集程序,還是有點效果的。
五、用javascript、vbscript腳本做分頁
弊端:影響搜索引擎對其收錄。
採集對策:分析javascript、vbscript腳本,找出其分頁規則,自己做個對應此站的分頁集合頁即可。
建議:目前沒有好的改良建議。
評論:感覺懂點腳本語言的人都能找出其分頁規則。
六、只允許通過本站頁面連接查看,如:Request.ServerVariables(「HTTP_REFERER「)
弊端:影響搜索引擎對其收錄。
採集對策:不知道能不能模擬網頁來源。。。。目前我沒有對應此方法的採集對策。
建議:目前沒有好的改良建議。
評論:建議指望搜索引擎帶流量的站長不要使用此方法。不過此方法防一般的採集程序,還是有點效果的。
從以上可以看出,目前常用的防採集方法,要麼會對搜索引擎收錄有較大影響,要麼防採集效果不好,起不到防採集的效果。那麼,還有沒有一種有效防採集,而又不影響搜索引擎收錄的方法呢?那就請繼續往下看吧!
作者:pujiwang 2006-6-22 14:12:15 | 回復此帖子
廣而告之:
2 回復:[轉帖]網頁防採集策略 防採集的一些思路的探討
防採集的一些思路的探討
關鍵詞: 採集
1、用不同的模板
對於用程序的網站來說,不大可行,一個網站的模板最多也就幾套吧。
2、使用robots禁止訪問網頁目錄
這個方法可以有效的防止採集,不過將搜索引擎也封掉了,對於靠搜索引擎吃飯的站長們來說,得不償失。
一個例子,Disallow 後面就是禁止訪問的目錄:
作者: 218.19.189.* 封 2006-10-20 11:35 回復此發言 刪除
--------------------------------------------------------------------------------
2 [轉帖]網頁防採集策略
User-agent: *
Disallow: /admin
Disallow: /attachments
Disallow: /images
Disallow: /forumdata
Disallow: /include
3、使用HTTP_REFERER禁止採集,發現來自非本站連接就禁止察看葉面,就像前一段落伍im286.net防DDOS那個禁止調用一樣。
這個方法可以比較有效的防止採集,不過也一樣把搜索引擎封掉了,對於靠搜索引擎吃飯的站長們來說,得不償失。
對高手無效,因為HTTP_REFERER可以偽造。但對一般使用採集的人來說,已經足夠應付了。
例:
php
if(preg_replace("/https?://([^/]+).*/i", "1", $HTTP_SERVER_VARS['HTTP_REFERER']) != $HTTP_SERVER_VARS['HTTP_HOST']) {
exit('警告----你的操作已經被禁止。http://www.ic98.com';);
}
4、使用HTTP_REFERER偽造內容
這個方法可以比較有效的防止採集,不過對於搜索引擎來說,查到的東西跟你偽造的東西一樣的,可能會影響收錄。(如有不對,請高手指出)
同上,對於高手無效。
5、使用java加密內容。
這個可能會比較有效,但是我對java一竅不通,也就不清楚如何入手了。
但我想,既然你這樣使得別人採集到亂碼,搜索引擎有可能也是收錄到亂碼的(我不清楚搜索引擎怎麼工作,不過我猜測他們是察看網頁源代碼的。),也就影響收錄。
6、使用java加密網址
同上,有可能讓搜索引擎無法搜索到你的網頁。
7、生成pdf文件、生成圖片
這個方法可以比較有效的防止採集,不過照樣讓搜索引擎望而卻止。
8、加上自己的版權信息
這個方法最大的好處就是不影響搜索引擎,效果馬馬虎虎,一般上可以讓採集者採集到帶有自己版權的稿件內容。但是對於可以過濾廣告的採集程序來說,不大有效。
以下是作者給俺的PM:
Quote:
你的版權是不是加了你的網站和網址?
只要把網址和網站名替換成他的就可以了啊.這樣還讓他有了版權功能呢.
反正防采真是頭疼....
有點麻煩,我的思路是將網站名稱分成一個一個字來顯示,他不可能將每個字都替換掉吧?不過要這樣我就沒辦法了。比如說我將我的 武俠網 拆開,分成
武俠網
,$rand_color*是隨機顏色,可以自己控制的,如果是動態網頁的話,還配合HTTP_REFERER來搞隨機,這樣子隨機性就更大了。一般上,盡量製造難度就是了。模板也可以製造隨機性,幾個相似的模板輪流來弄,這樣子讓人採集的難度更大。
不過說實話,要使他們真要搞,那是沒辦法的事,不過至少要花他們很多的時間去研究。在此之前,他們可能沒耐性轉向別的站了。
另外,最好不要讓人知道你使用隨機函數。一般人只是稍微看一下網頁代碼,就開始採集了。
作者:pujiwang 2006-6-22 14:13:53 | 回復此帖子
3 回復:[轉帖]網頁防採集策略
防採集程序
下午無聊寫著完,寫完後自己仔細看了看防止採集還是有一定的效果的,哈哈,要的拿去用吧!
<%
Dim AppealNum,AppealCount
AppealNum=10 '同一IP60秒內請求限制10次
AppealCount=Request.Cookies("AppealCount")
If AppealCount="" Then
response.Cookies("AppealCount")=1
AppealCount=1
response.cookies("AppealCount").expires=dateadd("s",60,now())
Else
response.Cookies("AppealCount")=AppealCount+1
response.cookies("AppealCount").expires=dateadd("s",60,now())
End If
if int(AppealCount)>int(AppealNum) then
response.write "歇一會兒吧!整天採集你煩不煩啊!"
response.end
End If
%>
作者:pujiwang 2006-6-22 14:16:31 | 回復此帖子
4 回復:[轉帖]網頁防採集策略
[討論]防採集這幾天上網,竟然也現我的整站被人家全部採集去了。暈倒,幾年的資料就這樣便宜人家。
還好,人家是個懶蟲,欄目都不分,鬼才會去看。
這樣才想起怎樣防止採集的方法。
注意,只是討論可行性,還沒有提供解決方案。
採集與搜索引擎的機器人不同。採集需要對網頁進行分析,以找到規則,分別對標題和內容進行讀取並記錄到資料庫中。
如果我們能夠把網頁做成沒有規則,採集也就無從入手了。
說到規則,我就想趣了空格。
空格這東西,在HTM的<>中,並不產生作用,也就是說,一個空格的位置,你多加幾個也是沒關系的。象<table>你可以寫成< table>,<table >,< table >。都可以,所以,如果在網頁裡面,特別是採集程序重點分析的位置,我們利用程序,在這些位置加些空格,採集也就難以下手了,就算採到了,也就幾篇而已,影響不大。
我准備這樣做,象原來在模板中的<table>,我會改成<{$space1$}table{$space2$}>,在這里,{$space1$}和{$space2$}是自定義標簽(也可以融合到程序中),然後在程序中使用隨機數來決定這兩個標簽用多少個空格來代替。
呵呵,人家現在想用<table>來做為特徵採集是完全做不到的了。但對於我的網頁,顯示上一點影響也沒有,對於搜索引擎的機器人也一點影響沒有。
我想這應該是最合適的方法。
希望做過採集或改過採集的討論一下。
作者:pujiwang 2006-6-22 14:18:27 | 回復此帖子
『陸』 PHP如何突破防採集
function get_resource($url)
{
$c = curl_init();
curl_setopt($c, CURLOPT_URL, $url);
curl_setopt($c, CURLOPT_RETURNTRANSFER, 1);
echo $sourse = curl_exec($c);
curl_close($c);
return $sourse;
}
輸入你想採集的網站就行了
『柒』 php如何防止網站內容被採集
1、限制IP地址單位時間的訪問次數
分析:沒有哪個常人一秒鍾內能訪問相同網站5次,除非是程序訪問,而有這種喜好的,就剩下搜索引擎爬蟲和討厭的採集器了。
弊端:一刀切,這同樣會阻止搜索引擎對網站的收錄
適用網站:不太依靠搜索引擎的網站
採集器會怎麼做:減少單位時間的訪問次數,減低採集效率
2、屏蔽ip
分析:通過後台計數器,記錄來訪者ip和訪問頻率,人為分析來訪記錄,屏蔽可疑Ip。
弊端:似乎沒什麼弊端,就是站長忙了點
適用網站:所有網站,且站長能夠知道哪些是google或者網路的機器人
採集器會怎麼做:打游擊戰唄!利用ip代理採集一次換一次,不過會降低採集器的效率和網速(用代理嘛)。
3、利用js加密網頁內容
Note:這個方法我沒接觸過,只是從別處看來
分析:不用分析了,搜索引擎爬蟲和採集器通殺
適用網站:極度討厭搜索引擎和採集器的網站
採集器會這么做:你那麼牛,都豁出去了,他就不來采你了
4、網頁里隱藏網站版權或者一些隨機垃圾文字,這些文字風格寫在css文件中
分析:雖然不能防止採集,但是會讓採集後的內容充滿了你網站的版權說明或者一些垃圾文字,因為一般採集器不會同時採集你的css文件,那些文字沒了風格,就顯示出來了。
適用網站:所有網站
採集器會怎麼做:對於版權文字,好辦,替換掉。對於隨機的垃圾文字,沒辦法,勤快點了。
5、用戶登錄才能訪問網站內容
分析:搜索引擎爬蟲不會對每個這樣類型的網站設計登錄程序。聽說採集器可以針對某個網站設計模擬用戶登錄提交表單行為。
適用網站:極度討厭搜索引擎,且想阻止大部分採集器的網站
採集器會怎麼做:製作擬用戶登錄提交表單行為的模塊
『捌』 php怎麼防止抓包工具
我是做數據採集的,
在我看來,除了輸入驗證碼 , 沒有什麼能對我起到很好的防採集,
一般大的網站都是採用 網頁加入一次性隨機值 ,再有前端JS 生成秘鑰 ,最後一並提交加密了的數據 ,這種沒什麼效果 。對一般的人可以做下防禦 。但是,我只要找出它的JS加密函數 。 使用一個JS伺服器(node.js),或php的 php 改寫的js加密實現過程 ,加密初始值,再模擬發送 。所以,這個也沒什麼多大作用 。
對於驗證碼 ,一般簡單的都可以程序識別 ,復雜的提交到前台讓手動輸入 。再一並發送。 這種用戶體驗不好。 慎行。
總的來說,建議用JS 加密吧 。
但是,還是防禦不了。
我一般用 filefox 的 filebug 或 小提琴工具 。
目前大半年了,沒有破解不了的網站 。
我用我的php程序 ,可以操作你的網站 。實現 用戶操作 我的php程序 ,我的php程序 再去操作源網站 。
你可以去研究下 58同城網 的登錄 。那裡面一堆的加密 。 在我看來都是垃圾代碼 。 我的程序一鍵登錄進去。
『玖』 如何防止網站被採集
三種實用的方法。
1、文章頭尾加隨機廣告..
2、文章列表加隨機不同的鏈接標簽,比如<a href="",<a class="dds" href=''
3、正文頭尾或列表頭尾添加<!--重復特徵代碼-->
第一種防採集方法:
下面我詳細說一下這三種方法的實際應用:
如果全加上,絕對可以有效的防採集,單獨加一種就可以讓採集者頭疼。。
完全可以對付通用的CMS採集程序。。
在採集時,通常都是指定頭尾特徵從哪到哪過濾.這里我們先講第一種方法,文章頭尾加隨機廣告..
隨機廣告是不固定的。
比如你的文章內容是"歡迎訪問阿里西西",那麼隨機廣告的加入方法:
<div id="xxx">
隨機廣告1歡迎訪問阿里西西隨機廣告2
</div>
注:隨機廣告1和隨機廣告2每篇文章只要隨機顯示一個就可以了.
第二種防採集方法:
<!--<div id="xxx_文章ID">-->
其它標題或內容...
<!--<div id="xxx_文章ID">--> <div id="xxx_文章ID">
隨機廣告1歡迎訪問阿里西西隨機廣告2
<--</div>-->
</div>
<--</div>-->
這是第二種防採集方法。在文章正文頁面插入重復特徵頭尾代碼的注釋。
當然,這個可以用正則去掉,但足於對付通用的採集系統。。
第三種防採集方法:
第三種加在文章的列表,隨便鏈接樣式:
<a href="xxx.html">標題一</a>
<a alt="xxx" href="xxx.html">標題二</a>
<a href='xxx.html'>標題三</a>
<a href=xxx.html>標題四</a>
原理是讓採集的人無法抓到列表鏈接規律,無法批量進行採集.
如果三種方法全部加上,我想一定能讓想採集的人頭疼半天而放棄的..
如果你還問,如何防止別人復制採集呢?要做到這一點容易,把你的網站的網線拔了,自己給自己看就好了.哈哈.
如果你的文章來自原創,那像可以加上版權聲明,別人隨意轉載時,你可以要求對方刪除你有版權的文章.
『拾』 終於碰到一個網站採集不了防採集怎麼這么強
ajax載入的,cms這類的都採集不了。有老外寫的php插件你可以找找。就可以