當前位置:首頁 » 編程語言 » php防採集

php防採集

發布時間: 2022-07-12 04:43:15

『壹』 wordpress文章怎麼防止復制採集

wordpress防止復制代碼方法
在後台-外觀-編輯裡面的「footer.php」文件裡面的</body>標簽之前加入
<html><head><title>本章原創文章,不能復制!</title></head><script>functionstop(){alert(「本站版權所有,禁止復制! 「);returnfalse;}document.oncontextmenu=stop;</script><bodyonselectstart=」returnfalse」onpaste=」returnfalse」on=」returnfalse;」oncut=」returnfalse;」></body></html>
能夠防止別人復制你的文章!

wordprss系統文章來源自動生成
禁止右擊復制,其實對於用戶來說不是很友好,所以也有人想出,利用下面這種方法,將文章來源信息自動在復制的時候生成,在wordpress的後台裡面,在外觀–編輯裡面,選擇footer.php裡面,在</body>標簽之前,加入下面這段代碼,在復制的時候,就會自動生成「本文源自:##的博客(首頁網址),詳細參考來自:文章網址」
<script type=」text/javascript」>document.body.on = function (){setTimeout( function (){var text = clipboardData.getData(「text」);if (text){ text = text + 「
本文源自:##的博客 (http://www.ke808.com),詳細參考:「+location.href; clipboardData.setData(「text」, text);}}, 100 )}</script>

注意事項
不過很多瀏覽器自帶屏蔽js腳本執行的功能,只要懂的此項技術的人,就可以利用這個屏蔽js腳本執行的功能,來復制文章,上面三種方法就無法湊效了!

『貳』 php抓取數據

像這樣採集的程序一般把循環的速度搞一下,如果太快,一個網速跟不上,一是伺服器設置了防採集或是防CC攻擊等,如果你每5分鍾採集一次,這樣,肯定不會受到限制,如果你一分鍾採集100或是更多次這伺服器會限制你訪問,認為你是惡意攻擊,明白?就像網路或google 機器人一樣,如果不做限制採集過多,會把伺服器拉死。

『叄』 求一個好用的php函數正文防採集添加版權干擾字元

/**
*正文干擾
*
*@param$contents 正文
*@param$num 干擾次數
*
*@returnstring 有干擾字元的正文
*/
functionganrao($contents,$num=1){
$str=$contents;
$array=array(
'<pstyle="color:white">干擾字元1</p>',
'<divstyle="color:white">干擾字元2</div>',
'<spanstyle="color:white">干擾字元3</span>',
'<pstyle="color:white">干擾字元4</p>',
'<fontcolor="#F5FAFE">干擾字元5</font>',
);
$list=explode('</p>',$str);
$list_total_num=count($list);
$array_total_num=count($array);

for($i=1;$i<=$num;$i++){
$rand_no=rand(0,$list_total_num-2);
$array_no=rand(0,$array_total_num-1);
$list[$rand_no].=$array[$array_no];
}

$result=implode('</p>',$list);

return$result;
}
echoganrao($content,2);

『肆』 ASP與PHP如何防採集

你的內容如果有很多頁的話,一定程度上可以通過session 變數,把頁面的id 訪問的時間存進去,然後刪除5分鍾前訪問的頁面的id,如果發現比如有5個不同的id在session裡面。就直接返回主頁上。當然這個方法也防了一般用戶。這個限制的邏輯在於,一般用戶是不可能在x分鍾之內看超過y個界面。 x y 的定義自己來定.

『伍』 網頁防採集策略

網頁防採集策略
目前防採集的方法有很多種,先介紹一下常見防採集策略方法和它的弊端及採集對策:

一、判斷一個IP在一定時間內對本站頁面的訪問次數,如果明顯超過了正常人瀏覽速度,就拒絕此IP訪問。

弊端:
1、此方法只適用於動態頁面,如:asp\\jsp\\php等...靜態頁面無法判斷某個IP一定時間訪問本站頁面的次數。
2、此方法會嚴重影響搜索引擎蜘蛛對其收錄,因為搜索引擎蜘蛛收錄時,瀏覽速度都會比較快而且是多線程。此方法也會拒絕搜索引擎蜘蛛收錄站內文件。
採集對策:只能放慢採集速度,或者不採。
建議:做個搜索引擎蜘蛛的IP庫,只允許搜索引擎蜘蛛快速瀏覽站內內容。搜索引擎蜘蛛的IP庫的收集,也不太容易,一個搜索引擎蜘蛛,也不一定只有一個固定的IP地址。
評論:此方法對防採集比較有效,但卻會影響搜索引擎對其收錄。

二、用javascript加密內容頁面

弊端:此方法適用於靜態頁面,但會嚴重影響搜索引擎對其收錄情況,搜索引擎收到到的內容,也都是加密後的內容。
採集對策:建議不採,如非要采,就把解密碼的JS腳本也採下來。
建議:目前沒有好的改良建議。
評論:建議指望搜索引擎帶流量的站長不要使用此方法。

三、把內容頁面里的特定標記替換為」特定標記+隱藏版權文字「

弊端:此方法弊端不大,僅僅會增加一點點的頁面文件大小,但容易反採集。
採集對策:把採集來的含有隱藏版權文字內容的版權文字替掉,或替換成自己的版權。
建議:目前沒有好的改良建議。
評論:自己感覺實用價值不大,就算是加上隨機的隱藏文字,也等於畫蛇添足。

四、只允許用戶登陸後才可以瀏覽

弊端:此方法會嚴重影響搜索引擎蜘蛛對其收錄
採集對策:目前落伍已經有人發了對策文章 ,具體對策就看這個吧《ASP小偷程序如何利用XMLHTTP實現表單的提交以及cookies或session的發送》。
建議:目前沒有好的改良建議。
評論:建議指望搜索引擎帶流量的站長不要使用此方法。不過此方法防一般的採集程序,還是有點效果的。

五、用javascript、vbscript腳本做分頁

弊端:影響搜索引擎對其收錄。
採集對策:分析javascript、vbscript腳本,找出其分頁規則,自己做個對應此站的分頁集合頁即可。
建議:目前沒有好的改良建議。
評論:感覺懂點腳本語言的人都能找出其分頁規則。

六、只允許通過本站頁面連接查看,如:Request.ServerVariables(「HTTP_REFERER「)

弊端:影響搜索引擎對其收錄。
採集對策:不知道能不能模擬網頁來源。。。。目前我沒有對應此方法的採集對策。
建議:目前沒有好的改良建議。
評論:建議指望搜索引擎帶流量的站長不要使用此方法。不過此方法防一般的採集程序,還是有點效果的。

從以上可以看出,目前常用的防採集方法,要麼會對搜索引擎收錄有較大影響,要麼防採集效果不好,起不到防採集的效果。那麼,還有沒有一種有效防採集,而又不影響搜索引擎收錄的方法呢?那就請繼續往下看吧!

作者:pujiwang 2006-6-22 14:12:15 | 回復此帖子

廣而告之:

2 回復:[轉帖]網頁防採集策略 防採集的一些思路的探討
防採集的一些思路的探討
關鍵詞: 採集

1、用不同的模板
對於用程序的網站來說,不大可行,一個網站的模板最多也就幾套吧。

2、使用robots禁止訪問網頁目錄
這個方法可以有效的防止採集,不過將搜索引擎也封掉了,對於靠搜索引擎吃飯的站長們來說,得不償失。
一個例子,Disallow 後面就是禁止訪問的目錄:

作者: 218.19.189.* 封 2006-10-20 11:35 回復此發言 刪除

--------------------------------------------------------------------------------

2 [轉帖]網頁防採集策略

User-agent: *
Disallow: /admin
Disallow: /attachments
Disallow: /images
Disallow: /forumdata
Disallow: /include

3、使用HTTP_REFERER禁止採集,發現來自非本站連接就禁止察看葉面,就像前一段落伍im286.net防DDOS那個禁止調用一樣。
這個方法可以比較有效的防止採集,不過也一樣把搜索引擎封掉了,對於靠搜索引擎吃飯的站長們來說,得不償失。
對高手無效,因為HTTP_REFERER可以偽造。但對一般使用採集的人來說,已經足夠應付了。
例:

php
if(preg_replace("/https?://([^/]+).*/i", "1", $HTTP_SERVER_VARS['HTTP_REFERER']) != $HTTP_SERVER_VARS['HTTP_HOST']) {
exit('警告----你的操作已經被禁止。http://www.ic98.com';);
}

4、使用HTTP_REFERER偽造內容
這個方法可以比較有效的防止採集,不過對於搜索引擎來說,查到的東西跟你偽造的東西一樣的,可能會影響收錄。(如有不對,請高手指出)
同上,對於高手無效。

5、使用java加密內容。
這個可能會比較有效,但是我對java一竅不通,也就不清楚如何入手了。
但我想,既然你這樣使得別人採集到亂碼,搜索引擎有可能也是收錄到亂碼的(我不清楚搜索引擎怎麼工作,不過我猜測他們是察看網頁源代碼的。),也就影響收錄。

6、使用java加密網址
同上,有可能讓搜索引擎無法搜索到你的網頁。

7、生成pdf文件、生成圖片
這個方法可以比較有效的防止採集,不過照樣讓搜索引擎望而卻止。

8、加上自己的版權信息
這個方法最大的好處就是不影響搜索引擎,效果馬馬虎虎,一般上可以讓採集者採集到帶有自己版權的稿件內容。但是對於可以過濾廣告的採集程序來說,不大有效。

以下是作者給俺的PM:

Quote:
你的版權是不是加了你的網站和網址?
只要把網址和網站名替換成他的就可以了啊.這樣還讓他有了版權功能呢.
反正防采真是頭疼....

有點麻煩,我的思路是將網站名稱分成一個一個字來顯示,他不可能將每個字都替換掉吧?不過要這樣我就沒辦法了。比如說我將我的 武俠網 拆開,分成

武俠網

,$rand_color*是隨機顏色,可以自己控制的,如果是動態網頁的話,還配合HTTP_REFERER來搞隨機,這樣子隨機性就更大了。一般上,盡量製造難度就是了。模板也可以製造隨機性,幾個相似的模板輪流來弄,這樣子讓人採集的難度更大。

不過說實話,要使他們真要搞,那是沒辦法的事,不過至少要花他們很多的時間去研究。在此之前,他們可能沒耐性轉向別的站了。

另外,最好不要讓人知道你使用隨機函數。一般人只是稍微看一下網頁代碼,就開始採集了。

作者:pujiwang 2006-6-22 14:13:53 | 回復此帖子

3 回復:[轉帖]網頁防採集策略
防採集程序
下午無聊寫著完,寫完後自己仔細看了看防止採集還是有一定的效果的,哈哈,要的拿去用吧!

<%
Dim AppealNum,AppealCount
AppealNum=10 '同一IP60秒內請求限制10次
AppealCount=Request.Cookies("AppealCount")
If AppealCount="" Then
response.Cookies("AppealCount")=1
AppealCount=1
response.cookies("AppealCount").expires=dateadd("s",60,now())
Else
response.Cookies("AppealCount")=AppealCount+1
response.cookies("AppealCount").expires=dateadd("s",60,now())
End If
if int(AppealCount)>int(AppealNum) then
response.write "歇一會兒吧!整天採集你煩不煩啊!"
response.end
End If
%>

作者:pujiwang 2006-6-22 14:16:31 | 回復此帖子

4 回復:[轉帖]網頁防採集策略
[討論]防採集這幾天上網,竟然也現我的整站被人家全部採集去了。暈倒,幾年的資料就這樣便宜人家。

還好,人家是個懶蟲,欄目都不分,鬼才會去看。

這樣才想起怎樣防止採集的方法。

注意,只是討論可行性,還沒有提供解決方案。

採集與搜索引擎的機器人不同。採集需要對網頁進行分析,以找到規則,分別對標題和內容進行讀取並記錄到資料庫中。

如果我們能夠把網頁做成沒有規則,採集也就無從入手了。

說到規則,我就想趣了空格。

空格這東西,在HTM的<>中,並不產生作用,也就是說,一個空格的位置,你多加幾個也是沒關系的。象<table>你可以寫成< table>,<table >,< table >。都可以,所以,如果在網頁裡面,特別是採集程序重點分析的位置,我們利用程序,在這些位置加些空格,採集也就難以下手了,就算採到了,也就幾篇而已,影響不大。

我准備這樣做,象原來在模板中的<table>,我會改成<{$space1$}table{$space2$}>,在這里,{$space1$}和{$space2$}是自定義標簽(也可以融合到程序中),然後在程序中使用隨機數來決定這兩個標簽用多少個空格來代替。

呵呵,人家現在想用<table>來做為特徵採集是完全做不到的了。但對於我的網頁,顯示上一點影響也沒有,對於搜索引擎的機器人也一點影響沒有。

我想這應該是最合適的方法。

希望做過採集或改過採集的討論一下。

作者:pujiwang 2006-6-22 14:18:27 | 回復此帖子

『陸』 PHP如何突破防採集

function get_resource($url)
{
$c = curl_init();
curl_setopt($c, CURLOPT_URL, $url);
curl_setopt($c, CURLOPT_RETURNTRANSFER, 1);
echo $sourse = curl_exec($c);
curl_close($c);
return $sourse;
}

輸入你想採集的網站就行了

『柒』 php如何防止網站內容被採集

1、限制IP地址單位時間的訪問次數
分析:沒有哪個常人一秒鍾內能訪問相同網站5次,除非是程序訪問,而有這種喜好的,就剩下搜索引擎爬蟲和討厭的採集器了。
弊端:一刀切,這同樣會阻止搜索引擎對網站的收錄
適用網站:不太依靠搜索引擎的網站
採集器會怎麼做:減少單位時間的訪問次數,減低採集效率
2、屏蔽ip
分析:通過後台計數器,記錄來訪者ip和訪問頻率,人為分析來訪記錄,屏蔽可疑Ip。
弊端:似乎沒什麼弊端,就是站長忙了點
適用網站:所有網站,且站長能夠知道哪些是google或者網路的機器人
採集器會怎麼做:打游擊戰唄!利用ip代理採集一次換一次,不過會降低採集器的效率和網速(用代理嘛)。
3、利用js加密網頁內容
Note:這個方法我沒接觸過,只是從別處看來
分析:不用分析了,搜索引擎爬蟲和採集器通殺
適用網站:極度討厭搜索引擎和採集器的網站
採集器會這么做:你那麼牛,都豁出去了,他就不來采你了
4、網頁里隱藏網站版權或者一些隨機垃圾文字,這些文字風格寫在css文件中
分析:雖然不能防止採集,但是會讓採集後的內容充滿了你網站的版權說明或者一些垃圾文字,因為一般採集器不會同時採集你的css文件,那些文字沒了風格,就顯示出來了。
適用網站:所有網站
採集器會怎麼做:對於版權文字,好辦,替換掉。對於隨機的垃圾文字,沒辦法,勤快點了。
5、用戶登錄才能訪問網站內容
分析:搜索引擎爬蟲不會對每個這樣類型的網站設計登錄程序。聽說採集器可以針對某個網站設計模擬用戶登錄提交表單行為。
適用網站:極度討厭搜索引擎,且想阻止大部分採集器的網站
採集器會怎麼做:製作擬用戶登錄提交表單行為的模塊

『捌』 php怎麼防止抓包工具

我是做數據採集的,
在我看來,除了輸入驗證碼 , 沒有什麼能對我起到很好的防採集,

一般大的網站都是採用 網頁加入一次性隨機值 ,再有前端JS 生成秘鑰 ,最後一並提交加密了的數據 ,這種沒什麼效果 。對一般的人可以做下防禦 。但是,我只要找出它的JS加密函數 。 使用一個JS伺服器(node.js),或php的 php 改寫的js加密實現過程 ,加密初始值,再模擬發送 。所以,這個也沒什麼多大作用 。

對於驗證碼 ,一般簡單的都可以程序識別 ,復雜的提交到前台讓手動輸入 。再一並發送。 這種用戶體驗不好。 慎行。

總的來說,建議用JS 加密吧 。
但是,還是防禦不了。

我一般用 filefox 的 filebug 或 小提琴工具 。
目前大半年了,沒有破解不了的網站 。

我用我的php程序 ,可以操作你的網站 。實現 用戶操作 我的php程序 ,我的php程序 再去操作源網站 。

你可以去研究下 58同城網 的登錄 。那裡面一堆的加密 。 在我看來都是垃圾代碼 。 我的程序一鍵登錄進去。

『玖』 如何防止網站被採集

三種實用的方法。

1、文章頭尾加隨機廣告..
2、文章列表加隨機不同的鏈接標簽,比如<a href="",<a class="dds" href=''
3、正文頭尾或列表頭尾添加<!--重復特徵代碼-->

第一種防採集方法:
下面我詳細說一下這三種方法的實際應用:

如果全加上,絕對可以有效的防採集,單獨加一種就可以讓採集者頭疼。。
完全可以對付通用的CMS採集程序。。

在採集時,通常都是指定頭尾特徵從哪到哪過濾.這里我們先講第一種方法,文章頭尾加隨機廣告..
隨機廣告是不固定的。

比如你的文章內容是"歡迎訪問阿里西西",那麼隨機廣告的加入方法:
<div id="xxx">
隨機廣告1歡迎訪問阿里西西隨機廣告2
</div>
注:隨機廣告1和隨機廣告2每篇文章只要隨機顯示一個就可以了.

第二種防採集方法:
<!--<div id="xxx_文章ID">-->
其它標題或內容...
<!--<div id="xxx_文章ID">--> <div id="xxx_文章ID">
隨機廣告1歡迎訪問阿里西西隨機廣告2
<--</div>-->
</div>
<--</div>-->

這是第二種防採集方法。在文章正文頁面插入重復特徵頭尾代碼的注釋。
當然,這個可以用正則去掉,但足於對付通用的採集系統。。

第三種防採集方法:

第三種加在文章的列表,隨便鏈接樣式:
<a href="xxx.html">標題一</a>
<a alt="xxx" href="xxx.html">標題二</a>
<a href='xxx.html'>標題三</a>
<a href=xxx.html>標題四</a>

原理是讓採集的人無法抓到列表鏈接規律,無法批量進行採集.
如果三種方法全部加上,我想一定能讓想採集的人頭疼半天而放棄的..
如果你還問,如何防止別人復制採集呢?要做到這一點容易,把你的網站的網線拔了,自己給自己看就好了.哈哈.

如果你的文章來自原創,那像可以加上版權聲明,別人隨意轉載時,你可以要求對方刪除你有版權的文章.

『拾』 終於碰到一個網站採集不了防採集怎麼這么強

ajax載入的,cms這類的都採集不了。有老外寫的php插件你可以找找。就可以

熱點內容
滑板鞋腳本視頻 發布:2025-02-02 09:48:54 瀏覽:432
群暉怎麼玩安卓模擬器 發布:2025-02-02 09:45:23 瀏覽:557
三星安卓12彩蛋怎麼玩 發布:2025-02-02 09:44:39 瀏覽:743
電腦顯示連接伺服器錯誤 發布:2025-02-02 09:24:10 瀏覽:536
瑞芯微開發板編譯 發布:2025-02-02 09:22:54 瀏覽:146
linux虛擬機用gcc編譯時顯示錯誤 發布:2025-02-02 09:14:01 瀏覽:232
java駝峰 發布:2025-02-02 09:13:26 瀏覽:651
魔獸腳本怎麼用 發布:2025-02-02 09:10:28 瀏覽:532
linuxadobe 發布:2025-02-02 09:09:43 瀏覽:212
sql2000資料庫連接 發布:2025-02-02 09:09:43 瀏覽:726