English Deutsch Français Italiano Español Português 繁體中文 Bahasa Indonesia Tiếng Việt ภาษาไทย
所有分類

砍站軟體、收集E-mail名單的機器人蜘蛛,都可能對網站造成重大負擔,平白浪費server資源,導致真正上網站的"活人"上去很慢,各位大大有什麼方法可以防制自己的網站被這樣子惡搞?

2005-08-26 23:01:48 · 2 個解答 · 發問者 Anonymous in 電腦與網際網路 程式設計

Java殺手大大猴厲害!
不過這樣的方法是被動的收集black list,有沒有什麼方法是可以主動防制的呢?

2005-08-27 17:50:29 · update #1

2 個解答

這個問題我已經解決了
這個方法心機很重
你可以在你的網頁上做一個超連結
這個超連結是活人點不到的
例如
或是
或是


不過機器人不會知道活人點不到
如果機器人進入這個連結
你就在這個連結網址寫一支程式紀錄他的IP到資料庫然後把他檔掉
有時候一些很賤的人會故意用 Proxy 來砍站
你要小心不要檔到 Proxy 否則會檔到無辜的人
如果有人用 Proxy 來連線 $_SERVER["REMOTE_ADDR"] 會變成 Proxy 的 IP
這時候你要用 $_SERVER["HTTP_X_FORWARDED_FOR"]
不過呢東森寬頻和亞太寬頻電信的 Proxy 都故意不提供你這項資料
根本就是駭客的溫床, 這種情況你就給他們死吧

2005-08-28 04:41:44 補充:
主動防治是可以的, 不過常常會犧牲一些人就是了
最常用的是限制頻寬和連線數目
限制頻寬的缺點是如果你的網站有提供檔案下載
那麼檔案下載會很龜
限制連線數的缺點是如果有一家公司
裡面的員工上網全都用同一個IP那可能會有三個人能看網頁兩個人不能看
基本上主動防治方法我在公司都試過了
換來的就是客戶的抱怨
所以最後老闆就同意我的方法了

2005-08-27 13:37:32 · answer #1 · answered by 小璋丸 5 · 0 0

可以寫成同一個 ip 來的位子, 在幾秒以內部可以連續的執行機器的 script. 很多論壇都有這種功能

2005-08-27 00:37:18 · answer #2 · answered by ? 1 · 0 0

fedest.com, questions and answers