砍站軟體、收集E-mail名單的機器人蜘蛛,都可能對網站造成重大負擔,平白浪費server資源,導致真正上網站的"活人"上去很慢,各位大大有什麼方法可以防制自己的網站被這樣子惡搞?
2005-08-26 23:01:48 · 2 個解答 · 發問者 Anonymous in 電腦與網際網路 ➔ 程式設計
Java殺手大大猴厲害!
不過這樣的方法是被動的收集black list,有沒有什麼方法是可以主動防制的呢?
2005-08-27 17:50:29 · update #1
這個問題我已經解決了
這個方法心機很重
你可以在你的網頁上做一個超連結
這個超連結是活人點不到的
例如
或是
或是
2005-08-27 13:37:32 · answer #1 · answered by 小璋丸 5 · 0⤊ 0⤋
可以寫成同一個 ip 來的位子, 在幾秒以內部可以連續的執行機器的 script. 很多論壇都有這種功能
2005-08-27 00:37:18 · answer #2 · answered by ? 1 · 0⤊ 0⤋