现在有一个主题可以通过多种方式进行。希望我能够在描述我的问题并开始获得建议时对其进行去混淆处理。我正在开发一个将替换现有站点的站点。从历史上看,我们遇到的问题之一是蜘蛛机器人进入并吸收所有内容。现在我们不介意正在下载内容。事实上,我们对此很高兴,但事实证明,当前站点中的一些批量下载器和下载加速器存在问题。我正在寻找的是坐在我的 php 开头的东西,它几乎首先运行。它获取页面请求的指纹(ip、referrer、请求 uri、cookie、 session id 等)并将其传递给 ...something。然后在最后一秒或三秒内将指纹与指纹进行比较。然后它根据一些预先配置的阈值返回一条消息来处理请求。一些阈值是: 用户在过去 0.n 秒内请求了 > x 个页面。 用户在 用户在过去 n 秒内向表单提交了相同的数据。 所以你看我在看一些非常紧的 window 。检测这样的事情甚至可行吗?我能用某种文件或数据库数据源来做吗?无论我用什么来存储页面加载之间的指纹,都会经历大量的流失,因为大多数数据将被保留一两秒钟。我应该有一些解析 apache 日志的东西来检查阈值吗?我是否应该寻找某种外部守护进程,将数据保存在内存中一两秒钟,我可以从脚本调用? apache 中有什么东西可以处理这个问题,我是否只需要让服务器人员来处理这个问题?假设这是我可以在 PHP 或某些称为外部守护程序中执行的操作,我该如何响应超出阈值的行为?我的直觉是 HTTP 响应,类似于 408 或 503,但我的直觉经常是错误的。我该怎么做才能告诉客户让步呢?某种“哇哦”页面? 最佳答案 尝试 PEAR::HTTP_Floodcontrol 和 mod_security 和 fail2ban 。关于php - 在 PHP 中跟踪和测试滥用客户端,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/1652298/