Je vois de plus en plus de sites dans la galaxie opensource (instances GitLab, ...) qui déploient Anubis :
https://anubis.techaro.lol/.
C'est censé catégoriser les requêtes :
- bots autorisés (user-agent, et IP dans des plages définies) : typiquement indexation des moteurs de recherche
- bots bloqués : typiquement IA
- browsers : un "challenge" est présenté (une page avec un calcul javascript), le résultat est ensuite stocké dans un cookie
L'idée est de bloquer les bots qui se font passer pour un navigateur, mais ne sont en fait pas très intelligents (pas de JavaScript, ou très limité), ou de leur faire consommer des ressources (le calcul), en amont de tout contenu dynamique ou volumineux.
En fonction de la nature des attaques, ça pourrait peut-être aider, en limitant l'attaquant à la page "challenge", sans appel au code php du forum.
En revanche, ça reste au niveau Apache (cf
https://anubis.techaro.lol/docs/admin/environments/apache), donc ça n'aide pas quand le problème est le nombre de connexions ouvertes, ou un très grand nombre de connexions par seconde.