...
@F6FLT a un problème de référencement de son site, voilà tout. Il y a quelque chose de mal fait dans la hiérarchisation de ces liens url.
Ce n'est pas impossible. J'ai évoqué cette question dès mon 1er post :
"
Donc ma question aux webmasters et aux férus des réseaux, est-ce que ces floppées de requêtes aberrantes peuvent avoir pour origine un dysfonctionnement, un paramétrage fait par un incompétent quelque part en lien avec Facebook ou pas, y compris moi dans la config du site, ou sont plus vraisemblablement le résultat d'une action malveillante ?"
Le constat, c'est que ça ne pose pas de problèmes à Bing, ni à Duckduckgo, ni à Qwant. A Google et Yahoo, peut-être, car je ne vois pas de référence à des liens internes, seulement à la page d'accueil.
Comme je n'aime pas les liens avec "query" http://... .php?truc=machin j'ai fait le choix qu'ils soient de la forme http://... .php/truc/machin, sauf quand on utilise le formulaire.
C'est peut-être ça qui pose problème aux mauvais robots, mauvais puisqu'à l'usage depuis un navigateur, ces liens ne pose aucun problème.
Si je regarde tes logs, on dirait qu'il boucle sur l'url qui est affiché. Pour visualiser cela dans mon Notepad++, j'ai coupé tes lignes sur "/tvrzperso", et je retrouve les mêmes séquences plusieurs fois et ce n'est pas normal. Aurais tu créer sans le vouloir une redirection ? D'où tes problèmes de référencements. Tu devrais te plonger dans les méandres du référencements et revoir ce que tu as déjà fait.
Non, ce n'est pas normal, et c'est ce que j'ai déjà dit 3 ou 4 fois. Je fais des redirections parfois, qui ne posent de problème à personne sauf sans doute à facebook, amazon et semrush (et peut-être à Google et Yahoo mais ceux-là s'en sortent quand même), qui sont nécessaires et n'aboutissent jamais à ces répétitions dans une utilisation normale (humaine) du site.
...
En ce qui me concerne, ce n'est pas une attaque mais un problème de référencement dû à une mauvaise déclaration dans les fichiers ".html" ou ".php" du site de @F6FLT.
"mauvaise déclaration", tu intervertis les rôles. Si les "déclarations" étaient mauvaises le site ne fonctionnerait pas ou dysfonctionnerait de temps en temps, or à l'utilisation on ne voit jamais d'url comme ces robots les requêtent.
Alors s'il y a moyen de corriger le site pour pallier le défaut, je suis prêt à le faire, mais le défaut est bien chez ces quelques robots (encore de l'"IA" sans doute, qui est à l'"IA" ce que le MacDo est à la gastronomie... ).
Bon, je vais tester le site avec l'outil de validation du W3C. Ca fait des mois que je ne l'avais pas fait, possible que ça se soit dégradé, on va voir.
C'est fait. Pas mal d'erreurs bégnines corrigées, celles qui restent sont voulues et sans rapport avec les liens <a> qui étaient sans erreur. J'ai vérifié les liens des menus et des listes, ils sont écrits en dur, pas de problème. Pas de javascript à part pour la liste courante des chaînes cochées mais pour celle-là on n'utilise pas d'url, on enregistre directement la liste de la page. Le mystère reste entier. Je regarde maintenant du côté des redirections.