Il faut en faire la demande auprès de l'auteur pour commencer.
Je vais peut-être dire une bétise mais qui ne tente rien n'a rien...
Et modifié le plugin AntAspi pour qu'il rajoute une page ou l'on puisse cocher des paramètres afin de modifier le comportement de certaine connection ? c'est possible ?...
Ma source et google... je sais plus trop ou sur un forum.. ceci dit j'ai installer le pugin antaspi et depuis tout est cool...
Je suis aussi rentrer en contact avec 1&1 il me dit aussi de modifié le ficier .Hatcess et aussi que lon pouvait remonter la source avec le fichier log... mais là faut connaitre ensuite.
tosca a écrit:
Mais comme on a chacun un petit peu de connaissances qui n'est pas forcément le même que celui du voisin, en additionnant le tout, ça finit par faire beaucoup ;-)
Eh oui, c'est bien l'essence même du forum !
;-)
LucMorizur a écrit:
je ne peux répondre qu'à propos de ce que je connais, ce qui fait finalement relativement peu... :-)
Mais comme on a chacun un petit peu de connaissances qui n'est pas forcément le même que celui du voisin, en additionnant le tout, ça finit par faire beaucoup ;-)
tosca a écrit:
LucMorizur a écrit:
(...) je ne sais pas d'où tu tiens les instructions "Order Allow,Deny Allow from all Deny from"
Euh ... c'est pas du pur .htaccess tout ça ?
C'est tout-à-fait possible, je ne sais pas du tout quelles sont les possibilités exactes d'un .htaccess (qui vont par contre de façon certaine dépendre du serveur, évidemment. C'est donc à discuter avec son hébergeur).
De fait, il est d'autant plus possible que ce contenu proposé par Art-TF suffise, ou tout du moins aie déjà de l'effet.
En tous cas a priori rajouter le robots.txt ne peut pas faire de mal.
Ca marche aussi dans un robots.txt ?
Ca par contre je ne pense pas.
Mais bon toutes ces questions trouvent forcément réponse dans une petite recherche bien menée sur le Ternet. Personnellement, là, je n'en ai pas le temps ; je ne peux répondre qu'à propos de ce que je connais, ce qui fait finalement relativement peu... :-)
C'est effectivement le contenu "typique" d'un fichier .htaccess
LucMorizur a écrit:
Art-TF a écrit:
# Bloquage d'ip de spam
Order Allow,Deny
Allow from all
Deny from 123.123.123.123
et de le copier dans la racine de mon serveur ?Oui, à ceci près que je ne sais pas d'où tu tiens les instructions "Order Allow,Deny Allow from all Deny from" (je n'ai pas vraiment lu tout le topic, tu as peut-être déjà cité tes sources, désolé si c'est le cas).
Euh ... c'est pas du pur .htaccess tout ça ?
Ca marche aussi dans un robots.txt ?
Art-TF a écrit:
Bonjour Mr Luc,
Tu veux dire que je dois créer un fichier texte appellé robots.txt
d'y insérer dedans:
# Bloquage d'ip de spam
Order Allow,Deny
Allow from all
Deny from 123.123.123.123
et de le copier dans la racine de mon serveur ?
Oui, à ceci près que je ne sais pas d'où tu tiens les instructions "Order Allow,Deny Allow from all Deny from" (je n'ai pas vraiment lu tout le topic, tu as peut-être déjà cité tes sources, désolé si c'est le cas).
Personnellement le fichier robots.txt que j'utilise contient ceci :
# robots.txt generated at http://www.mcanerin.com User-agent: * Disallow: Crawl-delay: 300
Où # est bien une marque de commentaire et "Crawl-delay: 300" demande aux robots de patienter 5 minutes (5 x 60 secondes) avant chaque requête, ce qui limite le nombre d'accès tout en les permettant tout de même.
Maintenant comme le dit très justement Gotcha, c'est une solution qui fonctionne dans la mesure où le "visiteur perturbant" est bien un robot "courtois", et non un aspirateur de site ou tout autre inconvenant : le robot "courtois" se conforme aux instructions du robot.txt ; mais peut-être as-tu un problème d'une autre sorte, je ne peux le dire.
En tous cas mettre un robots.txt à la racine de ton site pour déjà limiter les accès des robots "courtois", ne peut pas faire de mal, et peut permettre de voir si les problèmes continuent.
La personne de chez Cuil qui m'avait répondu, précisait qu'il fallait prendre en compte que le fichier robots.txt pouvait n'être lu qu'une fois par semaine par les robots ; le comportement de ceux-ci peut donc ne changer qu'au bout de ce délai.
Pour la jeunesse lol, cela fait plaisirs d'être jeune à 45 ans...
Oui, pourvu qu'il en soit de même pour chacun(e) de nous ;-) ...
Bonjour Mr Luc,
Tu veux dire que je dois créer un fichier texte appellé robots.txt
d'y insérer dedans:
# Bloquage d'ip de spam
Order Allow,Deny
Allow from all
Deny from 123.123.123.123
et de le copier dans la racine de mon serveur ?
Merci
Pour la jeunesse lol, cela fait plaisirs d'être jeune à 45 ans...
Parfait :-)
Mr Art-TF à maintenant toutes les billes en main.
Gotcha a écrit:
Par conte Luc, tu ne n'explique pas comment déterminer si c'est l'adresse IP est celle d'un robots, d'un aspirateur de site ou autre chose. Car suivant la nature de cette adresse, la méthode à employer sera différente.
Effectivement.
J'utilise Geo IP tool (recommandé par extension:279), on a une petite info à ce sujet avec le champ "Nom d'hôte". Sinon, un peu au pif, lorsque le serveur est situé dans la Silicon Valley...
Et puis aussi tout simplement en collant l'adresse IP dans un moteur de recherche sur l'internet.
Merci Luc, tu es bien gentil :-)
Je ne dis pas ça pour faire enrager Art-TF mais parceque j'aurais fait ce résumé dans l'autre sujet ;-)
Par conte Luc, tu ne n'explique pas comment déterminer si c'est l'adresse IP est celle d'un robots, d'un aspirateur de site ou autre chose. Car suivant la nature de cette adresse, la méthode à employer sera différente.
Art-TF a écrit:
Gotcha a écrit:
Quelques lignes en dessous il y a ce sujet :
topic:16693Hélas assez complex...
Ah bon ?
Voilà apparement se que je doit mettre dans .htaccess
# Bloquage d'ip de spam
Order Allow,Deny
Allow from all
Deny from 123.123.123.123
Pas .htaccess, mais robots.txt (respecter scrupuleusement le nom du fichier).
mais maintenant comment connaitre l'IP qui fait cela ?
Admin > Spéciales > Historique, onglet "Rechercher" ; sélectionner une période.
Je crois que j'ai trouver : rev.gaoland.net soit 3930 connection mais cela vient de la france (Ville: Janville)
Pourquoi pas.
Pourquoi dans Astat des fois il me mais: catégorie non géré (en grisé) et le reste et en orange avec un lien, des images que j'ai supprimer ?
Je ne connais pas Astat.
En tous en ce qui me concerne, le fichier robots.txt semble jouer correctement son rôle. J'attends encore quelques jours avant de conclure le topic cité par Gotcha.
vi, mais faut aussi leur montrer les bonnes habitudes :-p
La "jeunesse" n'excuse pas tout lol