Annonce

Écrire une réponse

Veuillez écrire votre message et l'envoyer

Cliquez dans la zone sombre de l'image pour envoyer votre message.

Retour

Résumé de la discussion (messages les plus récents en premier)

Gotcha
2010-02-08 16:21:07

Il faut en faire la demande auprès de l'auteur pour commencer.

Art-TF
2010-02-07 13:04:12

Je vais peut-être dire une bétise mais qui ne tente rien n'a rien...

Et modifié le plugin AntAspi pour qu'il rajoute une page ou l'on puisse cocher des paramètres afin de modifier le comportement de certaine connection ? c'est possible ?...

Art-TF
2010-02-07 13:01:30

Ma source et google... je sais plus trop ou sur un forum.. ceci dit j'ai installer le pugin antaspi et depuis tout est cool...
Je suis aussi rentrer en contact avec 1&1 il me dit aussi de modifié le ficier .Hatcess et aussi que lon pouvait remonter la source avec le fichier log... mais là faut connaitre ensuite.

LucMorizur
2010-02-03 13:17:22

tosca a écrit:

Mais comme on a chacun un petit peu de connaissances qui n'est pas forcément le même que celui du voisin, en additionnant le tout, ça finit par faire beaucoup ;-)

Eh oui, c'est bien l'essence même du forum !

;-)

tosca
2010-02-03 13:12:37

LucMorizur a écrit:

je ne peux répondre qu'à propos de ce que je connais, ce qui fait finalement relativement peu... :-)

Mais comme on a chacun un petit peu de connaissances qui n'est pas forcément le même que celui du voisin, en additionnant le tout, ça finit par faire beaucoup ;-)

LucMorizur
2010-02-03 12:56:59

tosca a écrit:

LucMorizur a écrit:

(...) je ne sais pas d'où tu tiens les instructions "Order Allow,Deny Allow from all Deny from"

Euh ... c'est pas du pur .htaccess tout ça ?

C'est tout-à-fait possible, je ne sais pas du tout quelles sont les possibilités exactes d'un .htaccess (qui vont par contre de façon certaine dépendre du serveur, évidemment. C'est donc à discuter avec son hébergeur).

De fait, il est d'autant plus possible que ce contenu proposé par Art-TF suffise, ou tout du moins aie déjà de l'effet.

En tous cas a priori rajouter le robots.txt ne peut pas faire de mal.

Ca marche aussi dans un robots.txt ?

Ca par contre je ne pense pas.


Mais bon toutes ces questions trouvent forcément réponse dans une petite recherche bien menée sur le Ternet. Personnellement, là, je n'en ai pas le temps ; je ne peux répondre qu'à propos de ce que je connais, ce qui fait finalement relativement peu... :-)

Gotcha
2010-02-03 12:02:03

C'est effectivement le contenu "typique" d'un fichier .htaccess

tosca
2010-02-03 11:50:00

LucMorizur a écrit:

Art-TF a écrit:

# Bloquage d'ip de spam
Order Allow,Deny
Allow from all
Deny from 123.123.123.123

et de le copier dans la racine de mon serveur ?

Oui, à ceci près que je ne sais pas d'où tu tiens les instructions "Order Allow,Deny Allow from all Deny from" (je n'ai pas vraiment lu tout le topic, tu as peut-être déjà cité tes sources, désolé si c'est le cas).

Euh ... c'est pas du pur .htaccess tout ça ?
Ca marche aussi dans un robots.txt ?

LucMorizur
2010-02-03 11:32:54

Art-TF a écrit:

Bonjour Mr Luc,

Tu veux dire que je dois créer un fichier texte appellé robots.txt

d'y insérer dedans:

# Bloquage d'ip de spam
Order Allow,Deny
Allow from all
Deny from 123.123.123.123

et de le copier dans la racine de mon serveur ?

Oui, à ceci près que je ne sais pas d'où tu tiens les instructions "Order Allow,Deny Allow from all Deny from" (je n'ai pas vraiment lu tout le topic, tu as peut-être déjà cité tes sources, désolé si c'est le cas).

Personnellement le fichier robots.txt que j'utilise contient ceci :

Code:

# robots.txt generated at http://www.mcanerin.com
User-agent: *
Disallow: 
Crawl-delay: 300

Où # est bien une marque de commentaire et "Crawl-delay: 300" demande aux robots de patienter 5 minutes (5 x 60 secondes) avant chaque requête, ce qui limite le nombre d'accès tout en les permettant tout de même.

Maintenant comme le dit très justement Gotcha, c'est une solution qui fonctionne dans la mesure où le "visiteur perturbant" est bien un robot "courtois", et non un aspirateur de site ou tout autre inconvenant : le robot "courtois" se conforme aux instructions du robot.txt ; mais peut-être as-tu un problème d'une autre sorte, je ne peux le dire.

En tous cas mettre un robots.txt à la racine de ton site pour déjà limiter les accès des robots "courtois", ne peut pas faire de mal, et peut permettre de voir si les problèmes continuent.

La personne de chez Cuil qui m'avait répondu, précisait qu'il fallait prendre en compte que le fichier robots.txt pouvait n'être lu qu'une fois par semaine par les robots ; le comportement de ceux-ci peut donc ne changer qu'au bout de ce délai.

Pour la jeunesse lol, cela fait plaisirs d'être jeune à 45 ans...

Oui, pourvu qu'il en soit de même pour chacun(e) de nous ;-) ...

Art-TF
2010-02-03 09:26:20

Bonjour Mr Luc,

Tu veux dire que je dois créer un fichier texte appellé robots.txt

d'y insérer dedans:

# Bloquage d'ip de spam
Order Allow,Deny
Allow from all
Deny from 123.123.123.123

et de le copier dans la racine de mon serveur ?

Merci

Pour la jeunesse lol, cela fait plaisirs d'être jeune à 45 ans...

Gotcha
2010-02-02 22:31:12

Parfait :-)
Mr Art-TF à maintenant toutes les billes en main.

LucMorizur
2010-02-02 22:26:42

Gotcha a écrit:

Par conte Luc, tu ne n'explique pas comment déterminer si c'est l'adresse IP est celle d'un robots, d'un aspirateur de site ou autre chose. Car suivant la nature de cette adresse, la méthode à employer sera différente.

Effectivement.

J'utilise Geo IP tool (recommandé par extension:279), on a une petite info à ce sujet avec le champ "Nom d'hôte". Sinon, un peu au pif, lorsque le serveur est situé dans la Silicon Valley...

Et puis aussi tout simplement en collant l'adresse IP dans un moteur de recherche sur l'internet.

Gotcha
2010-02-02 22:15:43

Merci Luc, tu es bien gentil :-)
Je ne dis pas ça pour faire enrager Art-TF mais parceque j'aurais fait ce résumé dans l'autre sujet ;-)

Par conte Luc, tu ne n'explique pas comment déterminer si c'est l'adresse IP est celle d'un robots, d'un aspirateur de site ou autre chose. Car suivant la nature de cette adresse, la méthode à employer sera différente.

LucMorizur
2010-02-02 22:09:24

Art-TF a écrit:

Gotcha a écrit:

Quelques lignes en dessous il y a ce sujet :

topic:16693

Hélas assez complex...

Ah bon ?

Voilà apparement se que je doit mettre dans .htaccess


# Bloquage d'ip de spam
Order Allow,Deny
Allow from all
Deny from 123.123.123.123

Pas .htaccess, mais robots.txt (respecter scrupuleusement le nom du fichier).

mais maintenant comment connaitre l'IP qui fait cela ?

Admin > Spéciales > Historique, onglet "Rechercher" ; sélectionner une période.

Je crois que j'ai trouver :  rev.gaoland.net  soit 3930 connection mais cela vient de la france (Ville: Janville)

Pourquoi pas.

Pourquoi dans Astat des fois il me mais: catégorie non géré (en grisé) et le reste et en orange avec un lien, des images que j'ai supprimer ?

Je ne connais pas Astat.


En tous en ce qui me concerne, le fichier robots.txt semble jouer correctement son rôle. J'attends encore quelques jours avant de conclure le topic cité par Gotcha.

Gotcha
2010-02-02 19:57:59

vi, mais faut aussi leur montrer les bonnes habitudes :-p
La "jeunesse" n'excuse pas tout lol

Pied de page des forums

Propulsé par FluxBB

github twitter newsletter Faire un don Piwigo.org © 2002-2021 · Contact