Annonce

#1 2020-05-22 22:23:52

cl9m
Membre
France
2013-03-22
29

Protection des formulaires contre les robots

Bonjour/Bonsoir,

Malgré le vieillissant module PHP Captcha for Piwigo, je ne parviens pas à stopper ces inscriptions.
En effet, je me suis aperçu par hasard que chaque jour, j'ai une dizaine de faux utilisateurs qui s'inscrivent à ma galerie, très certainement un robot.

Il me semble que ce type de problème devrait être éviter de base dans Piwigo, via un honeypot ou recaptcha v3 beaucoup plus fiable.

Version de Piwigo: 2.10.2
Version de PHP: 7.0.33
Version de MySQL: 5.5.30
URL Piwigo: https://www.nosoov.com

Hors ligne

#2 2020-05-23 08:00:49

Guillaume C
Membre
Belgium
2014-04-08
265

Re: Protection des formulaires contre les robots

Bonjour,
Essaie [extension by reisi007] Reisishot Login Security
Attention, il n’est pas compatible avec l’application Piwigo pour iOS (et sans doute androïd).


Piwigo 2.10.2 | Thème : Bootstrap Darkroom 2.4.4
Système d'exploitation: Linux
PHP: 7.2.30 | MySQL: 5.6.47
Bibliothèque graphique: ImageMagick 6.8.9-9

Hors ligne

#3 2020-05-23 11:23:14

jjp1954
Membre
2014-02-27
96

Re: Protection des formulaires contre les robots

J'ai le même souci : inscriptions parasites (en général en cyrillique) alors que j'ai désactivé les inscriptions (sur le conseil de ? ; je ne me souviens plus)

Hors ligne

#4 2020-05-24 13:53:44

cl9m
Membre
France
2013-03-22
29

Re: Protection des formulaires contre les robots

Guillaume C a écrit:

Bonjour,
Essaie [extension by reisi007] Reisishot Login Security
Attention, il n’est pas compatible avec l’application Piwigo pour iOS (et sans doute androïd).

Merci Guillaume pour ce retour, j'ai testé, j'ai moins de fausses inscriptions, mais j'en ai malheureusement toujours.
Les IP viennent principalement de Chine. Si c'est fiable.

Dernière modification par cl9m (2020-05-24 13:54:24)

Hors ligne

#5 2020-05-24 14:08:05

Dom59
Membre
Lille
2020-05-02
62

Re: Protection des formulaires contre les robots

bonjour une solution radicale ici dans ton htaccess

# Bloquage de pays
SetEnvIf GEOIP_COUNTRY_CODE RU BlockCountry
SetEnvIf GEOIP_COUNTRY_CODE CN BlockCountry
SetEnvIf GEOIP_COUNTRY_CODE UA BlockCountry
Deny from env=BlockCountry


https://en.wikipedia.org/wiki/ISO_3166-1


Piwigo 2.10.2
Bootstrap_darkroom 2.4.4
PHP: 7.3
https://blog.lilleaffiche.com

Hors ligne

#6 2020-05-24 14:10:08

Guillaume C
Membre
Belgium
2014-04-08
265

Re: Protection des formulaires contre les robots

cl9m a écrit:

Merci Guillaume pour ce retour, j'ai testé, j'ai moins de fausses inscriptions, mais j'en ai malheureusement toujours.
Les IP viennent principalement de Chine. Si c'est fiable.

Dans ce cas, tu peux aussi agir via .htaccess pour bloquer les ip, plages d’ip, pays, ... ;-)


Piwigo 2.10.2 | Thème : Bootstrap Darkroom 2.4.4
Système d'exploitation: Linux
PHP: 7.2.30 | MySQL: 5.6.47
Bibliothèque graphique: ImageMagick 6.8.9-9

Hors ligne

#7 2020-05-24 18:28:24

cl9m
Membre
France
2013-03-22
29

Re: Protection des formulaires contre les robots

Merci pour votre aide, je vais tester comme ça via le HTACCESS,
mais cela reste quand même du bricolage,
cela serait bien que Piwigo soit nativement "sécure" la dessus.

Hors ligne

#8 2020-05-24 19:29:55

Guillaume C
Membre
Belgium
2014-04-08
265

Re: Protection des formulaires contre les robots

cl9m a écrit:

mais cela reste quand même du bricolage,
cela serait bien que Piwigo soit nativement "sécure" la dessus.

Aucun site n'est à l'abri des spammeurs et aucun CMS n'est protégé nativement...

Cadeau :

Code:

###FILTRE CONTRE ROBOTS DES PIRATES ET ASPIRATEURS DE SITE WEB
### LISTE ICI: http://www.bg-pro.com/?goto=badbot
RewriteEngine On
## EXCEPTION: TOUS LES ROBOTS MEMES ANONYMES OU BANNIS PEUVENT ACCEDER A CES FICHIERS
RewriteCond %{REQUEST_URI} !^/robots.txt
RewriteCond %{REQUEST_URI} !^/sitemap.xml
## EXCEPTION: SI UTILISATION DE *PAYPAL INSTANT NOTIFICATION PAYMENT*, COMME PAYPAL N'UTILISE PAS DE HTTP_USER_AGENT, L'IPN NE MARCHERA PAS.
RewriteCond %{REQUEST_URI} !^/paypal-ipn.php
## 
RewriteCond %{HTTP_USER_AGENT} ^-?$ [OR] ## ANONYMES
RewriteCond %{HTTP_USER_AGENT} ^[bcdfghjklmnpqrstvwxz\ ]{8,}|^[0-9a-z]{15,}|^[0-9A-Za-z]{19,}|^[A-Za-z]{3,}\ [a-z]{4,}\ [a-z]{4,} [OR] ## CEUX QUI INVENTENT DES NOMS AU HASARD 
RewriteCond %{HTTP_USER_AGENT} ^<sc|<\?|8484\ Boston\ Project|autoemailspider|@nonymouse|ADSARobot|Advanced\ Email\ Extractor|^adwords|ah-ha|aktuelles|amzn_assoc|Anarchie|anonymous|Art-Online|ASPSeek|ASSORT|ATHENS|Atomz|attach|autoemailspider|BackWeb|Bandit|BatchFTP|bdfetch|big.brother|BlackWidow|blogsearchbot-martin|bmclient|Boston\ Project|BravoBrian\ SpiderEngine\ MarcoPolo|Bullseye|bumblebee|capture|CherryPicker|ChinaClaw|CICC|clipping|compatible\ \;|Crescent|Crescent\ Internet|Custo|cyberalert|Deweb|diagem|Digger|Digimarc|DIIbot|DirectUpdate|disco|DISCoFinder|Downloader|Download\ Accelerator|Download\ Demon|Download\ Wonder|Drip|DSurf15a|DTS.Agent|EasyDL|eCatch|echo\ extense|ecollector|efp@gmx\.net|EirGrabber|EmailCollector|EmailSiphon|Email\ Siphon|EmailWolf|Email\ Extractor|Express\ WebPictures|ExtractorPro [NC,OR] ## VRAIS ET FAUX ROBOTS NE RESPECTANT PAS LES REGLES
RewriteCond %{HTTP_USER_AGENT} EyeNetIE|fastlwspider|FavOrg|Favorites\ Sweeper|^Fetch|FEZhead|FileHound|flashget|FlashGet\ WebWasher|FlickBot|fluffy|frontpage|GalaxyBot|Generic|Getleft|GetRight|GetSmart|GetWeb!|GetWebPage|gigabaz|Girafabot|Go!Zilla|go-ahead-got-it|GornKer|Grabber|GrabNet|Grafula|Green\ Research|grub-client|grub\ crawler|hanzoweb|Harvest|hhjhj@yahoo|hloader|HMView|HomePageSearch|HTTPConnect|httpdown|httplib|HttpProxy|HTTP\ agent|http\ generic|HTTrack|ia_archive|IBM_Planetwide|IDBot|id-search|imagefetch|Image\ Stripper|Image\ Sucker|IncyWincy|Indy\ Library|informant|Ingelin|InterGET|InternetLinkAgent|InternetSeer\.com|^Internet\ Explorer|Internet\ Ninja|IPiumBot|Iria|Irvine|Jakarta\ Commons|JBH*Agent [NC,OR] ## VRAIS ET FAUX ROBOTS NE RESPECTANT PAS LES REGLES
RewriteCond %{HTTP_USER_AGENT} JetCar|JOC|JOC\ Web\ Spider|JustView|Kapere|KWebGet|Lachesis|larbin|LeechFTP|LexiBot|lftp|likse|Link*Sleuth|LINKS\ ARoMATIZED|LinkWalker|Mac\ Finder|Mag-Net|Magnet|Mass\ Downloader|MCspider|Microsoft\ URL|Microsoft\ Data|MIDown\ tool|minibot\(NaverRobot\)|Mirror|Missigua|Mister\ PiX|MJ12bot|MMMtoCrawl\/UrlDispatcherLLL|Movable\ Type|Moozilla|^Mozilla$|^MSIE|Murzillo|MSProxy|multithreaddb|nationaldirectory|Navroad|NearSite|NetAnts|NetCarta|NetMechanic|netprospector|NetResearchServer|NetSpider|NetZIP|NetZippy|NetZip\ Downloader|Net\ Vampire|NEWT|nicerspro|NICErsPRO|NPBot|Nutch|Nutscrape/|Octopus|Offline\ Explorer|Offline\ Navigator|OmniExplorer|OpaL|Openfind|OpenTextSiteCrawler [NC,OR] ## VRAIS ET FAUX ROBOTS NE RESPECTANT PAS LES REGLES
RewriteCond %{HTTP_USER_AGENT} OrangeBot|PackRat|PageGrabber|Papa\ Foto|pavuk|pcBrowser|PersonaPilot|PingALink|Pockey|Program\ Shareware|Proxy|psbot|PSurf|psycheclone|^puf|Pump|PushSite|PussyCat|PycURL|python|QRVA|QuepasaCreep|RealDownload|Reaper|Recorder|ReGet|replacer|RepoMonkey|almaden|Robozilla|Rover|RPT-HTTPClient|Rsync|SearchExpress|searchhippo|searchterms\.it|Second\ Street\ Research|Seeker|Shai|sitecheck|SiteMapper|SiteSnagger|SlySearch|SmartDownload|snagger|SpaceBison|Spegla|SpiderBot|SqWorm|Star\ Downloader|Stripper|sucker|SuperBot|SuperHTTP|Surfbot|SurfWalker|SurveyBot|Szukacz|tAkeOut|tarspider|Teleport\ Pro|Telesoft|Templeton|TrackBack|TrueRobot|Turing|TurnitinBot [NC,OR] ## VRAIS ET FAUX ROBOTS NE RESPECTANT PAS LES REGLES
RewriteCond %{HTTP_USER_AGENT} TV33_Mercator|UIowaCrawler|URL_Spider_Pro|^user|^User\ Agent:\ |^User-Agent:\ |UtilMind|Vacuum|vagabondo|vayala|visibilitygap|vobsub|VoidEYE|vspider|w3mir|WebaltBot|WebAuto|webbandit|WebCapture|Webclipping|webcollage|webcollector|WebCopier|webcraft@bea|WebDAV|webdevil|webdownloader|Webdup|WebEmailExtractor|WebFetch|WebGo\ IS|WebHook|Webinator|WebLeacher|WEBMASTERS|WebMiner|WebMirror|webmole|WebReaper|WebSauger|WEBsaver|Website\ eXtractor|Website\ Quester|WebSnake|Webster|WebStripper|websucker|webvac|webwalk|webweasel|WebWhacker|WebZIP|Web\ Data\ Extractor|Web\ Downloader|Web\ Image\ Collector|Web\ Sucker|web\.by\.mail|whizbang|WhosTalking|Widow|Widows|WISEbot|WISEnutbot|WUMPUS|Wweb|WWWOFFLE|Wysigot|x-Tractor|Xaldon\ WebSpider|XGET|Yandex|Zeus|Zeus.*Webster [NC] ## VRAIS ET FAUX ROBOTS NE RESPECTANT PAS LES REGLES
RewriteCond %{HTTP_USER_AGENT} ^curl|^Fetch\ API\ Request|GT\:\:WWW|^HTTP\:\:Lite|httplib|^Java/1.|^Java\ 1.|^LWP|libWeb|libwww|^PEAR|PECL\:\:HTTP|PHPCrawl|^Program\ Shareware|python|Rsync|Snoopy|^URI\:\:Fetch|WebDAV|^Wget [NC] ## BIBLIOTHEQUES / CLASSES HTTP DONT ON NE VEUT PAS. ATTENTION, CELA PEUT BLOQUER CERTAINES FONCTIONS DE VOTRE CMS. NE PAS TOUT EFFACER, MAIS CHERCHEZ LE NOM DE LA CLASSE HTTP CONCERNEE (DEMANDEZ AUX DEVELOPPEURS DE VOTRE CMS). CETTE LISTE BLOQUE 80% DES ROBOTS SPAMMEURS. IL FAUT LA CONSERVER.
RewriteRule (.*) - [F]

RewriteCond %{HTTP_USER_AGENT} ^BlackWidow [OR]
RewriteCond %{HTTP_USER_AGENT} ^Bot\ mailto:craftbot@yahoo.com [OR]
RewriteCond %{HTTP_USER_AGENT} ^ChinaClaw [OR]
RewriteCond %{HTTP_USER_AGENT} ^Custo [OR]
RewriteCond %{HTTP_USER_AGENT} ^DISCo [OR]
RewriteCond %{HTTP_USER_AGENT} ^Download\ Demon [OR]
RewriteCond %{HTTP_USER_AGENT} ^eCatch [OR]
RewriteCond %{HTTP_USER_AGENT} ^EirGrabber [OR]
RewriteCond %{HTTP_USER_AGENT} ^EmailSiphon [OR]
RewriteCond %{HTTP_USER_AGENT} ^EmailWolf [OR]
RewriteCond %{HTTP_USER_AGENT} ^Express\ WebPictures [OR]
RewriteCond %{HTTP_USER_AGENT} ^ExtractorPro [OR]
RewriteCond %{HTTP_USER_AGENT} ^EyeNetIE [OR]
RewriteCond %{HTTP_USER_AGENT} ^FlashGet [OR]
RewriteCond %{HTTP_USER_AGENT} ^GetRight [OR]
RewriteCond %{HTTP_USER_AGENT} ^GetWeb! [OR]
RewriteCond %{HTTP_USER_AGENT} ^Go!Zilla [OR]
RewriteCond %{HTTP_USER_AGENT} ^Go-Ahead-Got-It [OR]
RewriteCond %{HTTP_USER_AGENT} ^GrabNet [OR]
RewriteCond %{HTTP_USER_AGENT} ^Grafula [OR]
RewriteCond %{HTTP_USER_AGENT} ^HMView [OR]
RewriteCond %{HTTP_USER_AGENT} HTTrack [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Image\ Stripper [OR]
RewriteCond %{HTTP_USER_AGENT} ^Image\ Sucker [OR]
RewriteCond %{HTTP_USER_AGENT} Indy\ Library [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^InterGET [OR]
RewriteCond %{HTTP_USER_AGENT} ^Internet\ Ninja [OR]
RewriteCond %{HTTP_USER_AGENT} ^JetCar [OR]
RewriteCond %{HTTP_USER_AGENT} ^JOC\ Web\ Spider [OR]
RewriteCond %{HTTP_USER_AGENT} ^larbin [OR]
RewriteCond %{HTTP_USER_AGENT} ^LeechFTP [OR]
RewriteCond %{HTTP_USER_AGENT} ^Mass\ Downloader [OR]
RewriteCond %{HTTP_USER_AGENT} ^MIDown\ tool [OR]
RewriteCond %{HTTP_USER_AGENT} ^Mister\ PiX [OR]
RewriteCond %{HTTP_USER_AGENT} ^Navroad [OR]
RewriteCond %{HTTP_USER_AGENT} ^NearSite [OR]
RewriteCond %{HTTP_USER_AGENT} ^NetAnts [OR]
RewriteCond %{HTTP_USER_AGENT} ^NetSpider [OR]
RewriteCond %{HTTP_USER_AGENT} ^Net\ Vampire [OR]
RewriteCond %{HTTP_USER_AGENT} ^NetZIP [OR]
RewriteCond %{HTTP_USER_AGENT} ^Octopus [OR]
RewriteCond %{HTTP_USER_AGENT} ^Offline\ Explorer [OR]
RewriteCond %{HTTP_USER_AGENT} ^Offline\ Navigator [OR]
RewriteCond %{HTTP_USER_AGENT} ^PageGrabber [OR]
RewriteCond %{HTTP_USER_AGENT} ^Papa\ Foto [OR]
RewriteCond %{HTTP_USER_AGENT} ^pavuk [OR]
RewriteCond %{HTTP_USER_AGENT} ^pcBrowser [OR]
RewriteCond %{HTTP_USER_AGENT} ^RealDownload [OR]
RewriteCond %{HTTP_USER_AGENT} ^ReGet [OR]
RewriteCond %{HTTP_USER_AGENT} ^SiteSnagger [OR]
RewriteCond %{HTTP_USER_AGENT} ^SmartDownload [OR]
RewriteCond %{HTTP_USER_AGENT} ^SuperBot [OR]
RewriteCond %{HTTP_USER_AGENT} ^SuperHTTP [OR]
RewriteCond %{HTTP_USER_AGENT} ^Surfbot [OR]
RewriteCond %{HTTP_USER_AGENT} ^tAkeOut [OR]
RewriteCond %{HTTP_USER_AGENT} ^Teleport\ Pro [OR]
RewriteCond %{HTTP_USER_AGENT} ^VoidEYE [OR]
RewriteCond %{HTTP_USER_AGENT} ^Web\ Image\ Collector [OR]
RewriteCond %{HTTP_USER_AGENT} ^Web\ Sucker [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebAuto [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebCopier [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebFetch [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebGo\ IS [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebLeacher [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebReaper [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebSauger [OR]
RewriteCond %{HTTP_USER_AGENT} ^Website\ eXtractor [OR]
RewriteCond %{HTTP_USER_AGENT} ^Website\ Quester [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebStripper [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebWhacker [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebZIP [OR]
RewriteCond %{HTTP_USER_AGENT} ^Wget [OR]
RewriteCond %{HTTP_USER_AGENT} ^Widow [OR]
RewriteCond %{HTTP_USER_AGENT} ^WWWOFFLE [OR]
RewriteCond %{HTTP_USER_AGENT} ^Xaldon\ WebSpider [OR]
RewriteCond %{HTTP_USER_AGENT} ^Zeus [OR]
RewriteCond %{HTTP_USER_AGENT} ^RepoMonkey\ Bait\ &\ Tackle/v1.01 [OR]
RewriteCond %{HTTP_USER_AGENT} ^RepoMonkey [or]
RewriteCond %{HTTP_USER_AGENT} ^Zeus\ 32297\ Webster\ Pro\ V2.9\ Win32\ [or]
RewriteCond %{HTTP_USER_AGENT} ^Webster\ Pro [or]
RewriteCond %{HTTP_USER_AGENT} ^EroCrawler [or]
RewriteCond %{HTTP_USER_AGENT} ^LinkScan/8.1a\ Unix [or]
RewriteCond %{HTTP_USER_AGENT} ^Keyword\ Density/0.9 [or]
RewriteCond %{HTTP_USER_AGENT} ^Kenjin\ Spider [or]
RewriteCond %{HTTP_USER_AGENT} ^Cegbfeieh
RewriteRule ^.* - [F,L]

<Files *>
SetEnvIfNoCase Referer ".*(sanahasret|kodlariver).*" spammer=yes
SetEnvIfNoCase User-Agent .*Twiceler.* bad_bot
SetEnvIfNoCase User-Agent .*VoilaBot BETA 1.2.* bad_bot
SetEnvIfNoCase User-Agent .*libwww-perl/5.805.* bad_bot
SetEnvIfNoCase User-Agent .*Sogou web spider/3.0.* bad_bot
SetEnvIfNoCase User-Agent .*psbot.* bad_bot
SetEnvIfNoCase User-Agent .*Exabot.* bad_bot
SetEnvIfNoCase User-Agent .*Charlotte/1.0b.* bad_bot
SetEnvIfNoCase User-Agent .*boitho.com-dc.* bad_bot
SetEnvIfNoCase User-Agent .*ajSitemap.* bad_bot
SetEnvIfNoCase User-Agent .*bot/1.0.* bad_bot
SetEnvIfNoCase User-Agent .*panscient.com.* bad_bot
SetEnvIfNoCase User-Agent .*WebDataCentreBot/1.0.* bad_bot
SetEnvIfNoCase User-Agent .*Java/1.* bad_bot
SetEnvIf GEOIP_COUNTRY_CODE RU BlockCountry
SetEnvIf GEOIP_COUNTRY_CODE CN BlockCountry
SetEnvIf GEOIP_COUNTRY_CODE UA BlockCountry
SetEnvIf GEOIP_COUNTRY_CODE MA BlockCountry
SetEnvIf GEOIP_COUNTRY_CODE TR BlockCountry
SetEnvIf GEOIP_COUNTRY_CODE SU BlockCountry
SetEnvIf GEOIP_COUNTRY_CODE LV BlockCountry
SetEnvIf GEOIP_COUNTRY_CODE BY BlockCountry
SetEnvIf GEOIP_COUNTRY_CODE EE BlockCountry

Order allow,deny
allow from all
deny from env=BlockCountry
deny from env=spammer
deny from env=bad_bot
deny from .keymachine.de
deny from 41.143.184.29
deny from 41.140.0.0/255.252.0.0
deny from 46.129.0.0/255.255.128.0
deny from 81.205.0.0/255.255.0.0
deny from 31.6.70.0/255.255.254.0
deny from 182.112.0.0/255.240.0.0
deny from 91.236.74.0/255.255.254.0
deny from .ttnet.net.tr
deny from .tr
deny from .ru
deny from .cn
deny from .ma
deny from .pl
</Files>

Piwigo 2.10.2 | Thème : Bootstrap Darkroom 2.4.4
Système d'exploitation: Linux
PHP: 7.2.30 | MySQL: 5.6.47
Bibliothèque graphique: ImageMagick 6.8.9-9

Hors ligne

#9 2020-05-24 20:10:30

Dom59
Membre
Lille
2020-05-02
62

Re: Protection des formulaires contre les robots

cl9m a écrit:

Merci pour votre aide, je vais tester comme ça via le HTACCESS,
mais cela reste quand même du bricolage,
cela serait bien que Piwigo soit nativement "sécure" la dessus.

Non non ce n'est pas du bricolage les spammeurs sont très nombreux je ne connais pas de système  qui gère ce problème nativement.


Piwigo 2.10.2
Bootstrap_darkroom 2.4.4
PHP: 7.3
https://blog.lilleaffiche.com

Hors ligne

#10 2020-05-25 09:17:52

cl9m
Membre
France
2013-03-22
29

Re: Protection des formulaires contre les robots

je viens de me rendre contre que j'avais déjà un htaccess pas mal rempli, avec déjà les lignes :
SetEnvIf GEOIP_COUNTRY_CODE RU BlockCountry
SetEnvIf GEOIP_COUNTRY_CODE CN DenyCountry 
SetEnvIf GEOIP_COUNTRY_CODE KR DenyCountry
Deny from env=BlockCountry

+ une bonne grosse liste anti-aspirateurs et bots

Hors ligne

#11 2020-05-25 09:47:06

Dom59
Membre
Lille
2020-05-02
62

Re: Protection des formulaires contre les robots

cl9m a écrit:

je viens de me rendre contre que j'avais déjà un htaccess pas mal rempli, avec déjà les lignes :
SetEnvIf GEOIP_COUNTRY_CODE KR DenyCountry
Deny from env=BlockCountry

+ une bonne grosse liste anti-aspirateurs et bots

Selon moi la Corée du sud est clean ajoute Ukraine  UA ... et a toi de surveiller le trafic

Dernière modification par Dom59 (2020-05-25 09:48:36)


Piwigo 2.10.2
Bootstrap_darkroom 2.4.4
PHP: 7.3
https://blog.lilleaffiche.com

Hors ligne

#12 2020-05-25 10:05:02

ddtddt
Équipe Piwigo
Quetigny (21) - France
2007-07-27
15288

Re: Protection des formulaires contre les robots

Bonjour

Un des problèmes c'est que ce n'est pas des robot mais des personnes payé 3 fois riens pour créer des comptes partout. Donc on peux rendre plus complexe l'inscription, bannir des IP et des plage IP (plugin ban IP) mais cela ne les empêchera pas de s'inscrire si il le souhaite vraiment en prenant une IP en France ...


Vous aimez Piwigo alors n'hésitez pas à participer avec nous, plus d'infos sur la page "Contribuer à Piwigo". Si vous n'avez pas beaucoup de temps et que vous souhaitez nous soutenir vous pouvez aussi le faire par un don.

Hors ligne

#13 2020-05-25 12:26:18

Dom59
Membre
Lille
2020-05-02
62

Re: Protection des formulaires contre les robots

ddtddt a écrit:

Bonjour
bannir des IP et des plage IP (plugin ban IP)

pour le retrouver facilement  dans le gestionnaire de plugin PWG c'est mieux sans espace BanIP
Si l'on cherche "ban IP" le gestionnaire ne le trouve pas

Merci pour cette extension, cela fait un plugin de plus dans ma galerie ...


Piwigo 2.10.2
Bootstrap_darkroom 2.4.4
PHP: 7.3
https://blog.lilleaffiche.com

Hors ligne

#14 2020-05-28 22:45:59

cl9m
Membre
France
2013-03-22
29

Re: Protection des formulaires contre les robots

Peut-on valider les inscriptions via un e-mail de validation ?

Hors ligne

#15 2020-05-29 06:45:17

ddtddt
Équipe Piwigo
Quetigny (21) - France
2007-07-27
15288

Re: Protection des formulaires contre les robots

Bonjour

As tu regardé [extension by Eric] UserAdvManager


Vous aimez Piwigo alors n'hésitez pas à participer avec nous, plus d'infos sur la page "Contribuer à Piwigo". Si vous n'avez pas beaucoup de temps et que vous souhaitez nous soutenir vous pouvez aussi le faire par un don.

Hors ligne

Pied de page des forums

Propulsé par FluxBB

github twitter newsletter Faire un don Piwigo.org © 2002-2020 · Contact