• Wenn du hier im Forum ein neues Thema erstellst, sind schon Punkte aufgeführt die du ausfüllen musst. Das dient im Allgemeinen dazu die notwendigen Informationen direkt mit der Frage bereitzustellen.
    Da in letzter Zeit immer wieder gerne das Formular gelöscht wurde und erst nach 3 Seiten Nachfragen die benötigten Infos für eine Hilfe kommen, werde ich nun jede Fragestellung die nicht einmal annähernd das Formular benutzt, sofort in den Sondermüll schicken.
    Füllt einfach die abgefragte Daten aus und alle können euch viel schneller helfen.

XF2.2 Extreme Zugriffe ... was ist da los? Wie Bots aussperren?

Ich habe 3 Seiten Einträge im Admin-CP in den gesperrten IP-Adressen.
Wo genau hast Du die denn da und was bewirken die Einträge? Im Normalfall zielen die doch auf die Registrierung ab - da ein großteil der Bots, die über AWS kommen, aber Content scrapen ohne Registrierung sind die Einträge in diesem Fall wirkungslos. Ausser Du nutzt eine Option, die ich übersehen habe.
 
Wenn ich mir die Liste mit den aktiven Gästen anschaue, dann steht bei denen mit einer gesperrten IP immer so etwas wie „betrachtet gerade eine Fehlermeldung“.
 
Ich hab kein Stress schon Monate. Andy B VPN Reg zu. Registrierung Wartezeit ich glaube 3 Minuten.
Spamer / Bots haben keine 3 Minuten Lust zu warten. Sollte doch mal einer durchkommen, schaue ich mir manuell die Mail an.
Erst dann werden die freigeschaltet.
Selten Stopforum Spam Block.
Bei mir muss man sich erst vorstellen, um alles zu sehen. 1 Beitrag erstellen, dann schalten wir die frei.

Das Teil von AndyB
Block IP blockt Zugriffe welche über VPN, Proxy oder TOR erfolgen sowie Relay access per IP ab
Seit dem Tag der Installation habe ich merklich weniger Meldungen Stopforum Spawn.
 
Zuletzt bearbeitet:
Wenn ich mir die Liste mit den aktiven Gästen anschaue, dann steht bei denen mit einer gesperrten IP immer so etwas wie „betrachtet gerade eine Fehlermeldung“.
Das war jetzt nicht wirklich eine Antwort auf meine Frage. ;)
 
Ich habe 3 Seiten Einträge im Admin-CP in den gesperrten IP-Adressen. Die meisten dieser Bots kamen aus verschiedenen ausländischen Rechenzentren von Amazon AWS. Es waren meistens Rechenzentren im Ausland. Daher habe ich dann den ganzen IP-Bereich gesperrt, z.B. 3.14.*
Dürfte mit meiner aktuell eingesetzten Version (2.2) noch gar nicht umsetzbar sein via ACP?
 
Dem kann, nein...muss ich...leider zu 100% zustimmen...

Männers, bitte helft und unterstützt mich mal. :)

Seit einigen Tagen wird unser Forum wieder von Scharen von Bots heimgesucht...und ich schaffe es bis jetzt einfach nicht sie, zumindest größtenteils, auszusperren. Irgendwie kommen auch immer wieder neue IPs dazu.

Hier mal meine aktuelle htaccess:

Code:
RewriteEngine On
RewriteCond %{HTTP_USER_AGENT} (GPTBot/1.2|PetalBot|YandexBot/3.0|bingbot/2.0|BLEXBot/1.0) [NC]
RewriteRule .* - [F,L]


<Limit GET POST>
order allow,deny
allow from all
#Mehrere einzelne IPs
deny from 93.237.
deny from 146.174.
deny from 114.119.
deny from 52.167.144.0
deny from 40.77.167.0
deny from 157.55.39.0
deny from 207.46.13.0
deny from 87.78.108.0
deny from 134.96.225.0
deny from 176.198.202.0
deny from 88.130.218.0
deny from 80.187.87.0
deny from 20.171.207.0
deny from 80.187.85.0
deny from 217.247.124.0
deny from 79.229.12.0
deny from 95.91.249.0
deny from 109.43.51.0
deny from 79.232.219.0
deny from 82.192.47.0
deny from 207.46.13.0
deny from 157.55.39.0
deny from 185.177.72.0
</Limit>

Scheint, diesmal...warum auch immer...nichts zu bringen. Sehr Ihr eventuell Fehler?

Gerade dieser nervige, wohl FAKE Bingbot fällt mit zehntausenden Crawls auf...und lässt sich einfach nicht davon abhalten...

Unter den IPs sind wohl, sofern ich das auf die Schnelle überblicken kann, auch bspw. deutsche Telekom-IPs dabei. Das kann und darf ja wohl nicht der Weisheit letzter Schluss sein eben solche, und damit eventuell auch ECHTE User, auszusperren.

Btw - auch xenforo.com scheint aktuell betroffen zu sein. Gerade sind dort fast 10.000 (!) "Gäste" online...

Gruß,
Chris
Ich musste die IP-Sperren wieder rausnehmen, da darunter, leider, sehr viel DEUTSCHE IPs sind/waren...und ich somit einige Mitglieder ausgesperrt habe...

Das kann ja nicht Sinn der Sache...und schon gar nicht der Weisheit letzter Schluß sein! :(
 
  • Like
Reaktionen: ehd
JavaScript "Challenge" - Poor Man's Version ohne Garantie

challenge.php
Code:
<?php
header($_SERVER['SERVER_PROTOCOL'] . ' 403 Forbidden');
?><html>
<head>
<meta charset="utf-8" />
<title>Sicherheitsüberprüfung</title>
</head>
<body>
<script>
// Wie lange soll das Cookie gültig sein?
const days = 7;
const date = new Date();
date.setTime(date.getTime() + (days*86400 * 1000));
document.cookie="challenged=1; expires=" + date.toUTCString() + "; path=/";
location.reload();
</script>
<noscript>
Für den Zugriff auf diese Seite ist JavaScript erforderlich
</noscript>
</body>

.htaccess

Code:
RewriteEngine On
RewriteCond %{REQUEST_METHOD} GET
RewriteCond %{REQUEST_URI} !/challenge.php
# Hier alle UA erlaubter Bots rein, es gibt keine Garantie dass die nicht gefläscht sind - das zu prüfen ist aber komplexer
RewriteCond %{HTTP_USER_AGENT} !(Googlebot|bingbot) [NC]
RewriteCond %{HTTP:Cookie} !(^|;\s*)challenged=1
RewriteCond %{SERVER_PROTOCOL} HTTP/1 [OR]
RewriteCond %{HTTP:Accept-Language} !de
RewriteRule .* /challenge.php [L]

Was macht das ganze?
Clients die HTTP/1 nutzen (das tun ganz viele Dummbots, ein halbwegs aktueller Browser nicht) oder kein de in Accept-Language haben erhalten ein 403 und müssen das JS ausführen - dieses setzt ein Cookie um den Check außer Kraft zu setzen.

Pro
Easy
Impact für normale menschliche User dürfte recht gering sein

Contra
Im Grunde sehr leicht für einen Bot zu umgehen (macht aber +- kaum einer)
Menschliche User mit Uralt-Browser (d.h. kein HTTP/2+ Support) oder nicht-deutschsprachigem Browser kommen in die Challenge; haben sie kein JS aktiviert geht es nicht weiter; haben sie JS aber keine Cookies aktiviert gibt es eine Endlosschleife
 
JavaScript "Challenge" - Poor Man's Version ohne Garantie

challenge.php
Code:
<?php
header($_SERVER['SERVER_PROTOCOL'] . ' 403 Forbidden');
?><html>
<head>
<meta charset="utf-8" />
<title>Sicherheitsüberprüfung</title>
</head>
<body>
<script>
// Wie lange soll das Cookie gültig sein?
const days = 7;
const date = new Date();
date.setTime(date.getTime() + (days*86400 * 1000));
document.cookie="challenged=1; expires=" + date.toUTCString() + "; path=/";
location.reload();
</script>
<noscript>
Für den Zugriff auf diese Seite ist JavaScript erforderlich
</noscript>
</body>

.htaccess

Code:
RewriteEngine On
RewriteCond %{REQUEST_METHOD} GET
RewriteCond %{REQUEST_URI} !/challenge.php
# Hier alle UA erlaubter Bots rein, es gibt keine Garantie dass die nicht gefläscht sind - das zu prüfen ist aber komplexer
RewriteCond %{HTTP_USER_AGENT} !(Googlebot|bingbot) [NC]
RewriteCond %{HTTP:Cookie} !(^|;\s*)challenged=1
RewriteCond %{SERVER_PROTOCOL} HTTP/1 [OR]
RewriteCond %{HTTP:Accept-Language} !de
RewriteRule .* /challenge.php [L]

Was macht das ganze?
Clients die HTTP/1 nutzen (das tun ganz viele Dummbots, ein halbwegs aktueller Browser nicht) oder kein de in Accept-Language haben erhalten ein 403 und müssen das JS ausführen - dieses setzt ein Cookie um den Check außer Kraft zu setzen.

Pro
Easy
Impact für normale menschliche User dürfte recht gering sein

Contra
Im Grunde sehr leicht für einen Bot zu umgehen (macht aber +- kaum einer)
Menschliche User mit Uralt-Browser (d.h. kein HTTP/2+ Support) oder nicht-deutschsprachigem Browser kommen in die Challenge; haben sie kein JS aktiviert geht es nicht weiter; haben sie JS aber keine Cookies aktiviert gibt es eine Endlosschleife
Vielen Dank, Andreas! :)

Ich habe vorerst diese Conditon von AndyB in meine htaccess gepackt:

Code:
<IfModule mod_rewrite.c>
RewriteEngine On
#   Deny and Allow bots by User-Agent
SetEnvIfNoCase User-Agent "bot|crawler|fetcher|headlesschrome|inspect|search|spider|GPTBot|PetalBot|YandexBot|bingbot/2.0|BLEXBot" bad_bot
SetEnvIfNoCase User-Agent "bingbot|duckduckgo|googlebot|yahoo" good_bot
Deny from env=bad_bot
Deny from 47.76.
Deny from 146.174.
Allow from env=good_bot
</IfModule>

Seitdem hatte ich, bis auf den gestrigen Tag (heute passt es schon wieder), keine auffälligen "Besuche" mehr.

Allerdings habe ich gerade ein Problem festgestellt, weiß aber nicht, ob es eventuell mit dem obigen Code in Zusammenhang stehen könnte: Unser Forum ist, mit den gängigen, bekannten Schlagwörtern nicht mehr top gelistet (Google). Entweder ganz raus oder deutlich schlechter. Könnte aber auch nur der berühmte Google-Schluckauf sein. Muss das die Tage mal beobachten.
 
Was sagt den die GSC ???

Und ja - Google saugt unsere Foren erst für die eigene KI aus, und lässt uns nun fallen. Machst du dicht um die KI nicht zu füttern, wirst fallen gelassen, lässt du offen wirst du ausgesaugt (bzw. wurdest bereits) und wirst fallen gelassen. ;-)
 
Und irgendwann gibt es nur noch KI-Antworten, denn viele User sind zu faul, um etwas nach unten zu blättern oder um die Quellen aufzurufen. Dann sterben wegen ausbleibender Werbeeinnahmen viele Seiten aus, und es gibt nichts mehr zum Abgrasen für das KI-Training. Über kurz oder lang gibt es dann für neue Themen oder Nischenthemen gar keine freie verfügbaren Infos mehr. Tolle neue Welt.

Jetzt müsste man nur noch einen Weg finden, wie man für die KI-Nutzung entschädigt werden kann.
 
Zurück
Oben