XF1.x Google-Bots von "Neuesten Inhalten" blockieren

Triops

Bekanntes Mitglied
Lizenzinhaber
Registriert
1. Juni 2013
Beiträge
288
Punkte
93
XF Version
  1. 1.5.6
Im Grunde freut man sich ja, wenn die Google-Bots in Horden (bei mir oft 300 bis 800 Stück) vorbeikommen, alles indexieren und sich nach ein paar Stunden oder 1-2 Tagen zurückziehen.

Bei mir ist nun seit x Tagen die Hölle los. Meist um/über 500 Google-Bots sind fast ständig da und greifen ständig und immer wieder die "Aktuellsten Inhalte" ab:

upload_2020-1-15_12-58-35.png

Das geht seitenweise so!
Problem: ich muss für Leistung und Transfer bezahlen, der Cache reicht regelmäßig nicht mehr und die Seite wird mega zäh bis zum Stillstand / Fehlermeldungen.

Wie kann ich verhindern, dass diese Seite so oft und fortwährend von Google (Bing macht das nicht) aufgerufen wird?

Ich habe in den Ursprung der Site schon eine robots.txt gepackt, aber seit einer Stunde wird sie anscheinend nicht gelesen / ist nicht wirksam, denn die Bots verhalten sich weiterhin so.

User-Agent: Googlebot
Disallow: /find-new/

Kann man in den Webmastertools einzelne Bereiche blocken?
Was kann ich sonst tun bzw. prüfen, ob die robots.txt gelesen wird? Wie schnell wirkt sie?

Danke für jeden Hinweis. Ich bin mittlerweile echt genervt. Das war zwar immer mal so, vor allem nach Zeiten vieler, vieler neuer Beiträge in der Hochsaison, aber hier scheinen die Bots festzuhängen.
 
ich muss für Leistung und Transfer bezahlen, der Cache reicht regelmäßig nicht mehr und die Seite wird mega zäh bis zum Stillstand / Fehlermeldungen.
Wo gibt es denn solche Angebote oO?

Schon einmal mit "User-agent: *" probiert? Vielleicht ist es gar nicht der Google Robot und wird nur falsch erkannt? Hast du eine access.log von deinem Webserver? Dann könnte man die IP nachprüfen und gegebenenfalls blockieren.
 
Es sind Google-Bots, durchgereicht durch mein Cloudflare z.B.:

172.69.xx.xx - - [15/Jan/2020:06:46:25 +0000] "GET /find-new/42278395/posts?page =2 HTTP/1.1" 303 5 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.goog le.com/bot.html)" "66.249.65.138, 172.69.xx.xx"

* hat übrigens auch nichts gebracht. Alleine die access.logs sind riesig groß, das aktuell über 80 MB
 
Klar rotieren die Logs, aber das ist nur von wenigen Stunden...
 
Kann man die Seite/Suche "find-new" kurzfristig hart abschalten? Den Button dahin habe ich für Gäste schon ausgeblendet.
Ich habe lieber 10000 Fehler in den Webmastertools (oder genau einen für /find-new/ als diese ständige Seuche - kurzer einfacher aber harter Schnitt wäre doch wirkungsvoll.
 
Du könntest vom Webserver aus einen rewrite machen.
 
Danke! Aus meiner rauskopierten Liste aus den access.logs war ad hoc keine dabei.
 
Zurück
Oben