XF2.2 Frage zur URL Struktur / Seiten im Index bei google

netzrate

Bekanntes Mitglied
Lizenzinhaber
Registriert
24. Apr. 2017
Beiträge
39
Punkte
48
XF Version
  1. 1.5.2
Guten Abend zusammen,


ich habe aktuell einmal Zeit mich endlich einmal wieder etwas mehr mit meinem Forum auseinanderzusetzen.

Dabei kam mir das Thema SEO wieder hoch, und ich habe festgestellt das Google über 30.000 Links nicht indiziert sind:

upload_2020-11-3_18-4-11.png

Kann es daran liegen das die URL´s mit der Zahl versehen sind, und nicht wie ich es seinerzeit bei VBSEO hatte mit einem .html :
upload_2020-11-3_18-5-33.png
upload_2020-11-3_18-5-51.png

Wer hat da einen Rat für mcih was ich hier falsch mache?

Danke Euch und viele Grüße
Michael
 
Danke für den Hinweis, das ist wohl am Wochenende passiert als ich am Forum geschraubt habe.
Die beiden Fehler sind raus. Der Ausschluss ist aber erst am Sonntag passiert. Daher die Frage wie kann ich google wieder animieren hier die Seiten zu indizieren? :)
 
Mein letzter stand war das die das automatisch wieder machen nach x Stunden/Tagen whatever
 
Sitemap aktualisieren und schicken, dann kommt Google wieder.

Dazu reicht es, einmal den CronJob manuell zu starten, oder warten bis er von alleine läuft.
 
Manchmal entscheidet Google auch selbst was es wert ist indiziert zu werden.
Ich habe fast 500.000 nicht indizierte Seiten und wenn du da mal reinklickst sind dort auch die Gründe dafür ersichtlich.

WMT1.JPG

WMT2.JPG
 
Manchmal entscheidet Google auch selbst was es wert ist indiziert zu werden.
Ich habe fast 500.000 nicht indizierte Seiten und wenn du da mal reinklickst sind dort auch die Gründe dafür ersichtlich.

Anhang anzeigen 9627

Anhang anzeigen 9628

Okay, danke Dir, das sieht ja heftig aus bei Dir. Ich habe da reingeklickt, aber es steht dann da nur das hier:
upload_2020-11-5_12-55-1.png

Die Seiten sind aber aufrufbar. Alles ganz komisch :)
 
Wenn du das zu einer URL wissen willst, trage die URL in die URL Prüfung ein, und dann steht da warum nicht.
 
Ach ja, die XenForo Sitemap ist eh so ein Thema. Ich habe aber auch über 100.000 Seiten dort stehen.
Das sins Redirects, Folgeseiten, usw. Die will Google dann einfach nicht. Einzelne Beiträge gehören da auch zu,

Mitgllieder z.B. blockst du noch durch eine robots.
 
Zurück
Oben