• Wenn du hier im Forum ein neues Thema erstellst, sind schon Punkte aufgeführt die du ausfüllen musst. Das dient im Allgemeinen dazu die notwendigen Informationen direkt mit der Frage bereitzustellen.
    Da in letzter Zeit immer wieder gerne das Formular gelöscht wurde und erst nach 3 Seiten Nachfragen die benötigten Infos für eine Hilfe kommen, werde ich nun jede Fragestellung die nicht einmal annähernd das Formular benutzt, sofort in den Sondermüll schicken.
    Füllt einfach die abgefragte Daten aus und alle können euch viel schneller helfen.

Xenforo SEO - Optimierungen, Tipps und Tricks

Ich bin darauf gekommen, weil einige stinknormale Threads fast 20.000 interne links hatten ohne das die irgendwie seitenweise von mir verlinkt wurden.
 
Welche Parameter außer order habt ihr noch mit eigenen Einstellungen versehen?

Außer "order" zeigen mir die WM noch folgende an:
Parameter,Überwachte URLs,Konfiguriert,Effekt,Crawling,Wert
begin,20122, --, --,Entscheidung dem Googlebot überlassen, --
page,8788, --, --,Entscheidung dem Googlebot überlassen, --
t,2021, --, --,Entscheidung dem Googlebot überlassen, --
direction,1038, --, --,Entscheidung dem Googlebot überlassen, --
p,950, --, --,Entscheidung dem Googlebot überlassen, --
f,754, --, --,Entscheidung dem Googlebot überlassen, --
lightbox,595, --, --,Entscheidung dem Googlebot überlassen, --
last_edit_date,495, --, --,Entscheidung dem Googlebot überlassen, --
prefix_id,399, --, --,Entscheidung dem Googlebot überlassen, --
field,380, --, --,Entscheidung dem Googlebot überlassen, --
d,326, --, --,Entscheidung dem Googlebot überlassen, --
version,229, --, --,Entscheidung dem Googlebot überlassen, --
id,153, --, --,Entscheidung dem Googlebot überlassen, --

Ich denk mal "page" sollte man belassen, aber "begin" zB. ?
 
Schau und poste doch mal was der da bei den Beispiel Url angiebt. Dann kann man auch sagen, ob man das braucht.
 
page ist ja in XF kein Parameter.
 
Hallo,

bastel grad ein bischen SEO und hab mal eine Frage zu xenTags. Wenn ich mir anschaue, wie Google meine Website sieht , dann sind da viele Links zu den Schlagwörtern dabei, die ja wiederum eine Liste mit threads zu diesem Schlagwort anzeigen. Über der Liste steht das Schlagwort als h1 aber auf der Seite selbst taucht das Schlagwort unter Umständen gar nicht auf. Ich kann mir also nicht vorstellen, dass diese Art von Listen irgendeinen Vorteil in Sachen Ranking bringen - eher im Gegenteil. Bin also geneigt, /tags/ unter disallow in die robots.txt zu setzen. Was meint ihr dazu?

Dann mache ich mir noch Gedanken zur HTML-Strukturierung. Die Forenliste enthält den Namen der Community als h1 und dann die Kategorien und Foren als h3. Darunter dann noch die Unterforen als h4 innerhalb einer ol. Eigentlich wäre es doch besser so:

h1 Name der Community
- h2 Kategorie
- h3 Forentitle
- h4 Unterforen

Das werde ich mal ausprobieren mit der Kategorie als h2

In einem Forum:
- h1 Name des Forums
- h3 Name des Unterforums
- h3 Thread-Titel

Hier könnte man die h3 für Unterforen und Threadtitel in h2 umstellen.

Ansonsten stört es mich, dass zu viele Links und Infos zu Dingen, die nur für registrierte Nutzer interessant sind, den Content verwässern. Deshalb überlege ich, alle nutzerbezogenen Infos zu entfernen. In der Thread-Ansicht aus dem Postbit wären links vom Beitrag herauszuwerfen: "Dabei seit, Beiträge, Zustimmungen, Ort". Auch unterhalb vom Beitrag. "Zuletzt von einem Moderator bearbeitet" interessiert sicher auch keinen einzigen Besucher:
Code:
TMS RegExp Ersetzung für template message: - Suchen:
#<div class=\"editDate\">[\s\S.]+?<\/div>#
Ersetzen durch:
<xen:if is="{$visitor.user_id}"><div class="editDate"><xen:if is="{$message.user_id} == {$message.last_edit_user_id}">{xen:phrase last_edited}: <xen:datetime time="{$message.last_edit_date}" /><xen:else />{xen:phrase last_edited_by_moderator}: <xen:datetime time="{$message.last_edit_date}" /></xen:if></div><xen:else /></xen:if>

Da ich in der robots.txt /members/ auf disallow gesetzt habe, lasse ich die Links auf die Profilkarten drin. Die Profilkarten habe ich dann etwas erweitert aber den Link zum Profil entfernt, so dass die Besucher weiterhin alle relevanten Infos erhalten können ohne Fehler zu verursachen:
Code:
TMS RegExp Ersetung für template member_card: - Suchen:
#<a class=\"avatar NoOverlay\b[^>]+>([^<]*(?:(?!</a)<[^<]*)*)</a>#

Ersetzen durch:
<xen:if is="{$visitor.user_id}"><a class="avatar NoOverlay Av{$user.user_id}l" href="{xen:link members, $user}"><img src="{xen:helper avatar, {$user}, l}" alt="" style="{xen:helper avatarCropCss, $user}" /></a><xen:else /><img src="{xen:helper avatar, {$user}, l}" alt="" style="{xen:helper avatarCropCss, $user}" /></xen:if>

oh, jetzt hab ich nicht nur nachgedacht, sondern gleich umgesetzt ;-).

Ciao,
Sacha
 
Da ich in der robots.txt /members/ auf disallow gesetzt habe

Hmm...Hast Du das wirklich?

http://www.wunderkessel.de/robots.txt

# robots.txt for http://www.wunderkessel.de/
# Zugriff auf alle Dateien erlauben
User-agent: *
Disallow: /galerie/


Ich gehe da eher in Richtung von dem:

User-agent: *
Disallow: /forum/find-new/
Disallow: /forum/account/
Disallow: /forum/goto/
Disallow: /forum/posts/
Disallow: /forum/login/
Disallow: /forum/admin.php
Disallow: /forum/members/
Allow: /
 
Hmm...Hast Du das wirklich?
Danke für den Hinweis, der Upload hat nicht funktioniert. Habs nun aktualisiert.

Zu deiner robots.txt : Gibt es für nicht angemeldete Nutzer überhaupt einen Link auf account, admin, goto, find-new? Ist das Allow:/ am Ende überhaupt notwendig?

recent-activity ist über das Schnellmenü aufrufbar, das könntest du auch noch aufnehmen.
 
Mal na Zusatzfrage - für gute Robots ist die robots.txt wichtig, klar. Aber was mach ich mit den "bösen" die am ende sinnlos rumschnüffeln und den Server "belasten"? Die hält eine robots.txt doch eh nicht ab. Was tun mit denen? Über die .htaccess sperren?
 
Ne, page gibts auch noch mit xenforo: Klick mal auf den Link in einem mehrseitigen Thema... ;)
 
Hmm...Hast Du das wirklich?

http://www.wunderkessel.de/robots.txt

# robots.txt for http://www.wunderkessel.de/
# Zugriff auf alle Dateien erlauben
User-agent: *
Disallow: /galerie/


Ich gehe da eher in Richtung von dem:

User-agent: *
Disallow: /forum/find-new/
Disallow: /forum/account/
Disallow: /forum/goto/
Disallow: /forum/posts/
Disallow: /forum/login/
Disallow: /forum/admin.php
Disallow: /forum/members/
Allow: /


Das ist meinen Liste aber man beachte das ich die routen auch mit drinne habe

Disallow: /account/
Disallow: /profil/
Disallow: /members/
Disallow: /mitglieder/
Disallow: /login/
Disallow: /admin.php
Disallow: /help/
Disallow: /hilfe/
Disallow: /misc/
Disallow: /misc/contact
Disallow: /misc/kontakt
Disallow: /ajax/
Disallow: /attachments/
Disallow: /chat/
Disallow: /conversations/
Disallow: /unterhaltungen/
Disallow: /find-new/
Disallow: /finde-neue/
Disallow: /goto/
Disallow: /watched/
Disallow: /beobachtete/
Disallow: /lost-password/
Disallow: /members/
Disallow: /mitglieder/
Disallow: /mobiquo/
Disallow: /online/
Disallow: /recent-activity/
Disallow: /letzte-aktivitaeten/
Disallow: /register/
Disallow: /search/
Disallow: /suche/
 
Klick mal auf den Link in einem mehrseitigen Thema
das ist bei mir durch die sprechende URL kein für Google erkennbarer Parameter mehr.

Das ist meinen Liste aber man beachte das ich die routen auch mit drinne habe
Danke. Wenn du /misc/ aufführst, brauchst du dessen Unterpfade /misc/contact und /misc/kontakt nicht mehr angeben. Das wäre nur nötig, wenn du /misc auf disallow setzt und das zahlreiche Unterpfade hat, von denen du dann nur einige wenige mit allow wieder reinnehmen willst. Jedenfalls habe ich die Anleitung zu robots.txt so verstanden.
 
Die webmastertools von Google hatte das im letzten test bemängelt. Daher hatte ich das so gemacht.
 
Heftig, was Leute hier alles für Google sperren. Scheinen alle keine interne Verlinkung zu brauchen.
 
Ja aber wenn die Verlinkungen für Gäste und Google somit auch, ja eh gesperrt sind bzw. nicht angezeigt werden? Wozu dann?

Und das es Foren gibt die die Vollbilder der Attachments zB. nicht im Index bei google haben wollen, sollte ja verständlich sein. Oder die Nutzerprofile usw... ;)
 
Also ich sehe bei den Vorschlägen hier z.B. Disallow: /goto/

Warum. Die Goto Sachen sind doch in der Regel interne 301 Umleitungen.
Und was die Nutzerprofile angeht. Warum nicht für die interne Verlinkung nutzen und diese im Template auf noindex,follow setzen.


Dann:

upload_2015-3-5_9-2-58.png
Bei diesen beiden Links das nofollow entfernen und bei dem Template, das bei Klick geladen wird, ebenfalls ein noindex,follow einbauen.

Schon werden alle Threads und Posts der Members verlinkt und seinen sie auch noch so tief im Forum versteckt.

Diese noindex,follow Sache geht natürlich für viele Templates.

Man sollte sich immer fragen, wie gebe ich dem Crawler möglichst schnell die begehrten Threads und seien sie noch so tief vergraben.

Die Antwort ist: Manchmal muss man bei XF eine scheinbar wertlose Zwischenseite eben auf noindex,follow setzen.
 
Bei diesen beiden Links das nofollow entfernen und bei dem Template, das bei Klick geladen wird, ebenfalls ein noindex,follow einbauen.
Danke, das ist ein guter Hinweis. Die beiden von dir genannten Links habe ich schon direkt auf die Profilkarte übernommen, so dass Google dort alles findet, was es braucht. Die Links führen ja zu /search/ und dort werde ich nun das noindex, follow unterbringen. Genauso auf den Seiten von xentag. Sehr konstruktiver Dialog hier :).
 
Zurück
Oben