SEO

principia

Bekanntes Mitglied
Registriert
16. Jan. 2011
Beiträge
2.000
Punkte
163
Das Thema SEO geistert ja immer noch durch die Webwelt. Auch auf XF wurde es ja schon behandelt.
Ich lese auch ab und zu, das leute mit VB sich VBSEO dazugeholt haben. (ich muss gestehen, dass ich VB noob bin)
Ich hatte ja vor XF auch Wordpress, was ja SEOmäßig ziemlich gut dasteht.
Mittlerweile, nach dem Umstieg auf reines XF ohne jedes andere Programm, denke ich, das ist alles eine große Blase.
Auf XF hab ich garnix SEOmäßig getan. Google entwickelt sich aber zum Stammgast. Hab ständig mindestens 3 bots laufen, was vorher bei Wordpress nie der Fall war.
Nach 2 Monaten XF (und verdopplung des traffic, bei 50% mehr Usern ;)) ist auch in der Suchmaschine alles aktuell und meine defekten Links aus alten zeiten sind raus.
Also, warum Zeit in SEO investieren? Scheint als hätte XF alles so, wie es sein soll/muss.

Was meint ihr dazu?
 
bei Seo verfolgt jeder sein eigenes Rezept, aktuelle Foren sind dahingehend natürlich schon besser optimiert als die Software das "früher" war
ebenso hat sich auch google weiterentwickelt und kommt nun auch mit den tollsten URLs klar, das war damals ja auch nicht unbedingt gegeben

das du jetzt nach der Umstellung viel aktivität hast ist normal
 
Das Problem bei SEO ist eher, dass viele SEO mit den URLs gleich setzen. Selbst damals um 2000 hat google bereits gesagt, dass die Links angeblich keinen Einfluss auf die Platzierung hätte.

Es gibt dann viele Berichte die sagten, die besseren Links bringen etwas, andere sagten, sie würden nichts merken. Was du da sagst principia ist aber eher ein normales Verhalten. Eine schlecht besuchte Webseite wird sich mit der Zeit immer besser entwickeln, da du von mehr Seiten eventuell verlinkt wirst usw. Das hat nicht unbedingt was mit den URLs zutun.

Für SEO wirklich wichtig ist eher ein sauberer HTML-Code und anschließend entsprechend die Relevanz des Suchwortes und der Kontext. ;)
 
dabei dachte google aber sicher nicht an SessionIds in URLs, das zu ignorieren geht ja auch noch nicht so lange
und mehr Keywords (auch im Dateinamen) hilft immer - von ungefähr kommt das also nicht
der Vorteil von sprechenden URLs ist ja IMO auch das es neben den Sumas dem Besucher schon mal einen Vorgeschmack gibt was sich hinter dem link verbergen könnte

besserer Quellcode tut sicher seinen Beitrag dazu, ob das aber nun DIV-Suppe oder das ach so böse Tabellenlayout ist macht heute IMO wenig unterschied - theoretisch zieht google auch die eingebundenen CSS-Files für das Ergebnis heran

aber natürlich geht nichts über Content und wenn Besucher bei Ergebnissen sofort wieder abspringen registriert google das auch und wertet das Ergebnis ggf. ab, die Kunst ist erst mal in die Ergebnisse zu kommen
 
und mehr Keywords (auch im Dateinamen) hilft immer - von ungefähr kommt das also nicht
Diese Aussage ist so falsch. Google hat sehr lange Zeit verneint, dass der Dateiname und damit die URL einen Einfluss auf das Ranking hat. Wie es genau ist, ist ein Streitthema in dem sich sogar Profis regelmäßig bekriegen. Die pauschale Aussage, dass es was bringt, ist daher weder belegt noch widerlegt. Wer sich ein wenig mit der Materie beschäftigt weiß aber sehr schnell, wenn man SEO-Optimierungen daran festmachen will, hat die entsprechende Person dahinter absolut keine Ahnung.

besserer Quellcode tut sicher seinen Beitrag dazu, ob das aber nun DIV-Suppe oder das ach so böse Tabellenlayout ist macht heute IMO wenig unterschied - theoretisch zieht google auch die eingebundenen CSS-Files für das Ergebnis heran
Ich sprach nicht von semantisch korrektem Quellcode, ich sprach vom sauberen Code. Tags die nicht richtig geschlossen werden, Attribute und andere Aspekte tun hier einiges zur Sache. Falsch geschlossene Kommentare fallen dabei schon eher auf, aber <div <div></div></div> ist etwas, was unter umständen erst sehr spät auffällt, weil bestimmte Browser früher sehr "Fehler tolerant" waren.

Was nach dem Panda-Update nun bei google aber sehr wichtig ist, ist der Inhalt und der Kontext dessen. Keyword-Spammer werden nun ebenso abgestraft.

Fazit für wirklich gutes SEO ist daher folgendes:
Saubere Quelltext, am besten semantisch richtig.
Vermeidung unnötiger Konstrukte für das Design.
Gut geschriebener Inhalt mit häufig vorkommenden Stichworten.
Richtig gesetzte META-Tags für den Inhalt.
Guter TITEL-Tag und Verwendung von H[1-n]-Tags, da die eine gewisse Gewichtung haben.
Verwendung von strong/b, em/i. (b und i bei HTML5).

Für die Nutzer schön anzusehen, aber die Wirkung ist nicht bewiesen:
Aussagekräftiger Pfad/Link. In der Regel ist dies eher für den Nutzer von Bedeutung, die Auswirkung auf google und Co ist aber eher umstritten. Zudem können zulange URLs auch schädlich sein. 255 Zeichen und so. ;)
 
mehr Keywords (auch im Dateinamen) hilft immer
Diese Aussage ist so falsch.
aha, aber
häufig vorkommenden Stichworten.
was jetzt?

ne zeit Lang war auch die Rede davon das Ordner statt "einem Dateinamen" schädlich sind

ich denke wie man es macht ist relativ egal, so lange es einheitlich ist und nicht alle Nase lang geändert wird
ein gewisser Sinn in der URL macht sicher auch mehr Sinn als Keywordspam
bei Foren die alles Dynamisch erzeugen ist es natürlich schwerer alles Richtig zu machen um schönen Code zu erzeugen als bei einem CMS wo man Artikel verfasst - trotz alle dem schaffen es in Suchmaschinen auch absolut schlechte Seiten nach oben, wenn nur der Content stimmt

das Beste ist eben immernoch sich auf den Inhalt und nicht zwingend auf die Verpackung zu konzentrieren
 
Lies deine Aussage mal genau durch. "mehr Keywords (auch im Dateinamen) hilft immer"
Merkst du was? Diese Aussage ist so falsch. Zudem kann "mehr Keywords" sogar nach dem jüngsten Update sich fatal auswirken. http://www.heise.de/newsticker/meldung/Google-Qualitaetsupdate-nun-auch-in-Deutschland-1322584.html

Der Artikel sollte das benötigte Keyword oft genug enthalten, wer es hier übertreibt kann aber genau so abgestraft werden. Zudem bezog sich der Abschnitt von mir mit Stichworten auf den Inhalt, deine Aussage schloss die Dateinamen ein, welches so als Aussage sehr umstritten ist.

Zudem hast du es immer noch nicht verstanden, was ich mit sauberen HTML-Code meinte. Schade eigentlich, sauberer Code bedeutet nicht, dass der Code gut oder schlecht ist.
 
mir ist schon klar das du auch die korrekte Verwendung von Formatierungen meinst (wenn ein Beitragstitel angegeben werden kann und die Software das automatisch übernimmt Re: SEO nicht alle mit H1 formatieren) sind wir uns soweit einig?

du denkt bei der Keywordgeschichte aber nicht weiter, der Link kann ja auch auf einer anderen Seite gepostet werden, da sind die Keywords dann wieder im Text ;)

wann ist ein Keyword spam, wann ist es ein Keyword
klar, wenn der Text wie eine Stichwortwolke aussieht und alle Variationen des Keywords bietet mag Google das jetzt nicht - wenn eine Seite zu Apple aber pro Seite 50x Apple enthält, was will man machen
was das jüngeste Update macht geht mir dazu am Anus vorbei, ich betreibe kein Seo wie ein Broker der heute Schweinebäuche im angebot hat - ich optimiere die Seite für den User und mach mir dann meine Gedanken wo man es noch verbessern kann damit die Suchmaschine auch glücklich wird, bzw der Googlecache nach was aussieht - mehr nicht

wenn du jetzt weiter über schönen/sauberen/wasauchimmer Code lamentieren willst, dann schreib einfach ein Beispiel was du meinst (false|false|right) sonst drehen wir uns im Kreis
 
Zurück
Oben