11

Meta Daten Optimierung mit OnPage.org Teil 3 von 8

OnPage.org Starschnitt Teil 3Auf zum dritten Teil des achtteiligen OnPage.org Starschnitts. Nachdem sich nun Dominik der Server Optimierung hingab und Marcell ausgiebig über die Potentiale in der Keyword Optimierung berichtete darf ich als dritter im Bunde etwas genauer auf den Bereich der Meta Daten eingehen. Wie bereits bekannt sein sollte wird hier, mithilfe von OnPage.org, eine Analyse der Webseite Care.de durchgeführt um der gemeinnützigen Stiftung Verbesserungspotentiale auf der Webseite zu zeigen. Vorweg kommt jedoch noch etwas allgemeiner Input.

OnPage.org – Schon mal gehört ?

Mittels der webbasierten Analyse Software OnPage.org können Webseiten auf ihre Struktur hin geprüft, verbessert und vor allem auch überwacht werden. Gerade bei größeren Projekten mit mehreren Verantwortlichen ist es mit OnPage.org einfach möglich besprochene Änderungen zu monitoren und auf den davon versprochenen Erfolg zu bewerten. Dank der einfach dargestellten Tasks und der direkten Tipps in der Software sowie dem zugehörigen Wiki, lässt sich OnPage.org vom Anfänger bis hin zum Experten bedienen und nutzen. Nach jahrelanger Arbeit im Online Marketing wurde OnPage.org vom Team Tandler,Dörje und Partner quasi aus eigenem Bedarf heraus entwickelt. Dem Nutzer steht somit ein durch Erfahrung gezeichnetes Experten-Wissen innerhalb der Software zur Verfügung.

Die Meta Optimierung

Innerhalb der Meta Daten beschränkt sich OnPage.org auf die mitunter wichtigsten Attribute die auf einer Webseite zu finden sein sollten. Das interne Wiki von OnPage.org schweigt sich hier leider noch ein wenig aus, denn bis auf den erklärten Title Tag und weiteren Einträgen mit „Content folgt“ konnte ich keine Informationen finden. Ich bin mir aber ziemlich sicher dass dies nicht mehr lange der Fall sein wird. Laut der Analyse von OnPage.org liegen wir im Meta Bereich bei einer Optimierungsrate von sagenhaften 4 Prozent. JA, ihr lest richtig, omg, 4 Prozent. Normalerweise würde ich jetzt sagen das kann jeder besser der eigentlich nur „aus versehen“ mal eine Webseite erstellt. Aber schauen wir doch mal wo hier im einzelnen die Probleme sind.

Der Title Tag

Der Title ist mit der erste Wert den wir Google an die Hand geben um eine Seite zu „klassifizieren“ und mitzuteilen welche Inhalte dort zu finden sind. Somit ist der Title ein wichtiger Rankingfaktor im Bereich Onpage und kann bei korrekter Bearbeitung oft Wunder bewirken. Auch bei OnPage.org erhalten wir vorab eine kleine Belehrung zum Title Tag: Dem ist eigentlich nichts mehr hinzuzufügen, bis auf den Hinweis das die Anzahl der darstellbaren Zeichen auch immer von den verwendeten Zeichen selbst abhängt. Eine manuelle Kontrolle des Snippets ist im Grenzbereich also immer notwendig. Noch dazu habe ich die Erfahrung gemacht das ein nur teilweise sichtbarer Title ebenso stark zu einem Klick animieren kann wie ein kompletter Title. Die Neugierde des Users, was sich hinter den Punkten verbirgt, ist und bleibt ein nicht zu unterschätzender Faktor, hierzu ist es jedoch wichtig das der lesbare Teil auch wirklich die Neugierde weckt.

Der Status Quo bei Care.de lässt jedem SEO jedoch erst einmal die Gesichtsfarbe entgleiten: Meta Title nicht gesetzt Wir wissen also bereits das der Title ein wichtiger Rankingfaktor ist, anhand der obigen Grafik sehen wir jedoch, in Zahlen ausgedrückt, dass knapp 70 Prozent der einzelnen Webseiten keinen Title enthält. Auf den ersten Blick und ohne weitere Begutachtung wird mir hier direkt mitgeteilt, über 2/3 der Seite Care.de ist unwichtig. Bei detaillierter Betrachtung wird hier jedoch schnell ein Problem sichtbar das in der Programierung der Seite zu finden ist. Da ich gerne später auf das beschriebene Problem eingehen möchte, breche an dieser Stelle kurz ab und würde gerne noch ein Feature Request an das OnPage.org Team richten.

Bei 5000 und mehr Fehlern, die vor allem durch eine Struktur verursacht werden wäre es wundervoll eine Art Filter zu haben um die immer gleichen URLs ausblenden zu können. Aktuell bedeutet es das ich mir 50+ Seiten mit Listen ansehen muss um dahinter zu kommen ob es ausschließlich systembedingte Fehler sind oder ob hier noch mehr zu finden ist. Es besteht zwar die Möglichkeit eine Excel, bzw. eine CSV Datei herunter zu laden, in Zeiten der Online Arbeit ist dies jedoch nicht unbedingt die beste Lösung, wenngleich aber ein guter Anfang.

Exportieren und manuell Nacharbeiten !

Nach der manuellen Filterung verbleiben „nur“ noch knapp 100 Seiten die keinen Title haben und die Behebung sollte das Care.de Team hier vor keine größeren Probleme stellen. Captain OnPage hat also Recht, zwar ist es kein echter Bug, jedoch stimmt hier etwas nicht.

Auf einigen meiner Seiten habe ich selbst weder die Zeit, noch das Interesse mich auch wirklich um jeden Title zu kümmern. Hier bietet es sich an innerhalb des CMS eine Funktion zu integrieren die den Title aus der ersten Überschrift im Dokument generiert. Denn gar kein Title ist sicherlich die schlechteste Lösung.

Soweit es hier erkennbar ist, geht Care.de größtenteils genau den vorbenannten Weg. Die Title-tags werden automatisiert aus den Seitenüberschriften erzeugt.

Leider führt jedoch auch genau das dazu das einige Seiten einen sehr kurzen und nichtssagenden Title haben der genau so in den Snippets bei Google erscheint. Wie bereits Marcell erwähnt hat sollte hier sehr genau geprüft werden ob es möglich ist die Title individuell und aussagekräftig zu gestalten und somit auch bei dem User Interesse zu wecken. Bei Seiten die ein gutes Ranking erzielen sollen ist es dazu noch sinnvoll auch das Keyword in den Title-tag mit aufzunehmen.

Suche ich bei Google z.B. nach „Presse Care“ oder „Presseinformationen Care“ u.ä. so wird mir nicht die eigentliche Presseseite präsentiert, sondern direkt eine Unterseite Namens „Medieninformationen“ die jedoch nur über aktuelle Aktionen von Care.de berichtet. Der Title-tag auf der Presse Seite besteht aus einem Wort „Presse„. Ok, das Keyword ist drin, es fehlen jedoch zusätzliche Informationen was auf dieser Seite eigentlich zu finden ist. Ein erweiterter Title-tag zu „Presse – Informationen, Medien und Ansprechpartner für Journalisten“ wäre meiner Meinung nach ein deutlich geeigneterer Title der in Verbindung mit einer passenden Meta Description und ein klein wenig mehr relevantem Text auf der Seite selbst auch zu einem besseren Ranking verhilft.

Auf die gleiche Weise ist jeder Title-tag zu überprüfen, ob zu kurz oder zu lang ist hier irrelevant. Dank der Exportfunktion in eine CSV oder Excel Datei ist dies jedoch eher eine Fingerübung. Ich persönlich nutze Excel sehr gerne für die Bearbeitung der Title-tags von bestehenden Seiten, denn hier habe ich die Möglichkeit mir eine feste Spaltenbreite zu definieren und kann anhand dieser relativ einfach die Länge des Title-tags beurteilen ohne jedesmal die Zeichen zählen zu müssen. Insbesondere bei vielen Unterseiten lässt sich so deutlich schneller arbeiten.

Auf der gesamten Seite wurde trotz vielfach automatischer Generierung der Title-tags nur ein einziges Duplikat gefunden. Und wenn ich ganz ehrlich sein soll, geschenkt. Perfektionismus ist was tolles, aber nach dem anfänglichen Horrorszenario ist das Doppel kein wirkliches Problem. Generell gilt jedoch, ein Title sollte ebenso wie eine H1 Überschrift nicht doppelt auftauchen.

Meta Description

Die Meta Description wird ebenfalls Google zur Verfügung gestellt um den Inhalt der gelisteten Seite zu beschreiben. Hier gilt es ebenso wie im Title dem User vor allem einen Grund zu liefern das Ergebnis anzuklicken und die gefundene Seite zu besuchen. Als Rankingkriterium ist die Description nicht wirklich relevant, da sie jedoch als Text (normalerweise) in den Google Ergebnissen erscheint kann die Meta Description entweder dazu führen das der Nutzer die Seite besucht oder auch komplett ignoriert.

Wichtig bei der Description ist somit eine aussagekräftige Beschreibung des Seiteninhalts zu erstellen und dem User bereits vorab genügend Informationen zu liefern was ihn hinter dem Klick auf das Suchergebnis erwartet. Hierbei ist zu beachten das die Meta Description eine Länge von 160 Zeichen nicht überschreiten sollte.  Wie aber bereits beim Title erwähnt, hängt die maximale Anzahl der zu verwenden Zeichen von den Zeichen selbst ab. Erwähnenswert ist auch die potentielle Nutzung von ASCII Zeichen die ein Snippet zusätzlich besonders klickstark gestalten können. Doch schauen wir kurz was uns OnPage.org dazu sagt:

Leider ist auch hier bei Care.de ein etwas größeres Problem zu erkennen. Interessanterweise jedoch erst auf den dritten Blick. OnPage.org erstellt uns wieder eine Grafik um auf die wichtigsten Probleme direkt aufmerksam zu machen.

Zuerst fallen natürlich wieder die 5.623 nicht gesetzten Descriptions auf. Auf die Analyse der nicht gesetzten Beschreibungen habe ich an dieser Stelle verzichtet da sehr schnell deutlich wurde das es sich hierbei um das gleiche Problem wie bei den nicht gesetzten Title-tags handelt (kommt noch). Viel interessanter ist der Hinweis auf die vorhanden Descriptions im Vergleich mit den zu langen Beschreibungen und dem fehlen von Duplikaten. Insbesondere das Fehlen von Duplikaten machte mich etwas stutzig da ich bereits bei manueller Betrachtung mehr als ausreichend Duplikate fand.

Die Grafik ist so also etwas irreführend und nicht ganz korrekt. Leider fehlt bei OnPage.org die Möglichkeit sich auch die korrekten URLs herunterzuladen sodass ein direkter Vergleich der zu lang geratenen und der angeblich korrekten Beschreibungen ohne weiteres nicht Möglich ist. Ebenso hat mich Care.de kurz aus der Webseite ausgeschlossen als ich mit dem Screaming Frog Spider die Seite crawlen wollte. Mein darauffolgendes Hilfsmittel hatte dank einer integrierten Proxylösung dann keine Probleme mehr und ich konnte mir die die komplette Webseite kurz auf meinen Rechner kopieren und die relevanten Daten vergleichen. Letzeres hatte allerdings auch zur Folge das wir mittlerweile wieder 7 Uhr morgens haben und ich darum bitte den ein oder anderen Rechtschreibfehler zu ignorieren.. naja.. wenns mich packt muss halt noch ne Kanne Kaffee her. Aber weiter im Text.

Nach der Validierung kann ich zumindest sagen, OK ist auch wirklich OK. Die Description wird hier ordnungsgemäß auf das Vorhandensein und die korrekte Zeichenlänge geprüft.  Lediglich bei der Prüfung auf Duplikate scheint hier noch etwas im argen zu liegen. Care.de setzt hier auf die beliebte  Oldschool Taktik, ich setz einfach mal überall das gleiche ein, das hat natürlich zur Folge das die Description nichts über den tatsächlichen Inhalt aussagt und der Nutzer die mittlerweile gewohnten Standardfloskeln in den Serps gekonnt ignoriert sowie wahrscheinlich auch einfach zum nächsten Ergebnis wandert. Ebenso ist mir aufgefallen das Google vermehrt dazu übergeht sich die fehlenden, bzw. hier doppelten Beschreibungen lieber direkt selber zu suchen und dadurch folgende lecker Snippets liefert.

Hier sollte das Care.de Team sich die Mühe machen und die Duplikate durch sinnvolle, zum Thema passende Beschreibungen auszutauschen. Dann steht dem Klick des Users auch nciht mehr viel im Wege.

Nicht wirklich Meta aber… CTR Assistent und Keyword Fokus

OnPage.org stellt innerhalb des Meta Moduls noch zwei weitere Tools zur Verfügung die bei der direkten Optimierung von Unterseiten helfen. Diese beiden USPs werden hier einfach in der unscheinbaren Metabox versteckt und entpuppen sich bei näherer Betrachtung als echte Killerfeatures. Die Voraussetzung zur Nutzung ist jedoch ein Import der Google Webmaster Daten. Erst mit den Daten und dem Keywordmonitoring von OnPage.org kommen beide Tools auch wirklich voll zur Geltung.

Der CTR Assistent

Mit dem CTR Assistenten lassen sich die Click Through Rates zu den jeweiligen Keywordpositionierungen in den Serps kontrollieren und ausbauen. Heißt, hier wird mittels einem simplen Ampelsystem auf Ungereimtheiten hingewiesen. Was bringt schon der erste Platz wenn niemand das Ergebnis aufgrund eines schlechten Titles oder einer nichtssagende Description anklickt. Auf dem folgenden Screenshot ist ein Beispiel zu sehen, leider lagen zu Care.de keine Daten vor sodass ich hier auf eine andere Seite zurückgreifen muss.

Auf dem Screenshot lässt sich recht schnell und deutlich erkennen das die Grunddaten wie Title, Beschreibung und URL zu finden sind. Dazu wird darunter jedes zugehörige Keyword mit seinem Ranking und den importierten Daten, der CTR sowie den Impressions angezeigt. Anhand vieler Tests lässt sich feststellen das ein Keyword auf Position 6 mit einer 3 prozentigen CTR definitiv zu wenig Traffic abbekommt. (Rote Ampelfarbe) Hier besteht also noch deutlich Luft nach oben und es kann optimiert werden.

Der Keyword Fokus

Mit dem Keyword Fokus Tool wird ein ähnliches Ziel verfolgt, hier liegt das Augenmerk jedoch nicht bei der Bewertung der CTR sondern vielmehr bei der Prüfung ob sich nicht zusätzliche Keywords dazu eignen mittels einer kleinen Umstellung der Meta Daten neue oder andere Rankings zu erzielen. Durch die vorher eingetragenen CPC Werte lässt sich hier auch ein direkter Vergleich der einzelnen Keywords im Rahmen der tatsächlichen Monetisierung anstellen.

Robots und immer noch neu, der Canonical Tag

Die Meta Robots Angabe ist ein sehr mächtiges Werkzeug und kann bei falscher Verwendung im schlimmsten Fall dazu führen das eine Webseite bei Google nicht zu finden ist. Die Option Noindex wird leider allzu oft genutzt um Duplicate Content zu verstecken, dabei stellt der Noindex Tag in dem Fall keine Lösung des Problems dar sondern verschiebt es nur. Noindex wurde geschaffen um Seiten aus einem Suchmaschinenindex auszuschließen, die Verwendung hat also zur Folge das die mit Noindex modifizierte Seite von Google gelesen wird um zu erfahren das Google die Seite bitte nicht berücksichtigen soll.

Wenn ich das ganze auf die Spitze treibe hat das für mich den gleichen Charakter einer zwei stündigen Autofahrt um am Ziel zu erfahren das ich nicht hätte vorbeikommen sollen. Was die Autofahrt kostet können wir uns alle denken, warum also sollte sich Google über viele mit Noindex modifizierte Seiten freuen. Hierdurch werden unnötig Ressourcen verschwendet die besser auf einer anderen Webseite genutzt werden könnten.

Das Noindex Tag sollte also vielmehr dazu verwendet werden um zum Beispiel Loginseiten zu verstecken. Ein Disallow in der Robots.txt ist KEIN Noindex! Wie uns auch bei OnPage.org mitgeteilt wird, kann ein übermäßig und unsinniger Einsatz des Noindex Attributs dazu führen das Google Ressourcen von der Webseite abzieht und somit neue und auch wichtige Inhalte deutlich seltener gecrawled und gelistet werden. Um Duplicate Content zu vermeiden nutzt man heute den in 2009 eingeführten Canonical Tag. Der Canonical Tag wird ebenfalls innerhalb des HEAD Bereichs als Link Attribut eingefügt und verwaist idealerweise auf eine ähnliche Inhaltsseite, bzw. auch auf die Startseite eines mehrteiligen Artikels.

Das System hat hier zwei große Vorteile. Zum einen wird der Suchmaschine explizit gesagt welcher Inhalt der relevante ist und gelistet werden soll und zum anderen wird die eingehende Linkpower zum Teil auf den relevanten Artikel weitergeleitet und stärkt zusätzlich die Position innerhalb der Suchergebnisse. Generell sollte jede Unterseite einen Canonical Tag enthalten und bestenfalls auf sich selbst verweisen. Bei Care.de fehlen uns übrigens wieder 5.623 Canonical Tags. Nun also endlich mal zu dem Problem das uns im kompletten Meta Bereich zu einer Optimierungsrate von insgesamt nur vier Prozent verhilft.

Druckbare Seiten …  mehr isses nich. Von so ziemlich jeder Unterseite der Organisation Care wird eine druckbare Version der Seite angelinkt. Die druckbare Seite wird mittels Robots auf noindex,nofollow gesetzt. Auf ein Canonical wird hier, obwohl es auf dem Rest der Webseite korrekt genutzt wird, verzichtet und stattdessen wird massenhaft Duplicate Content Produziert der anschließend wieder aus dem Index entfernt wird. Auf deutsch, Google wird zuerst zugemüllt und anschließend wieder aufgeräumt.

Ich denke es ist klar das diese Vorgehensweise hier absolut unsinnig ist. Anstatt die Druckseiten mit Noindex und Nofollow (ich kann mir übrigens in keinster Weise erklären warum ausgerechnet nofollow, aber ich vermute das dies eine Standard Auswahl in Kombination mit Noindex in Typo ist) zu versehen, wäre es eine Notlösung an dieser Stelle das Canonical Tag zu verwenden. Eine Notlösung ist jedoch nicht das was wir anstreben.

In vielerlei Hinsicht optimal wäre eine ganz andere Variante. Die gesonderten Druckseiten sind, bzw. werden komplett überflüssig wenn hier mit einem zusätzlichen Stylesheet gearbeitet wird. Bei SELF HTML finden sich diverse Varianten und Einsatzmöglichkeit von Stylesheets. Hier ganz klar die beste Lösung, denn weder wird Google unnötig mit Seiten belastet die unwichtig sind, der Traffic von Care.de wird reduziert, da die Druckseiten nicht mehr ständig erneut zum Druck erzeugt werden müssen und es verschwinden vor allem die verhältnismäßig vielen Noindex Seiten ohne Title und Description.

Fazit

Care.de – Immer ein Blick Wert

Ich habe mich gefreut an der Aktion teilnehmen zu dürfen und hoffe mit meiner Arbeit einen kleinen Beitrag zur Verbesserung der Seite geleistet zu haben. Care.de verdient es deutlich präsenter bei Google positioniert zu werden. Im Falle das Care.de mit der Umsetzung der bereits erhaltenen Tipps, sowie auch der noch folgenden doch nicht ganz so zurecht kommt empfehle ich die Kontaktaufnahme zu diversen SEO Agenturen, denn viele der Kollegen betreuen gemeinnützige Projekte auch schon einmal unentgeltlich.

OnPage.org

Ist eine Software und egal wie gut eine Software ist, man kann sie IMMER verbessern. Ich möchte jedoch behaupten das OnPage.org die mir derzeit beste bekannte Lösung für Onpage Analysen und dauerhaftes Monitoring ist. Nicht nur das mir besonders viel Fleißarbeit abgenommen wird, sondern man merkt deutlich das die Köpfe hinter OnPage.org sehr genau wissen was sie tun und viel Erfahrung in das System einfließen lassen. Und egal wie viel Mühe ich mir gebe, OnPage.org lässt sich einfach nicht betrügen, findet jeden verdammten Fehler und hält ihn mir täglich unter die Nase. 🙂

Und hier gibt es alle Starschnitt Artikel.

Erstellt in:SEO

Recent Posts

Speichern und Teilen!

11 Antworten to "Meta Daten Optimierung mit OnPage.org Teil 3 von 8"

  1. Lelala sagt:

    Ich bin mal auf den letzten Teil der Serie gespannt, bei dem du ausrechnest ob sich das Tool insgesamt gelohnt hat, für dich. Ich finde den Preis doch ziemlich stolz 😀 Grüße

  2. Torben sagt:

    Das Tool kann durchaus helfen. Ich habe aber irgendwie das Gefühl, dass man mit dem Tool nach Fehlern sucht, die man bei einer sauberen Programmierung + Contentpflege hätte gleich vermeiden können.

  3. Andy sagt:

    Hey super Artikel. Hat mir echt gerade beim Aufbau meiner Seite geholfen.Danke

  4. matthias sagt:

    Moin, leider ist auc dieses tool nur für die einsprachige SEO tauglich, bzw. für die SEO in einem Land. Wir hatten massive Probleme mit dem <link rel="alternate" hreflang=" und haben letztendlich alles per Hand überprüfen müssen.
    Gerade wenn man den Fokus in DEU/ SUI/ AUT hat, wo überall deutsch gesprochen wird, kann man schnell ein DC-Problem bekommen.
    Somit denke ich, dass es Zeit wird entsprechende tools zu entwickeln. Damit wäre bestimmt vielen "kleinen" Entwicklern und Agenturen geholfen.
    Genauso wäre es schön, wenn auch "fertige" open-source Anwendungen (wie magento, typo3, etc.) das zur Verfügung stellen würden.

    Aber ich wollte hier (auch wenn es vielleicht so aussieht) nicht meckern, sondern einige Anregungen für motivierte Entwickler geben.
    In diesem Sinne viele Grüsse aus Flensburg

  5. -->
  6. Marcell sagt:

    Hallo Dennis,
    schön recherchiert und ausführlich zusammengeschrieben, ich denke damit kann CARE wieder einiges umsetzen! Und danke für die Erwähnung.
    Beste Grüße,
    Marcell aka Seodeluxe

    • Dennis sagt:

      Danke Marcell, so soll es ja auch sein. Ich freu mich das ich hier einen kleinen Betrag leisten durfte. Und, na da ist doch eine Serie, selbstverständlich erwähne ich da auch meine Vorgänger. 🙂

  7. Lelala sagt:

    Ich bin mal auf den letzten Teil der Serie gespannt, bei dem du ausrechnest ob sich das Tool insgesamt gelohnt hat, für dich. Ich finde den Preis doch ziemlich stolz 😀 Grüße

  8. […] auf acht SEOs verteilt:Dominik Wojcik: Server-OptimierungMarcell Sarközy: KeywordDennis Farin: Meta-TagsHier geht es weiter mit dem Inhalt und in der zweiten Hälfte folgen Links, Bilder, Architektur und […]

  9. Torben sagt:

    Das Tool kann durchaus helfen. Ich habe aber irgendwie das Gefühl, dass man mit dem Tool nach Fehlern sucht, die man bei einer sauberen Programmierung + Contentpflege hätte gleich vermeiden können.

  10. Andy sagt:

    Hey super Artikel. Hat mir echt gerade beim Aufbau meiner Seite geholfen.Danke

  11. […] Farin: Meta-Daten Optimierung mit onpage.org – Teil 3 von […]

  12. matthias sagt:

    Moin, leider ist auc dieses tool nur für die einsprachige SEO tauglich, bzw. für die SEO in einem Land. Wir hatten massive Probleme mit dem <link rel="alternate" hreflang=" und haben letztendlich alles per Hand überprüfen müssen.
    Gerade wenn man den Fokus in DEU/ SUI/ AUT hat, wo überall deutsch gesprochen wird, kann man schnell ein DC-Problem bekommen.
    Somit denke ich, dass es Zeit wird entsprechende tools zu entwickeln. Damit wäre bestimmt vielen "kleinen" Entwicklern und Agenturen geholfen.
    Genauso wäre es schön, wenn auch "fertige" open-source Anwendungen (wie magento, typo3, etc.) das zur Verfügung stellen würden.

    Aber ich wollte hier (auch wenn es vielleicht so aussieht) nicht meckern, sondern einige Anregungen für motivierte Entwickler geben.
    In diesem Sinne viele Grüsse aus Flensburg

  13. […] noch jenseits der Top20 ranken. Hier gab es thematisch allerdings eine Überschneidung mit dem Artikel Meta Daten Optimierung von Dennis Farin: Dennis arbeitete das brachliegende Optimierungspotential gerade bei title und description noch […]

  14. […] Seodeluxe: Keyword-Optimierung mit Onpage.org – Teil 2 von 8 – Dennis Farin: Meta-Daten Optimierung mit onpage.org – Teil 3 von 8 – Eric Kubitz: Das Inhalts-Care-Paket – Teil 4 von 8 – Martin Missfeldt: Was […]

Kommentar eingeben

Submit Comment
© 2007 - 2016 Dennis Bloggin.
Theme entwickelt von Theme Junkie. Umsetzung von Windings.de

Alle Links auf meiner Seite sind Werbe- und Partnerlinks