DEUTSCH ◄| ENGLISH
Deutsch English    EMAIL
Oct
01

«Der wichtigste Besucher ist Googlebot»

by Greg Lemmenmeier, posted on 1. October 2012 at 07:38, 10473 Views

Das Bild sagt alles: "Neues Wettrennen um die besten Plätze bei Google gestartet". Website-Betreiber mit bisher guten Strategien für die SEO (Search Engine Optimization) stellen fest, dass die alten Regeln nicht mehr gelten. Was früher funktionierte, funktioniert nun nicht mehr.

Die Schweizer Webagentur GREG.CH studiert seit Jahren die Finessen der Suchmaschinenoptimierung. Man weiss: Die SEO ist eine entscheidende Kompetenz im Web Development. Websites sind oft wertlos, wenn sie nicht mit realistischen Suchbegriffen bei Google in den ersten 20 Suchresultaten stehen. Dies zu erreichen gilt als knapp unmöglich bei Konkurrenz durch über tausend Firmen in derselben Branche und in einer Stadt (z.B. Webagenturen in Zürich). Dennoch sind gute (1-20) Positionen machbar, wie die Praxis zeigt. GREG.CH hatte Kunden auf 5 Kontinenten - warum?

Wegen gezieltem und gekonnten Einsatz von SEO!



Multiple Word Searches


Die Zeit der Optimierung auf Einzelwort-Suchanfragen (One-Word Searches) ist vorbei. Wer das nicht glaubt, sollte zeitreisen. Nur noch 20% der User suchen mit Einzelwörtern. Viel häufiger: Mit 2, 3 und 4 Wörtern. Die Wortzunahme liegt nicht nur an schlauer suchenden Usern, sondern auch an den "autosuggest" Suchfeldern in den heutigen Browsern.

Also jetzt die SEO ändern, nicht länger auf Einzelworte optimieren sondern auf realistische, von echten Google Usern zu erwartende Wortkombinationen!

Bei der Auswahl der Suchbegriffe kommt es auf die richtige Zielsetzung an - und dabei geht es um Menschen. Was ist denn das Ziel? Am besten wohl gleich alle Leute reinziehen, vom Raver über den Banker bis zur Professorin, querbeet aus sämtlichen Zielgruppen und Alterssegmenten. Dann endlich haben wir eine Website "für alle" und "alle" finden diese im Web... und machen mit - richtig?

Falsch.

Ziel kann nicht sein, möglichst viele Besucher anzuziehen. In der modernen SEO ist das definierte Ziel, die "Conversion Rate" zu steigern: Passive Besucher "konvertieren" dabei je nach Zweck der Website zu möglichst vielen aktiven Kunden, Mitgliedern, Käufern, Abonnenten, regelmässigen Nutzern, Followers usw.

Darum ist der häufig gesehene Versuch sinnlos, eine Website mit irgendwelchen trendigen Suchbegriffen vollzustopfen, die gar nichts mit der Ziel- und Nutzergruppe der eigenen Website zu tun haben. Zwar kriegt man so vielleicht mehr Besucher, doch keiner bleibt lange oder wird aktiv.

Offenbar sickert diese Erkenntnis inzwischen durch. Lieber weniger Besucher, dafür die richtigen und somit diejenigen Leute, die mit der Website etwas anfangen können.



Geografischer Fokus


Schon sehr viele Google-User kombinieren ihre Suchanfrage mit geografischem Fokus. Beispiel "Branche X in Zürich". In den USA wird schon längst so gesucht und optimiert. Oder man denke an eine zu erwartende Sucheingabe wie "Branche X im Raum Zürich" und schmunzle herzhaft darüber, dass wichtige Keywords wie "Raum" oder "Region" und "Kanton" meistens bei der Website-Entwicklung vergessen werden.

Also SEO anpassen, und: Firmen sollten ihr Unternehmen bei Google Maps eintragen, das bringt oftmals eine klare Verbesserung der ortsbezogenen Suchergebnisse.

Nebenbei: Wer eine Wordpress-Website hat, der hat nur sehr begrenzte Möglichkeiten.

Weiter gibt es eine ungute Entwicklung: Bei Google-Suche innerhalb von "Seiten aus der Schweiz" erscheinen auch Anbieter mit .de-Domains - nicht zuletzt deswegen reagieren Google User mit Fokussierung auf gesuchte Regionen.

Die Fähigkeit der Webuser, Suchmaschinen als rein logische Filter zu benutzen, hat bemerkenswerte Wandlungen durchlaufen.



Qualität ist gefragt


Europäische Website-Betreiber kopieren die effektive SEO-Strategie des amerikanischen Webs und ergänzen ihre Keywords und ihr SEO Copywriting mit qualitativen Begriffen im Sinne von "best", "professional", "experienced", "recommended" etc.

Ein vereinfachtes Beispiel: Suchte früher ein Geschäftsmann einen guten Schneider, so tippte er auf google.ch (Schweiz) einfach mal "Herrenschneider" ein und wurde irgendwie fündig. Heute aber erzeugt dieselbe Suche in "Seiten aus der Schweiz" seitenweise unbrauchbare Google-Fundstücke - durchsetzt von branchenfremden und sogar länderfremden (z.B. deutschen) Anbietern, irgendwelchen gekauften Werbelinks, Wortübersetzungen, Jobangeboten, Bewerberprofilen, Büchern, Schulen!... suchen Sie selbst.

Ergo sucht der gewiefte User von heute zumindest mit Ort: "Herrenschneider in Zürich". Und falls er sich auskennt mit Google, dann probiert er es beispielsweise mit "gute" oder "der beste" Herrenschneider in Zürich - und kriegt erst mit solcher Methodik die gesuchten Anbieter.
Dies war nur ein simples theoretisches Beispiel, das Prinzip ist klar; der Trend ist stark weil notwendig.



Neu ist besser


Das Merkmal "Zeit" ist bei Suchresultaten ein oft entscheidender Faktor geworden. Google fokussiert jetzt noch viel stärker auf top-aktuelle Inhalte gemäss dem nicht ganz logischen Motto "new is always better". Auch deswegen, weil man jetzt die Suchresultate nach Datum sortieren kann.
Und andere neue Google Funktionen wie "Personalized Search", die jetzt viele User nutzen - und damit die bisherigen SEO-Konzepte der Anbieter auf den Kopf stellen.

Anbieter müssen dafür sorgen, dass Tagesdaten (im offiziellen deutschen oder englischen Format) in ihrem Web-Content enthalten sind. Dieser Punkt betrifft Websites, nicht etwa Blogs oder integrierte Twitter-Feeds die Google sowieso als aktuell erkennt.

Wie aber integriert man "Freshness" in Websites, die nur selten eine Aktualisierung durchlaufen - typischerweise Firmenwebsites?

Völlig unmöglich ist das nicht mehr: Eine der neuen Methoden ist die Erstellung eines RSS-Feeds im XML-Format, wobei der Feed die Website-Inhalte spiegelt (muss aber auch Abweichungen haben) und jeder Eintrag mit Zeitstempel versehen wird. Generiert wird das Ganze mittels PHP. Alternative zum RSS Feed: Man macht eine Seite "News" und pflegt diese auch.



Das dumme Chamäleon


Jetzt die Bad News: Google schwächt durch bekloppte Neuerungen ganze Märkte. Freundlicher kann man das nicht nennen. Kürzlich startete Google die neue Methode "Spellmeleon" (abgeleitet vom englischen "Chameleon"):
Wer sich bei der Sucheingabe vertippt, kriegt nicht mehr nur ein "Meinten Sie... (was anderes)?" von Google angeboten, nein, jetzt wird dem User in vielen Fällen gleich eine komplette Resultatliste präsentiert - mit denjenigen Links, von denen Google meint, dass sie doch bestimmt viel besser zur Suche passen.

Das ist neu und verheerend für ganze Branchen, Nischenmärkte, Freelancer und und und.
Als Erklärung schrieb Google im Dezember 09 dieses: "Automatic spelling correction: Starting this week, when we have high confidence that your query was misspelled, we go a step further than asking "Did you mean..." by automatically showing results for the corrected query"

Donner und Doria! So weit sind wir also? Computerchips wissen jetzt besser, was die dummen Menschen suchen? Tragisch daran ist, dass Google hierbei dem Technik-Grössenwahn erliegt und die Vorschläge bei "Meinten Sie..." oft bizarr sind, wie wir alle schon erlebten. Nun geht Google also weiter.

Als Sketch vorgestellt: Kommt ein Mann ins Restaurant und bestellt Forelle. Der Kellner weiss, dass es die nicht gibt, sagt kein Wort und bringt dem Gast eine Frikadelle. Klingt ja ähnlich, wird vom Kellner so erwartet, und den Gast braucht man gar nicht zu fragen. Richtig?

So ähnlich denkt wohl Google und irrt gewaltig. Diese Methode mit ihren oft grenzdebilen Ergebnissen liesse sich zwar durch den User ausschalten durch das Anhängen des Parameters "&nfpr=1" an die gezeigte Google URL in der Browser-Adresszeile. Doch ist klar, dass dies kaum jemand tut.

Ebenso klar ist, dass die meisten User die eigenmächtige Transformation ihrer Suchanfrage durch Google nicht mitkriegen und einfach mal die Ergebnisliste benutzen, welche Google ihnen vorsetzt. Denn so hat man es schliesslich gelernt, man nimmt vertrauensvoll was Google anbietet und liest nur das, was in der Liste steht.

Stellen Sie sich spasseshalber vor, Sie hätten einen Online-Shop der attraktive Handys verkauft. Erfolgreich, auch wegen der vielen Neukunden die via Google zu Ihnen fanden. Nun baut Google die Maschine um und alle User, die nach "Handy" suchen, kriegen Suchergebnisse zum Begriff "Honda". Das ist nicht nur absurd, sondern beinahe realistisch. Ach ja: Der Shop kann zumachen.



Suchen Sie ruhig mal nach meiner Konkurrenz im Web, und Sie stellen sofort fest: Die meisten Webagenturen tun für ihre SEO exakt dasselbe und beginnen den TITLE-Tag ihrer Websites mit dem Kernbegriff "Webagentur", gefolgt vom Ort: Webagentur Bümpliz, Webagentur Basel, Webagentur Chur.

Bisher funktionierte das, war völlig logisch und klar, lag im Interesse der Interessenten (eben der Kunden) und niemand rechnete damit, dass Google all dies jetzt zunichte macht.

Wow! Google bringt hier nichts zustande ausser die Idiotie, eine komplette Ergebnisliste zum falschen Suchbegriff und damit zur falschen Branche auszugeben. Diese lange Liste steht nämlich weiter unten, sogar ohne Anklicken hat Google diese dem User geliefert, und sie ist wie gesagt falsch.

Um zu erkennen wie verrückt das ist, sei festgehalten, dass es bei dieser Suchanfrage nicht etwa um die Branche "Glasmalerei" ging. Wir suchten auch keinen "Toyota-Bremsbelag-Shop" oder nach Sonderangeboten für "libysche Knallfrösche in der Familienpackung". Nein... wir suchten hier ausgerechnet diejenige Branche, die das meiste Suchmaterial für Google überhaupt produziert: Web.a.gen.tu.ren.

Ein abgefahren schlechter Witz, dass Google ausgerechnet diese Internet-Branche nicht mehr kennt. Gibt es für Google überhaupt Wichtigeres als die Firmen, welche die durchsuchbaren Websites erstellen und publizieren?

Offenbar ja: WERBEagenturen, die schöne Plakate und Zeitungsinserate designen - alles nicht von Google durchsuchbar! - aber diese Branche wird bevorzugt.

Viele Kollegen in meiner Branche (WEB nicht WERBE wohlverstanden) hauen sich seitdem regelmässig die Köpfe gegen die Wand. Za-bumm.

Denn was da draussen täglich passiert, ist leider klar: Potenzielle Neukunden suchen nach "Webagentur" in ihrer Nähe, sehen die Google-Ergebnisliste, kriegen nicht mit, dass diese Liste für einen anderen Begriff ist, klicken wie gewohnt sofort die dargebotenen Links an, und landen auf den Domains der Werbeagenturen. Nun, einige davon bieten tatsächlich auch Webdesign an. Hoppla, schon sind viele Kunden, die früher wie beabsichtigt via Google bei den spezialisierten WEBagenturen landeten, weg.

Was tun?

Analysieren, wie viele Aufträge und Einnahmen wegen diesem sogenannten "Spellmeleon" verloren gehen. Und Lösungen suchen: Webagenturen nennen sich jetzt online zusätzlich "Werbeagentur"? Habe ich zwar deswegen jetzt in TITLE-Tags, wäre aber Unsinn für die vielen Webagenturen die z.B. auf technische E-Business Lösungen spezialisiert sind und nichts mit Werbung zu tun haben.

Oder wir ändern unseren Kernbegriff "Webagentur" innerhalb der SEO in "Webdesign Agentur" damit sogar Google kapiert was das ist? Nee. Oder wir warten, bis alle Webagenturen bei Google reklamiert haben und den Jungs dort endlich ein Licht aufgeht.


Neuerungen sind ja schön und gut, aber hier wurde das Kind mit dem Bade ausgeschüttet und eine ganze Branche mit dazu.

Selbstverständlich betrifft dieses Google / SEO / Keyword - Desaster auch andere Branchen, die einander ähnliche Bezeichnungen haben. Man darf raten, welche.



Keywords realistisch auswählen


Wie findet man heraus, welche Keywords man verwenden soll? Es gibt kostenpflichtige Tools wie Trellian. Oder die Angebote von HubSpot - zwar der millionenschwere Abräumer im weltweiten SEO-Business, tatsächlich hatte dieser bis vor kurzem wegen Verstössen seinen PageRank verloren und stand peinlich auf Null. Wie ungemein passend.

Und wir erinnern uns (soweit das noch geht):
In grauer Vorzeit dachten sich die Webdesigner und Website-Betreiber "Vor dem Launch unserer zweifellos genialen neuen Website denken wir uns noch eine Handvoll Suchbegriffe aus! Kommende Visitors werden genau das bei Google eintippen, was wir hier in der Kaffeepause aufschreiben. Locker nach dem Motto: Build it and they will come, write it down and they will search for it"...

Doch schnell zeigt sich: Nicht bloss früher, auch heute läuft das oftmals so - und sämtliche erwarteten Erfolge bleiben deshalb aus. Zyniker glauben, doof bleibt doof.

Und es sollte verboten werden. Denn Alternativen gibt es zuhauf:
Vernünftig ist erstmal der Einsatz von Google Trends und dort eine gezielte Analyse dessen, was tatsächlich von Usern im Google-Suchfeld eingetippt wird und für Ihre Website passen könnte. Achten Sie bei der Analyse mit Google Trends darauf, dass Sie die richtigen Regionen auswählen und wirklich ins Detail gehen - das ist beim heutigen Überangebot ganz wichtig.

Wir alle, kann man behaupten, ersaufen in zuviel Auswahl. Das Gegenmittel: mehr Tiefe.



Title Tags


Das ist neu: In Websites wurden bislang die "H1" Tags (Seitenüberschriften) beim Google-Ranking stark einbezogen und gewichtet. Google gewichtet H1 Tags nicht mehr. Statt dessen aber H2. Bis runter auf H6, trotzdem sollte man auf H2 fokussieren. Die Sache sprach sich schnell herum, also sind "andere" bereits dran ihre Sites umzubauen.

Währenddessen behaupten die teuren SEO-Experten weiterhin auf einer Million plus Webpages, SEO müsse auf die H1 Überschrift fokussiert sein. Kompetenzsimulanten.



Individuelle Descriptions


News: Nicht nur der Title-Tag muss für jede Page einer Website ein deutlich anderer sein, sondern auch die META Description. Nochmals kurz zum Mitschreiben, was heute gilt: Für eine erfolgreiche SEO macht man erstmal für jede Webpage einen eigenen TITLE Tag und eine eigene META Description. Das freut den Googlebot, da kriegt er Laune.

Erst danach folgen die üblichen SEO Massnahmen: Google Site Map (XML) erstellen und bei Google einreichen, ".htaccess" Datei mit allen nötigen 301 Redirects erstellen, robots.txt erstellen, die eigene Domain mit Emails via Gmail kommunizieren (weil Domains durch Google regelmässiger indexiert werden wenn sie innerhalb von Gmail auftauchen), allfällige Links von alten Webpages bei Google löschen lassen (online per Antrag) oder per 301 umindexieren lassen (mit .htaccess), einige Links mit dem Attribut "rel=nofollow" definieren weil eine Website ohne solche heutzutage unglaubwürdig ist (aus Sicht von Google), allfällige schlechte Backlinks sperren lassen um so die Google Strafen wegen "bad neighbourhood" aufzuheben, usw.

Was die Optimierung der Website selbst betrifft, gibt es auch dafür bewährte Methoden:

Heatmaps erstellen lassen und dementsprechend die Website fundamental verbessern, Video-Aufzeichnung aller Mausbewegungen der User zwecks Optimierung des Site-Layouts (hatte ich früher auch hier laufen), danach ähnliche Tools zwecks Verbesserung der Menupunkt-Sequenz (noch immer gilt, dass Männer meistens auf den zweiten und Frauen auf den ersten Menupunkt einer Website klicken), im Weiteren die Optimierung Ihres Website-Layouts gemäss dem F-Pattern, dann Validität herstellen bezüglich XHTML / CSS / WAI, vielleicht auch eine Optimierung nach Feng-GUI, und schliesslich via Google abwechselnd zwei Website-Versionen laufen lassen um so herauszufinden, welche Version zu mehr User Conversions führt. Danach das erfolgreichere Layout stehen lassen.

Eigentlich ist es bei einer Website wie bei einem anderen Medium:
Nur wenn vom Konzept über Inhalt und Struktur bis hin zum Layout alles aufeinander passt, dann spricht es die Leute an.

Was aufgrund der obigen Tests meistens geändert werden muss:
Website-Layout mitsamt Kontrasten (starker Kontrast = wichtig und öfter angeklickt), sehr oft die Bezeichnungen sowie die Reihenfolge der Menus, oft müssen Bilder korrigiert werden die nicht klickbar sind aber von Usern für Links gehalten werden, oft müssen bereits auf der Startseite die wichtigsten Infos untergebracht werden (Besucher klicken weg wenn sie nicht gleich erfahren was geboten wird), und manchmal muss die Site-Architektur flacher gemacht werden:

So wenige Ebenen wie möglich!

Weiter geht es um die Usability, zum Beispiel um die gelbe Markierung der wichtigsten Punkte für Managertypen: Leute die Texte nur kurz "scannen" und anhand der Markierungen nach kurzem Überfliegen wissen worum es geht. Executive Summary mal anders.

Oder es stellt sich nach der Usability-Prüfung heraus, dass man eine tolle aber viel zu kompliziert designte Website einfacher und informativer machen sollte: simples Layout wie zum Beispiel hier, Menupunkte als einfache Karteireiter deren Zweck allen bekannt ist, ausdruckbare Webpages ohne Menus aber mit Kontaktinfos, und so fort.



Naming der Webpages


Im letzten Jahrtausend, lang ists her, benannte man die Seiten noch als "seite12.html". Dann kamen einige auf den Dreh, dass Dateinamen wie "gratisferienreisen.html" bei Google besser ankommen müssten, weil sie doch Suchbegriffe enthalten. Ach so.
Später sprach sich jedoch herum, dass der Dateiname eher "gratis_ferien_reisen.html" heissen solle, damit Google die Begriffe überhaupt trennen kann. Und schliesslich wurde verkündet, dass Underscores gar nichts bringen und der wirksamste Dateiname sei "gratis-ferien-reisen.html", also mit Bindestrichen.

Jetzt weiss man es endlich genau: Google interessiert die Dateinamen von Webpages überhaupt nicht, egal ob mit Keywords drin oder Underscores oder Bindestrichen. Tests haben klar bewiesen, dass man eine Seite genausogut wieder "proudlymadewithfrontpage.html" nennen könnte, am entstehenden Ranking ändert das nichts. Alle Umstellungen waren demnach vergebens. Wow. Oder Wau!



Der hungrige Googlebot


Ja, da kommt manch einer auf den Hund. Auch der Googlebot hat ständig Hunger und will schon auf der Startseite gefüttert werden mit möglichst viel Text, der für Suchanfragen sinnvoll genutzt werden kann.

Ein einsamer Satz auf der Homepage wie "Willkommen bei Fischer Bettwaren AG" oder gar ein vorgeschaltetes Flash-Intro lässt den Googlebot verhungern und er kommt nicht so bald wieder. Oder nimmt gerade noch so eben seine Aufgaben wahr.

Am besten schmeckt ihm eine Website, wenn er bereits beim ersten Bissen, nämlich im Title-Tag, brauchbare Keywords findet (dort sogar noch vor dem Firmennamen). Gleich danach will er ähnliche Keywords nochmals im Body Text (für Fachleute "in der Copy") finden. Tests bewiesen, dass Google solche Keywords im Body der Webpage stark gewichtet, und noch ein wenig besser wenn sie mit >(bold)< definiert sind. Noch stärker sind nur diejenigen im Title-Tag.

Das kann man beliebig vertiefen.




In jedem Falle braucht der Googlebot beim Besuch einer Website genug Futter. Nicht bloss zwei oder drei relevante Suchbegriffe, die ganz hinten auf Seite 12 und dann vielleicht nochmal irgendwo in einem Kontaktformular versteckt sind. Da muss Googlebot ja erst dreimal um den Block und dann die ganze Website rauf und runter hetzen wie ein kurzgeschlossener Wall-E, bis er sich das alles zusammengelesen hat.

Doch wer zu viele Häppchen konsumiert, verdirbt sich den Appetit.

Googlebot hat rund 1'000 Zwillingsbrüder und kommt je nach Funktion und Aufgabe als "Freshbot" oder "Deepbot" bei den Websites vorbei. Wie oft dies geschieht, bestimmt Google, teilweise auch Webprofis die wissen wie man Besuchsfrequenzen beeinflusst.

Doch ganz egal wie oft, es gilt jedesmal: Der Googlebot will richtig viel Text, dicht und reichlich und mit Schlagsahne obendrauf.

Das ist Ihnen vielleicht zu metaphorisch, doch eines muss verstanden werden: Das Web wimmelt an jeder Ecke von Tausenden von Blogs, die "pro Seite" vielfach mehr Text haben als eine typische Firmenwebsite auf Seiten wie "Kontaktieren Sie uns".

Google liebt Blogs. Damit auch Sites gute Chancen haben, muss man bei vielen den Content verändern, vor allem auf den oft kargen Startseiten. Denn unser aller Web bleibt trotz unzähliger schöner Bilder primär ein Textmedium - sogar Hypertext.

Darum: Wohl bekomm's.



Bilder als Sprites


Also weiter im, genau, Text. Bei Bildern gewichtet Google die "alt=" Texte und die Dateinamen jetzt stärker. In den Alternativ-Texten sollten Keywords stehen; das weiss man schon und ist jetzt noch wichtiger geworden. Doch auch die Dateinamen soll man anpassen.

Szenario: Ein Restaurant mit einer Website wird SEO-Vorteile erzielen, wenn die Bilder der Website mit spezifischen Dateinamen erstellt wurden. Auf der Homepage ist dann nicht ein anheimelndes Foto mit dem Namen "bild_u83898_500x300.png" sondern der Dateiname heisst jetzt: "restaurant_luzern_vegetarisch.png" und wird vom Googlebot (diesmal ein spezieller Image-Bot) brav mitsamt wertvollen Keywords indexiert. Neue Tests bewiesen, dass dies viel bringt. Auch in meiner Site gibt es etliche solcher Beispiele.

Wo ich gerade dabei bin: Heute entsteht für den Webdesigner ein Zielkonflikt bei der Herstellung der Einzelbilder für eine Website: Einerseits will man neue Sites aufbauen mit der revolutionären Methode "CSS Sprites" d.h. mehrere Grafik-Elemente werden in einem einzigen Bild zusammengefasst und durch spezielle CSS-Definitionen bei Bedarf ausschnittsweise an der richtigen Position angezeigt. Die Methode der CSS Sprites ist genial, durchgehend vorteilhaft und heute beinahe ein MUSS im Webdesign.

Andererseits: Verwendet man weiterhin z.b. 25 Minigrafiken für alle Rahmenkomponenten ("the chrome") der Site, dann kann man jede davon gezielt benennen und das bringt zwar nicht grosse, doch immerhin minimale SEO-Vorteile.

Ich persönlich entscheide hier klar zugunsten der Sprites und entwickle in Zukunft alle Websites so.

Puzzle rückwärts, sozusagen! Ohne Probleme klappt auch das Zoomen der Schriftgrösse (Grafiken werden nicht depositioniert) und die Site sieht in allen wichtigen Browsern gleich aus: Firefox 12, Internet Explorer 10, SRWare Iron (Chrome) und Safari 5 (ich teste mit Safari for Windows). Keine der Teilgrafiken verrutscht. Es gibt auch keine CSS-Positionsunterschiede, ist also perfekt machbar.

Dieses Spriting bringt enorme Vorteile für Websites: Beim Aufruf einer Webpage ist die Anzahl gleichzeitig notwendiger Server-Requests (Hauptgrund für langsame Sites) massiv reduziert. Moderne Sites laden meistens eine Vielzahl von unterschiedlichen Teilgrafiken, CSS und mehreren Javascript-Files, jQuery, Libraries für spezielle Interface-Effekte und so weiter. Und auf GREG.CH kommen spezielle Security- und Useranalyse-Funktionen beim Laden von Webpages hinzu. Funzt.

Jedoch sind je nach Server nur maximal 4 Requests gleichzeitig in Arbeit, was im Falle von sehr vielen Kleindateien zu verzögert ladenden Webpages führt: Es ist also via eine normal schnelle DSL-Leitung nicht alles auf einen Schlag im Browser sichtbar, sondern dies dauert und der Site-Aufbau (Rendering) erfolgt in vielen kleinen Schritten.
Darum ist es bei modernen und hochfunktionalen Websites so wichtig, die Anzahl der Server-Requests zu minimieren - mit Sprites.
Als Entwickler habe ich dadurch nicht länger einen Ordner voller Kleinteile die ich einzeln handhaben muss, sondern kann bei Redesigns oder Korrekturen diese Sammelgrafik aus der Schublade ziehen und sofort loslegen. Und ich könnte mit einem einzigen Klick alle Kontraste verändern oder alle Teile aufs Mal ein bisschen blauer machen - was immer der Kunde gerade wünscht. Es war nie effizienter.

Ja, Webdesign ist auch Handwerk.

Und es hat durchaus mit SEO zu tun, denn Googlebot bevorzugt Sites, die zügig laden statt tröpfchenweise.
Aber wieso gibt es erst wenige Entwickler, die diese Methode einsetzen? Es liegt wohl an der Unbequemlichkeit, erst einmal die Koordinaten jedes gewünschten Ausschnittes in einer Sprite-Grafik ermitteln zu müssen. Gerade bei vielen kleinen Bildteilen kann diese Arbeit langwierig und nervtötend sein.

Dazu sage ich, an die vielen guten Webworkers gerichtet: Wir sind ja nicht angetreten, weil wir wussten, dass es einfach ist.



Meta Keywords? Really?


Seit September 2009 ist endlich offiziell wahr, was man schon vermutet hatte: Alle META Keywords in Websites werden von Google komplett ignoriert. Relativ neu lassen auch Bing und Yahoo alle META Keywords links liegen und indexieren sie nicht mehr.

Nur die eine oder andere klapprige Uralt-SuMa nimmt diese Dinger überhaupt noch in ihren Index. Spam anfuttern für den Winter.

Im Trend liegt deshalb und lässt sich im Web beobachten, dass man beim Bau neuer Websites gar keine META Keywords mehr hineinschreibt. Andere behaupten, es sei dennoch scharfsinnig und koste ja nichts, diese trotzdem für Sumabots anzubieten.

Man muss sich allerdings auch fragen, wozu. META Keywords wurden jahrelang missbräuchlich ("spammy") eingesetzt, sind jetzt Geschichte, vergessen und gewesen. Wie bald auch die obsoleten SuMas.

Am Rande: Google Search unterscheidet nie zwischen Gross- und Kleinschreibung sondern arbeitet bei der Suche nur mit klein geschriebenen Buchstaben.

Folglich bringt das gar nichts, wenn Sie Ihre einzutragenden Keywords mit grossen Anfangsbuchstaben definieren. Immerhin erspart einem das die Differenzierungen. Der gefangene Floh. Der Gefangene floh. Google verpasst diese Pointe sowieso und findet nicht einmal den witz, äh, Witz.

Für Webprofis sind das Binsenweisheiten, die Mechanismen sind seit Jahren bekannt. Darf man hoffen.



Das Millionenbusiness


Was inzwischen auch jeder wissen müsste: Rankings haben nichts mit PageRank zu tun! Und dennoch findet man viel derartiges Geschreibe von "Exxxxxxperten" im Web. Nun, Infos publizieren und die Leute aufklären ist löblich, aber nicht alle gehen klug mit diesem Privileg um.

Da gibt es tatsächlich selbsternannte Web-Gurus, die der Web-Evolution satte fünf Jahre hinterherschlurfen und in allen möglichen Sites und Blogs dröge SEO-Tipps geben. So genannte Fachartikel im Tausenderpack und an jedem Kiosk nochmal zu lesen. Das Gros ist immer noch uralter, langweiliger Käse.

Ist es das, was die Welt im Internet finden will?

Also kritisch bleiben!

Auch beim Online-Besuch bei SEO-Firmen, die Ihnen ausschliesslich Suchmaschinenoptimierung verkaufen: "Wir bringen Sie bei Google auf eine der Top-Positionen für schlappe zehntausend Franken" [und laden Sie auf ein bis zwei Bier ein wenns nicht klappt]. Mit sehr viel Tamtam werden die gänzlich unberechenbaren Chancen als volle Erfolgsgarantie verkauft.

Ich halte den Hype für überzogen.



It's a Word Game


Man fand heraus: Erfolgreiche Suchmaschinenoptimierer haben häufig in ihrer Vergangenheit als Zeitungsredakteure oder Copywriter (Texter) gearbeitet. Ach ja, wie zum Beispiel ich.

Warum kann das helfen?

Starke Erfolgsfaktoren in der SEO sind die Routine, mit Worten und Assoziationen zu jonglieren, und ein konkretes Feeling für den stetig ändernden Sprachgebrauch der Gesellschaft. Der Tipp besteht darin, sich intensiv mit Sprache und Kommunikation der Leute zu befassen.

SEO is a word game.



Alte gegen neue Domains


"Domain Age" ist bei Google wichtiger geworden: Angesichts der extrem zunehmenden Tagesaktualität der Web-Inhalte (viel mehr neue Blog- und Twitter-Posts gegenüber relativ wenigen neuen Webpages) gewichtet Google das Alter der Domain nun stärker.

Daraus ergibt sich das Ziel: Optimal sind möglichst neue Inhalte auf einer möglichst alten Domain. Hiermit beweist Google endlich wieder seine Lösungskompetenz.

Ein Gedanke von genialer Einfachheit.

Der neue Ansatz geht bei Google also weiter, als man noch im letzten Jahr annehmen musste.



Backlinks


Auch bei den Backlinks ist das Alter wichtig geworden - dies erklärt das Phänomen bei vielen uralten Sites (im heutigen kurzlebigen Blogging-Web heisst das einige Jahre), dass diese Sites zwar längst nicht mehr betreut oder besucht werden, aber starke Rankings sowie hohe PageRanks haben.

Grund: Alte Links verweisen auf diese Sites, und Google hält alte Links für ein besonderes Qualitätsmerkmal.

Allerdings geht dies dann nicht auf und wird zum absurden Prinzip, wenn es sich um "tote" Sites handelt. Reagiert hat Google darauf mit einer Backlinks-Neubewertung, die jetzt mitunter kuriose Suchresultate zeitigt.
Dieser Vorgang macht klar, dass Google auf die Veränderungen im Web nicht jedesmal gut reagiert. Da wird halt mal ein Testlauf mit uralten Backlinks durchgeführt um zu beobachten, was es dann nach oben spült.

Dann müssen die User mit dem neuen Index leben. Und erst dann überlegt man, ob es dafür überhaupt eine Lösung gibt.

Da wackelt noch so einiges.



Canonical ist wichtig


Typische Webshops und Produkte-Websites haben für ihre üblicherweise sehr vielen einzelnen Webpages ein URL-Format wie "www.wirbieten.com?kategorie=123&subkat=abc&filter=topseller". Aber: Mit jedem der zusätzlichen URL-Parameter (hier waren's 3) sinkt die Chance solcher dynamischen Webpages auf ein gutes Google Ranking. Auch dies wurde jetzt mit Tests erwiesen und gilt nicht bloss für E-Commerce Sites.

Wer mit solchen Problemen zu kämpfen hat, muss ausserdem sofort lernen, das neue HTML-Tag rel="canonical" richtig in seiner Website einzusetzen. Sonst riskiert man einen Google Penalty (eine Strafe z.B. durch Abstufung der Rankings) wegen so genanntem Double Content.

Das gilt auch für diejenigen Website-Besitzer, deren Websites mit "http://www.domain.com" und "http://domain.com" erreichbar sind und die sich wundern, dass ihre Website wegen "Double Content" (technisch gesehen zwei verschiedene Domains mit gleichem Inhalt) heruntergestuft wurde.

Ouch und Oops, da hat wieder einer die News nicht gelesen. Eine aufwändige Website haben, aber zulassen, dass diese beim wichtigsten Traffic Generator fast aus dem System fliegt, weil man neue Rahmenbedingungen ignoriert und schon gar keine Webnews liest und sich denkt: Was interessiert mich Google?

Nur ein Datensauger, ein Monopolist, eine internetsüchtige Meute junger amerikanischer Nerds mit Simpson-Figürchen auf ihrem PC. Was also solls?

Google ist eine Macht. Und es gibt kein Recht, im Index zu sein. Schon gar nicht für Publishers von "Double Content". Oder für all die Profilneurotiker mit ihren 50 Domains, die allesamt zur gleichen Website führen - im Stil von: meinplatz.ch, meinplatz.at, meinplatz.net, nurmeinplatz.eu, auch-meinplatz.tv und so weiter.

Wenn man sich vorstellt, eine Website sei wie ein Haus in einer Stadt, dann will bestimmt kein Taxifahrer ein Haus mit 50 verschiedenen Adressen ansteuern. "Doppelte Inhalte" verursachen bei Google nur mehr Speicherplatz, Suchzeit etc. Also alles was eine Suchmaschine nicht mag.

Google kennt da kein Mitleid und verlangt: Unser Index soll entrümpelt werden und sauber sein. Dazu gehört auch, dass Google Methoden begräbt, wenn sie veraltet sind.



Keine Links kaufen


Wichtiger als der PageRank ist heute der TrustRank. "Wo erfahre ich den für meine Website?" Leider gibt Google diesen nicht preis. Verständlicherweise.

Während der PageRank die Faktoren wie Anzahl, Alter und PageRank der zu Ihnen verlinkenden Backlinks berücksichtigt, geht der TrustRank in eine objektivere Richtung. Wikipedia sagt: "Der Ansatz des Trustrank-Verfahrens ist, dass Webseiten, die von vertrauenswürdigen Seiten (trust für engl. Vertrauen) verlinkt werden, selbst vertrauenswürdig sind, während Spam-Seiten selten oder nie von vertrauenswürdigen Seiten verlinkt werden".

Wenn Sie also in der Vergangenheit mal einen Link auf einer Linkliste gekauft haben, sorgen Sie dafür, dass dieser jetzt gelöscht wird, er schadet Ihnen heute nur.

Vermeiden Sie also, Links von abgestraften Linkfarmen (PageRank 0) zu behalten. Sorgen Sie für neue, auch wenn das oft schwierig ist. Am allerbesten sind Links von "Authority Sites", zum Beispiel gelten ".edu" Domains (Unis) als sehr starke Autorität aus Sicht von Google. Gut ist, wenn verschiedenste Universitäts-Websites auf eine Website verlinken, bei GREG.CH sind es einige solcher Links.

Mit der Zeit muss man ein Gefühl dafür entwickeln, welche Backlinks wertvoll sind, welche wertlos, und meistens findet man bei genauer Prüfung einige, die schädlich sind und neutralisiert werden müssen.

Sie sehen daraus, welche heute die dümmste Strategie ist: "Möglichst viele Links haben".

Das ist lange vorbei. Die heutige SEO kategorisiert jeden Link: Gut oder schlecht.

Wo ich gerade dabei bin: Angenommen, ein Blogger ärgerte sich über ein gekauftes Produkt aus Ihrem Online-Shop und schrieb darüber negativ mitsamt einem Link zu Ihrer Website, auf den seine Blogleser jetzt klicken sollen.
Erstens sehen Sie solche Backlinks in Ihren Analysetools, zweitens können Sie Abhilfe schaffen mit einem simplen PHP-Script. Dieses führt dazu, dass auf der Blogger-Seite zwar Leute auf den Link klicken, doch nichts passiert. Nicht einmal ein Seitenwechsel findet statt. Sie können also von Ihrer Site aus dafür sorgen, dass ein unerwünschter Link auf einer anderen Site deaktiviert ist.

Nun werden Sie einwerfen, die Blogleser könnten beim Auftauchen dieses Phänomens die Website-Adresse einfach in die Browser-Adresszeile eintippen. Klar, doch die Erfahrung zeigt, dass (fast) alle dazu zu faul sind und sich nach dem ersten erfolglosen Klick interessanteren Dingen zuwenden.



Im Galopp


Wir sind immer noch bei der SEO-Strategie fürs laufende Jahr. Die grössten Veränderungen sind beim Google-Angebot selbst passiert. Seit zwei Jahren funktionieren Google-Anfragen mit Personalized Search. Dies stellte alle bisherigen SEO-Strategien in Frage, viele davon sind jetzt nicht mehr wirksam.

Schon stehen die ersten Entwickler und Unternehmen mit "Weitblick" in den Startlöchern, und alle eint ein Plan: Das zu schaffen, was Google mit solchen neuen Funktionalitäten verhindert.

Klingt absurd. Ist es auch. Das Pferd ist nicht schuld, wenn der Reiter nicht reiten kann.



Un.Berechen.Bar.


Google's Suchalgorithmus ändert sich ständig. Man weiss jetzt: Pro Jahr rund 500 Mal. Das heisst, mit Überraschungen wird ständig gerechnet.

Google sagt, man solle sich als Website-Besitzer um die Überoptimierung (z.B. zu viele "nofollow" Links) keine Sorgen machen, auch nicht um die folgenden Penalties. Auch nicht um die Panda und Penguin Updates. Und der lapidare Rat von Google lautet diesbezüglich, eine Site so natürlich wie möglich zu halten und durch viel guten Content zu optimieren...

Caramba! Zum Schweigen fehlen mir die passenden Worte - die Jungs von Google beherrschen eine seltene Kunst: Durch beruhigende Aussagen die Sorgen der Webmaster weltweit schüren.



Play the Bot


Der Kampf um gute Google-Positionen wird in diesem Jahr ganz besonders unberechenbar. Nicht nur weil die Suchmethodik der User deutlich geändert hat, sondern auch wegen Google und dessen neuen Funktionen.
Bald jeden Monat bringt Google wieder eine neue Zusatzfunktion bei den Suchmöglichkeiten. Was dann wieder alles auf den Kopf stellt. SEO ist schon deswegen im Moment eine Art von Glücksspiel...

Das brachte mich auf eine recht amüsante Idee.

Ich warf meine Keywords (gemäss Analyse mit Google Trends vielversprechende) in meine Online-Datenbank und programmierte dazu ein PHP-Script, das für jede Webpage (ausser der Startseite und dieser hier) zufällig Wörter herauspickt und in den Title-Tag sowie in andere Komponenten schreibt. Je nachdem für die englische oder deutsche Version.

Ergo findet der Googlebot bei jedem neuen Besuch andere Keyword-Kombinationen und indexiert mal so, mal so. Die Website als Überraschungsei.

Ich nenne dieses Prinzip mal ganz salopp "Keyword Lotto". Und denke kaum, dass irgend jemand das nachmachen würde. Ja: Auf den ersten Blick erscheint es ziemlich meschugge, bis klar wird was danach geschieht: Da ich jeden Besuch der Googlebots bemerke und analysiere, kann ich bald danach meine neuen SERP's (Suchresultate) und den neuen Google Cache überprüfen.

Wenn ich nun bei Google und im Cache feststelle, dass eine zufällig entstandene Keyword-Kombination meiner Site half, mit einer wichtigen Keyphrase nach oben zu kommen, mache ich diesen Teil statisch und behalte so das Ranking. Auch ohne Zusatzjoker.

Erinnert Sie das nicht auch irgendwie an den Google Website Optimizer? Ein ähnliches Prinzip, und dieses kommt von Google selbst: Man bietet Variationen an und findet mit der Zeit heraus, welche am besten funktioniert haben. Am Ende hat man das Optimum. Dasselbe bei meinem Lotto mit Keywords und Keyphrases.

Für solche Spielarten der Suchmaschinenoptimierung investiert man lediglich Neugier, Geduld und etwas Zeit.

In der SEO sind die selbst gemachten Erfahrungen am wertvollsten - auch wenn sie nichts gekostet haben.

Dies gilt auch für "Google Caffeine", das die SEO-Welt für den Rest des Jahres beschäftigen wird. Auch schon getestet? Gut, denn momentan ist wieder Warten angesagt.
Was passiert, wenn demnächst die monströse Findmaschine "auf Koffein" ist, können Sie sich etwa so vorstellen: (Noch) schnellere Suchresultate, noch mehr Treffer, und zum Entsetzen aller Suchmaschinenoptimierer und vieler Website-Betreiber werden die Suchtreffer ganz anders ermittelt.

Google macht Tabula Rasa und alles neu.

Eine noch stärkere Fokussierung auf Keywords, schlauere Algorithmen und so fort. Die Karten werden tatsächlich neu gemischt. Jedenfalls sollten Sie sich dieses Jahr keine SEO-Fachbücher kaufen, sie sind so wertlos wie die Lottozahlen vom vorletzten Jahr.



Fazit


Und zum Schluss der Gedanke: Etliche Firmen glauben ja immer noch, gute Rankings könne man heute nur noch kaufen: Gekaufte Backlinks, Mieten von Links, breit angelegtes Affiliate Marketing, lawinenartige Spam-Aktionen mit jedesmal mindestens 500 neu gekauften Domainnamen die zwar hirnverbrannt klingen aber den Suchbegriff irgendwie beinhalten, Website-Besuchertausch und weitere Mutproben.

Für solches wird exorbitant Geld investiert, schliesslich geht es um die Pole Positions im grossen Rennen.

Nur: Für einige kommt bereits bei der Startaufstellung das böse Erwachen - Google bemerkt diese bezahlten Mauscheleien und bestraft zum Beispiel gekaufte Backlinks immer häufiger mit drakonischer Abstufung der Rankings.

Dann ist erstmal alles futsch, Investitionen wie Positionen. Sieht man dann noch, wie überrascht solche Masters of SuMa Desasters jedesmal reagieren, bleibt eigentlich nur ein

Fazit: Google's Positionen sind nicht käuflich.

Und auf anderen Webseiten tobt längst ein digitaler Propagandakrieg um die noch viel perfideren SEO-Tricks, bei denen Google geradewegs als Feind statt Partner hingestellt wird. Web-Anbieter sollen sich zusammentun, "gemeinsam schlagen wir Google".


Für mich ist das nichts. Aus Sicht des organischen Link Buildings ist die Verknüpfung mit solchen Aktionen ein sinnfreies Unterfangen. Jeder Mix geht auf Kosten des eigentlichen Zwecks der Website: Den Besuchern etwas bieten, das sie anderswo nicht kriegen.


- Viel Erfolg !





• Posted on 1. October 2012 at 07:38     ▶ 10473 Views     ≡ Category: Web Development

◄◄ "Redesign für ein Restaurant"           Next Post: "Tipps zum Umstieg auf die E-Zigarette" ►►





© Gregor Lemmenmeier, Rebweg 2, CH-8134 Adliswil — WEB www.greg.ch | EMAIL info@greg.ch

 ★★★★★ GREG.CH is currently number ONE in website quality. Here are the official test results:  
SEO Score:  See with this very strict test whether this website was optimized for better Google search results (Search Engine Optimization). Compare the SEO scores of the competitors! GREG.CH is the only Swiss site getting 100%.100% !  Global Score:  Was this site built using best practices? The very strict YellowLab test checks a website for its quality. The most important Swiss site www.admin.ch scores 0%, GREG.CH 100%.100% !  Performance:  Analyze with the Google PageSpeed Test how high the performance of this website is. Compare: the most important Swiss website www.admin.ch scores 49%, GREG.CH 100%.100% !  HTML:  Test whether the currently displayed page of this website is valid (perfect) or invalid. Then compare with the websites of web design competitors — they often have site errors...0 Errors !  CSS:  Test whether the CSS code (stylesheet) of this website was developed with or without errors. Then compare with the sites of the competitors (who often make CSS mistakes).0 Errors !  WAVE:  This tool checks a website for conformance with accessibility standards to ensure that the webpage content can be easily accessed by everyone including people with disabilites.0 Errors !  PHP:  80% of all websites run on servers with the programming language PHP. But many (old) websites have still not been upgraded to the up-to-date, safer and faster PHP version (8.2).8.2 !  Responsive:  Check on a PC or Mac how this website looks on all the user devices most often used today. You can also test some other websites that you know. Have they been built 'responsive'?OK ! 

Logo Webagentur


div id="fb-root"/div script async defer crossorigin="anonymous" src="https://connect.facebook.net/de_DE/sdk.js#xfbml=1&version=v7.0" nonce="2RjXmcFw"/script div class="fb-like" data-href="https://www.greg.ch" data-width="50" data-layout="button" data-action="like" data-size="small" data-share="true"/div