Sherpatec GmbH
Pelkovenstrasse 148
80992 München

Tel: +49-89-15 92 368-00 Fax: (-08)
Mail: kontakt [at] sherpatec.com

Kostenlose Hotline:
0800-SHERPATEC

06/10/2010 - 06:44

Die sozialen Netzwerke sind längst nicht nur der Ort für Nerds und Computerfreaks. Nirgendwo sonst im Web 2.0 ist die Barriere für die User so niedrig, sich selbst und der eigenen Meinung Gehör zu verschaffen. Nicht nur Blogger kommen hier zu Wort, sondern schlicht jeder, der seine Meinung äußern möchte. Auch politische Themen werden zunehmend diskutiert. Wir wollen am Beispiel von Stuttgart 21 zeigen, wie das Thema bei Facebook und Twitter behandelt wird.

Der Aufreger als Aufhänger: Politisieren mit Facebook

Social Media Netzwerke werden mittlerweile von politischen Bewegungen gerne genutzt, weil sich Emotionen relativ leicht transportieren lassen. Der Grund dafür ist die ständige Präsenz der User, die zu Videos, Bilder und Berichten unproblematisch Stellung nehmen können. Auch die Vielfalt der Medien wie Blogs, Zeitungen und Netzwerken dienen der Informationssammlung und Emotionalisierung des Themas. Besonders die sozialen Netzwerke sind „meinungsstarke“ Medien. Kein Wunder, dass das Web 2.0 zunehmend auch zur Organisation genutzt wird. Das Beispiel Stuttgart 21 zeigt, wie nahe man als unbeteiligter User den laufenden Protesten kommen kann.

Auf Facebook gibt es inzwischen mindestens zehn einschlägige Gruppen und Fanpages, die  sich mit dem Thema befassen. Circa 70.000 Mal wurde für diese Gruppen der „Gefällt mir“ Button geklickt. Es ist anzunehmen, dass sich die User der jeweiligen Pages überschneiden, dennoch fällt die große Anzahl aktiver User auf. Zwar werden nicht alle Seiten professionell gepflegt, aber die meisten Posts verraten ausgeprägte Positionen. Der Meinungs- oder Schlagabtausch findet vor allem anhand von Medienberichten oder Videos statt. Selbstverständlich wird versucht, neue User zu rekrutieren und zur aktiven Debatte oder auch Teilnahme an den Demonstrationen aufzufordern. Unerwartet ist, dass die Befürworter für den Umbau des Bahnhofs deutlich in der Mehrheit zu sein scheinen. Ihre Fanpage hat jedenfalls stolze 58.456 Follower. Aber vielleicht sind sie auch nur besser organisiert.

In Twitter ist das Thema ebenfalls sehr beliebt. #s21 belegt laut Twitter Trends vor MTV die Spitze der deutschen Twitter Charts. Hier werden vermehrt Aufrufe zur Beteiligung und Weiterverbreitung von Berichten und Fotos verbreitet. Wie auch in Facebook bestimmt die Emotion den Verlauf der Tweets. Hier scheinen die Gegner von Stuttgart 21 klar im Vorteil zu sein. Der Mikroblog wird damit seiner Funktion gerecht, schnell Tendenzen der öffentlichen Meinung anzuzeigen. Laut einer Untersuchung der PR Agentur Lässing Müller ist Twitter das am häufigste genutzte Medium zum Thema, weit vor Blogs und Foren.

Fazit: Community Manager gesucht

Das Beispiel zeigt die Mobilisierungspotentiale der sozialen Netzwerke. Durch die hohe Präsenz der User finden auch aktuelle politische Themen und die Auseinandersetzung darüber ihren Weg ins Web 2.0. Deshalb lassen sich aber noch keine allgemeinen Tendenzen daraus ableiten, denn das Netz bietet  kein virtuelles Referendum. Schnell kann eine Diskussion, die von wenigen losgetreten wurde, außer Kontrolle geraten, wie die verunglückte Kampagne von Nestlé lehrt. Auch die Foren der großen Zeitungen im Netz kommen ohne Zensur, auch „Community Management“ genannt, nicht aus. Die Steuerbarkeit und Kontrolle der Debatten ist stark begrenzt.  Kein Wunder, dass Community Manager für den Social Media Sektor immer noch gesucht sind.

23/09/2010 - 06:51

Der Eintrag einer Webseite in ein Verzeichnis ist die einfachste und schnellste Art, die Suchmaschinenoptimierung einer Webseite zu beginnen. Die meisten User dürften wissen, dass der Aufbau einer funktionierenden Backlinkstruktur für das Ranking einer Webseite entscheidend ist. Neben verschiedenen anderen Methoden ist das redaktionelle Linkbuilding ein ungefährlicher, wenn auch zeitaufwendiger Prozess, um Backlinks für eine Webseite zu erhalten. Verzeichnisse und Listen im Web 2.0 sind für dieses Vorgehen gut geeignet, das unter SEOs weitverbreitet ist und in fast allen Fällen zum Einsatz kommt.

Vielfältige Verzeichnisse für verschiedene Zwecke

Zuerst möchten wir auf die Vielfalt der Verzeichnisse hinweisen, die im World Wide Web auf die User warten. Der Eintrag in Verzeichnisse lohnt deshalb, weil Suchmaschinen durch die Zuordnung zu einer bestimmten inhaltlichen Kategorie die Relevanz einer Webseite einschätzen. Auch für die regionale Optimierung ist der Eintrag in diese Verzeichnisse die grundlegende Voraussetzung. Deshalb sollte eine kommerzielle Webseite zuerst in die lokalen Branchenverzeichnisse und Firmenlisten eingetragen werden. Manchen Branchen verfügen auch über eigene thematische Verzeichnisse, in denen sich der Eintrag lohnt.
Sogenannte Webkataloge sind Verzeichnisse, die den Branchenbüchern ähnlich sind. Auch dort muss die jeweilige Seite einer thematischen Kategorie wie „Immobilien“ oder „Computer“ zugeordnet werden. Für eine kurze Beschreibung erhalten die Autoren in vielen Fällen einen Backlink. Artikelverzeichnisse sind ebenfalls thematisch aufgebaut, erlauben den Autoren aber, längere Texte zu verfassen. Dafür lassen sich in der Regel zwei Backlinks auf die Webseite schalten. Beispiele für diese Verzeichnisse lassen sich leicht bei Google unter „Webkatalog“ oder „Artikelverzeichnis“ finden.
Der Nachteil dieser Methode besteht darin, für jeden Eintrag neue Texte zu verfassen. Wer sich diese Mühe erspart, läuft Gefahr, für den duplicate content bestraft zu werden. Auch die Verwendung der passenden Keywords in den Texten ist unerlässlich.
Eine anspruchsvolle Variante sind die Online PR Verzeichnisse, in denen Homepage Betreiber ihre Pressemitteilungen veröffentlichen können. Hier kann der Text auch mit Fotos und Anhängen kombiniert werden. Manche der Verzeichnisse sind allerdings kostenpflichtig.

Fazit: Backlinks mischen für die optimale SEO
Ein häufiger Einwand gegen dieses Verfahren bezieht sich auf das schlechte Ranking vieler Verzeichnisse. SEO und insbesondere Linkbuilding bedeutet, nicht alle Eier in einen Korb zu legen. Je häufiger eine Webseite im Netz vertreten ist und von möglichst verschieden Domains Backlinks erhält, desto besser wird das Ergebnis auf lange Sicht sein. Zusätzlich sollte man bedenken, dass manche der Verzeichnisse ein hervorragendes Ranking aufweisen. Es lohnt sich also, die wichtigen Verzeichnisse im Auge zu behalten.

15/09/2010 - 06:04
Google

In der vergangenen Woche war Google Instant das große Thema für die SEO Szene. In vielen Blogs wurde die Befürchtung laut, dass mit den Ergebnissen in Echtzeit die Suchmaschinenoptimierung der Keywords hinfällig ist. Es ist die Frage, inwieweit diese Ängste gerechtfertigt sind. Deshalb haben wir Google Instant mit den gewöhnlichen SERPS (Search Engine Result Pages) verglichen, um zu erkennen, ob die neue Suche zu unterschiedlichen Ergebnissen führt.

Die Konsequenzen der Echtzeitsuche für SEO sind begrenzt
Momentan steht Instant in Deutschland nur den Usern zur Verfügung, die einen Google Account haben. Mit 20 ausgewählten Keywords und kombinierten Suchbegriffen wie „SEO“ „Versicherung fürs Auto“ und „Flug buchen“ haben wir den Selbstversuch in unserem Team durchgeführt.
Das Ergebnis ist eigentlich nicht erstaunlich: die Liste der Ergebnisse bleibt für jeden Suchbegriff gleich. Selbst wenn das Wort nicht vollständig eingetippt wird, liefert Instant in fast allen Fällen einen Vorschlag, der den Begriff oder die Phrase vollständig ergänzt. Auch dadurch wird die Liste der Ergebnisse nicht großartig verfälscht. Die Treffer ergeben sich schließlich aus dem gleichen Index, der für die normale Suche herangezogen wird. Aus diesem Grund behält die Optimierung der Keywords ihren Wert, weil den Usern Zielworte vorgegeben werden. Die Wortergänzung für Buchstabenkombinationen für einzelne Sprachen wird in Zukunft wohl noch deutlich verbessert werden. Doch auch hier wird sich Google an wahrscheinlichen und häufig gesuchten (und damit optimierten) Begriffen orientieren. Woran sonst?

Personalisierung der SERPS verändert die Ergebnisse
Es gibt allerdings einen Faktor, der die Liste der Ergebnisse deutlich verändern kann. Wenn der User eingeloggt ist, merkt sich Google die Webseiten, die am häufigsten besucht wurden. Diese Ergebnisse werden bei der nächsten Suche dann vorwiegend angezeigt, was der Suchmaschine im ausgeloggten Zustand noch nicht möglich ist. Die Personalisierung der Suchergebnisse könnte damit in Zukunft einen entscheidenden Einfluss auf die Trefferliste haben. Da die User nach dem besten Content suchen, wird sich jede Suchmaschine nicht nur an der Geschwindigkeit, sondern auch an diesem Ziel messen lassen müssen. Die Suchmaschinenoptimierung der Keywords wird deshalb nicht an Wert verlieren, auch wenn die Berechenbarkeit der Optimierung (Dauer und Kosten) darunter leiden könnte.

Fazit:
Den Tod der SEO aufgrund von Google Instant auszurufen, ist deutlich übertrieben. Nicht die Echtzeitergebnisse verändern die Suche, sondern die zunehmende Personalisierung könnte für die Optimierer zu einer Herausforderung werden. Der Index und das Ranking der einzelnen Keywords werden deshalb aber nicht an Bedeutung verlieren.

07/09/2010 - 11:06

Führende SEOs sind sich einig: Linkbuilding ist das entscheidende Element, um im Web 2.0 an bessere Google Rankings und eine höhere Sichtbarkeit zu kommen. Wer sich überlegt, seine Seite für Suchmaschinen zu optimieren, sollte sich deshalb auch mit dem organischen Aufbau von Backlinks auseinandersetzen. Im Folgenden geben wir einige allgemeine Hinweise und stellen unseren Leitfaden vor.

Links sind nicht gleich Links
Zum Verständnis:  Links sind per Definition Verweise, die eine Seite mit einer anderen Seite verbinden. Die eigene Webseite kann auf andere Seiten verweisen und umgekehrt. Grundsätzlich ist zu bedenken, dass derjenige, der einen Link setzt, auch für den Inhalt haftet. Je mehr Links auf eine Seite verweisen, desto besser sind die Chancen, dass sie im Google Ranking aufsteigt. Allerdings sind Links nicht gleich Links: thematisch verwandte Seiten ergeben ein besseres Ranking. Deshalb muss auf die Qualität der Links geachtet werden. Der Leitfaden für den Aufbau einer guten Backlinkstruktur sieht mehrere Etappen vor. Zuerst sollte geprüft werden, ob eine Seite über Backlinks verfügt. Dies ist unter www.internetbaron.de kostenlos möglich. Wenn hier keine Links angezeigt werden, ist noch einiges zu tun.

Verschiedene Wege zu besseren Links: der Leitfaden

Als nächstes muss zwischen drei Wegen unterschieden werden, mit den Links generiert werden können. Links können gemietet, getauscht oder redaktionell erstellt werden. Die Miete der Links ist im Allgemeinen nicht zu empfehlen, da die Suchmaschinen dies als unerlaubte Maßnahme bewerten. Links zu tauschen ist dagegen relativ unbedenklich, allerdings sollte man die Linktauschpartner stets im Auge behalten. Doch diese Technik erfordert einige Vorkenntnisse, um Links mit einer gleichwertigen Seite zu tauschen. Am unkompliziertesten ist die redaktionelle Erstellung der Links. Dafür müssen lediglich beschreibende Texte verfasst werden, die bei Fachartikelverzeichnissen eingestellt werden können. Der Autor kann den Text mit seiner Webseite verknüpfen und erhält auf diese Weise einen Link. Diese Verzeichnisse lassen sich leicht ergooglen. Für diese Strategie müssen aber Listen mit den Verzeichnissen gepflegt werden, um den Überblick über die geleistete Arbeit zu behalten. Auch die Regeln des Webtextes sollte der Autor beherrschen, denn reine Werbetexte werden von den redigierten Verzeichnissen häufig abgelehnt. Wer sich für einen Weg oder eine Kombination entschieden hat, sollte sich einen Plan machen. Organisches Linkbuilding bedeutet, Links über einen längeren Zeitraum möglichst gleichmäßig zu generieren. Ein massives Wachstum der Verweise wird von Suchmaschinen wie Google kritisch bewertet und kann einen Ausschluss aus dem Index zur Folge haben.

Unser Fazit:
Linkbuilding ist ein zentraler Bestandteil der SEO. Jeder, der sich mit Suchmaschinenoptimierung befasst, sollte grundlegende Kenntnisse besitzen. Das Linkbuilding selbst durchzuführen ist dennoch für viele User keine gute Idee, da einiges Vorwissen und große Ausdauer notwendig sind.

25/08/2010 - 13:57

Google hat sich in den letzten Wochen bei vielen seiner Kunden nicht besonders beliebt gemacht. Trotz der Proteste von Datenschützern und Meinungsmachern  verfolgt das Unternehmen mit großem Nachdruck sein Ziel, den Dienst Street View noch in diesem Jahr einzuführen. Jenseits der emotionalen Debatten versuchen wir uns zu erklären, was Google mit Street View bezwecken möchte.

Um zu verstehen, weshalb Google mit aller Macht versucht, Deutschland zu fotografieren, sind einige Bemerkungen von Eric Schmidt hilfreich. Der CEO der größten Suchmaschine hat am 14. August dem Wall Street Journal zu Protokoll gegeben, wie er sein Unternehmen in Zukunft positionieren möchte. „Ich denke nicht, dass die meisten Menschen von Google die Antwort auf ihre Fragen erwarten“, führt er aus. „Google soll Ihnen sagen, was sie als nächstes tun sollen.“ Google als praktische Lebenshilfe für die User?

Gezielte Werbung für alle, überall

Der Google Chef präzisiert in diesem Artikel seine Vorstellungen. Angenommen, ein User ist auf einer beliebigen Straße in einer beliebigen Stadt unterwegs, dann weiß Google, wer dieser User ist, kennt seine Vorlieben und Freunde. Natürlich weiß die Suchmaschine auch, wo man sich befindet. Mit diesen Informationen kann Google den User über sein Handy mit Informationen über die nächste Umgebung versorgen, beispielsweise, wo sich der nächste Supermarkt befindet.

Street View = Adwords 2.0

Bereits im Januar hat Marek Hoffmann im Basic Thinking Blog auf den Umstand hingewiesen, dass Street View für Werbung genutzt werden könnte. Er verweist auf ein Patent, mit dem sich Google die Versteigerung von virtuellen Werbeflächen in Street View und Maps sichert. Die Häuser auf den Fotos werden dafür mit einem Link oder einem Banner versehen. Ob die Bilder dem aktuellen Zustand entsprechen, ist dafür nicht von Bedeutung.

Vermutlich hält sich Google die Option offen, Street View für eine Art Adwords 2.0 zu verwenden. Wenn die Ranking Ergebnisse in Zukunft an Bedeutung verlieren sollten und interaktive Karten für die User wichtiger werden, lohnt sich auch gezielte Werbung auf alle Fälle.

Allerdings verfügt Google momentan (noch) nicht über sachbezogene Daten der jeweiligen Städte. Sobald diese Daten vorhanden sind, müssten sie den Usern zugeordnet werden. Um dies zu erreichen, könnte Google ein spezielles App entwickeln, das sich die User auf ihr Handy laden. Über dieses App wäre der User und sein Profil zu identifizieren und könnte im Abgleich mit den übrigen indexierten Daten mit Werbung versorgt werden. Der Anreiz, dieses App zu laden, liegt im Zugriff auf die weltgrößte Datenbank, die einen mit individualisierten Informationen versorgt. Das personalisierte Usernet wäre mit dieser Entwicklung Wirklichkeit geworden.

Damit könnte die Werbung auf Street View bald Teil einer normalen SEM Kampagne sein. Doch die Deutschen sollten sich nicht nur bedroht, sondern auch geschmeichelt fühlen: offenbar ist Deutschland ein wichtiger Markt für das amerikanische Unternehmen.

Unser Fazit:

Google verfolgt mit Street View wirtschaftliche Interessen. Der Dienst könnte Teil eines neuen Werbeangebots der Suchmaschine werden. Über ein App werden die User dann mit personalisierter Werbung in ihrer nächsten Umgebung versorgt.