Hallo und willkommen in meinem Ulliversum!

Ich gebe hier meinen Senf zu
allen Themen rund um die IT: Aktuelles, Mitarbeiterführung, Projekte, Softwareentwicklung.

XING





Status

Online seit 5275 Tagen
Zuletzt aktualisiert: 13. Sep, 20:12

Newsletteranmeldung

Mail-Update (täglich)

Impressum

Dieses Weblog ist ein privates Angebot von Ulli Storck (Kontakt über XING).

Alle Aussagen auf dieser Internetseite spiegeln rein subjektive Meinungen wider. Im Übrigen gilt der folgende Haftungsausschluss.

User Status

Du bist nicht angemeldet.

SEO: Ist Google noch zu retten?

Heute gibt es mal einen kleinen Einschub zum Thema Suchmaschinenoptimierung (SEO). Da ich jeden Tag mit dem Thema SEO und insbesondere Google konfrontiert bin, möchte ich ein paar kritische Sätze zum aktuellen Vorgehen der Suchmaschinenbetreiber, insbesondere von Google, bei der Indizierung von Seiten loswerden. Ich versuche bewusst, diesen Beitrag so zu schreiben, dass er auch für Laien (also für Leute die sich normalerweise nicht mit SEO beschäftigen), verständlich ist.

Zunächst jedoch ein paar Sätze zu SEO: Als SEO (search engine optimization, Suchmaschinenoptimierung) werden alle Techniken bezeichnet, die zum Ziel haben, eine Website bei bestimmten Suchbegriffen möglichst weit vorne im Index der Suchmaschinen zu positionieren. Bei der Optimierung von Websites werden dabei zwei Optimierungsbereiche unterschieden:
  • OnPage-Optimierung (Optimierung innerhalb der Seite): Alle Maßnahmen die an der Seite selbst durchgeführt werden.
  • OffPage-Optimierung (Optimierung außerhalb der Seite): Alle Maßnahmen, die die Seite selbst nicht betreffen, also ohne Veränderung der zu optimierenden Seiten durchgeführt werden.
Die ursprünglichste OnPage-Optimierungsmaßnahme ist guten Content anzubieten (content is king) und dabei darauf zu achten, dass die Keywords, bei denen die Seite in den Suchmaschinen gefunden werden soll, ausreichend in den Texten der Seite vorkommen. Dies ist heute jedoch bei weitem nicht mehr ausreichend, sondern eine Reihe weiterer Faktoren haben (teilweise großen) Einfluss, u. a.: URL-Aufbau, Seitentitel, Überschriften (h-Tags), Meta-Tags, Alt-Tags, Seitenstruktur und -verlinkung. Bei den OffPage-Optimierungsmaßnahmen ist der wichtigste Punkt die Verlinkung der Haupt- und ggf. Unterseiten auf anderen Domains (externe Links). Weitere Aspekte können die Verwendung einer (Google-)Sitemap und/oder einer robots.txt sein. Weiterehin gibt es viele technische Details, die beachtet werden müssen, um bei den Suchmaschinen keine negativen Effekte hervorzurufen. Z. B. sollten Webseiten korrekte Status-Codes zurückliefern und Weiterleitungen müssen suchmaschinenkonform vorgenommen werden.

Ich will hier nicht näher auf die einzelnen Optimierungstechniken eingehen, evtl. starte ich demnächst eine kleine Beitragsreihe zum Thema SEO und schreibe ein paar Sätze zu jeder Technik. Im heutigen Beitrag geht es mir mehr um eine kritische Würdigung der aktuellen Situation im Bereich der Suchmaschinen, insbesondere bei Google. Ich stelle zunächst folgende These auf:

Die aktuellen Algorithmen der Suchmaschinen, insbesondere von Google, führen nicht dazu, ein optimales Suchergebnis für den Suchenden zu erreichen. Ausserdem führt das aktuelle Vorgehen der Suchmaschinenbetreiber nicht zwingend dazu, dass Seiten mit gutem Content auf den vorderen Plätzen der Suchergebnislisten zu finden sind.


Begründung(en):

Die Bemühungen der Suchmaschinenbetreiber, bestmögliche Trefferlisten für die eingegeben Suchbergiffe zu erzielen, haben zu sehr komplexen Analysealgorithmen geführt. Diese Algorithmen sind aufgrund ihrer Komplexität anfällig für unseriös optmierte Seiten, d. h. SEO-Anbieter nutzen Schwächen der Algorithmen aus, um Seiten besser zu psoitionieren, obwohl dies durch ihren Content eigentlich nicht gerechtfertigt wäre. Um diesem Mißbrauch entgegenzuwirken, haben die Suchmaschinenbetreiber umfangrieche Überprüfungen in ihre Algorithmen eingebaut, was die Komplexität weiter erhöht. Letztlich führt dies heute dazu, dass Website-Ersteller/Betreiber, die keine SEO-Spezialisten sind, ihre Website nur noch sehr schwer auf eine gute Platzierung bei den Suchmaschinen bringen können. Im Extremfall kann es passieren, dass ein Website-Ersteller durch Unwissenheit irgendetwas mit seiner Website anstellt, was von den Suchalgorithmen als unseriös eingestuft wird. Da es aber gerade diese Websites sind, die das Web mit individuellen Informationen bereichern, wird das Gegenteil dessen erreicht, was mit der Einführung von Suchmaschinen erzielt werden sollte.

Alle Suchmaschinenanbieter ermitteln die Positionen einer Seite in der Suchergebnisliste im wesentlichen aus den beiden Faktoren Link-Popularität (Anzahl externer Links auf die Seite) und Relevanz (Analyse des Seiteninhalts auf Relevanz bzgl. der Suchbegriffe). Google gibt hierbei der externen Verlinkung (PageRank-Verfahren) eine besondere Bedeutung, in deren Folge es oft trotz eines sehr guten Contents schwierig ist, in der Suchergebnisliste nach vorne zu kommen. Dies gilt insbesondere für neue Seiten und trift daher wieder die brereits o. g. normalen Website-Beteiber, die eben nicht über genügend Kontakte verfügen, um sich von beginn an genügend externe Links auf ihre Seite zu besorgen. Kommerzielle Seiten größerer Firmen sind hier klar im Vorteil, da diese über entsprechende Kontakte verfügen und i. d. R. auch genug Budget haben, um den ein oder anderen Link zu kaufen. Die Annahme von Google, dass eine hohe Anzahl externer Verweise auf eine Popularität der Seite und somit auf interessante Inhalte schließen lässt, mag i. d. R. durchaus zutreffen, führt in vielen Fällen aber zu den hier beschrieben Effekten.

In der Realität werden zur Optimierung der Seite externe Verlinkungen gekauft oder es werden Links getauscht (Linkpatnerschaften). Ausserdem sind ganze Linkfarmen entstanden. Um dem entgegenzuwirken haben die Suchmaschinenanbieter, allen voran Google, eine ganze Reihe von Überprüfungen umgesetzt, z. B.: Ausschluss von Linkfarmen aus dem Index, Analyse der externen Links auf Themenrelevanz, zeitllich verlangsamte Berücksichtung externer Verlinkungen. Gerade dieser letzte Punkt ist nun aber wieder problematisch. Insbesondere Goolge benötigt sehr lange bis Änderungen der Website zu einer Veränderung des Rankings führen, insbesondere bei der Erhöhung der externen Links. Andere Suchmaschinen (Yahoo, MSN) sind da deutlich schneller und weniger kritisch. Google benachteiligt also letztlich neue Sites zugunsten einer höheren Sicherheit gegen SEO-Trickserei. Es kann teilweise mehrere Monate dauern, bis eine externe Verlinkung sich in einer Verbesserung der Position in den Ergebnislisten überhaupt bemerkbar macht. Genau dies trifft dann aber wieder vorzugsweise kleinere Firmen, die auf den Erfolg der Website für ihre Geschäftsidee angewiesen sind und evtl. nicht über einen so langen finanziellen Atem verfügen.


Fazit

Die beiden entscheidenden Kritikpunkte an dem derzeitgen Vorgehen der Suchmaschinenanbieter sind aus meiner Sicht:
  • Es ist zu viel Spezialwissen notwendig, um eine Website in den Suchergebnislisten angemessen zu positionieren.
  • Die langen Zeiträume, insbesondere bei Google, bis Änderungen der Website zu einer Veränderung des Rankings führen, benachteiligen neue Sites und erschweren somit die Umsetzung neuer Geschäftsmodelle.
Damit es kein Missverständnis gibt: Ich bin durchaus der Auffasung, dass Suchmaschinen ein wichtiger Bestandteil des Internets sind. Das Web könnte ohne Suchmschinen nicht mehr bestehen. Auch bin ich der Auffassung, dass von den Suchmaschinenanbietern sehr viel geleistet und zum Erfolg des Internets beigetragen wurde. Ich möchte diesen Beitrag daher nicht als Generalkritik verstanden wissen, sondern als einen Hinweis auf negative Aspekte der aktuellen Situation. Ich möchte auch klar zum Ausdruck bringen, dass auch ich vieles was Google tut und anbietet cool finde. Dennoch kann die monopolistische Stellung, die Google derzeit inne hat, auf Dauer nicht gut für die Entwicklung des Webs sein.

Ein wichtiger Hinweis darauf, dass etwas nicht stimmt, ist sicher auch die Anzahl der Leute die mittlerweile als SEO-Consultants ihr Geld verdienen. Dies zeigt, dass das Thema viel zu kompliziert geworden ist, ähnlich wie die große Anzahl der Steuerberater in Deutschland kein gutes Licht auf das Steuersystem wirft. ;-)

Ich freue mich auf hitzige Diskussionen zu diesem Thema!
steppenhund - 30. Jun, 23:54

Bin heute schon etwas groggy und zu müde, um eine qualifizierte Replik zu schreiben.
Aber das Posting ist sehr interessant und die Schlussfolgerung mit dem Vergleich bzgl. der Steuerberater gefällt mir sehr.
Ja, und prinzipiell stimme ich einfach zu, daher kann ich da jetzt nicht hitzig diskutieren;)

Holger (Gast) - 2. Jul, 21:34

Ohne Google gehts auch

Hallo Ulli,
ich habe seit einiger Zeit das eher diffuse Bauchgefühl, dass Google bei einigen Suchanfragen nicht mehr die für mich relevanten Ergebnisse weit oben bringt.
Das geht einigen Kollegen auch so.

Also "unterlaufe" ich das Googlemonopol und ändere mein Suchverhalten. Z.B. nutze ich Clusty. Die erste Seite der Suchergebnisse ist zwar an sich betrachtet auch nicht viel besser oder schlechter als Google. Clusty clustert aber Ergebnisse, so dass ich in den Clustern meist relevante Daten finde. Ob es für mich nicht noch bessere Ergebnisse gäbe, werde ich wohl nie erfahren :)
In anderen Fällen nutze ich del.icio.us, da ich dort (noch) hochinteressante Links für meine Recherche finde.
Oder ich nutze gleich Wikipedia, da bei bestimmte Begriffen ja auch Google den entsprechenden Wikipedia ganz oben auflistet.

Und so stelle ich die These auf, dass sich unser Suchverhalten ändern wird und wir gezielt verschiedene Suchmaschinen/Spezialsuchen für unterschiedliche Suchen nutzen werden.
Die Frage ist nur: wieviel Prozent sind die Wechsler?


Zwar hat Google immer noch ein (Quasi-)Monopol, aber man ist gleichzeitig immer weniger auf Google angewiesen, da es mittlerweile ja immer mehr interessante Suchmaschinen gibt. Read/Write Web z.B. bringt jeden Monat eine Übersichtsliste der interessantesten Suchmaschinen. Für mich als unverbesserlichen Computerlinguisten ;) ist insbesondere das Feld der semantischen Suche ausserordentlich spannend.

Dass Google wieder besser wird, bleibt dennoch zu hoffen, denn es war und ist natürlich viel bequemer und effizienter nur eine wirklich gute Suchseite zu nutzen als 3-4 verschiedene.
Solange Google aber seinen Monopolstatus beibehält wird es auch weiterhin im Mittelpunkt der SEO-Spezialisten stehen.
Für uns bleibt - bei höher werdendem Leidensdruck - die Suchmaschine zu wechseln.

Und damit wieder zurück zur Frage nach der Anzahl der Wechsler:
Falls eine kritische Masse wechselt, muss Google sehr schnell reagieren und wird wieder besser. Denn Google ist ja keine Suchmaschine mehr, Google verkauft Werbung.

Wenn nur ein nicht-signifikanter Teil der Benutzer wechselt, dann gibt es keinen externen Druck auf Google sich zu verbessern. Gleichzeitig erreichen die alternativen Suchseiten nicht die kritische Masse, um sie für SEO-Verfälschungen interessant zu machen. Gut für die Wechsler.

Viele Grüße und viel Erfolg mit dem Blog
Holger

Ulli Storck - 3. Jul, 22:15

Google, Clusty, del.icio.us, Mister Wong und der ganze Rest

Hallo Holger,

ich denke auch, dass 'social bookmarking' eine der interessanteren Zukunftsperspektiven ist. Dennoch sollte man nicht vergessen, dass diese durchaus manipulierbar sind: Ein mittelgroßes Unternehmen bringt ein neues Web-Angebot an den Start. Ein Teil der Mitarbeiter des Unternehmens setzt (vom privaten heimischen PC aus mit privaten Accounts) Bookmarks auf das Angebot des Unternehmens. Da ist die kritische Masse, die einen bei den Bookmarking-Diensten kurzfristig nach vorne bringt, schnell erreicht (Da reichen ca. 100 Bookmarks sicher locker aus) .

Clusty habe ich vorhin kurz angetestet, hat mich spontan aber nicht vom Hocker gehauen.

Viele Grüße
Ulli
Thomas (Gast) - 26. Mai, 13:42

Wahre Wort zum Google Ranking

Ja das ist wirklich so das Content leider nicht immer das entscheidende Kriterium für Google ist, sondern nur ein Baustein von zig Variablen einer Webseite. SEO ist ja für Profi's mittlerweile eine Religion und es geistern viele Mythen und dergleichen in deren Köpfen rum. Das es einfach "nur" ein Algorythmus ist, ist vielen gar nicht mehr bewusst. Leider ist das bei vielen Websitebetreibern mittlerweile auch so und lieber wird mehr Fokus auf SEO gelegt als auf die Webseite selbst....Farben, Inhalte, etc.
Ein nettes Beispiel dafür habe ich auch noch:
Ein Bekannter von mir hat ein simples SEO -Tool erstellt um das Google Ranking zu testen und es gibt da angeblich Leute die fast stündlich dort Ihre Seite testen..immer und immer wieder. ;-)
Wie ich finde ein tolles Beispiel für den Stellenwert von Websitebetreibern.

Trackback URL:
//ulliversum.twoday.net/stories/4014011/modTrackback

Suche

 

Aktuelle Beiträge

cialis online pharmacy
Hello!
Pharme171 (Gast) - 13. Sep, 20:12
cialis online pharmacy
Hello! [url=//www.cia9online .com/#2.html]cialis...
Pharmc412 (Gast) - 13. Sep, 20:11
cialis online pharmacy
Hello!cialis online pharmacy
Pharmb885 (Gast) - 13. Sep, 20:10
online pharmacy cialis
Hello!
Pharmd665 (Gast) - 12. Sep, 13:46
online pharmacy cialis
Hello! online pharmacy cialis //www.cia9online.com/ #4.html
Pharmb955 (Gast) - 12. Sep, 13:45

Meine Kommentare

Twitter
1st-movers.com twittert jetzt auch: //twitter.com/1stMove r
ulliversum - 21. Jul, 13:36
jo...
...das stimmt wohl leider und betrifft nicht nur dieses...
ulliversum - 19. Jul, 22:58
Ja! - Ist schon komisch....
Ja! - Ist schon komisch....
ulliversum - 27. Jun, 17:08

Archiv

Juni 2007
Mo
Di
Mi
Do
Fr
Sa
So
 
 
 
 
 1 
 2 
 3 
 4 
 5 
 6 
 7 
 8 
 9 
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
27
28
29