Hallo und willkommen in meinem Ulliversum!

Ich gebe hier meinen Senf zu
allen Themen rund um die IT: Aktuelles, Mitarbeiterführung, Projekte, Softwareentwicklung.

XING





Status

Online seit 4045 Tagen
Zuletzt aktualisiert: 13. Sep, 20:12

Newsletteranmeldung

Mail-Update (täglich)

Impressum

Dieses Weblog ist ein privates Angebot von Ulli Storck (Kontakt über XING).

Alle Aussagen auf dieser Internetseite spiegeln rein subjektive Meinungen wider. Im Übrigen gilt der folgende Haftungsausschluss.

User Status

Du bist nicht angemeldet.

SEO-Suchmaschinen

Dienstag, 6. Mai 2008

Interview mit deutschem Search Quality Team im SISTRIX SEO-Blog

Im Suchmaschinen - & SEO-Blog von SISTRIX hat Johannes Beus ein recht interessantes Interview mit dem deutschen Search Quality Team veröffentlicht.

Das Interview offenbart zwar keine spektakulären News, enthält aber einige interessante Aussagen zu aktuellen Themen, insbesondere im Bereich der externen Verlinkung. Hier der Link zum Interview.

Samstag, 3. November 2007

Google geht gegen Linkhandel vor

Das wollte ich eigentlich schon die ganze Woche posten, hatte aber irgendwie keine Zeit: Letzte Woche hat sich Google offenbar entschieden, mal ernst zu machen, was den Handel mit Links zur Erhöhung des Pageranks etc. angeht. Viele Linkhändler und beteiligte Seiten wurden durch Herabsetzung des Pageranks abgestraft, darunter auch große bekannte Seiten.

Wer das ganze genauer nachlesen möchte, findet dazu einen Artikel bei heise online.

Donnerstag, 1. November 2007

Amazon erhält Patent auf URL-Search-String

Das mit den Patenten ist ja ohnehin so ein Sache. Letzte Woche haben unsere amerikanischen Freunde aber mal wieder ein besonderes Bonbon hergestellt: Für seine (unbedeutende) Suchmaschine A9.com hat sich Amazon die Technik search string at the end of a URL without any special formatting, also das anhängen von Suchbegriffen ans Ende der URL, patentieren lassen. Eingereicht wurde das Patent schon vor über 3 Jahren.

Was bedeutet das nun genau?

Nun, wenn ich z. B. die URL http://de.wikipedia.org/wiki/Amazon eingebe, erhalte ich als Antwort eine Seite, die Links zu weiterführenden Artikeln zu diesem Schlagwort enthält.

Dies hat mehrere Vorteile:

  • Die URL ist für Menschen lesbar.
  • Man kommt direkt durch Eingabe eines Suchwortes hinter der URL zur einer relevanten Seite.
  • Solche URLs sind wichtig für das Auffinden von Seiten in den Suchmaschinen.

Dieses Verfahren ist nicht neu und wird vor allem zur Suchmaschinenoptimierung seit Jahren bei sehr vielen Seiten verwendet. Vielleicht sollte ich mir überlegen, ein Patent auf "das Veröffentlichen von IT-kritischen Inhalten in einer technischen Umgebung" anzumelden?

Weitere Infos gibts hier: http://www.downloadsquad.com/2007/10/23/amazon-get-patent-for-url-search-string/

Samstag, 6. Oktober 2007

SEO: interne Seitenverlinkung, nofollow, robots.txt

Im SEO-Blog von SISTRIX gibts einen interessanten Beitrag zum Thema interne Seitenverlinkung:

http://www.sistrix.com/news/679-steuerung-der-internen-verlinkung-mit-nofollow.html

In den Kommentaren zum Beitrag geht es dann auch um die Frage, ob das Nofollow-Attribut und Einträge in der robots.txt den gleichen Effekt haben. (Vorweg: das ist NICHT der Fall)

Mittwoch, 3. Oktober 2007

Yahoo bringt neue Version der Suchmaschine heraus

Yahoo hat bekanntgegeben eine neue Version der Suchengine online genommen zu haben, u. a. um die Dominanz von Google zu brechen. Die Pressemitteilung kann hier nachgelesen werden:

http://ap.google.com/article/ALeqM5isgiMo9GPZ74bdiXeM1xtpRKtwAAD8S0S6801

Allem Anschein nach scheint Yahoo nun aber nur mit Google gleich zu ziehen und noch nicht wirklich besser zu sein. Andreas Göldi hat hierzu in seinem Blog ein paar Vergleichsergebnisse veröffentlicht:

http://medienkonvergenz.com/2007/10/02/yahoo-suche-jetzt-besser-als-google/

Samstag, 14. Juli 2007

SEO: Vanessa Fox (Google) spricht über Google Webmaster Tools und Duplicate Content

Diese Woche habe ich auf den Seiten von Stone Temple Consulting ein sehr interessantes Interview mit Vanessa Fox über die Google Webmaster Tools und das Thema Duplicate Content gefunden. Vanessa Fox hat in ihrer Zeit bei Google die Google Webmaster Central konzipiert und entwickelt, die Informationen für Seitenbetreiber und Webmaster liefern. Derzeit wechselt Vanessa Fox gerade von Google zu Zillow. Ihren Blog findet man unter vanessafoxnude.com.

Hier beispielhaft zwei Aussagen aus dem Interview:

  • Die Analysmöglichkeiten für eingehende (auf die Seiten verweisende externe) Links werden in den Webmaster Tools deutlich erweitert.
  • Es soll künftig (evtl. in den Webmastertools) eine Anzeige und Auswertungsmöglichkeit geben, welche Webseiten als Duplicate Content eingestuft wurden.

Ein Datum oder ein Zeitraum für die Umsetzung der Erweiterungen wurde nicht genannt. Das gesamte Interview könnt ihr bei Stone Temple Consulting nachlesen.

Donnerstag, 5. Juli 2007

Vortrag zu Google an der Uni Karlsruhe

Am Donnerstag gab es einen Vortrag zu Google an der Uni Karslruhe: Der Vortrag wurde von Thomas Hofman gehalten, seineszeichens Director of Engineering bei Google in Zürich. Davor war er Professor an der ETH.

Der Vortrag war sehr interessant, und wurde dankenswerterweise im I, Blog für die Nachwelt festgehalten.

URL: http://www.marcel-noe.de/blog/2007/07/05/computing-with-1000s-of-computers-can-be-fun

Dienstag, 3. Juli 2007

SEO-Tools

Ich habe in den letzten Wochen ein paar Tools entdeckt, die sich aus der breiten Masse abheben und bei der Suchmaschinenoptimierung sehr nützlich sind. Ich gebe das hier einfach mal weiter:

nonBot Data Center Tool
Das Tool gibt einen Überblick der Indizierung einer Domain in den verschiedenen Google Data Centers an.
URL: http://www.nonbot.com/dc-tool/Default.aspx

Website Grader
Das Tool bewertet eine Website (auch im Vergleich mit anderen Sites) und gibt Hinweise zu Optimierungsmöglichkeiten.
URL: http://www.smallbusinesshub.com/Tools/tabid/6722/Default.aspx

SEO-Tool-Sammlung
Diverse Tools der SISTRIX GmbH, die im übrigen auch einen guten SEO-Blog betreibt (siehe Blogroll).
URL: http://www.sistrix.com/service/

SeoQuake et al
Diese Tools, insbesondere SeoQuake, dürften schon bekannt sein. Dennoch dürfen sie hier nicht fehlen.
URL: http://seodigger.com/projects.php

Samstag, 30. Juni 2007

SEO: Ist Google noch zu retten?

Heute gibt es mal einen kleinen Einschub zum Thema Suchmaschinenoptimierung (SEO). Da ich jeden Tag mit dem Thema SEO und insbesondere Google konfrontiert bin, möchte ich ein paar kritische Sätze zum aktuellen Vorgehen der Suchmaschinenbetreiber, insbesondere von Google, bei der Indizierung von Seiten loswerden. Ich versuche bewusst, diesen Beitrag so zu schreiben, dass er auch für Laien (also für Leute die sich normalerweise nicht mit SEO beschäftigen), verständlich ist.

Zunächst jedoch ein paar Sätze zu SEO: Als SEO (search engine optimization, Suchmaschinenoptimierung) werden alle Techniken bezeichnet, die zum Ziel haben, eine Website bei bestimmten Suchbegriffen möglichst weit vorne im Index der Suchmaschinen zu positionieren. Bei der Optimierung von Websites werden dabei zwei Optimierungsbereiche unterschieden:
  • OnPage-Optimierung (Optimierung innerhalb der Seite): Alle Maßnahmen die an der Seite selbst durchgeführt werden.
  • OffPage-Optimierung (Optimierung außerhalb der Seite): Alle Maßnahmen, die die Seite selbst nicht betreffen, also ohne Veränderung der zu optimierenden Seiten durchgeführt werden.
Die ursprünglichste OnPage-Optimierungsmaßnahme ist guten Content anzubieten (content is king) und dabei darauf zu achten, dass die Keywords, bei denen die Seite in den Suchmaschinen gefunden werden soll, ausreichend in den Texten der Seite vorkommen. Dies ist heute jedoch bei weitem nicht mehr ausreichend, sondern eine Reihe weiterer Faktoren haben (teilweise großen) Einfluss, u. a.: URL-Aufbau, Seitentitel, Überschriften (h-Tags), Meta-Tags, Alt-Tags, Seitenstruktur und -verlinkung. Bei den OffPage-Optimierungsmaßnahmen ist der wichtigste Punkt die Verlinkung der Haupt- und ggf. Unterseiten auf anderen Domains (externe Links). Weitere Aspekte können die Verwendung einer (Google-)Sitemap und/oder einer robots.txt sein. Weiterehin gibt es viele technische Details, die beachtet werden müssen, um bei den Suchmaschinen keine negativen Effekte hervorzurufen. Z. B. sollten Webseiten korrekte Status-Codes zurückliefern und Weiterleitungen müssen suchmaschinenkonform vorgenommen werden.

Ich will hier nicht näher auf die einzelnen Optimierungstechniken eingehen, evtl. starte ich demnächst eine kleine Beitragsreihe zum Thema SEO und schreibe ein paar Sätze zu jeder Technik. Im heutigen Beitrag geht es mir mehr um eine kritische Würdigung der aktuellen Situation im Bereich der Suchmaschinen, insbesondere bei Google. Ich stelle zunächst folgende These auf:

Die aktuellen Algorithmen der Suchmaschinen, insbesondere von Google, führen nicht dazu, ein optimales Suchergebnis für den Suchenden zu erreichen. Ausserdem führt das aktuelle Vorgehen der Suchmaschinenbetreiber nicht zwingend dazu, dass Seiten mit gutem Content auf den vorderen Plätzen der Suchergebnislisten zu finden sind.


Begründung(en):

Die Bemühungen der Suchmaschinenbetreiber, bestmögliche Trefferlisten für die eingegeben Suchbergiffe zu erzielen, haben zu sehr komplexen Analysealgorithmen geführt. Diese Algorithmen sind aufgrund ihrer Komplexität anfällig für unseriös optmierte Seiten, d. h. SEO-Anbieter nutzen Schwächen der Algorithmen aus, um Seiten besser zu psoitionieren, obwohl dies durch ihren Content eigentlich nicht gerechtfertigt wäre. Um diesem Mißbrauch entgegenzuwirken, haben die Suchmaschinenbetreiber umfangrieche Überprüfungen in ihre Algorithmen eingebaut, was die Komplexität weiter erhöht. Letztlich führt dies heute dazu, dass Website-Ersteller/Betreiber, die keine SEO-Spezialisten sind, ihre Website nur noch sehr schwer auf eine gute Platzierung bei den Suchmaschinen bringen können. Im Extremfall kann es passieren, dass ein Website-Ersteller durch Unwissenheit irgendetwas mit seiner Website anstellt, was von den Suchalgorithmen als unseriös eingestuft wird. Da es aber gerade diese Websites sind, die das Web mit individuellen Informationen bereichern, wird das Gegenteil dessen erreicht, was mit der Einführung von Suchmaschinen erzielt werden sollte.

Alle Suchmaschinenanbieter ermitteln die Positionen einer Seite in der Suchergebnisliste im wesentlichen aus den beiden Faktoren Link-Popularität (Anzahl externer Links auf die Seite) und Relevanz (Analyse des Seiteninhalts auf Relevanz bzgl. der Suchbegriffe). Google gibt hierbei der externen Verlinkung (PageRank-Verfahren) eine besondere Bedeutung, in deren Folge es oft trotz eines sehr guten Contents schwierig ist, in der Suchergebnisliste nach vorne zu kommen. Dies gilt insbesondere für neue Seiten und trift daher wieder die brereits o. g. normalen Website-Beteiber, die eben nicht über genügend Kontakte verfügen, um sich von beginn an genügend externe Links auf ihre Seite zu besorgen. Kommerzielle Seiten größerer Firmen sind hier klar im Vorteil, da diese über entsprechende Kontakte verfügen und i. d. R. auch genug Budget haben, um den ein oder anderen Link zu kaufen. Die Annahme von Google, dass eine hohe Anzahl externer Verweise auf eine Popularität der Seite und somit auf interessante Inhalte schließen lässt, mag i. d. R. durchaus zutreffen, führt in vielen Fällen aber zu den hier beschrieben Effekten.

In der Realität werden zur Optimierung der Seite externe Verlinkungen gekauft oder es werden Links getauscht (Linkpatnerschaften). Ausserdem sind ganze Linkfarmen entstanden. Um dem entgegenzuwirken haben die Suchmaschinenanbieter, allen voran Google, eine ganze Reihe von Überprüfungen umgesetzt, z. B.: Ausschluss von Linkfarmen aus dem Index, Analyse der externen Links auf Themenrelevanz, zeitllich verlangsamte Berücksichtung externer Verlinkungen. Gerade dieser letzte Punkt ist nun aber wieder problematisch. Insbesondere Goolge benötigt sehr lange bis Änderungen der Website zu einer Veränderung des Rankings führen, insbesondere bei der Erhöhung der externen Links. Andere Suchmaschinen (Yahoo, MSN) sind da deutlich schneller und weniger kritisch. Google benachteiligt also letztlich neue Sites zugunsten einer höheren Sicherheit gegen SEO-Trickserei. Es kann teilweise mehrere Monate dauern, bis eine externe Verlinkung sich in einer Verbesserung der Position in den Ergebnislisten überhaupt bemerkbar macht. Genau dies trifft dann aber wieder vorzugsweise kleinere Firmen, die auf den Erfolg der Website für ihre Geschäftsidee angewiesen sind und evtl. nicht über einen so langen finanziellen Atem verfügen.


Fazit

Die beiden entscheidenden Kritikpunkte an dem derzeitgen Vorgehen der Suchmaschinenanbieter sind aus meiner Sicht:
  • Es ist zu viel Spezialwissen notwendig, um eine Website in den Suchergebnislisten angemessen zu positionieren.
  • Die langen Zeiträume, insbesondere bei Google, bis Änderungen der Website zu einer Veränderung des Rankings führen, benachteiligen neue Sites und erschweren somit die Umsetzung neuer Geschäftsmodelle.
Damit es kein Missverständnis gibt: Ich bin durchaus der Auffasung, dass Suchmaschinen ein wichtiger Bestandteil des Internets sind. Das Web könnte ohne Suchmschinen nicht mehr bestehen. Auch bin ich der Auffassung, dass von den Suchmaschinenanbietern sehr viel geleistet und zum Erfolg des Internets beigetragen wurde. Ich möchte diesen Beitrag daher nicht als Generalkritik verstanden wissen, sondern als einen Hinweis auf negative Aspekte der aktuellen Situation. Ich möchte auch klar zum Ausdruck bringen, dass auch ich vieles was Google tut und anbietet cool finde. Dennoch kann die monopolistische Stellung, die Google derzeit inne hat, auf Dauer nicht gut für die Entwicklung des Webs sein.

Ein wichtiger Hinweis darauf, dass etwas nicht stimmt, ist sicher auch die Anzahl der Leute die mittlerweile als SEO-Consultants ihr Geld verdienen. Dies zeigt, dass das Thema viel zu kompliziert geworden ist, ähnlich wie die große Anzahl der Steuerberater in Deutschland kein gutes Licht auf das Steuersystem wirft. ;-)

Ich freue mich auf hitzige Diskussionen zu diesem Thema!

Suche

 

Aktuelle Beiträge

cialis online pharmacy
Hello!
Pharme171 (Gast) - 13. Sep, 20:12
cialis online pharmacy
Hello! [url=http://www.cia9online .com/#2.html]cialis...
Pharmc412 (Gast) - 13. Sep, 20:11
cialis online pharmacy
Hello!cialis online pharmacy
Pharmb885 (Gast) - 13. Sep, 20:10
online pharmacy cialis
Hello!
Pharmd665 (Gast) - 12. Sep, 13:46
online pharmacy cialis
Hello! online pharmacy cialis http://www.cia9online.com/ #4.html
Pharmb955 (Gast) - 12. Sep, 13:45

Meine Kommentare

Twitter
1st-movers.com twittert jetzt auch: http://twitter.com/1stMove r
ulliversum - 21. Jul, 13:36
jo...
...das stimmt wohl leider und betrifft nicht nur dieses...
ulliversum - 19. Jul, 22:58
Ja! - Ist schon komisch....
Ja! - Ist schon komisch....
ulliversum - 27. Jun, 17:08

Archiv

Juli 2018
Mo
Di
Mi
Do
Fr
Sa
So
 
 
 
 
 
 
 1 
 2 
 3 
 4 
 5 
 6 
 7 
 8 
 9 
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31