Moin!
Hallo!
Selbstverständlich.
So selbstversändlich ist das Zukunft sicher nicht mehr.
Doch. Alles, was im Quelltext steht, kann von den Robots gelesen werden.
Dass sie es eventuell _ignorieren_, steht auf einem anderen Blatt. Daran glaube ich allerdings noch eine lange Zeit nicht.
Du kannst davon ausgehen, daß z.B. Google daran interessiert ist, nur Inhalte zu indezieren, die tatsächlich am Bildschirm angezeigt werden. Die Algorythmen werden ständig erweitert.
Google insbesondere sollte zuerst mal den Kampf gegen die Google-Spammer aufnehmen - und der basiert keinesfalls auf versteckten und unsichtbaren Bereichen im HTML, sondern schlicht auf massivem Spamming durch Einbindung von allem möglichen.
Es ist ja schon symptomatisch: Wenn der Textauszug eines Suchergebnisses entweder "Bei uns finden Sie alles zum Thema SUCHBEGRIFF" oder "SUCHBEGRIFF detailwort1, SUCHBEGRIFF detailwort2, SUCHBEGRIFF detailwort3, detailwort4 SUCHBEGRIFF" enthält, dann wird die gefundene Seite garantiert NICHTS mit irgendeinem der gesuchten Begriffe zu tun haben.
Typisch ist dabei meist, dass es offenbar ganze Serverfarmen gibt, die Suchmaschinenergebnisse unter der URL "www.example.com/SUCHBEGRIFF" spiegeln - und als Suchbegriffe offenbar die Top-Suchbegriffe von Google verwenden. Mit anderen Worten: Man nimmt die am meisten gesuchten Begriffe, fragt damit eine beliebige Suchmaschine, speichert die Suchergebnisseite und liefert unter einer statisch aussehenden URL diese Seite wieder an die Suchmaschinen - garniere das ganze mit heftig viel Bannerwerbung und sonstigen Müll, und schon hat man einerseite massenhaft relevante Suchbegriffe, andererseits auch sowas wie menschlich erscheinenden Text.
- Sven Rautenberg
--
"Beim Stuff für's Web gibts kein Material, was sonst das Zeugs ist, aus dem die Sachen sind."
(fastix®, 13. Oktober 2003, 02:26 Uhr -> </archiv/2003/10/60137/#m338340>)