Datenbankinhalte-Suchmaschinen-weiterleitungen

crowfield

Grünschnabel
hallo,
folgenden frage.
ich habe eine seite mit dynamischen inhalt aus einer db.
wie werden diese inhalte von suchmaschinen erkannt.
das abspeichern der dyn. seiten als html ist nicht möglich,
da man die seiten nur sehen darf, wenn mann registriert und eingeloggt ist.
würden die seiten als html abgespeichert und von suma als ergebnis angezeigt, würde der besucher ja auf diese seite gelenkt.

auch das umfrickel der url, zu suma-freundlichen urls, geht nicht,
da die urls durch mehrere formularabfragen erzeugt werden und
suma ja keine formulare ausfüllen und abschicken.

jetzt meine idee:
eine zweite domain mit einer index erstellen, in der der gesamte db-inhalt als html abgelegt ist. suma sollten diesen inhalt indizieren.
besucher sollten jedoch auf die erste domain weitergeleitet werden.
wäre dieses vorgehen sinnvoll?
habe hier was von HTTP_USER_AGENT gelesen, womit man feststellen kann,
ob der besucher eine suma ist, oder ein besucher.
wie geht das?

hat jemand antworten, ideen oder anregungen, wie ich die db-inhalte indiziert bekomme?

danke schon mal,
crowfield
 
Die Suchmaschiene sieht genau das, was auch ein Besucher sieht, nur eben als HTML Code und nicht so schön wie wir vom Browser umgewandelt...

Mit GET Parametern haben die wenigsten Suchmaschienen Probleme, jedoch stufen manche Suchmaschienen Webseiten die mit GET Parametern arbeiten, als weniger "hochwertig" ein.
Du könntest mod_rewrite verwenden um HTML Dateien zu simulieren.

Gruß,
cAm3eel.

btw: Achte in Zukunft bitte auf deine Groß- und Kleinschreibung!
 
Hallo cAm3eel,
Du könntest mod_rewrite verwenden um HTML Dateien zu simulieren.
das Problem ist ja, das man erstmal ein paar Selectfelder wählen und
abschicken muß,
bevor die dynam. Seite erzeugt wird.
Die SuMa würden aber nur die Auswahl des ersten Selectfeldes auslesen und das wars dann auch schon.

Meine Idee ist ja, das ich eine zweite Domain mit einer index.html habe,
wo der ganze Inhalt der Datenbank drin steht. Hier haben die Robots reichlich Futter für die SuMa.

Sollte ein User nun bei einer SuMa etwas Suchen und die zweite Domain würde als Treffer aufgeführt werden,
und der User klickt nun auf das Suchergebnis, sollte er von der zweiten Domain direkt auf die eigentliche Hauptdomain weitergeleitet werden.

Ich hatte nun gedacht, das man mit HTTP_USER_AGENT feststellen kann, ob es sich um eine Robot handelt,
oder wenn es sich um einen User handelt die weiterleitung erfolgt.

Ist diese Vorgehen möglich? Und wenn ja, Sinnvoll?

Danke.
 
Möglich ist diese Vorgehensweise auf jeden Fall. Das ganze nennt sich "Cloaking", unter diesem Stichwort findest Du im Netz auch zahlreiche Artikel.
Ich würde davon auf jeden Fall abraten. Die Suchmaschinen werten Cloaking als Betrugsmethode um das Ranking zu verbessern (was es de facto auch ist) und reagieren idR mit Herunterstufung oder (wenn ich mich recht erinnere bei Google) mit der Sperrung der gesamten Domain aus dem Index.
Das Ziel von Suchmaschinen soll ja sein, Ergebnisse anzuzeigen, die der User auch tatsächlich SEHEN kann. Du willst ja scheinbar Treffer vorgaukeln, die gar nicht existent sind.
http://www.drweb.de/seo/cloaking_2.shtml

Ich würde an Deiner Stelle versuchen, die nicht geschützten Seitenbereiche mit möglichst viel Inhalt zu füllen, das bringt mehr und ist weniger riskant.
 
Wie sollten die Inhalte denn indizieren, wenn sie doch nur für registrierte Benutzer zugänglich sind?
 
Zurück