deinertsche
Erfahrenes Mitglied
Folgendes Problem:
Die Bots von manchen Suchmaschinen die das Netz durchgrabben ignorieren Seiten mit dynamischem Inhalt.
Eine Seite wie http://www.website.de?inhalt=test wird dann nicht einzeln erfasst, weil der Bot davon ausgeht dass es dynamisch erzeugter Inhalt ist.
Ich habe nun aber eine Seite bei der es 100 verschiedene Parameter in der URL gibt, die alle statisch sind. D.h.:http://www.website.de?inhalt=abc bleibt immer gleich und http://www.website.de?inhalt=xyz bleibt auch immer gleich. Um trotzdem von allen Suchmaschinen-Bots erfassst zu werden müsste man die URL irgendwie in eine statisch-aussehende URL umwandeln (die Parameter müssen aber erhalten bleiben). Um es nochmal zu sagen: Es müssen ALLE einzelnen Seiten von ALLEN Suchmaschinen erfasst werden können.
Hat das jemand schon mal gemacht?
mfg
Deinertsche
Die Bots von manchen Suchmaschinen die das Netz durchgrabben ignorieren Seiten mit dynamischem Inhalt.
Eine Seite wie http://www.website.de?inhalt=test wird dann nicht einzeln erfasst, weil der Bot davon ausgeht dass es dynamisch erzeugter Inhalt ist.
Ich habe nun aber eine Seite bei der es 100 verschiedene Parameter in der URL gibt, die alle statisch sind. D.h.:http://www.website.de?inhalt=abc bleibt immer gleich und http://www.website.de?inhalt=xyz bleibt auch immer gleich. Um trotzdem von allen Suchmaschinen-Bots erfassst zu werden müsste man die URL irgendwie in eine statisch-aussehende URL umwandeln (die Parameter müssen aber erhalten bleiben). Um es nochmal zu sagen: Es müssen ALLE einzelnen Seiten von ALLEN Suchmaschinen erfasst werden können.
Hat das jemand schon mal gemacht?
mfg
Deinertsche