Webseite darf nur direkt angesteurt werden

Alice

Erfahrenes Mitglied
Hallo Leute.

Ich stehe vor folgendem Problem...

Ich erstelle gerade einen Webseite inkl. Shop.

Die Webseite soll von keinem "Crawler" durchsucht werden und schon gar nicht indexiert werden. Am liebsten wäre es mir, wenn man die Seite nur direkt (http://www.blablabla.de) ansteuern könnte.

Wie kann ich das umsetzen?
 
Hi

Suchmaschinen verbieten: Siehe das Thema robots.txt
Zusätzlich eventuell bestimmte Useragents per htaccess sperren
Um Missverständnisse zu vermeiden:
Beides sperrt nur die großen, "netten" Suchmaschinen (die sich dran halten).
Wenn irgendwer unbedingt ein Programm machen will, dass deine Seite automatisch ausliest
kann er das auch (bzw. man kanns so machen, dass du/PHP/...
das Programm nicht von einem menschlichen Besucher unterscheiden kannst)

Seite nur direkt aufrufen, ohne das Unterseiten aufgerufen werden können:
Aus einigen Gründen nicht zu empfehlen.
Man könnte eine index.php machen, die je nach Get/Post-Parameter
verschiedene Unterseiten ausliefert (aber eben alles über die index.php läuft)
und dazu per htaccess alles außer dieser index.php sperren.
 
Zurück