Hallo zusammen!
Ich habe ein Problem mit meinem CMS.
Es laufen ca 50 Internetseiten auf einem zentralen CMS,
dieser enthält einen, in PHP gebauten, Counter mit Statistiken etc.
Seit ein paar Wochen fällt mir bei 3 der 50 seiten eine extrem falsche Statistik der Zugriffe auf. (Sowas wie 5000 Zugriffe pro Besucher (durchschnittlich)).
Vermutung: Suchmaschienenbots
Habe dann mal die Logs ausgewertet, und, wie vermutet, kommt bei den 3 besagten Seiten
der Googlebot einfach alle 2 Sekunden. (3-4 IP-Adressen, welche 98% der Aufrufe verursachen).
Habe nun überlegt ob ich die Zugriffe dieser Bots einfach aus den statistiken rausnehme,
aber das ist ja keine gute Lösung auf dauer, da sich die IPs der Crawler ja auch nal ändern können.
Gibt es eine Möglichkeit,, z.b. per robot.txt, den Suchmaschienen zu sagen, dass sie nur z.b. ein mal am Tag kommen sollen?
Habe dazu im net leider nix gefunden :-/
Vielen Dank für eure Hilfe
Ich habe ein Problem mit meinem CMS.
Es laufen ca 50 Internetseiten auf einem zentralen CMS,
dieser enthält einen, in PHP gebauten, Counter mit Statistiken etc.
Seit ein paar Wochen fällt mir bei 3 der 50 seiten eine extrem falsche Statistik der Zugriffe auf. (Sowas wie 5000 Zugriffe pro Besucher (durchschnittlich)).
Vermutung: Suchmaschienenbots
Habe dann mal die Logs ausgewertet, und, wie vermutet, kommt bei den 3 besagten Seiten
der Googlebot einfach alle 2 Sekunden. (3-4 IP-Adressen, welche 98% der Aufrufe verursachen).
Habe nun überlegt ob ich die Zugriffe dieser Bots einfach aus den statistiken rausnehme,
aber das ist ja keine gute Lösung auf dauer, da sich die IPs der Crawler ja auch nal ändern können.
Gibt es eine Möglichkeit,, z.b. per robot.txt, den Suchmaschienen zu sagen, dass sie nur z.b. ein mal am Tag kommen sollen?
Habe dazu im net leider nix gefunden :-/
Vielen Dank für eure Hilfe