pascalplus
Mitglied
Ich bin am erstellen eines eigenes logfile.
Ich möchte aber nur wissen, welche Seiten meiner Homepage die wirklichen User besuchen, also nicht die Robtos, welche pro Tage dutznde Male bei mir vorbeischauen.
Zu diesem Zweck habe ich folgendes versucht zu schreiben:
Nun leider muss ich feststellen, dass immer noch Einträge von Robtos in meiner .txt-Datei eingetragen werden!
Was habe ich hier falsch gemacht oder wie könnte man dies auf eine andere Variante lösen?
Ich möchte aber nur wissen, welche Seiten meiner Homepage die wirklichen User besuchen, also nicht die Robtos, welche pro Tage dutznde Male bei mir vorbeischauen.
Zu diesem Zweck habe ich folgendes versucht zu schreiben:
PHP:
if (stristr(gethostbyaddr($_SERVER['REMOTE_ADDR']), "search") == ""){
if (stristr(gethostbyaddr($_SERVER['REMOTE_ADDR']), "crawler") == ""){
if (stristr(gethostbyaddr($_SERVER['REMOTE_ADDR']), "bot") == ""){
if (stristr(gethostbyaddr($_SERVER['REMOTE_ADDR']), "msn") == ""){
if (stristr(gethostbyaddr($_SERVER['REMOTE_ADDR']), "google") == ""){
//eintrag in .txt-Datei
}}}}}
Nun leider muss ich feststellen, dass immer noch Einträge von Robtos in meiner .txt-Datei eingetragen werden!
Was habe ich hier falsch gemacht oder wie könnte man dies auf eine andere Variante lösen?