dwex
Erfahrenes Mitglied
Hallo Leute,
ich hätte wirklich die Suche bemüht aber ich bin bisher nicht draufgekommen wie ich mein Problem lösen könnte.
Ich möchte mir gerade eine "Serverüberwachung" bauen.
Da ich ein paar Server im Netz habe möchte ich diese gerne auf einigen Ports überwachen.
Das mache ich mit fsockopen() das funktioniert auch.
Jetzt möchte ich jedoch die verstrichene Zeit in Millisekunden (ist das die Abkürzung ms? - wenn nicht dann eben in ms) angezeigt bekommen wie lange diese Abfrage gedauert hat.
Mit microtime() komme ich nicht weiter, da der mir eine Abfrage von der ich weiß das Sie mindestens 50 ms braucht (anderes Programm!) jetzt plötzlich mit nur 0.87877 ausgibt.
Das Programm und mein Script laufen auf dem selben Server - also müsste hier auch zumindest ein annähernd gleicher Wert rauskommen.
Was mache ich falsch?
Vielen Dank für euere Hilfe im Voraus!
ich hätte wirklich die Suche bemüht aber ich bin bisher nicht draufgekommen wie ich mein Problem lösen könnte.
Ich möchte mir gerade eine "Serverüberwachung" bauen.
Da ich ein paar Server im Netz habe möchte ich diese gerne auf einigen Ports überwachen.
Das mache ich mit fsockopen() das funktioniert auch.
Jetzt möchte ich jedoch die verstrichene Zeit in Millisekunden (ist das die Abkürzung ms? - wenn nicht dann eben in ms) angezeigt bekommen wie lange diese Abfrage gedauert hat.
Mit microtime() komme ich nicht weiter, da der mir eine Abfrage von der ich weiß das Sie mindestens 50 ms braucht (anderes Programm!) jetzt plötzlich mit nur 0.87877 ausgibt.
Das Programm und mein Script laufen auf dem selben Server - also müsste hier auch zumindest ein annähernd gleicher Wert rauskommen.
Was mache ich falsch?
Vielen Dank für euere Hilfe im Voraus!