html seite aus dynamischen inhalten generieren?

HammerHe@rt

Erfahrenes Mitglied
ich hoffe ich habe mich richtig ausgedrückt...

im Moment ist es so das wir einen Liveticker am laufen haben wo wir (admins) Daten in die DB schreiben und der Besucher den Liveticker anschaut

dieser besteht aus php/mysql und wird beim Seitenaufruf bzw Refresh generiert....

wenn da nun aber >250 User drauf sind wirds langsam zäh und bei 300 is richtig Ende....


nun hab ich mir überlegt, das es doch vielleicht besser wär und auch möglich das wenn die Daten in die Datenbank geschrieben werden (bei einem tor ect.) das dann ein Trigger ausgelöst wird welcher den Ticker bzw die Tickerdatei erstellt....und diese dann bereitstellt....der Vorteil liegt doch klar auf der Hand oder?....SQL-Abfragen nur bei Datenänderung(und dann nur einmal).....User laden nur HTML und machen keine >250-300 SQL gleichzeitig.....



Leider weiss ich im Moment garnicht wo ich ansetzen sollte....für paar Tipps bezüglich des Problems oder Lösungsansätze wäre ich sehr dankbar.

mfG
Hammerhe@rt
 
Zuletzt bearbeitet:
wenn da nun aber >250 User drauf sind wirds langsam zäh und bei 300 is richtig Ende....
Also für mich klingt das eher so, als läge das am aktuellen Script, das du benutzt. Für gewöhnlich laufen SQL Abfragen wesentlich besser und schneller als das öffnen und Auslesen einer Datei. Große Foren zum Beispiel haben teilweise größere Benutzerzahlen als 300, und jede Darstellung eines Threads braucht mindestens 10 - meißtens mehr - seperate SQL Abfragen, und da läuft auch nichts langsam.
Ansonsten würde ich empfehlen, den Newsticker einmal am anfang in ein Cookie zu schreiben dass nach x Minuten verfällt, damit kannst du den Aktualisierungsintervall vergrößern

Gruß
TiM
 
mal unabhängig von der qualität des scripts gesehen....wo auch mehr als 1 sql enthalten ist....sind bestimmt 8-10.....wäre es glaube ich schon sinnvoll was zu machen....und wenn ich 300 sage dann meine ich wirklich 300 Benutzer zur selben Zeit die ein und den selben ticker aufrufen und somit mal eben 300*8 SQL Abfragen durchführen.....und ich habe eine reload sperre von 30 Sekunden gebaut die auch super .....da es nunmal im Sport und im Eishockey schnell geht darf der reload auch nich länger sein
 
Naja so hilft das ja scheinbar auch nicht weiter...

Ich würde zum Test, ob es dann leistungsfähiger wird, einfach in dem Moment wenn ein Admin neue Daten für den Ticker bereitstellt diese in die DB tragen.
Im nächsten Schritt die Daten, die im Ticker angezeigt werden sollen aus der DB in die Textdatei schreiben.
Für den Ticker selbst liest du dann einfach die Datei aus. Somit hast du dir auch den Trigger gespart.

Sind die Daten für den Ticker denn mit history o.ä. Wenn nein kannst du auch gleich auf die mySQL für den Zweck verzichten.

@simrl: Deine Shift-Taste scheint immernoch kaputt zu sein.
 
er aktualisiert sich auch nur alle 30 sekunden...und es sind defakto 2400 sql .....was dann zum tickergau kommt....wenn dann auch noch 50 Leute F5 klicken is aus die Maus....

also bitte nur noch eventuelle Lösungsvorschläge für oben genanntes Problem posten
danke


PS: das ganze system basiert auf php/mysql - newssystem, tabellen, mannschafte, ticker...ect....und nein darauf wird nicht verzichtet :-)

ob trigger oder nicht ...die frage die ich mir im moment stelle ist....Wie schaffe ich es nach dem eintragen der Daten in die DB, daraus bestimmte html files zu erzeugen welche dann ganz normal im ticker eingebunden sind.....


PPS: wenn ich daten in ne text datei schreiben kann, warum dann nicht gleich mit code in ne html datei? aber wie generier ich sowas aus datenbankabfragen und code ?

mfG
SvenS.
 
Zuletzt bearbeitet:
@ben ben: und es ist mir immer noch egal!

@HammerHe@rt:
öffne ein file handle mit fopen, schreib die daten mit fwrite, und schließe mit fclose. ich versteh das problem nicht.

PS: "aber wie generier ich sowas aus datenbankabfragen und code ?" ... so wie du es in html ausgeben würdest lässt du es in die datei schreiben?
 
mein problem ist/war wie bekomme ich die daten aus der datenbank mittels abfragen und formatierung (code) in eine Variable um eben das ergebniss in die datei zu schreiben.....

aber anscheinend is die php funktion curl() dafür geeignet.....
 
Um nochmal etwas vom derzeitigen roten Faden abzuweichen...
Ich hab mit die Seite mal engeguckt, und ich muss sagen, dass die Ladezeiten für Bilder u.ä. extrem mies sind. Vieleicht solltest du dir mal ein Benchmark-Script für deinen Server und deinen DB-Server suchen, und die ganze geschichte mal auf Herz und Nieren testen, denn so schnell das Script auch sein mag, ne lahme Verbindung schmeisst dir alles übern haufen.

TiM
 
wir haben am tage knapp 1000 besucher und seit 3 jahren keine beschwerden (2-3 Sekunden mit dsl)...sicher ist die index mit ihren ganzen newsbilder nicht gerade von pappe und der 1. seitenaufruf kann da schon was dauern....aber dann geht alles fix und die datenbank rennt wie die sau....können wir nicht klagen.....btw vielleicht liegts auch an deine connection? ^^ dsl sollte heutzutage standard sein

ich habe mir bereits 100erte vergleichbarer portalseiten oder private vereinsseiten angeschaut welche in punkto geschwindigkeit gegenüber uns total abstürzen....die seitengenerierungszeit kann ich dir auch ausgeben und liegt bei 0,0x Sekunden...und ja wir haben nunmal viele bilder in den news und die dauern nunmal und haben mit der db nichts am hut.....aber das soll jetzt nicht bedeuten das ich mit Kritik nicht umgehen kann im Gegenteil bin gerne für Vorschläge ect. zu haben nur ist die DB sowie die Anbindung des Servers tadellos ^^....


PS: sehr codeintensiv ist die navigation wo wir auch schon überlegen die einzustampfen und auf ne normale punktegliederung übergehen wollen wobei unsere aber im moment vielen so gefällt wie sie ist und leicht zu erweitern ist ^^
 
Zuletzt bearbeitet:
Zurück