Exceptionfault
Erfahrenes Mitglied
Normalerweise beschäftige ich mich eigentlich mehr mit Oracle, habe nun aber mal eine Frage an alle mySQL Spezialisten hier.
Folgendes Problem: Auf einer extrem frequentierten Homepage sollen Besuche per CGI-Script in eine Datenbank geloggt werden. Gegen Oracle spricht derzeit zum einen die Lizenzpolitik mit per CPU Lizensierung, zum anderen der im Vergleich zu mySQL deutlich langsamere Verbindungsaufbau von Oracle.
mySQL wäre preislich wohl die bessere Alternative, die Frage ist, wie bekommen wir die Daten etwa stündlich ohne Performanceeinbruch am Live System wieder raus und übertragen sie "inhouse" zur Auswertung.
Wir reden von derzeit mehreren Mio Sätzen pro Woche und gelegentlich bis zu 50 Klicks pro Sekunde. Das ganze sind 9 bis 12 Webserver. Geplant wäre es 2-3 Webserver lediglich mit dem CGI-Script zu belasten und einen (bei Oracle) oder mehrere (bei myMSQL) Datenbankserver. Hat jemand vielleicht schon irgendwelche Erfahrungswerte, die ich entsprechend hochrechnen könnte ? Ich mache mir vor allem Sorgen um das Datenvolumen was auf ca. 1 - 2 GB / Tag geschätzt wird. Hinzu kommt, dass später noch einige Domains mehr verarbeitet werden sollen, was das Datenvolumen und die Zugriffe etwa verdoppeln würde.
Wie groß kann ich denn eine mySQL Datenbank halten ? Kann ich Massendaten exportieren ohne Performanceverluste zu haben ? Kann ich die Datenbank auch wieder bereinigen und reorganisieren ? Gibt es Möglichkeiten zu Clustern oder Script technisch Loadbalancing auf mehrere Datenbanken zu betreiben ( geht, da nur INSERTS stattfinden, also keine Datenintegrität.. )
Mich würde einfach mal Eure Meinung interessieren bevor ich mir die Mühe mache ein komplettes Testsystem aufzubauen und einen Stresstest zu entwickeln. Bei Oracle habe ich in den obigen Punkten ein sehr ruhiges Gewissen, lediglich der Preis wird hier schwer zu vertreten sein.
Folgendes Problem: Auf einer extrem frequentierten Homepage sollen Besuche per CGI-Script in eine Datenbank geloggt werden. Gegen Oracle spricht derzeit zum einen die Lizenzpolitik mit per CPU Lizensierung, zum anderen der im Vergleich zu mySQL deutlich langsamere Verbindungsaufbau von Oracle.
mySQL wäre preislich wohl die bessere Alternative, die Frage ist, wie bekommen wir die Daten etwa stündlich ohne Performanceeinbruch am Live System wieder raus und übertragen sie "inhouse" zur Auswertung.
Wir reden von derzeit mehreren Mio Sätzen pro Woche und gelegentlich bis zu 50 Klicks pro Sekunde. Das ganze sind 9 bis 12 Webserver. Geplant wäre es 2-3 Webserver lediglich mit dem CGI-Script zu belasten und einen (bei Oracle) oder mehrere (bei myMSQL) Datenbankserver. Hat jemand vielleicht schon irgendwelche Erfahrungswerte, die ich entsprechend hochrechnen könnte ? Ich mache mir vor allem Sorgen um das Datenvolumen was auf ca. 1 - 2 GB / Tag geschätzt wird. Hinzu kommt, dass später noch einige Domains mehr verarbeitet werden sollen, was das Datenvolumen und die Zugriffe etwa verdoppeln würde.
Wie groß kann ich denn eine mySQL Datenbank halten ? Kann ich Massendaten exportieren ohne Performanceverluste zu haben ? Kann ich die Datenbank auch wieder bereinigen und reorganisieren ? Gibt es Möglichkeiten zu Clustern oder Script technisch Loadbalancing auf mehrere Datenbanken zu betreiben ( geht, da nur INSERTS stattfinden, also keine Datenintegrität.. )
Mich würde einfach mal Eure Meinung interessieren bevor ich mir die Mühe mache ein komplettes Testsystem aufzubauen und einen Stresstest zu entwickeln. Bei Oracle habe ich in den obigen Punkten ein sehr ruhiges Gewissen, lediglich der Preis wird hier schwer zu vertreten sein.