Schnelligkeit von Datenbanken

firstlord18

Erfahrenes Mitglied
Hi,

mich würde mal interessieren, wie schnell Datenbanken sind. Sprich, wie viel Datenbankabfragen (Querys ) sie in welcher Zeit schaffen.
--> Oracle
--> MySQL
--> SQLite
--> etc.....

Welche Datenbank wird auf großen Firmenseiten etc. verwendet

Vielen vielen Dank im vorraus
MFG
Björn
 
Ich kann Dir zwar keine Zahlen oder Vergleichswerte nennen, aber ich kann Dir sagen, dass die Firmen, mit denen ich bis jetzt in Berührung gekommen bin (Ausbildung, Praktika, Job) MySQL nutzen bzw. zum damaligen Zeitpunkt genutzt haben.
Des weiteren nutze ich MySQL privat und die meisten Provider haben in ihrem Webspace Angeboten MySQL als Datenbanktyp (so eine Datenbank angeboten wird).
Und was die Menge an Daten und deren Geschwindigkeit beim lesen bzw. schreiben betrifft, habe ich auch nur gute Erfahrungen gemacht. Während meiner Ausbildung habe ich Daten aus Tabellen mit gut 1,5 Mio. Datensätzen ausgelesen und das hat nicht wirklich lange gedauert!
So, ich hoffe das ich Dir damit ein wenig weiterhelfen konnte.

redlama
 
Von der Performance ist Sicherlich mySQL ganz oben mit dabei, deshalb wird es auch so oft im Internet verwendet.
Da mySQL von der Funktionalität anderen Datenbanken um einiges hinterherhinkt, werden in Professionellen Anwendungen meist Oracle oder MSSQL eingesetzt.
An deiner Stelle würde ich mich auch mal mit PostgreSQL auseinandersetzten.
 
Für kleine und etwas grössere, nicht sehr komplexe Projekte würde ich mysql gegenüber PostgreSQL vorziehen.
Der Funktionsumfang von PostgreSQL war mysql lange Zeit überlegen (Transaktionen, Subselects etc.) mysql ist allerdings sehr am aufholen, ich verfüge nicht über das Wissen, jetzt zu behaupten, dass mysql noch immer im Hintertreffen ist.

Ich führe zur Zeit auch einige Tests durch, das Ziel ist, Datenmengen bis zu einigen Milliarden Records verwalten zu können - naja, ich werd' noch gläubig. :-)

Benchmarktests von den jeweiligen DB-Anbietern sind oft mit Vorsicht zu geniessen, weil die Anbieter bei den Fremdprodukten eine Standartkonfiguration wählen und die eigene "tunen". Dies wir in einem seriösen Test aber auch publiziert.

Wenn man grosse Mengen an Daten verwaltet, muss man sowieso besorgt sein, dass die Indexe im RAM gecached werden, sonst läuft schlicht nichts mehr. D.h. bei wirklich grossen Systemen wirst Du auch viel RAM benötigen.

Ausserdem sind nicht alle DBMS gleich gut für spezifische Aufgaben geeignet, das ist natürlich auch klar.

Tendenz: Für wirklich grosse Datenmengen PostgreSQL.

Cu
Oli
 
Zurück