Mahlzeit allesamt,
Ich habe in letzter Zeit sehr viel Gefallen an den JS-Frameworks mootools und extJS gefunden. Aber einige Gedanken gehen mir dazu durch den Kopf.
1. Die Datenmengen der Frameworks ( 50-120kb ) sind ja nicht unbedingt groß, aber trotzdem müssen die geladen werden, was den Aufbau / die Geschwindigkeit des Seitenaufbaus verzögert. Werden die includes ge'cache'd, so dass sie beim nächsten Aufruf nicht erneut geladen werden müssen ? Gibt es eine Möglichkeit, sie zu cachen ?
2. Wie komprimiert man Sourcecode ? Macht es der Server automatisch ? kurze Erklärung erwünscht..
3. Welche Sachen muss ich beachten bezüglich SEO ? Es ist klar, dass alle Ajax-Queries ad hoc von zB google nicht gesehen werden, aber welche Strategien gibt es ? Findet der google-bot den Content trotzdem, indem er den Link aufruft und dann crawl'ed ?
4. Wie sieht es mit hidden Divs aus ? Werden die obwohl nicht sichtbar, trotzdem vom bot gesehen, da sie ja im source mit drin stehen ? Gibt es für den bot einen Unterschied zwischen display:none und visibility:hidden ?
mfg chmee
p.s.: In anderen Foren hab ich gelesen, dass es sinnvoll sei, eine statische Seite ( mitsamt kompletten Content ) für die bots/crawler bereit zu stellen, wie ist das gemeint ? Eine bot-Weiche (welche aber von den Such-Algorithmen als schlecht gewertet wird) ?
Ich habe in letzter Zeit sehr viel Gefallen an den JS-Frameworks mootools und extJS gefunden. Aber einige Gedanken gehen mir dazu durch den Kopf.
1. Die Datenmengen der Frameworks ( 50-120kb ) sind ja nicht unbedingt groß, aber trotzdem müssen die geladen werden, was den Aufbau / die Geschwindigkeit des Seitenaufbaus verzögert. Werden die includes ge'cache'd, so dass sie beim nächsten Aufruf nicht erneut geladen werden müssen ? Gibt es eine Möglichkeit, sie zu cachen ?
2. Wie komprimiert man Sourcecode ? Macht es der Server automatisch ? kurze Erklärung erwünscht..
3. Welche Sachen muss ich beachten bezüglich SEO ? Es ist klar, dass alle Ajax-Queries ad hoc von zB google nicht gesehen werden, aber welche Strategien gibt es ? Findet der google-bot den Content trotzdem, indem er den Link aufruft und dann crawl'ed ?
4. Wie sieht es mit hidden Divs aus ? Werden die obwohl nicht sichtbar, trotzdem vom bot gesehen, da sie ja im source mit drin stehen ? Gibt es für den bot einen Unterschied zwischen display:none und visibility:hidden ?
mfg chmee
p.s.: In anderen Foren hab ich gelesen, dass es sinnvoll sei, eine statische Seite ( mitsamt kompletten Content ) für die bots/crawler bereit zu stellen, wie ist das gemeint ? Eine bot-Weiche (welche aber von den Such-Algorithmen als schlecht gewertet wird) ?