Website 4 suchmaschine optimieren

Status
Nicht offen für weitere Antworten.

Daveman007

Mitglied
Hallo ich habe auf meiner website im Quelltext keywords integriert aber die seite lässt sich bei Google dennoch nicht finden.
Was muss ich noch tun?
 
habe die seite unter google registriert und metatags mit keywords eingegeben. wird aber von google trotzdem nicht gefunden. wieso?
 
Hallo!

1. Kann es mehrere Wochen dauern bis die Seite überhaupt mit aufgenommen wird.... es sei denn Du bezahlst dafür.
2. Nicht jede Suchmaschine nimmt jede Seite, bei manchen muss Die Seite auf bekannten Seiten Verlinkt sein.
3. Keywords sind nur ein Teil der Seite, zu viele Keywords können dazu führen dass Die Seite nicht aufgenommen wird.
4. Sollten die Keywords nicht zum Seitenihalt passen (mit z.b. "Schmuddelkeywords" für "Kinderfreundliche Seiten"), wirst Du kaum etwas bis garnichts erreichen.
5. Eine Garantie zur Aufnahme gibt es nicht, die Suchmaschinen sind nicht dazu verpflichtet eine Seite aufzunehmen.
6. usw. usw. usw.......

Gruss Dr Dau
 
Hi,
Dr. Dau nach deinem Beitrag frag ich mich wieder wieso man ne Seite bei SOWAS registrieren soll wenns nur halb / gar nicht / vielleicht klappt...hab meine Seite vor nem Jahr (oder so) registriert, von den Suchmaschinen bei denen ich die Seite registriert habe, berücksichtigt BIS HEUTE keine den <title>-Tag oder die Meta-tags...Ich frag mich aber mittlerweile nicht mehr warum, die sollen erstmal ihre Suchmaschinen optimieren bevor wir Code für sowas optimieren sollen...
 
Da von den Google-Missachteten keiner seine Seite nennt und sagt welche Zielgruppe er erwartet, also mit welchen Suchbegriffen er gefunden werden möchte, ist es schwer, mögliche "Inkompatibilitäten" mit den Suchmaschinen-Algorithmen zu finden.

Google ist zum Beispiel meines Wissens sehr bemüht, Seiten unter den Begriffen zu indizieren, die auch tatsächlich für den User lesbare Texte zu dem Thema haben. So werden Meta-Tags und Titel wenig bringen, wenn der Text nicht dazu passt oder Google ihn nicht lesen kann (Flash, JavScript-Weiterleitung, Bilder ohne Alt-Attribute, etc.).

Ich hatte bisher keine Probleme, dass von mir erstellte mit Google gefunden wurden. Ich habe die Seiten einfach für die User und nicht für die Suchmaschinen gemacht. Meta-Tags setze ich sehr sparsam ein, die sieht der User ohnehin nicht.

Gruß hpvw
 
Weil die Suchmaschinen nicht an Dynamischen Inhalten interessiert sind.
Denn wozu sollte eine Suchmaschine eine Seite ins Verzeichnis aufnehmen, wenn es diese im Zweifel nach wenigen Minuten nicht mehr gibt bzw. ein anderen Inhalt hat?
Irgendwie logisch.

Ich habe damit noch keine Versuche gemacht (weil ich meine Seiten eh nicht bei Suchmaschinen anmelde), aber angeblich soll es möglich sein mit den header() Funktionen den Suchmaschinen vorzutäuschen dass die Seiten schon älter sind.
Andere PHP Seiten werden ja auch ins Verzeichnis aufgenommen
 
Hi,

das Problem sind nicht so sehr die Suchmaschinenbetreiber, sindern unter den "Webmastern" Diejenigen, die "aggressives Suchmaschinenoptimieren" betreiben und jeden schmutzigen Trick verwenden, um ihre Seite im Ranking ganz nach oben zu bringen. Dem arbeiten die Suchmaschinenbetreiber natürlich entgegen. Als Resultat treffen diese Abwehrmaßnamen leider auch viele ganz normale Seiten, vor Allem solche von Privatanwendern, die von den Feinheiten des "google-Spammings" sowieso keine Ahnung haben. Aber so lange es sogenannte "Profis" gibt, die Suchmaschinenspamming professionell und effektiv betreiben, kann und wird sich daran Nichts wesentlich ändern.

Ich weiß, die Leute hier im Forum sind nicht oder kaum Diejenigen, an die ich die Vorwürfe richten kann. Hier wird versucht, den Nutzern nicht nur technisches Wissen, sondern auch anständige Benimmregeln beizubringen. Aber nicht jeder Webmaster ist hier in diesem Forum tätig oder überhaupt interessiert an Benimmregeln. Wir werden daher wohl oder übel mit den negativen Begleiterscheinungen leben müssen :(

Sorry, musste mal gesagt werden.
 
Dr Dau hat gesagt.:
Weil die Suchmaschinen nicht an Dynamischen Inhalten interessiert sind.
Denn wozu sollte eine Suchmaschine eine Seite ins Verzeichnis aufnehmen, wenn es diese im Zweifel nach wenigen Minuten nicht mehr gibt bzw. ein anderen Inhalt hat?
Ich hatte bisher auch keine Probleme mit Seiten, die über den Query-Teil des URI auf Unterseiten verweisen. Solange man die Links (keine Formulare oder JavaScripts) nicht wie Suchanfragen aussehen lässt, sondern ein, maximal zwei Paramater anhängt, die womöglich auch noch cat und subcat heißen, sollte das bei Google kein Problem sein. Die Programmierer dort wissen schließlich auch, wie Webseiten gemacht werden und kennen diese Technik HTML-Struktur von Inhalt zu trennen.

Dennoch hat ein URI, der den Titel des Themas enthält, sicherlich mehr Chancen, weiter oben zu stehen.

Gruß hpvw
 
Sorry, da hatte ich wohl grad ein kleines (grosses Brett) vorm Kopf. An diese Techniken hab ich jetzt nicht gedacht. Aber die Leute die Google-resultate gezielt manipulieren find ich dann erst recht bescheuert. Egoismus regiert die Welt...
 
Status
Nicht offen für weitere Antworten.
Zurück