Problem mit Webseite

R.Carlos

Neu angemeldet
Registriert
26 Dez. 2015
Beiträge
189
Hallo, ich hab eine Frage bezüglich einer Webseite. Es handelt sich um eine Webseite eines Freundes. Gehostet ist die Seite bei Strato, alledings wird die Seite nicht gefunden, also über Google. Bei den Metadaten sind entsprechende Keywords eingetragen, der "Title" ist auch korrekt angegeben. An was könnte das liegen, dass die Seite nicht einmal auf der fünften Seite steht???
 
Crawling/Indexierung wurde nicht aus Versehen ausgeschalten?

Indexierung bei Google (und Bing) kann man auch selbst triggern, danach heißt es Suchmaschinenoptimierung.

Edit:
(wenn ich mich nicht täusche)
 
Das die Inhalte erst bei aktiviertem Javascript zu sehen sind oder darüber zugänglich sind. Das ist nach wie vor ein Blocker bzw. könnte einer in deinem Fall sein. Einfach mal "NoScript" als Addon (Firefox) installieren und versuchen auf der Seite zu surfen, was du dann siehst, ist fast auch das was Google sieht. ;)

Ich würde mir ein Google Konto anlegen (Freund) die Verifikationsdatei von Google auf den Webspace laden, den Account bestätigen und auf Crawler-Error schauen, warum die Seite nicht oder nur teilweise oder gar nicht indexiert werden kann. Wie hier auch vorgeschlagen wird.
 
Wenn die Webseite bestätigt ist, kann man das Indexieren anstoßen.
Hilfreich ist auch eine Sitemap. Wenn die Seiten indexieren sind, schaut das etwa so aus:

sitemap.JPG

Warnungen und Fehler werden auch angezeigt und die sollte man möglichst beheben.
Anschließend mal schauen, wie die Seite in der Suche ausschaut usw.
 
Das die Inhalte erst bei aktiviertem Javascript zu sehen sind oder darüber zugänglich sind. Das ist nach wie vor ein Blocker bzw. könnte einer in deinem Fall sein. Einfach mal "NoScript" als Addon (Firefox) installieren und versuchen auf der Seite zu surfen, was du dann siehst, ist fast auch das was Google sieht. ;)
Das ist, soweit ich weiss, leider(!) schon lange nicht mehr so.
 
Richtig, Google kann auch Seiten indexieren, für die JavaScript benötigt wird.
Um zu sehen ob der Google Bot die Seite richtig erkennt, kann in den Webmaster Tools unter "Crawling" der Punkt "Abruf wie durch Google" ausgewählt werden.
 
Entscheidende Frage: ist die Seite überhaupt in den Suchergebnissen drin, vlt, nur sehr weit hinten?
-> Google Suche nach site:[domain].[tld] also z. B. site:ngb.to

Ja: der Inhalt (most likely), die Struktur und die offpage-Maßnahmen (Backlinks tec.) sind nicht gut genug oder Seite ist noch zu neu. Eine neue Seite (Domain) kann prima optimiert werden, rankt sie zu schnell zu gut, kommt sie in Überwachung (Sandbox), in der Zeit gibt es keine bzw. nur stark abgeschwächte Verbesserungen im Ranking.

Maßnahmen: Inhalt verbessern, Struktur prüfen und verbessern, Seitentitel sinnvoll überarbeiten, für Trusted Links und Back Links sorgen, SEO also

Nein:
1. Ist das Crawling vielleicht unterdrückt?
-> robots.txt prüfen, ob vielleicht alles disallowed ist (z. B. User-agent:* disallow:/)
-> Quelltext prüfen, ob vieleicht <meta name="robots" content="noindex, nofollow"> oder nur "noindex" drin steht
-> Gibts den Inhalt vlt. nur mit einer Anmeldung? htaccess prüfen

2. Google Webmastertools einrichten, Google Analytics einrichten, Google Trends verwenden, um die Keywords und deren Suchvolumen beurteilen zu können, beste Keywords in Titel und Inhalt aufnehmen
3. Seite bei Bing manuell anmelden/vorschlagen
 
Jester hat bereits das übliche Vorgehen erklärt:
(1) Zunächst prüfen, ob deine Seite überhaupt indexiert ist
(2.1) Falls die Seite noch nicht indexiert ist, solltest du prüfen, ob das an deinen Website-Einstellungen liegt, zum Beispiel einer robots.txt, welche Indexierung verbietet oder ob der Crawler nur noch nicht deine Seite kennt. Der Crawler erfährt von deiner Seite, wenn sie von anderen Seiten aus verlinkt wird oder indem du manuell eine Indexierung auslöst. Für letzteres kannst du zum Beispiel über die Links, die LadyRavenous gepostet hat, nutzen.
(2.2) Falls die Seite bereits indexiert ist, aber im Ranking an einer schlechten Position, dann kann man sich das Problem genauer anschauen.

Prinzipiell gilt:
SEO ist ein Marketingbegriff und nicht wirklich im Interesse von Google (bzw. anderen Suchmaschinen). Wird dir also die Maßnahme empfohlen, mit der du unmittelbar in die TOP 10 bei google kommst, kannst du davon ausgehen, dass das (a) Abzocke ist und (b) Google dich in absehbarer Zeit dafür abstrafen wird. Häufig spricht man in diesem Zusammenhang dann auch von black SEO. Am Besten ist es, wenn du dir darüber nicht allzu große Gedanken machst. Maßnahmen, welche das Ranking manipulieren, haben in aller Regel ohnehin nur kurzzeitige Wirkung und Suchmaschinenbetreiber ändern regelmäßig ihre Algorithmen, um das Ausnutzen dieser Maßnahmen zu unterbinden. Es ist sinnvoller deine Inhalte passend zu präsentieren, als viel Energie und möglicherweise noch Geld in Manipulation zu stecken.
Andererseits ist es natürlich möglich, Suchmaschinen die Inhalte einer Website 'besser' zu präsentieren und das wiederum ist explizit gewünscht. Das wird in Abgrenzung zu black SEO häufig auch als white SEO bezeichnet.

Wie also präsentierst du deine Webseite so, dass eine Suchmaschine am besten damit klar kommt?
  • Der wichtigste Punkt ist die Struktur: Mit Hilfe von HTML, insbesondere HTML5, ist es möglich eine saubere Struktur deiner Inhalte zu gewährleisten. Artikel, Beiträge, Überschriften, Autoren, Daten etc. können mit Hilfe von HTML als solche gekennzeichnet werden. Auf diese Weise ist es für eine Suchmaschine einfacher, sich auf deiner Webseite zurecht zu finden und eine Analyse durchzuführen.
    Kennzeichnest du beispielsweise auf deinem Blog auf diese Weise, den Autor von Beiträgen und publizierst regelmäßig unter einem bestimmten Pseudonym, dann wird deine Seite natürlich besser gerankt, wenn nach diesem Pseudonym gesucht wird. Das funktioniert natürlich nur, wenn die Suchmaschine "versteht", dass das Pseudonym als Autor eine besondere Rolle auf deiner Webseite spielt.
  • Außerdem können natürlich auch Indexierungs-Regeln (robots.txt) helfen, das Ranking deiner Seite zu verbessern.
    Sind unter und und vielleicht auch identische Inhalte erreichbar, ist es besser der Suchmaschine mitzuteilen, dass sie nur eine dieser Seiten zu indexieren und die anderen zu ignorieren. (Besser wäre es natürlich eine Duplizierung der Inhalte gänzlich zu vermeiden!)
  • Webseiten, deren Inhalte (ausschließlich) mit JavaScript generiert werden, können mittlerweile von Google gelesen werden, allerdings, so meine Information, wirkt sich das negativ auf das Ranking aus.
  • Außerdem rankt Google Seiten, die nicht über eine verschlüsselte Verbindung erreichbar sind (https) ebenfalls ab.
 
  • Thread Starter Thread Starter
  • #10
VIELEN DANK AN ALLE!!!! WAr seither leider nicht online. Werde mir alles durchlesen.
 
Zurück
Oben