• Jetzt anmelden. Es dauert nur 2 Minuten und ist kostenlos!

Yahoo indiziert zu wenig Seiten

behalx

Neues Mitglied
Wie kann ich yahoo dazu bringen mehr Seiten zu indizieren? Zunächst indizierte yahoo nur 10 - 12 Seiten. Nachdem ich mich registriert und eine sitemap angelegt habe, hat yahoo ungefähr 30 Seiten indiziert, obwohl ich ungefähr 70 Seiten in der sitemap.xml-Datei angegeben habe. Nach ein paar Pfadveränderungen und der Aufforderung das Feed (sitemap) zu aktualisieren indiziert yahoo nur noch 23 Seiten (seit 4 Tagen). Ich verstehe einfach nicht nach welchem Algorithmus yahoo die Seiten indiziert. Völlig willkürlich werden meist unwichtige Seiten indiziert, die sogar nicht sehr oft referenziert werden.

Was kann ich tun, damit yahoo endlich auch die anderen Seiten indiziert (so wie google)?
 
Werbung:
Hat die Seite ausreichen Backlinks, also andere Webseiten die auf deine Webseite verlinken? Kennt Yahoo diese Seiten alle?
 
Hallo

Ich verstehe einfach nicht nach welchem Algorithmus yahoo die Seiten indiziert.
Das weiß niemand, denn genau das

obwohl ich ungefähr 70 Seiten in der sitemap.xml-Datei angegeben habe
ist in der Regel unerwünscht. Deshalb halten alle Suchmaschinenbetreiber ihre Aufnahmekriterien geheim und passen sie immer wieder an, um Ergebnisspam möglichst zu vermeiden. Deshalb kann es sogar zur Abwertung führen, wenn zuviel getrickst wird.

Die 70 Seiten stellen für die Suchenden in der Regel keine unterschiedlichen Informationen zur Verfügung. Heißt: Wenn eine Seite gefunden wird reicht das für die Suchenden meist aus und er findet die weiteren Seiten von allein oder kann gleich beurteilen, das die anderen Seiten ihm auch nicht weiterhelfen werden.

Hingegen ist es absolut nervig, wenn man bereits nach Aufruf der ersten Seite erkannt hat, das auf dem Auftritt die gesuchten Informationen nicht zur Verfügung stehen, man im Suchergebnis aber trotzdem seitenweise scrollen muss, weil immer wieder auf den gleichen Webauftritt verwiesen wird. Bei Ebay gibt es ein ähnliches Problem, wenn bestimme Anbieter ihre gleichen Artikel 20, 30 mal oder noch häufiger einstellen.

Von daher solltest du dich vielleicht nicht auf möglichst viele Treffer bei den Suchmaschienen konzentrieren, sondern auf eine übersichtliche Aufmachung und Navigation deiner Seiten, damit die Besucher die gesuchten Informationen finden, egal auf welcher Unterseite sie aufschlagen.

Gruss

MrMurphy
 
Werbung:
Hast du in deiner Antwort gesagt, dass es unerwünscht sei >= 70 Links in der Sitemap anzugeben oder hast du gesagt, dass es unerwünscht sei, das der Algorithmus bekannt ist.

Sorry, aber aus deiner Antwort kann ich nicht den geringsten Nutzen ziehen, da du dich sehr allgemein und teilweise unverständlich artikuliert hast. Meine Frage bzw. mein Anliegen: Was muss ich konkret tun, damit yahoo alle bzw. mehr Seiten indiziert? Mehr Content, Backlinks auf die einzelnen Seiten? Backlinks auf die Hauptseite habe ich ja (siehe Signatur)... Hier nochmal der Link:

http://unics.bplaced.net


Sieht dort jmd. Fehler, die speziell yahoo nicht mag?
 
Zuletzt bearbeitet:
Hat die Seite ausreichen Backlinks, also andere Webseiten die auf deine Webseite verlinken? Kennt Yahoo diese Seiten alle?

Ich habe eine gute interne Verlinkung und der Crawler sollte eigentlich alle Seiten problemlos finden können. Und meinst du das jede einzelne Seite Backlinks haben sollte, damit yahoo die Seiten in den Index aufnimmt?
 
Hallo

Hast du in deiner Antwort gesagt, dass es unerwünscht sei >= 70 Links in der Sitemap anzugeben oder hast du gesagt, dass es unerwünscht sei, das der Algorithmus bekannt ist.
Beides. Da der Algorithmus von Yahoo nicht bekannt ist und gegen Tricks wahrscheinlich immer wieder angepasst wird, kann dir deine Frage niemand konkret beantworten können.

Du hast zwar ziemlich viel Zeit und Aufwand in deine Seite gesteckt - aber die Informationen gibt es bestimmt auf 10tausenden von Seiten im Internet, und davon sind viele tausende auch noch informativer. Auf deinen Seiten finden sich nur 08/15-Informationen. Von daher werden die meisten Leute, die deine Seiten über eine Suchanfrage finden, eher enttäuscht sein und sie gleich wieder wegklicken.

Deshalb sind deine Seiten auch für Suchmaschinen eher uninteressant, grade auch, wenn sie relativ weit vorne auftauchen.

wenn man bereits nach Aufruf der ersten Seite erkannt hat, das auf dem Auftritt die gesuchten Informationen nicht zur Verfügung stehen,
Genau das trifft auf deine Seiten zu. Warum sollte eine Suchmaschine die also alle einzeln in ihren Index aufnehmen?

Um es mal deutlich zu sagen: Im Moment gehören deine Seiten zu denen, die die Welt nicht braucht. Von daher solltest du dich auf ein, zwei oder drei Themen konzentrieren und dazu möglichst viele Informationen, Tipps und Tricks zusammentragen anstatt sie künstlich in Suchmaschinen nach oben zu quälen und Leuten, die Informationen suchen, die Zeit zu klauen.

Gruss

MrMurphy
 
Werbung:
Diese Antwort war zu erwarten, nachdem ich dich kritisiert habe. Das solltest du nicht persönlich nehmen. Es war nur ein Hinweis, dass du nicht auf meine Frage "Was kann ich tun, damit...." geantwortet hast. Deine Anschuldigung stimmen nur zum Teil, da ich einige Seiten habe, die unique sind. Und da ich die Seiten auch für mich als Referenz verwende, will ich mich nicht auf wenige Themen konzentrieren, da es mir nicht primär um SEO geht... Ich weiß das sehr viel Content fehlt... es wird nach und nach hinzugefügt, wobei es natürlich zeitaufwendig ist so viele Themen "aufzufüllen".

Wie bereits gesagt: google hat alle Seiten von mir indiziert, selbst Seiten, die nicht in der Sitemap aufgeführt wurden. Das heißt jedoch nicht das ich einen guten PageRank bekomme; das ist mir schon klar. Aber wenigstens die Aufnahme sollte doch möglich sein; zumal ich kein Duplicate Content habe und kein einziger längerer Satz auf anderen Seiten zu finden ist.
 
Werbung:
Das weiß niemand, denn genau das

{maximal 70 Seiten pro sitemap.xml}

ist in der Regel unerwünscht.

Woher hast Du denn das? Es ist völlig egal wieviele Seiten in einer sitemapXML stehen. Ich habe Seiten die liefern 100.000 Adressen per SitemapXML-Format an die verschiedenen Suchmaschinen. Wichtig ist, dass es sich um URLs handelt die jeweils eigenen Content aufweisen. Das spielt aber für das SitemapXML-Format keinerlei Rolle, da das SitemapXML-Format lediglich eine Übergabe der von einer Webseite zur Verfügung gestellten URLs an die Suchmaschinen darstellt. Siehe dazu auch:
sitemaps.org - Startseite

Noch eine Info von Google selbst dazu:
Eine XML-Sitemap-Datei darf höchstens 50.000 URLs enthalten und in unkomprimiertem Zustand höchstens 10 MB groß sein. Falls Ihre XML-Sitemap größer ist, teilen Sie sie in kleinere XML-Sitemaps auf.

Erstellen von XML-Sitemaps - Webmaster-Tools-Hilfe

Ich kann somit keine Grenze von 70 URLs pro SitemapXML erkennen und warne auch davor dies als Grenze anzunehmen.

Ich habe eine gute interne Verlinkung und der Crawler sollte eigentlich alle Seiten problemlos finden können. Und meinst du das jede einzelne Seite Backlinks haben sollte, damit yahoo die Seiten in den Index aufnimmt?

Nein, es reicht aus wenn verschiedene Seiten auf irgendeine URL deiner Webseite verlinkt, im Idealfall die Startseite, muss aber nicht sein. Du solltest diese Links vor allem auf thematisch ähnlichen Seiten setzen. Das erhöht die thematische Gewichtung und freut auch die menschlichen Besucher, da sie ggfs. einen weiterführenden Link zu einem Thema finden welches sie interessiert.

Noch ein Tipp: schau mal nach, ob und wie oft der Yahoo- oder Bing-Bot bei dir vorbei schaut. Bei mir passiert dies meist sogar öfter als durch den Google-Bot. Sollte es bei dir anders sein, deutet es auf eine zu geringe Bedeutung der Seite für diese Bots hin.

Bei deiner Seite unics - Linux, Programmiersprachen, IT-Krams fällt mir auch noch einiges auf:
Umlaute in der URL sind ungünstig. Ändere mal "Über" zu "Ueber". Alle modernen Suchmaschinen erkennen dann anhand der verwendeten Sprache schon den richtigen Zusammenhang und es gibt kein Zeichensatz-Problem beim Einlesen der URLs.

Das hier:
Code:
<meta name="robots" content="all"/>

würde ich an deiner Stelle gleich weglassen. Den robots-Meta-Tag solltest Du nur einsetzen, wenn Du einzelne Seiten für die Indizierung sperren willst (also "noindex,nofollow").

Die Meta-Tags

Code:
<meta http-equiv="expire" content="864000"/>  <!-- Nach 24h soll der Browser vom Originalserver laden. -->
    <meta name="audience" content= "Studenten, Anfänger, Entwickler, Programmierer"/>  
    <meta name="revisit-after" content= "3 days"/>  <!-- Die Search-engine soll nach 3 Tagen "wiederkommen". -->

    <meta name="date" content="22.5.2011"/>

würde ich an deiner Stelle auch weglassen. Diese Infos werden größtenteils von Suchmaschinen gar nicht ausgewertet und haben auch für Browser keine Bedeutung. Das aktuelle Dateidatum kann ein SE-Bot auch aus dem Datum ermitteln, welches der Webserver selbst zurückgibt, das muss man nicht im HTML-Code angeben.

Schau dir auch mal an was ein SE-Bot von deiner Seite sieht: Free SEO Software Tool & Text Browser, Search Engine Optimization Tools - SEO Browser
Ich habe das mal bei einer Seite angeschaut und erkenne da einige Zeichensatzprobleme:
Free SEO Software Tool & Text Browser, Search Engine Optimization Tools - SEO Browser
 
Noch ein Tipp: schau mal nach, ob und wie oft der Yahoo- oder Bing-Bot bei dir vorbei schaut. Bei mir passiert dies meist sogar öfter als durch den Google-Bot. Sollte es bei dir anders sein, deutet es auf eine zu geringe Bedeutung der Seite für diese Bots hin.

Werde ich machen, sobald ich weiß wie das geht. Aber ich gehe jetzt bereits davon aus das diese Seite keine allzu große Bedeutung haben dürfte.

Bei deiner Seite unics - Linux, Programmiersprachen, IT-Krams fällt mir auch noch einiges auf:
Umlaute in der URL sind ungünstig. Ändere mal "Über" zu "Ueber". Alle modernen Suchmaschinen erkennen dann anhand der verwendeten Sprache schon den richtigen Zusammenhang und es gibt kein Zeichensatz-Problem beim Einlesen der URLs.

Habe alle Umlaute entfernt.


Das hier:
Code:
<meta name="robots" content="all"/>
würde ich an deiner Stelle gleich weglassen. Den robots-Meta-Tag solltest Du nur einsetzen, wenn Du einzelne Seiten für die Indizierung sperren willst (also "noindex,nofollow").

Ich hab gelesen, dass <META name="robots" content="index, follow"/> nicht schaden könnte, wobei ich vermute, dass das die Default-Einstellung ist. Habe ich jetzt durch <meta name="robots" content="all"/> ersetzt.

Die Meta-Tags

Code:
<meta http-equiv="expire" content="864000"/>  <!-- Nach 24h soll der Browser vom Originalserver laden. -->
    <meta name="audience" content= "Studenten, Anfänger, Entwickler, Programmierer"/>  
    <meta name="revisit-after" content= "3 days"/>  <!-- Die Search-engine soll nach 3 Tagen "wiederkommen". -->

    <meta name="date" content="22.5.2011"/>
würde ich an deiner Stelle auch weglassen. Diese Infos werden größtenteils von Suchmaschinen gar nicht ausgewertet und haben auch für Browser keine Bedeutung. Das aktuelle Dateidatum kann ein SE-Bot auch aus dem Datum ermitteln, welches der Webserver selbst zurückgibt, das muss man nicht im HTML-Code angeben.

revisit-after und expire habe ich weggelassen. audience kann sicherlich nicht schaden und date brauche ich, da das von mir angegebene Datum auch in den Suchergebnissen vorkommt und dieser Wert nicht immer mit dem tatsächlichen Wert übereinstimmt, da ich z.B. irgendwann noch ältere Dateien hochladen könnte und der Server dadurch falsche Werte ermitteln würde.

Schau dir auch mal an was ein SE-Bot von deiner Seite sieht: Free SEO Software Tool & Text Browser, Search Engine Optimization Tools - SEO Browser
Ich habe das mal bei einer Seite angeschaut und erkenne da einige Zeichensatzprobleme:
Free SEO Software Tool & Text Browser, Search Engine Optimization Tools - SEO Browser

Das lag vermutlich an einem Relikt. Früher ersetzte ich per Hand noch alle Umlaute in die entsprechenden Sonderzeichen (zB. "ö" => "&ouml;), aber da ich utf-8 nutze brauche cih das nicht mehr. Jetzt erkennt das Tool die Umlaute richtig.

Danke für die vielen Tipps. Ob es geholfen hat wird sich erst wohl in ein paar Tagen zeigen :|
 
Ja, robots auf "index,follow" zu setzen kann hilfreich sein, ist aber keine Pflichtangabe da dies bereits der Standard-Wert ist mit dem die Bots arbeiten (außer ein Eintrag in der robots.txt verbieten es. Ich würde es dennoch weglassen, insbesondere wg. "all", da ich nicht weiß wie Yahoo- oder Bing-Bots damit umgehen.

Apropo robots.txt: deine sieht auch merkwürdig aus: http://unics.bplaced.net/robots.txt - ergänze mal nach der ersten Zeile noch

Code:
Allow: *

womit Du jeglichen Zugriff für alle Bots auf alle Seiten freischalten würdest. Das disallow danach schließt dann einzelne Seiten von diesen Freigaben wieder aus.
 
Werbung:
Doofe Frage: Dir ist klar, dass Yahoo in Deutschland einen Marktanteil von unter 4% hat? Da kriegste nur nennenswert Besucher drüber, wenn du für "Sex" oder "Robbie Williams" auf Rang 1 bist.
 
Ich denke das alle einmaligen Optimierungen, die einen einen permanenten positiven Effekt auf die Besucherzahlen haben könnte sich lohnt, egal wie marginal dieser Effekt sein mag.
 
Werbung:
Ich habe auch das Problem das yahoo nur sehr wenig Seiten im Index hat. Ich schätze mal wenn Google die Seiten alle findet kann es für den Yahoo crawler nicht um so viel schwerer sein.

Vielleicht muss ich aber einfach nur noch ein bisschen an der externen Backlinkstruktur basteln
 
Zurück
Oben