Das weiß niemand, denn genau das
{maximal 70 Seiten pro sitemap.xml}
ist in der Regel unerwünscht.
Woher hast Du denn das? Es ist völlig egal wieviele Seiten in einer sitemapXML stehen. Ich habe Seiten die liefern 100.000 Adressen per SitemapXML-Format an die verschiedenen Suchmaschinen. Wichtig ist, dass es sich um URLs handelt die jeweils eigenen Content aufweisen. Das spielt aber für das SitemapXML-Format keinerlei Rolle, da das SitemapXML-Format lediglich eine Übergabe der von einer Webseite zur Verfügung gestellten URLs an die Suchmaschinen darstellt. Siehe dazu auch:
sitemaps.org - Startseite
Noch eine Info von Google selbst dazu:
Eine XML-Sitemap-Datei darf höchstens 50.000 URLs enthalten und in unkomprimiertem Zustand höchstens 10 MB groß sein. Falls Ihre XML-Sitemap größer ist, teilen Sie sie in kleinere XML-Sitemaps auf.
Erstellen von XML-Sitemaps - Webmaster-Tools-Hilfe
Ich kann somit keine Grenze von 70 URLs pro SitemapXML erkennen und warne auch davor dies als Grenze anzunehmen.
Ich habe eine gute interne Verlinkung und der Crawler sollte eigentlich alle Seiten problemlos finden können. Und meinst du das jede einzelne Seite Backlinks haben sollte, damit yahoo die Seiten in den Index aufnimmt?
Nein, es reicht aus wenn verschiedene Seiten auf irgendeine URL deiner Webseite verlinkt, im Idealfall die Startseite, muss aber nicht sein. Du solltest diese Links vor allem auf thematisch ähnlichen Seiten setzen. Das erhöht die thematische Gewichtung und freut auch die menschlichen Besucher, da sie ggfs. einen weiterführenden Link zu einem Thema finden welches sie interessiert.
Noch ein Tipp: schau mal nach, ob und wie oft der Yahoo- oder Bing-Bot bei dir vorbei schaut. Bei mir passiert dies meist sogar öfter als durch den Google-Bot. Sollte es bei dir anders sein, deutet es auf eine zu geringe Bedeutung der Seite für diese Bots hin.
Bei deiner Seite
unics - Linux, Programmiersprachen, IT-Krams fällt mir auch noch einiges auf:
Umlaute in der URL sind ungünstig. Ändere mal "Über" zu "Ueber". Alle modernen Suchmaschinen erkennen dann anhand der verwendeten Sprache schon den richtigen Zusammenhang und es gibt kein Zeichensatz-Problem beim Einlesen der URLs.
Das hier:
Code:
<meta name="robots" content="all"/>
würde ich an deiner Stelle gleich weglassen. Den robots-Meta-Tag solltest Du nur einsetzen, wenn Du einzelne Seiten für die Indizierung sperren willst (also "noindex,nofollow").
Die Meta-Tags
Code:
<meta http-equiv="expire" content="864000"/> <!-- Nach 24h soll der Browser vom Originalserver laden. -->
<meta name="audience" content= "Studenten, Anfänger, Entwickler, Programmierer"/>
<meta name="revisit-after" content= "3 days"/> <!-- Die Search-engine soll nach 3 Tagen "wiederkommen". -->
<meta name="date" content="22.5.2011"/>
würde ich an deiner Stelle auch weglassen. Diese Infos werden größtenteils von Suchmaschinen gar nicht ausgewertet und haben auch für Browser keine Bedeutung. Das aktuelle Dateidatum kann ein SE-Bot auch aus dem Datum ermitteln, welches der Webserver selbst zurückgibt, das muss man nicht im HTML-Code angeben.
Schau dir auch mal an was ein SE-Bot von deiner Seite sieht:
Free SEO Software Tool & Text Browser, Search Engine Optimization Tools - SEO Browser
Ich habe das mal bei einer Seite angeschaut und erkenne da einige Zeichensatzprobleme:
Free SEO Software Tool & Text Browser, Search Engine Optimization Tools - SEO Browser