Hallo,
ich hatte heute Langeweile und so hab ich mal ein bisschen mit dem Validator von w3.org "herumgespielt", das heißt ich habe mal einige große und bekannte Seiten des Netzes überprüft.
Dabei ist mir erschreckenderweise aufgefallen, dass diese Seiten zum Teil einen sowas von amateurhaften Code habe, da stimmt bei der ein oder anderen Seite gar nichts mehr. Hier mal ein paar Beispiele:
Da ich persönlich sehr großen Wert auf einen "sauberen" Code lege, bin ich einfach nur sehr erschrocken von diesem Ergebnis. Was ist denn daran so schwer, seinen Code sauber zu halten bzw. sauber zu machen, wenn einem der Validator schon so genau jeden Fehler einzeln zeigt?
Würde mal gern eure Meinung darüber wissen :-)
MfG Icy
Edit: Komischerweise zeigt der Validator bei Amazon.de immer unterschiedliche Anzahlen von Errors an (?)
ich hatte heute Langeweile und so hab ich mal ein bisschen mit dem Validator von w3.org "herumgespielt", das heißt ich habe mal einige große und bekannte Seiten des Netzes überprüft.
Dabei ist mir erschreckenderweise aufgefallen, dass diese Seiten zum Teil einen sowas von amateurhaften Code habe, da stimmt bei der ein oder anderen Seite gar nichts mehr. Hier mal ein paar Beispiele:
- Amazon.de (815 Errors)
- Ebay.de (279 Errors)
- YouTube.com (182 Errors)
- MySpace.com (127 Errors)
- Yahoo.de (59 Errors)
- Google.de (43 Errors)
- Microsoft.com (29 Errors)
Da ich persönlich sehr großen Wert auf einen "sauberen" Code lege, bin ich einfach nur sehr erschrocken von diesem Ergebnis. Was ist denn daran so schwer, seinen Code sauber zu halten bzw. sauber zu machen, wenn einem der Validator schon so genau jeden Fehler einzeln zeigt?
Würde mal gern eure Meinung darüber wissen :-)
MfG Icy
Edit: Komischerweise zeigt der Validator bei Amazon.de immer unterschiedliche Anzahlen von Errors an (?)