Viele SEO-Tools weisen nach einem Validitätscheck die Anzahl der HTML-Fehler auf einer Website aus. Dahinter steht die Annahme, dass valider, also gemäß den Standards des W3C-Konsortiums, formulierter Code ein Qualitätsmerkmal sei, das „gute“ Webseiten von „schlechten“ Webseiten unterscheiden hilft. Auch wenn valider HTML-Code in einer idealen Web-Welt höchst wünschenswert ist, in der Praxis finden wir viele, viele nicht-W3C-konforme Seiten. Schadet das dem, Suchmaschinenranking?
Die standardkonforme HTML-Codierung ist technisch relativ leicht überprüfbar, vielleicht nutzen viele SEO-Tools diese Möglichkeit deswegen, aber auf Vorteile hinsichtlich der Platzierung in Suchmaschinen wie Google sollte man sich als Webseitenbetreiber wohl keine allzugroßen Hoffnungen machen.
Eine entsprechende Webmasteranfrage hat Matt Cutts von Google mit diesem Tenor beantwortet.
Seiten mit nicht validem Code werden von Google nicht abgestraft, weil das Web voller invalider Seiten ist. Allerdings klingt auch in diesem Video an, dass es durchaus Zusammenhänge zwischen standardkonformen Websites und der Seitenperformance gibt (Seitenladegeschwindigkeit, positive Nutzererfahrung, Barrierefreiheit können solche Kriterien sein).
Jeder Websitebetreiber kennt das Problem: Alle Fehler, die der Validator von W3C ausweist zu korrigieren, ist ein langwieriger Prozess. Besonders schwierig wird das, wenn externer Code auf der Site eingebunden ist. Die Art der Einbindung hat man oft wenig unter Kontrolle.
Es ist umgekehrt keine gute Idee, die Konformität und die Code-Standardisierung völlig außer Acht zu lassen, auch wenn die heutigen Browser sehr tolerant mit diesen Fehler umgehen. Unter Umständen zeigen sich eben doch Unterschiede zwischen diversen Browsern, so dass die gleiche Website mit verschiedenen Browsern höchst unterschiedlich dargestellt werden, weil nicht-valider Code unterschiedlich interpretiert wird.