Im neuesten WebmasterHelp-Video bei YouTube geht Matt Cutts auf die Frage ein, ob der Googlebot beim Crawlvorgang auf valides HTML achtet. Sollen Seitenbetreiber nach wie vor Energie und Zeit darauf verwenden, um Webseiten valide zu machen?


(YouTube-Direktlink)

Matt führt zunächst die Vorteile einer validen HTML-Struktur auf. Seiten sind einfacher zu warten und Upgrade-Prozesse laufen in der Regel problemfreier — der Code ist zudem besser nachvollziehbar für andere Entwickler/Designer. Für den Googlebot ist valides HTML allerdings nicht von großer Bedeutung; einen Rankingverlust schließt Matt gleich ganz aus. Google müsse „mit dem Web arbeiten, das wir haben — nicht mit dem, das wir wollen“. Wenn Google nur valide Seiten in den SERPs hätte, würde die Search Quality stark darunter leiden. Gründe für valides HTML gibt es genug, ein Rankingvorteil ist dadurch aber nicht gegeben.