Blog Jvanderlinde.net
Insights & meer

Het W3C valide maken van websites

W3C is het internet standaard die voorschrijft, hoe het internet qua code eruit moet komen te zien. Denk aan HTML 4, HTML 5, CSS 2, CSS 3 en dergelijk. Zij bepalen in het kort hoe websites en code structuur eruit moet komen te zien voor een globaal en goed werkend internet. Echter omdat er vroeger veel verschil in browsers zoals Internet explorer, Firefox en Chrome ieders hun eigen definitie maakte van hoe een website getekend zou moeten worden, is er enorm veel choas op het internet ontstaan. Moet je nou wel of niet W3C valide je website maken? En heeft het nog voordeel op gebied van SEO en zoekmachines?

 

Deze vraag is inmiddels duizenden keren gesteld. Persoonlijk ben ik voorstander van het bouwen van websites die voldoen aan de W3C validator. Een voorbeeld hiervan is de website van Escort Service Benelux met de link naar Validator Check. Het onderschrijft dat de website voldoet aan de laatste standaard van W3C validator en in theorie zou de website naar behoren op ieder apparaat (die zich ook houdt aan die standaard) moeten werken. Of dat nu Internet explorer, Safari, Firefox of Chrome is, het renderen zou zonder problemen plaats moeten vinden en zeker geen gebruik van hacks. In een eerdere video met Matt cuts beantwoorden zij de vraag over W3C validatie:

 

 

De video is weliswaar uit 2011, ruim 8 jaar oud, maar het gaat nog steeds op dat google validatie (niet) belangrijk genoeg vindt. Er zijn websites die ranken en bijna uit elkaar breken van ellende. Denk aan facebook bijv. Als je in een ingelogde sessie de paginacode van Validate by input W3C facebook rost dan kom je op meer dan 70 validatiefouten uit. Sommige zijn zelfs zo extreem dat je je afvraagt hoe de pagina nog functioneren kan. Als er een dag komt dat validatie en bijv Insights Optimalisatie belangrijker wordt dan zijn de gemaakte websites in opdracht van klanten door mij er zo goed als klaar voor. Ik vindt dat goede code en snel ladende websites van belang zijn.

 

Merendeels van sitebuilders zoals een gratis website, wordpress of andere CMS'en die je openlijkt kunt gebruiken bevatten vaak thema's die of gratis of tegen betaling te verkrijgen zijn. Het komt met regelmaat voor dat sitebuilders een legio van validatie fouten hebben, en toch goed blijven ranken. Het is jammer dat niet iedereen toch de nadruk op goede validatie en snelheid legt. Dat is namelijk de grondslag naar mijn mening voor een snel en goed presterend internet. De overhead wordt gestript, de hacks van browsers worden minder en we hebben minder snel een upgrade qua servers of pc's nodig om nieuwe veranderingen bij te kunnen houden.

 

Deze beweging is natuurlijk al actief. AMD bijv, welk een chip maker van o.a processoren en grafische kaarten is, legde de basis voor Mantle. Mantle is een programmeerbasis dat het programeren dichter bij de chip weerlegt en minder afhankelijk is van software omgevingen. Mantle is later omgezet in o.a Vulkan en DirectX 12 is een eigen aftakking van Microsoft hiervan. In het kort kon men met oudere hardware toch betere prestaties zetten op een manier dat de overhead tussen hard en software zoveel mogelijk wegneemt. Wanneer het internet dit wat meer zou gaan doen hebben we minder enorme clouds nodig, minder snelle toestellen of PC's in de eerste plaats.

 

Tot die tijd dat websites met een spaghetti van code nog operationeel zijn en toch goede ranking(s) kunnen genieten, zal die verandering ook niet komen nog. Wellicht dat google meer met insights en validatie zou kunnen gaan doen. Het optimaal bouwen van je website(s) is een mandatory in mijn inziens en het brengt meer voordeel dan dat je zou denken. Enkele klanten zoals Desire Escorts genieten jarenlange top posities binnen de zoekmachines. Aan optimalisatie, snelheid en uptime ontbreekt het niet. Gewoon gebouwd zoals het hoort dus.