Laadsnelheid pagina's gaat meewegen bij mobiele Google-zoekopdrachten

Google heeft aangekondigd dat de laadsnelheid van pagina's vanaf juli meeweegt bij de weergave van zoekresultaten op mobiele apparaten. Daardoor kunnen langzame pagina's lager in de resultaten terugkomen, al zegt Google dat de gevolgen klein zullen zijn.

Google schrijft dat het de laadsnelheid van een pagina tot nu toe vooral liet meetellen bij zoekopdrachten op de desktop. Daar moet over ongeveer een half jaar verandering in komen. Door een 'speed update' uit te voeren, laat Google deze weging ook meetellen bij mobiele zoekopdrachten.

"De update zal alleen effect hebben op de langzaamste pagina's en heeft slechts gevolgen voor een klein percentage van de zoekopdrachten", aldus het bedrijf. Zo kan een langzame pagina alsnog hoog in de resultaten eindigen als hij zeer relevante informatie bevat voor de uitgevoerde zoekopdracht. De methode om de resultaten te rangschikken maakt volgens de zoekgigant geen onderscheid op basis van de techniek waarmee een pagina is gebouwd.

Daarmee doelt het bedrijf wellicht op zijn amp-techniek, die tot versnelde en versimpelde, mobiele html-pagina's moet leiden door veel code te strippen en alleen standaardbannerformaten toe te staan. Google zegt tegen Search Engine Land dat langzame amp-pagina's alsnog lager in de resultaten getoond kunnen worden.

Door Sander van Voorst

Nieuwsredacteur

18-01-2018 • 11:43

73

Reacties (73)

73
72
45
3
0
15
Wijzig sortering
Anoniem: 1026227 18 januari 2018 12:37
Laadsnelheid is al geruime tijd onderdeel van het zoekalgoritme van Google. Google heeft niet voor niets het begrip 'pagespeed' geintroduceerd en er zelf een online tool voor ter beschikking gesteld op https://developers.google.com/speed/pagespeed/insights/.

Je krijgt dan niet alleen de pagespeed waarde te zien (0-100) maar ook wat er aan de site verbetert kan worden om deze sneller te laten laden.

Een snelle site wordt als gebruiksvriendelijk gezien en Google's algoritmes bepalen steeds meer de positie op basis van gebruiksvriendelijkheid naast natuurlijk content, links en Social Media signalen.

[Reactie gewijzigd door Anoniem: 1026227 op 26 juli 2024 11:57]

Mooi hiervan vind ik Google's eigen resources niet voldoen aan de Pagespeed richtlijnen.
Als je analytics gebruikt gaat je score omlaag. Wel eerlijk :)

[Reactie gewijzigd door Anoniem: 200498 op 26 juli 2024 11:57]

Had al een paar keer een "SEO specialist" aan de lijn die die tool gebruikte en melde dat de website sneller moet.
Of ik even de Pagespeed fouten (Google's eigen resources) wilde oplossen 8)7

Dus, ja echt super fijn om te weten welke "SEO specialist" door de mand valt :)

[Reactie gewijzigd door DJMaze op 26 juli 2024 11:57]

Anoniem: 200498 @DJMaze18 januari 2018 16:00
Haha, mooie tool daarvoor ja.
Alleen als er een management-laag tussenzit die geen technische kennis heeft, wordt het soms lastiger.

Ik vind het op een zekere manier net zoiets als een geautomatiseerde website penetratietest niet-geïnterpreteerd doorsturen.

Kreeg ooit aantijgingen over veiligheid m.b.t. XSS e.d. terwijl het over een ip-whitelisted "interne" website ging. (i.v.m. het missen van een cross-origin-policy)
Moeilijk uit te leggen aan een "normaal mens", dus ja..
nee hoor, dan ga je gewoon met die persoon de meeting in,
laat je hen uitleggen wat het probleem is, blijf gewoon helemaal kalm, en nadat deze persoon klaar is, stel je gewoon haarfijn voor: "ok, 2 opties, wil je dat ik google contacteer dat hun software niet goed is, of gaan we de hele software stack zelf overnieuw maken?"

de SEO staat dan gewoon flink in de modder.
Het is een hele rare en vreemde tool. Zoals je zegt kijkt hij niet naar de resources, en vraagt hij om bijv. Adwords of Analytics op een manier in te laden dat de functionaliteit hieronder lijdt (in ieder geval Analytics) maar de Pagespeed versie neemt naar mijn weten de daadwerkelijke laadsnelheid niet mee in zijn berekening. Alleen de grootte vn de websites, hoeveel bronnen die moet checken, etc.

Zo kan je een hele lage pagespeed krijgen, maar test je je site op een "normale" checker zoals https://tools.pingdom.com/ dan krijg je daar gewoon scores uit die relevant zijn aan je website.

Nee wat dat betreft heb ik echt een pleurishekel aan de pagespeed tool van Google.
Fijne toevoeging, zeker voor de wat minder moderne mobieltjes. Ik hoop ook dat Google de laadsnelheid van advertenties mee gaat rekenen, want veel webpaginas zijn onbruikbaar totdat de banners in zijn geladen. Ook Tweakers maakt(e) zich hier schuldig aan :(
Tweakers laadt juist de advertenties asynchroon, waardoor dit parallele processen zijn. Snap dan ook niet precies het probleem wat je tegenkomt. Het enige irritante vind ik soms dat elementen soms ineens verspringen, omdat Tweakers niet altijd vantevoren weet of er een advertentie geserveerd gaat worden willen ze dit helaas niet als extra witruimte inbouwen.
Dat verspringen van elementen is ook wat ik bedoel. Het is technisch misschien niet helemaal eerlijk om dat te kwalificeren als laadsnelheid, maar als de pagina elke keer wanneer ik de website bezoek na een seconde verspringt kan ik in die seconde niets met die geladen content. Vandaar dus mijn reactie dat ook Tweakers zich hier schuldig aan maakt, ik heb dan liever het scenario waarbij er bij elke page serve een advertentie word geleverd.
Je stelling van onbruikbaar vind ik dan wat te sterk aangezet, ik kan dan prima de content tot me nemen. Ik vind het vooral irritant op het forum, waar je dan daadwerkelijk ongewild op de advertentie klikt in plaats van op de koppelingen, omdat in tussentijd ineens de advertentie opdook. Dat is zowel ongewenst voor de adverteerder als voor de gebruikservaring van de bezoeker. Al heb ik dit voornamelijk op een computer, omdat daar alles zo snel laadt dat je al aan het navigeren was toen de advertentie nog eens kwam. Op een mobiel apparaat ben ik zelf vaak ook een fractie slomer.
Dat gebeurt me denk ik ongeveer iedere keer als ik een telefoon aanzet, terwijl er toch niks mis is met mijn timing en accuratesse. Je zou bijna denken dat ze het erom doen. Gruwelijk irritant, ja.
Ik wist helemaal niet dat dit uberhaupt mee telde. Is er een optie om dit af te zetten of een zoekopdracht code of zo?
Het hele algoritme van Google is wazig. Er worden veel veel onderdelen bij betrokken, maar niemand weet precies welke. Natuurlijk zijn de belangrijkste wel bekend, zeker bij de SEO-specialisten. Het algoritme is ook niet vast. Onderdelen kunnen zomaar belangrijker worden. De laadsnelheid (gemeten op een desktop) is al langer een bekend onderdeel. Van de mobiele sites werd dat wel vermoed, maar dat blijkt dus nog niet zo te zijn.
Elke gebruiker moet het doen met het algoritme zoals Google dat op dat moment in elkaar heeft geknutseld. Er is geen enkele mogelijkheid om daar zelf iets in te kunnen stellen. Je kan alleen filteren welke talen in het resultaat opgenomen moeten worden.
Bedoel je als gebruiker? Ik vermoed het niet, en als website-beheerder natuurlijk helemaal niet. Dat zou tegen het hele idee ingaan.
Wat als er op dat moment een storing is of een DNS takedown weegt dit ook mee?

Denk verder een logische stap dit moet ook meewegen met het bezoeken van website's, gaan ze dit ook voor HTTPS pagina's doen en dergelijke?
Waarschijnlijk word het meerdere keren geprobeerd zodat er een goed up to date beeld ontstaat.
Ook houdt Google Analytics voor zover ik weet al automatisch de laad tijden bij, dus deze data kan gewoon al gebruikt worden.
Ik vraag mij af wat je bedoelt met 'deze data kan gewoon gebruik worden'?
Er zijn ook een hoop websites die geen gebruik maken van Analytics
Nee, Google Analytics data wordt hier niet voor gebruikt, anders zou ik die per direct manipuleren en laadtijden van 1ms doorgeven, ja, dat kan gewoon. Het Google crawlteam heeft absoluut geen beschikking over die data, en zouden dat zelf ook niets eens willen omdat het te makkelijk te manipuleren is. Ze renderen pagina's gewoon zelf met een oude Chrome versie en die meet vervolgens hoe lang dat duurde.
Waarom zou je dit aannemen? Alleen maar zodat je je niet druk hoeft te maken om een outage? Ik zou zeggen dat het wél meeweegt, want een site die er uit ligt, is natuurlijk niet een site die je wil bezoeken.
Dat zou goed werken als de Google Crawler elk uur langskomt, maar dat is natuurlijk niet zo.
Dus als je ten tijde van crawlen down bent is het niet gewenst dat je direct 10 plaatsen lager in de Google Results staat voor de komende paar dagen. Crawlen gebeurt ook 's nachts namelijk, en dan wordt er nog wel eens onderhoud gepleegd op websites.

[Reactie gewijzigd door Afvalzak op 26 juli 2024 11:57]

Onderhoud mag natuurlijk niet betekenen dat een website volledig onbereikbaar is. Als dat de browser zegt, "server not found" of iets dergelijks. Een onderhoudspagina is het minste wat je mag verwachten, en die laadt natuurlijk heel snel (tenzij je 4chan of slashdot bent en iedereen zit te F5'en :))
En is dat inclusief reclame? Menig site met sterke adblocker laad in ~0.5seconde. Zet je blokker uit, tel daar 3-4 seconde bij op.
Ik denk dat ze naar de server-side tijden en niet zozeer naar de cliënt-side rendering van de pagina, dat is namelijk voor elk systeem weer verschillend. Bovendien wordt op een beetje moderne website de reclame asynchroon ingeladen en hoef je niet daadwerkelijk te wachten op advertenties, maar wordt de rest alvast geladen.
niet zozeer naar de cliënt-side rendering van de pagina, dat is namelijk voor elk systeem weer verschillend
Google is behoorlijk narcissistisch, dus ze zouden best een headless Chrome kunnen gebruiken voor een dergelijke meting.
Laadsnelheid van de pagina of van de getoonde reclame?
Ja het is maar de vraag wat ze onder laadsnelheid verstaan. Tijd tot de html van de gevraagde pagina binnen is? Tijd tot alle resources ook binnen zijn? Tijd tot DOMContentLoaded? Tijd tot window.onload? Tijd tot eerste render?
Anoniem: 420461 18 januari 2018 11:51
Heerlijk - dat wordt weer wekenlang luisteren naar hordes zelfbenoemde SEO-guru's die beweren dat je uit de zoekresultaten geknikkerd wordt als je pagina er meer dan 2 seconden over doet, en vruchteloos proberen uit te leggen aan hun klanten dat dat echt niet het geval is. :)
Nou ja het is al veel langer aangekondigd als ranking factor in de zoekindex, dus de zogenaamde guru's hebben zeker wel een punt dat dit zeker wel een punt van aandacht mag zijn. 2 seconden vind ik anno 2018 ook wel lang te noemen.
Anoniem: 420461 @MsG18 januari 2018 14:22
Is het ook, ik doelde meer op de ongetwijfeld zwaar overtrokken reacties die dit soort berichten in dat wereldje meestal teweeg brengen. Het betreft alleen de allerlangzaamste pagina's, en maar een klein percentage van de zoekopdrachten, maar ondanks dat zul je adviezen zien om die 0,6 seconden toch zo snel mogelijk naar 0,5 of 0,4 aan te passen, want ermahgerd, anders word je door Google gekickt! ;)

[Reactie gewijzigd door Anoniem: 420461 op 26 juli 2024 11:57]

Mijn site heeft een preloader animatie; zal dit voor conflicten zorgen of staat dit er los van?
Als het laden van je website zo lang duurt dat je daadwerkelijk een preloader animatie nodig hebt, dan zou ik mij sowieso zorgen maken.

Naast dat het irritant is, zorgt de animatie zelf er ook zeker niet voor dat het sneller laad.
Op zich wel logisch dat het mee gaat tellen.
Niks is zo irritant dan trage websites. Ik zie tegenwoordig zoveel websites die stijf staan van plaatjes en/of JS script en zo traag als stront door een trechter zijn.
Ik vraag me af hoe ze de snelheid meten en wat er juist moet ingeladen worden, heel uw pagina of tot aan de pagefold? Enkel tekst + html of ook 300dpi images, alle scripts?

Soms laden sites zaken in de achtergrond in op een snappy interface te garanderen maar werk je daar als gebruiker niets van. Ondanks dat de pagina lang aan het inladen is zal het toch snel aanvoelen.

Ik heb een webbedrijf en afhankelijk van het budget focussen we hard op laadtijden. Niet zozeer om Google te pleasen maar omdat we van mening zijn dat sites zoals apps moeten aanvoelen —> Snappy gebruikerservaring. Niemand wacht graag en daarom ben ik voorstander van Google amp!

Door gebruik te maken van static site generators, html prerendering, React, Angular5, server caching, CDN’s zodat site overal ter wereld snel gaat, headless cms enz.

Voor haacht.com (nee ik wil absoluut geen reclame maken, gewoon een voorbeeld geven) maken we gebruik van bovenstaande technieken. Ondanks de vele afbeeldingen en video’s gaat de site nog snel. Stack: React, Gatsby, contentful, netlify.
Goede opmerking. Zeker bij flink grote single page applications kan de initiële laadtijd flink zijn als er naïef wordt omgegaan met het laden van data of modules. Lang laden is toch een negatieve ervaring voor de gebruiker, dus op zich prima dat Google hier (meer) rekening mee houdt.
Vind de website in het begin traag laden. Kijk eerst tegen een witte pagina aan. Pas daarna is hij wel redelijk snappy...

Op dit item kan niet meer gereageerd worden.