Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 54, views: 18.503 •

Google heeft Spdy, een protocol dat deels het http-protocol vervangt en beter zou presteren, ingediend bij de Internet Engineering Task Force. De zoekgigant hoopt dat Spdy door de organisatie wordt omarmd als een internetstandaard.

De Spdy-specificatie werd in 2009 door Google gepubliceerd als een opensource-netwerkprotocol. Het protocol is onder andere geïmplementeerd in de Chrome-browser, terwijl Firefox vanaf versie 11 Spdy zal ondersteunen. Spdy heeft tot doel om websites binnen de browser sneller in te laden door aanvullingen op het http-protocol. Zo wordt datacompressie toegepast op de header en met behulp van multiplexing kunnen een onbeperkt aantal requests over één verbinding worden gemaakt. Ook wordt prioritering uitgevoerd en het is mogelijk om data vanaf een server naar een client te pushen zonder dat de browser een request heeft gestuurd.

Google, dat al langer aangaf er naar te streven om van Spdy een internetstandaard te maken, heeft zijn creatie inmiddels voorgedragen aan de IETF. Deze organisatie is al bezig met het http 2.0-protocol en de kans is aanwezig dat Spdy - inmiddels aangekomen bij versie 3.0 - of delen daarvan in deze specificatie worden opgenomen. IETF-leden kunnen tot 4 augustus commentaar indienen op de 'draft-mbelshe-httpbis-spdy-00'-draft.

Reacties (54)

Het lijkt me dat de belangrijkste reden dat Google moeite doet voor dit protocol is dat daarmee content (spam blurb) gepushed ca worden naar je browser. Straks kun je dan geen browser openen zonder meteen into-you-face adds te krijgen.

De efficiëntieverbetering ten opzichte van http: is naturrlijk erg welkom voor datacenters, dat spaart veel energie in internetverkeer en energie is hun belangrijkste kostenpost. (power=money). Voor Google Search zal dit niet helpen, dat zijn toch voornamelijk kortere pakketjes. (geen streams of heftig parallelle zaken)

just my $0.02, feel free to comment
Mwah, Spdy is toch meer een lapmiddel voor iets wat zogenaamd de gebruikerservaring moet verbeteren door meer snelheid te bieden. In praktijk zal het weinig uitmaken omdat site-beheerders krenterig bandbreedte ter beschikking stellen.

Neem even Tweakers als voorbeeld met hun pagineren van forums. Wanneer ik op "volgende pagina" klik wordt de volgende pagina pas ingeladen. Dat zal met Spdy maar een fractie sneller gaan.

De echte oplossing voor verbeterde gebruikerservaring ligt in het alvast inladen (pre-fetching) van alle mogelijke volgende pagina's, ook als die mogelijk niet bezocht gaan worden. Nagenoeg iedere PC heeft bandbreedte en geheugen om alle te pre-fetchen, alleen zijn sites te beroerd om dit te implementeren omdat het iets meer bandbreedte kost.
De meeste bezoekers zijn ongetwijfeld ook te beroerd om advertenties te tonen en blokkeren ze. Niet dat het de oorzaak is van 'krenterig' zijn maar vind dat een beetje vreemd verwijt.

Het is ook flink meer dan een "beetje" extra bandbreedte dat je vraagt. Voorbeeldje van de javascript code "document.getElementsByTagName( 'a' ).length;" op de voorpagina van tweakers.net (lang leve Firebug).
383 resultaten.. goed, je zou daar wat logica aan kan toevoegen zoals het er uit filteren van duplicaten en enkel de links uit de huidige viewport. Maar voeg daar dan weer aan toe de CSS/JS bestanden die voor die pagina's nodig zijn.. het zijn en blijven wel een hele hoop extra connecties.

[Reactie gewijzigd door Xthemes.us op 25 februari 2012 16:42]

Sitebeheerder willen het niet implementeren? Niet echt vreemd omdat de voordelen nihil zijn als je server voldoende capaciteit heeft. Of je nu 0.05 of 0.01 seconden moet wachten op de volgende pagina lijkt me niet echt relevant.

En verder lijkt een dergelijke aanpak me meer iets wat in een browser geïmplementeerd dient te worden. In de meest naïeve aanpak zou de browser domweg alle links kunnen inladen bij het openen van een pagina. Een iets slimmere aanpak zou de muiscursor tracken en de links in de richting van het muispijltje gaan preloaden voordat er op de link geklikt is. Dan heb je direct een cross-domain aanpak in plaats van dat het per site geïmplementeerd zou moeten worden, en kan het alleen gebruikt worden voor hen die überhaupt behoefte heeft aan een dergelijke minieme snelheidswinst. Mocht je nu op een dial-up/3G lijntje zitten lijkt het me fijn dat je de mogelijkheid hebt om dergelijke functionaliteit in je browser uit te zetten om dataverkeer binnen de perken te houden.
alleen zijn sites te beroerd om dit te implementeren omdat het iets meer bandbreedte kost.
Ik zou een factor 5 meer bandbreedte verbruikt (ongeveer) nou niet 'iets meer' noemen...
Niet alleen de bandbreedte is een beperking coor data centers, maar met name het energieverbruik. Als elke pagehit automatisch een aantal paginas prefetch tot gevolg heeft, gaat het dataverbruik bijvoorbeeld 5x omhoog. asl dat nog binnen de bandbreedte past, hoeft dat niet noodzakelijkerwijs een probleem te zijn. Het energieverruik gaat echter ook omhoog, weliswaar met veel minder dan een factor 5, maar dat zijn directe kosten voor het datacentre.
Ik hoop dat de IETF kritisch kijkt en niet als kip zonder kop de hele spdy overneemt. Ik vertrouw Google niet zo en als Google dan álles wat met http te maken heeft gaat overnemen zit ik daar niet zo op te wachten.
Hoezo paranoia? 8)7

Google heeft een gigantische praktijkervaring met het HTTP protocol en kan dus daar vanuit die verbeteringen aandragen. En dat doen ze dus ook.

Het leunt gewoon op hun motto:

"Don't be evil."

Ik weet dat het bij sommige dingen die ze doen er niet vanaf te grijpen is, maar bij een case als deze doen ze het (mijn inziens..) écht vanuit goodwill en omdat hun een hoop resources zoals CPU cycles en terabytes aan dataverkeer per jaar scheelt.
Don't be evil is een slogan van google zefl.

Google is gewoon hartstikke Evil.
Jaja, don't be evil... mijn neus! Net zoals Motorola (nu het al bijna praktisch van Google is) het nu ineens speelt. Als puntje bij paaltje komt blijken ze alles flink gepatenteerd te hebben en willen ze 2,5% van alle opbrengsten. Ja, het is mooi met ze.
Volgens mij heeft Google nog niet veel te zeggen over Motorola ;)

Ze kunnen wel al plannen maken, maar dat kan nog niet uitgevoerd worden.

+ Ze gaan idd het spelletje meespelen, nadat ze overal aangevallen worden door Microsoft en Apple. Dat kun je hen moeilijk kwalijk nemen, daarvoor hebben ze Motorola (11 miljard) ook gekocht.
Dat zal nooit het geval zijn. Iedere RFC valt binnen een kader waarin staat geschreven dat alle ideeen die in de RFC worden beschreven, door de auteurs aan "de community" worden geschonken. Nooit gedoe met patent-recht.

[Reactie gewijzigd door gryz op 25 februari 2012 00:36]

Ook wordt prioritering uitgevoerd en het is mogelijk om data vanaf een server naar een client te pushen zonder dat de browser een request heeft gestuurd.
Hmm, dit lijkt me als eindgebruiker toch niet echt wenselijk?
Of op zijn minst een extra risico ivm security...
Mooi lek in een browser en de benodigde data om het te misbruiken kan zonder request van de browser verstuurd worden.

Hopelijk (waarschijnlijk) hebben de mensen van google hier ook wel aan gedacht...
Is snelheid het enige voordeel van Spdy t.o.v http?
SSL is standaard, dus het is veiliger:)
SSL is ook standaard bij https
Zijn er voorbeelden van dit soort pagina's? Is het dan zoiets als spdy://www.webpagina.nl?

Of zie ik het nu verkeerd?
Ik vroeg me ook al af hoe de browser weet dat hij SPDY kan gebruiken ipv HTTP. Na een tijdje gezocht te hebben vond ik het: TLS Next Protocol Negotiation (http://technotes.googlecode.com/git/nextprotoneg.html).

In de basis komt het er op neer dat wanneer je een HTTPS pagina als gmail.com benadert er in de TLS communicatie afgesproken wordt of er SPDY of HTTP gebruikt wordt. Dit wordt onder meer gebruikt door de Apache implementatie MOD-SPDY: (http://code.google.com/p/mod-spdy/wiki/GettingStarted).
http://www.gmail.com en veel (alle?) andere websites van Google.

spdy is een aanvulling op het http-protocol en heeft dus geen eigen protocol-aanroep (of hoe noem je http://, ftp:// eigenlijk?) nodig.
Dit lijkt mij het einde te betekenen van plugins zoals adblock e.d.
Hierbij worden door de client telkens requests niet uitgevoerd indien deze naar reclame zouden verwijzen.
Als nu de webserver zelf dmv pushing bepaalt wat er op de client getoond moet worden, dan lijkt mij het internet de volgende jaren 1 grote flashy reclameboel te worden.
Knap gezien van Google!

Ik hoop dat ik er grandioos naast zit met mijn toekomstvoorspelling...
Flashy reclame valt ook wel mee, tweakers.net is nog één van de grootste offenders op dit gebied onder de sites die ik bezoek. Ik bezoek ook een site die zelfs dynamisch algelange je scrolled via JS maar reclame blijft toevoegen aan de zijkant om de ruimte te vullen en daar stoor ik mij geheel niet aan. Het zijn allemaal stilstaande plaatjes van producten en dergelijke, wat je bij tweakers soms ziet als bijvoorbeeld zo een vlag onder in het beeld die groter wordt als je eroverheen hovered vind ik wel iritant.

Maar goed, ik gebruik totaal geen adblocker en het is nog goed vertoeven op het internet. Gebruik op mijn Linux PCs echter wel flashblock. Ik ga niet de CPU flink laten zweten voor de meest iritante vorm van reclame, flash & linux blijft een niet-optimale combinatie.

* Xthemes.us gebruikt geen adblocker omdat hij niet de inkomstenbron van sites wil wegnemen - een bewuste keuze dus
Mooi gezien... je gaat van pull naar push, dus ja, je kunt niet meer kiezen wat je over je heen duwt krijgt. Interessante kijk. Betwijfel of de techneuten die dit bedachten bij Google ook over de commerciële kansen nagedacht hebben. Maar zeker een mooi bijeffect.
Het uiteindelijke renderen gebeurd volledig op je eigen client, dus plugins zullen altijd zulke zaken kunnen blokkeren. Al wordt er gekeken naar de structuur van de inhoud of bepaalde sleutelwoorden, men zal altijd wel een manier vinden om reclame te blokkeren.

Dus ik denk dat het veilig is om te stellen dat je je daar geen zorgen over hoeft te maken, en gelukkig maar! :)
Stel dat normale data en ads van dezelfde server komen, moet je (door pushing) al eerst alle data gaan downloaden, en dan pas filteren. Dan krijg je de ads niet te zien, maar je hebt nog steeds laadtijd verloren door ze te downloaden, wat niet zo is bij HTTP.

[Reactie gewijzigd door lesderid op 24 februari 2012 20:44]

En je bent een stuk van je data allowance voor de maand kwijt vanwege adds die je toch niet ziet of wilt zien.

Het ongevraagd pushen van wat voor content dan ook is iets waar ik met wat scheve ogen naar kijk.
reclame word geblokkeerd door de servers van de reclamebedrijven te blokkeren. Er zijn maar zeer weinig sites die zelf ook de hosting van de reclame verzorgen. Webservers kunnen dan wel proberen te pushen, als jouw PC zegt dat het geen pakketjes van dat IP wenst te ontvangen dan komt er niks binnen.
Spdy staat dan wel voor Speedy, ik lees toch keer op keer Spy (helemaal icm google...) Ik ben toch op de een of andere manier een beetje wantrouwend bij dit soort zaken..

[Reactie gewijzigd door NitSuA op 24 februari 2012 18:55]

Je kan gewoon het hele protocolvoorstel nalezen en zien of er echt iets is om je zorgen over te maken. En denk je echt dat de IETF spy-provisions in een protocol gaat toestaan?
Ook wordt prioritering uitgevoerd en het is mogelijk om data vanaf een server naar een client te pushen zonder dat de browser een request heeft gestuurd.
Dit is iets waar ik me zorgen over maak. Prioritering gaat niet samen met net-neutraliteit, en pushen zonder dat er een request is gestuurd, zit ik ook niet op te wachten.
tja als je het zo zegt dan is een spamfilter ook tegen de net-neutraliteit?
hogere prio toekennen wordt een zegen voor VOIP
Hogere prio wordt een zegen voor file sharing en dus de dood voor VOIP.

Dus gaat er een soort politie (=provider) komen die bepaalde diensten, tegen betaling, voorrang gaat geven. Als je niet betaald wordt jouw product dus takketraag.

[Reactie gewijzigd door Roland684 op 26 februari 2012 12:47]

En waarom niet ? Denk je dat ze bij de IETF allemaal heiligen en raket-geleerden zijn of zo ?
gaat dit dan ook nog in je bandbreedte verbruik iets uitmaken ?
Voor de gebruiker: Ja, maar geen gigabytes. Dat headers bijvoorbeeld gecomprimeerd worden en er minder overhead is door bestaande verbindingen te kunnen hergebruiken zal zeker uitmaken. Voor de aanbieder - zoals Google in dit geval - zal het echter nog veel meer uitmaken.

Ik noem maar wat, 100 bytes besparing per header. Gmail openen kost al gauw 70 requests vanuit mijn browser, en zolang hij aanstaat komen er ook langzamaan meer bij. Da's 7 KB voor één bezoek. Doe dat eens maal tien miljoen + de rest.
Bestaande verbindingen hergebruiken in een non-argument, dat heeft http ook al sinds zijn bestaan in de vorm van persistent connections. Alleen niet gemultiplexed, dus het is de een na de andere ipv een aantal tegelijk. Maar of dat nou een merkbaar verschil gaat geven...
En compressie van de header (compressie van de data kon al) is ook maar een druppel op een gloeiende plaat. Het valt gewoon in het niet bij de te transporteren data.
In de huidige implementaties is SSL vereist, en dat komt met enige overhead qua CPU cycles. Qua bandbreedte zou er juist voordeel te halen moeten zijn, daar er evenveel in minder pakketjes kan wordem gestopt, door het niet afsluiten van een sessie of verbinding.
Ik denk dat google met spdy niet echt als activiteit heeft informatie verzamelen. Maar snelheid. (Als je meer informatie gaat verzamelen wordt het langzamer.)
Dit valt inderdaad net zoals bijvoorbeeld het vrijgeven van de V8 Javascript engine onder het verbeteren van de snelheid van de web. Hoe sneller het is, hoe leuker mensen het vinden met als gevolgd dat ze zich vaker/meer online bevinden. Hoe meer mensen er online zijn hoe groter de winst voor Google is ;).

Google heeft er simpelweg belang bij om het internet zo aantrekkelijk mogelijk te maken, dat hoeft niet direct van invloed te zijn op je eigen privacy.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013