Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 57 reacties
Bron: C|Net

Het is niet meer mogelijk Google Accelerator te downloaden van de site van het bedrijf. De officiele reden voor het niet meer beschikbaar stellen van de Accelerator is volgens Google dat het maximale aantal gebruikers is bereikt voor het programma. De berichten over mogelijke veiligheidsproblemen die ontstonden bij bepaalde websites zouden niet de reden zijn voor het stoppen van de distributie van het programma.

Google Web Accelerator BETADe Google Accelerator maakt het mogelijk dat gebruikers voor hun gevoel sneller kunnen surfen op internet. Dit bereikt het programma door links die op een website staan alvast te gaan downloaden zonder dat de gebruiker daarop heeft geklikt. Dit zorgde ervoor dat bijvoorbeeld bepaalde destructieve acties, zoals het verwijderen van een gebruiker in een web-gebaseerde interface van een webapplicatie, werden uitgevoerd zonder dat de gebruiker dit wil. Ook komt het volgens berichten voor dat gebruikers zijn ingelogd op bijvoorbeeld een forum onder iemands anders zijn account.

De software werd afgelopen donderdag uitgebracht en kwam de dag erna al uitgebreid in het nieuws wegens genoemde problemen. Volgens een woordvoerder van Google wordt er momenteel hard gewerkt om het aantal gebruikers dat van de Accelerator gebruik kan maken te verhogen.

Moderatie-faq Wijzig weergave

Reacties (57)

De enige vraag die bij mij nog rijst (wellicht heb ik niet goed gezocht) is wat dat programmatje doet als je op een site vol met spyware komt. Gaat 'ie dat ook braaf downloaden? Voor mij is dat zeker een reden om het programma niet te gebruiken....
Ik hoop het niet. Maar ja, als het wel gebeurd, dan is dat niet de schuld van Google, het is immers een beta :+
Beta's worden op het moment te fanatiek verspreid. De consequenties zijn natuurlijk voor de eindgebruiker maar ik vraag me af in hoe verre je mag verwachten dat die verstandig met beta's omgaat.
Google lijkt soms de titel beta te misbruiken om nooit de schuld te krijgen. Hoe lang is Gmail nu niet al beta? Zou het niet eens tijd worden om het werkelijk te lanceren?

Het programma is zelf trouwens een leuk idee. Echter, het kost content providers natuurlijk best veel bandbreedte als google alvast alles van hun sites afhaalt terwijl de gebruiker maar weinig dingen nodig heeft.
Ik kon dat ding al niet meer downloaden toen ik de eerste aankondiging zag..

PS: Google is geweldig! :D

http://www.google.com/search?q=GoogleWebAcceleratorSetup+filetype%3Ams i
The requested URL was not found on this server.

Dat krijg je als je de gevonden URL volgt.
Bij de andere drie links niet.
Google begint steeds meer op een 'normaal' softwarebedrijf te lijken. Na de zoekmachine bieden ze ook tooltjes voor IE aan, een mailservice en nu dus deze accelerator.

Opvallend om te zien dat ook zij daarin fouten maken. Ookal was het een beta, dit soort problemen hadden ze natuurlijk allang kunnen voorzien tijdens interne tests.
Overal waar mensen werken worden fouten gemaakt, zo ook bij Google.
Ik ken geen enkel software bedrijf waarbij de uitgebrachte software in de eerste versie direct 100% werkt.
Ja maar dit is niet zomaar een fout. Dit is een fout gemaakt tijdens de specificatie/ontwerpfase (meest kritisch). Het programma had nooit in zijn huidige vorm geimplementeerd moeten worden.
Zoek eens de betekenis op van het woord 'beta'. Dat veel mensen hier overheen lezen, dit soort software installeren en vervolgens gaan internet-bankieren is toch niet de fout van Google...

Daarbij is het gewoon een fout, er is namelijk onvoldoende rekening gehouden met de activiteiten van de uiteindelijke gebruiker. Ik denk dat dit voor vrijwel alle software geldt.
zoek het zelf maar eens op zou ik zeggen, dit was duidelijk een alpha build (of vroeger zelfs), in een beta zijn normaal alle functies aanwezig en werken die ook, er kunnen wel nog fouten inzitten, maar grove fouten zoals deze zouden idd al op de tekentafel moeten ondekt zijn!
in theorie werkt hun prog wel, maar iedereen weet dat de praktijk anders is, dat interent veel amateur werk bevat en dus moet een dergelijk programma de gebruiker ook beschermen

webinterfaces zijn ook niet iets nieuws en aangezien deze uit links bestaan en dit prog links op voorhand gaat inladen, lijkt het mij logisch dat dit 1 van de eerste dingen is die men gaat onderzoeken, dat sommige webinterfaces zo blijkt verkeerd gemaakt zijn kan wel, maar da's geen reden om dat links te laten liggen
Goed te lezen dat de echte experts weer hier zitten.

EDIT : tuurlijk... flamebait... Het is anders toch opvallend dat als er meldingen komen van software waar het fout mee gaat, er hier altijd al figuren zijn die dat zelf al heel lang beweren te 'weten' en dan heel vaak nog de indruk proberen wekken dat ze exact weten wat er fout is, waarom men het fout gedaan heeft, en dat ze het zelf veel beter zouden gedaan hebben...

Dat ze het dan ook doen ipv. het alleen lopen verkondigen hier...
Google doet gewoon wat MS ook doet: iets op de markt brengen in de hoop dat het er doorheen te drukken is.

Uiteraard heeft Google voorzien dat er problemen zijn, zie dit als een eerste prik om te kijken hoe de markt dit kan oplossen... Er worden al oplossingen geplaatst die gebruik maken van .htaccess. Als dit wat meer gemeengoed wordt, hop, Accelerator uit de beta, en heeft Google weer een leuk meetinstrument.

Ondertussen kan het product met de huidige gebruikers mooi geevalueerd worden op nut.
Dat is dus onzin, in het DOS tijdperk had je vrijwel nooit deze problemen. Uiteraard omdat de software toen eenvoudiger was, maar voornamelijk omdat er toen nog geen internet in elk huis was dus eenmaal gereleasde software vrijwel niet te patchen was. Alles moest gewoon out-of-the-box werken.

Maar nu is het de omgekeerde wereld, men brengt nu liever iets braks op de markt, soms zelfs tot het punt dat het programma niet eens zonder patch te installeren valt, wat ik al vaak genoeg heb gezien in m'n jaren in een computerwinkel, dan dat het uitvoerig getest en niet afgeraffeld word, en daardoor een maandje later komt.
Het lijkt me niet dat dat echt een oorzaak is. Op een DOS systeem heb je maar 1 programma dat actief is (TSRs even buiten beschouwing gelaten). Tegenwoordig staan nog maar weinig programma`s op zichzelf en moeten ze samenwerken om iets voor de gebruiker te kunnen doen.

Daarom zijn standaarden tegenwoordig ook zo belangrijk aan het worden. Elk bedrijf dat software op de markt brengt dat (mis)bruik maakt van Internet maakt op 1 of andere manier gebruik van een standaard. In dit geval zijn er dus veel websites die zich niet aan de intentie van de RFCs houden. Voor een gebruiker is het dan alsof GWS gekke dingen doet, terwijl eigenlijk de site niet goed geimplementeerd is. Maar leg dat maar eens uit aan mensen die gewend zijn aan de 'features' die bijvoorbeeld IE heeft toegevoegd aan de HTML standaard.
in sommige gevallen wel, maar ik heb dus werkelijk al programma's gezien (commercieel EN duur!) waarin functies zitten die gewoon niet werken... de klant doet dan echt wel het betatesten hoor!
dit is niet echt aanvaardbaar voor een bedrijf in mijn ogen, maar het is wel de huidige toestand
Onzin? Je had het hopelijk over je eigen post.

Wanneer je computer winkel gewoon normaal A-merk componenten (en bijbehorende software) zou verkopen, zou je het probleem heel wat minder vaak zien...

Er is een gigantisch verschil met de DOS wereld en de wereld waar we nu in leven, namelijk dat ieder huishouden een PC heeft.

Net zoals martijnvds heb jij ook over het woord 'beta' gelezen... it's there for a reason.
Opvallend om te zien dat ook zij daarin fouten maken. Ookal was het een beta, dit soort problemen hadden ze natuurlijk allang kunnen voorzien tijdens interne tests.
Het was in dit geval geen fout in de software, maar onbedoelde bijwerkingen bij sites die zich niet aan de standaarden houden (zoals: GET alleen gebruiken voor ophalen van data, dus niet voor verwijderen).
Ik kan me niet herinneren dat de HTML 1.0 specificatie buiten de technische mogelijkheden van GET en POST ook beschrijft in welke situaties dit alleen gebruikt mag worden.

Alle nieuwsbrieven bevatten URL's die m.b.v. GET een gebruiker kunnen verwijderen. Dit kan technisch niet anders. Zou een dergelijk gebruik hiermee ook allemaal als foutieve software bestempeld moeten worden?
Dat is inderdaad allemaal foutief, en kan makkenlijk correct worden opgelost door de 'GET page' te gebruiken zoals bedoelt en alleen maar data op te halen, en dan op die pagina een knopje zetten die dan de bevestiging 'POST'.

Hier is relevant stukje van HTTP 1.0 (RFC1945)
The GET method means retrieve whatever information (in the form of an entity) is identified by the Request-URI.
Vervolgens in het stukje over POST zegt het dat dit bedoeld is om aanpassing/toevoeging etc te doen.
Aangezien het bij dit soort pagina's over het algemeen om CGI-achtige dingen gaat is het allicht duidelijker om te verwijzen naar RFC3875. Daar wordt de betekenis van het GET request nog strakker neer gezet op pagina 19:
By convention, the GET method is 'safe' and 'idempotent' and SHOULD NOT have the significance of taking an action other than producing a document.
Overigens is het dus niet MUST NOT en zijn scripts die zich hier niet aan houden niet per definitie fout. Echter als een script zich er niet aan houdt dient de maker er van zich terdege te beseffen wat de consequenties zijn. Iets zegt mij dat de makers van de scripts die met de Accelerator de fout in gaan zich de consequenties niet gerealiseerd hebben.
Als dit stukje software van google zich ook aan de standard zou houden zou het geen probleem zijn.
Pagina's zouden moeten aan geven welke documenten\links eventueel de volgende kan zijn (door middel van meta fields in de HTML header). Een programma moet niet willekeurig links gaan volgen.

Btw, deze feature zit in Mozilla (maar helaas doet mozilla het niet voor "next" links): http://www.mozilla.org/projects/netlib/Link_Prefetching_FAQ.html

Dat ter zijde is het natuurlijk stom om door middel van een simpele link iets te wissen, het is slim om altijd om een confirmatie te vragen (e.g. checkbox).
Dat ter zijde is het natuurlijk stom om door middel van een simpele link iets te wissen, het is slim om altijd om een confirmatie te vragen (e.g. checkbox).
Ik las vorige week in een commentaar (ik meen nav een linkje op GoT) dat javascript-alerts (waarin dus om een bevestiging wordt gevraagd) door GWA automatisch worden bevestigd...
Nou, geen fout in de software... Ik had web-accelerator ook geinstalleerd maar de instellingen die in cookies bewaard worden gaan vaak wel heel snel verloren!

Ben je bijvoorbeeld op een advertentie-site aan het zoeken met uitgebreide zoekcriteria dan zijn deze verdwenen als je weer terug gaat naar die pagina met "vorige pagina". Heel erg lastig. Ik kan me voorstellen dat je gelijke problemen kan verwachten als je bijvoorbeeld een reis wil boeken.

Of de cookies nu op je eigen systeem bewaard worden en het werkt wel of bij Google en het werkt niet. De paginamaker heeft de pagina zo neer gezet dat het bij de bezoeker werkt. Google zou de work-around moeten bouwen. Maar het was beta en je moest akkoord gaan met de voorwaarden. dus....
Er werd laatst bij mij een popup geblockt door de GOOGLE-Toolbar op een pagina die ik versneld had binnengehaald met de GOOGLE-Webaccelerator. Die pagina stond in de GOOGLE-Cache en had ik via GOOGLE gevonden.

Ik pleit voor een naamsverandering van Internet. Het zou dan "Googlenet" moeten worden.

Google, de enige die een mirror van het internet heeft!!

Google is eigenlijk nog groter dan internet omdat het ook nog oude pagina's bewaard.
Eerlijk gezegd valt het me nog altijd mee dat ze geen eigen browser op de markt hebben gebracht.

Maar dat zal wel de volgende stap worden.
Tis niet te hopen, als ik zag wat voor html ze gebruikte in de diverse Google Web Accelerator pagina's kan die nooit standard-complaint worden :-)
Er gingen ook al geruchten de ronde over een besturingssysteem, maar dat geloof ik eerlijk gezegd niet.
en wasmachines....

;)
grapjas .. nu dus deze accelerator niet meer ....
@rdream: A program without bugs is obsolete
Ik vraag mij af, waarom alleen inladen, het zou toch ook eenvoudig moeten zijn om een compressie toe te passen tussen de google servers en de client.
Dan wordt je verbinding echt versnelt en scheelt het in datalimiet, voor zover surfen daartoe bijdraagt.
Standaard wordt tegenwoordig al veel gebruik gemaakt van compressie in HTTP transfers. Bij een request wordt gemeld dat de browser compressie ondersteund, en als de server dit ook doet, kan het document dus met compressie verstuurd worden.
Accelerator gaat verder dan (gzip) compressie er kunnen ook slechts veranderingen in pagina's overgezonden worden.
Javascript bevestigingen helpen natuurlijk nooit! Als de plugin zelf de html parsed, kan hij gemakkelijk alle links volgens zonder dat javascript ook maar iets kan doen. Met de script secties heeft google accelerator helemaal niets te maken.
document.location( 'http://nadenken.com?confirm=' + answer );

Daarvoor moet ie toch echt javascript parsen...
Ja.. natuurlijk is het op te lossen.. Al veel makkelijker door inderdaad informatie via formulieren door te sturen, POST, in plaats van in de url (bijvoorbeeld.php?variabele=iets), GET, zoals eerder gezegd.

Probleem is juist dat sommige sites niet op deze manier werken.
Ik zie niet in hoe zoiets zou kunnen werken. Ons CMS maakt ook gebruik van links om dingen te verwijderen, met een javascript confirm ertussen als bevestiging bijvoorbeeld.

Of neem als moderator op het forum de linkjes om reacties te verwijderen..
Dan zou ik je CMS maar eens gouw gaan updaten. GET-request mogen ge(pre)cached worden, POST-request niet. Proxies (elke access provider heeft ze) doen dat, webspiders volgen alle links, mozilla kan het (maar standaard staat het uit) en er zijn al jaren diverse losse programma's die het voor je doen (Netsonic Pro is misschien wel de bekendste).

Als jullie CMS met grote wijzigingen (alles meer dan bezoekersstatistieken bijhouden zeg maar) maakt aan de hand van GET-request, vraag je om problemen.

Javascript is nog tot daar aan toe, maar dan moet het wel het type javascript zijn dat niet werkt als javascript uit staat, niet dat je alleen geen bevestiging krijgt.
Hmm dat is dan misschien ook de rede waarom mijn internet op me internet pc zo brak werkte.

Ik kreeg de hele tijd DNS errors in IE & FireFox, en toen ik na het lezen van dit bericht Google accelerator verwijderde van mijn computer en weer op internet ging alles fijnloos werkte.

Overigens heb ik volgens het programma er wel maarliefst 17 minuten mee bespaard, als we de statistieken van het programma moeten geloven.

Ik hoop dus dat ze het in de toekomst zo kunnen maken dat het met een groot aantal gebruikers een stuk efficienter werkt :)
Zo zo, alles werkte 'fijnloos'.

Dat lijkt me niet echt plezierig.

8-)
Of... Google houdt zich aan z'n motto "Don't be Evil" en spreekt de waarheid dat er te veel gebruikers komen?

De Web Accelerator gebruikt immers ook google servers en bandbreedte als enorme internet proxy. Ik kan me voor stellen dat er een limiet zit aan de capaciteit die ze hebben.
Was ook een lekker progje als je nog zou zuchten onder een Data limiet, er werd natuurlijk ook allerlei data opgehaald die je nooit zou bekijken...
Voor alle mensen die toch nog met de nieuwste Google spullen aan de slag willen: de Google Content Blocker! Eindelijk een oplossing voor al de tijd die je dagelijks kwijtraakt aan het lezen van websites :+

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True