Google maakt JavaScript verplicht in Google Search

Google maakt JavaScript verplicht bij het gebruik van Google Search. De Amerikaanse techgigant wil met de verplichting de zoekfunctie beter beschermen tegen bots en spam en de algemene gebruikerservaring van de zoekfunctionaliteit helpen bewaken.

Google heeft de maatregel aan TechCrunch bevestigd, maar zegt niet waarom de regel precies nu ingaat. De techwebsite claimt dat de zoekgigant de toegang van derde partijen tot data van Google Search zou willen tegengaan. Sommige gebruikers die JavaScript hebben uitgeschakeld, melden volgens WebProNews dat ze bij het gebruik van Google Search sinds kort een melding te zien krijgen met de vraag om JavaScript te activeren. JavaScript is een programmeertaal die door heel wat ontwikkelaars gebruikt wordt om onder andere interactieve elementen in websites in te bouwen.

Melding om JavaScript te activeren tijdens het gebruik van Google Search. Bron: WebProNews
Melding om JavaScript te activeren tijdens het gebruik van Google Search. Bron: WebProNews

Door Jay Stout

Redacteur

18-01-2025 • 12:56

145

Submitter: Fox

Reacties (145)

145
145
68
3
0
50
Wijzig sortering
Los van advertentie redenen dat Google dit doet is het verplichten van JavaScript een bekende en goedkope techniek om requests van bots en dergelijke tegen te gaan, omdat voor deze applicaties het runnen van een JavaScript engine best zwaar is. Onder andere AWS past dit ook toe in hun WAF product.
Een bot gedeployed in AWS Lamada@Edge heeft geen enkel probleem met JavaScript, het is immers een NodeJS platform. Ook geen extra overhead, want de JavaScript engine is al geladen.

Op AWS zijn de NodeJS containers juist de snelst startende containers in AWS Lambda. Ze starten veel sneller dan Java, .Net en Python containers met executie.

Miljoenen executies in een paar minuten is geen probleem en kost een paar euro.

Maar AWS heeft op CloudWatch gewoon een tool die je met een browser plug-in kunt trainen wat ie doen moet en dat speelt ie dan gewoon op verzoek af, incl. HTML, CSS en JavaScript rendering. Dus nog vele malen makkelijker dan zelf code schrijven.

Ik zie dus niet echt een extra horde voor bad actors.

[Reactie gewijzigd door djwice op 18 januari 2025 13:30]

Los van advertentie redenen dat Google dit doet is het verplichten van JavaScript een bekende en goedkope techniek om requests van bots en dergelijke tegen te gaan, omdat voor deze applicaties het runnen van een JavaScript engine best zwaar is.

Een bot gedeployed in AWS Lamada@Edge heeft geen enkel probleem met JavaScript, het is immers een NodeJS platform. Ook geen extra overhead, want de JavaScript engine is al geladen.
Het doel is niet om javascripts bots tegen te houden, maar eerder om het compute intensive te maken. Waarschijnlijk zorgt dat er voor dat er minder snel gescraped kan worden.
Als de scraper al in nodejs draait neemt de compute intensiteit nauwelijks toe.

En als Google de cliënt wil fingerprinten onder het mom van 'echte gebruiker' mogen ze dat natuurlijk niet full data/kenmerken naar de server sturen.

[Reactie gewijzigd door djwice op 18 januari 2025 14:37]

Ik denk dat je niet goed door hebt wat het doel van de Javascript in dit geval is.
Er word een compute intensive task elke keer gestuurd dat de client moet oplossen voor dat de request verwerkt kan worden. Gewoon in nodejs zijn helpt je niet om de computeintensive challenge op te lossen.
Heb je een code voorbeeld van de maatregel?
De extra horde is er nog een beetje, want de meeste bots zijn minder geavanceerd en gebruiken geen Javascript of volledige pagina-rendering. In het geval van Google Search zouden de bots gewoon een zoek-URL aanroepen en dan de resultaten schrapen uit de HTML, zoals Whoogle doet, en dat zal nu lastiger worden.

Evengoed ben ik het grotendeels met je eens: dit weerhoudt de toegewijde techneut niet en er zijn al steeds meer bots die wel de gehele pagina inclusief Javascript laten uitvoeren. Dus het is hooguit tijdelijke en gedeeltelijke bescherming.
Dat en om populaire tools zoals Whoogle tegen te gaan
Captchas kan ook.
Die kregen we rond 2010 wel eens in heel het kantoor.
Google zag ons als 1 gebruiker of zo. Heel irritant :)
Gelukkig doet DuckDuckGo het prima zonder javascript. Als ik aan het zoeken ben heb ik javascript bij voorkeur niet aan staan. Je weet uiteindelijk niet van te voren op welke sites je terecht komt.
Gelukkig doet DuckDuckGo het prima zonder javascript. Als ik aan het zoeken ben heb ik javascript bij voorkeur niet aan staan. Je weet uiteindelijk niet van te voren op welke sites je terecht komt.
Ik gebruik sinds enkele weken DuckDuckGo, maar ik mis toch veelal belangrijke resultaten die met Google gevonden worden en alsnog dus ook met ze gezocht worden.


Hoe vervelend ik het ook vindt, Google blijft significant beter hierin.
Mocht je wat te weinig resultaten krijgen kan je altijd nog de zoekquery in ddg aanvullen met een "!g"
Dan zoek je die ene keer via Google terwijl je voor de rest gewoon met ddg blijft werken.
Voor mij voldoet ddg meestal wel vandaar dat die hier als standaard aangevinkt staat in FF, incidenteel een keertje "!g" maar dat is hooguit 1 a 2x per maand met mijn zoekmachinegebruik, ymmv.
Inmiddels heeft Google zijn eigen zoekmachine zo verziekt, dat de resultaten vaak slechter zijn dan DDG.
Dat was voorheen wel anders.
Dus tegenwoordig gebruik ik DDG (weer) vaak voor inhoudelijk zoeken.

Daarnaast, als je op zoek bent naar bv webshops, dan zijn de resultaten van DDG niet altijd handig.
Daarvoor gebruik ik dan Google search.

Verschillende user containers gebruiken op bv Firefox werkt ook handig om tracking te omzeilen.
Uiteraard is het verre van bullet proof.
Maar incl VPN en al de andere opties en ik heb vrij weinig last van gepersonaliseerde spam.
Hoe vervelend ik het ook vindt, Google blijft significant beter hierin.
Kwestie van situatie.

In heel veel situaties is Google's algoritme juist precies waarom ik dingen niet kan vinden.
Zodra je iets heel specifieks zoekt wat niet bepaald de norm is, krijg je alleen maar 'de norm'. Google corrigeert dan automatisch wat je zoekt naar wat "de meesten zoeken" of "wat je waarschijnlijk bedoelt".

Vaak als ik dan naar DuckDuckGo ga met dezelfde prompts, krijg ik daar dan juist wél wat ik zoek.

Hierbij heb ik uiteraard nog niet de "SEO hoarders" benoemd. Tegenwoordig zijn er via google zelfs websites die zich automatisch aanpassen op wat je zoekt. Ik weet niet hoe dit technisch werkt (hoef me godzijdank niet bezig te houden met SEO) maar als ik bijvoorbeeld zoek op "Eikenhout <stad>", krijg ik meerdere leveranciers zonder dat het ook maar enigszins uitmaakt welke stad je intikt. Vervolgens staat er dan in de site titel wel iets van "eikenhout <stad>" maar dat bedrijf zit dan gewoon enkel in bijvoorbeeld Zwolle ofzo en zo staan er dan een stuk of 8 bovenaan. (Ik weet even niet meer exact wat ik toen googelde, maar dit soort praktijken zie ik steeds vaker en vaker).

Daarnaast is het met Google ook met regelmaat moeilijk om juist oudere zaken terug te vinden omdat je bijna alleen maar de nieuwere zaken en referenties naar said nieuwere zaken krijgt. Ironisch genoeg heb je aan de andere kant vaak juist "bevroren" google resultaten (dit merk ik voornamelijk als ik aan het troubleshooten ben) waarbij je juist eeuwenoude artikelen/posts bovenaan krijgt die al lang niet meer relevant zijn.
Hier kun je dan gelukkig nog filteren op "binnen X periode", maar zelfs dan krijg je vaak zaken welke uit het stenen tijdperk komen waarbij een of andere automatische "update" zit, waardoor Google het ziet als iets nieuws...
Dat hangt sterk af van op welk gebied je zoekt. In mijn ervaring komt Google vooral met SEO geoptimaliseerde sites die maar deels of niet relevant zijn.
Het aantal gesponsorde resultaten in Google begint (inderdaad) behoorlijk irritant te worden. Ik heb bijna een zoekmachine nodig om de bruikbare resultaten terug te vinden.
En toch levert Google tussen de advertenties door voor mij meestal veel betere resultaten dan ddg of bing. Google kent mij blijkbaar vrij goed. |:(
Google kent mij blijkbaar vrij goed
Vandaar dat een heleboel mensen overstappen naar bijvoorbeeld ddg, maar hoe je het ook wendt of keert: Je moet zoveel aan of uitvinken bij Google dat je een heleboel mensen zich er maar aan over geven.
Ik ben ook een DDG gebruiker.
Maar ik zie ook steeds meer ads, 1-3 eerste resulteren.
Daarnaast is het vaak ook wil U dit kopen?...
Ondanks dat ik toch hele specifieke dingen zoek over een product/linux item.
DDG lijkt voormij ook steeds meer op Google te lijken.
Probeer het Nederlandse Startpage is. Die proxyen je zoekopdrachten naar Google. (ofwel. Je gebruikt de engine van Google, maar via Startpage. Je komt dus niet in een soort zoekbubbel van Google. Google ziet alleen dat het verzoek van Startpage afkomt. (je deelt je bubbel dus met alle andere Startpagegebruikers.)

Ik heb persoonlijk betere zoekresultaten met Startpage. (althans. Toen ik er vroeger mee ging testen was dat zo. Het is ondertussen al jaren m'n standaard zoekmachine)
Omgekeerde ervaring hier. Met Google krijg ik voornamelijk sites die belachelijk SEO-geoptimaliseerd zijn, maar vaak niet relevant.
Ik gebruik DuckDuckGo al zeker zo'n 15 jaar denk ik. In het begin had ik regelmatig ook moeite met dingen vinden. Ik denk dat het met je bubbel te maken heeft. Google weet het een en ander over de dingen waar je doorgaans naar zoekt en DuckDuckGo niet. Je moet bij DuckDuckGo specifieker zijn, want die bubbel ontbreekt daar.

Je kunt vrij makkelijk naar Google toe, of juist Bing, Yahoo, Youtube, Wikipedia, IMDB, ... (kijk hier: https://duckduckgo.com/bangs?q=). En soms is dat fijn, maar in 99% van de gevallen kan ik het prima vinden op DuckDuckGo. Kwestie van iets specifieker zoeken. No worries, wen je vanzelf aan.
Ik gebruik Whoogle, daar de had dus ook last van deze wijziging an Google. Gelukkig hebben ze een workaround gevonden maar de vraag is maar hoe lang dit blijft werken.
https://github.com/benbusby/whoogle-search/issues/1211

Daar noemt de ontwikkelaar ook als alternative Kagi, mischien ga ik daar ook wel is een keer naar kijken als Whoogle weer stuk gaat want lees daar ook wel goed dingen over.
https://kagi.com
Ja klopt. Het is mij ook wat tegengevallen hoeveel je krijgt bij de €5 p/m variant, dus ik zit inmiddels op die van 10. Verder gewoon een dikke search engine. Ik zou alleen nog wel een shop-tab willen zien waarbij ik met een query meteen de winkels kan vinden waar een product wordt verkocht. Dat is met Google toch nog wel wat makkelijker te vinden. En van mij mag kagi maps ook wel een default naar google krijgen (eventueel instelbaar).

Ben er nog wel tevreden mee, al vind ik de prijs ook wel wat hoog. Maar gezien ik ook voor mijn werk veel moet zoeken, is het mij eigenlijk ook wel wat waard. Ik zie in ieder geval een stuk minder listicles, spam sites en sites waar mijn vraag gewoon niet mee wordt beantwoord. Dus het scheelt mij naast privacyinbreuk ook nog veel tijd.
Note: Het is niet 5 of 10 per maand, komt nog 21% btw erbij.
offtopic:
Gek is dat, hè? Dat een dienst geld nodig heeft om in de lucht te blijven :)
Ik had het laatst ook bij de Albert Heijn. Die wilde ook geld hebben... Heel apart.


Anyway.
Het klopt inderdaad dat Kagi een betaald model heeft, in plaats van advertenties te laten zien. Dat is een keuze.
In een supermarkt heb ik geen keus he. Anders had ik ook zo mee genomen.
Keus heb je altijd, alleen of het legaal is is een tweede.
(Disclaimer: ik probeer niet aan te zetten tot diefstal, maar alleen aan te geven dat je altijd zelf keuzevrijheid hebt)
Kopieren is geen diefstaan, dus als ik zelf aardappelen in mijn achtertuin wil kweken voor een lekkere stampot dan is dat ook broodroof van de boeren en van de AH.

of zou ik aangeklaagd worden als ik een zak aardappelen bij de ah koop om ze in de grond te stoppen, kans is natuurlijk klein dat ze echt gaan groeien maar als er maar 1tje wortelschiet heb ik mijn eigen stampot ge-piratenbaayt!
Supermarkten hebben wel een systeem waarmee je korting krijgt in ruil voor je persoonsgegevens en koopgedrag, dat heen een bonuskaart.
Die bonuskaart kun je gewoon anoniem gebruiken. Of je kunt bij de kassa zeggen dat je 'm niet bij je hebt, dan typt de medewerker de code van de winkel in en krijg jij gewoon je korting.
Maar met een persoonlijke bonuskaart krijg je wel ook extra persoonlijke aanbiedingen. Wellicht kan dat ook anoniem, maar ik vraag me af hoeveel dat uitmaakt als ze alsnog een profiel van je kunnen maken (als ze je al niet gewoon linken via je pinpas, als je niet altijd contant betaalt).
Of je gaat naar google images en scant plaatje van een bonuskaart xD
een zogenaamde "anonieme" bonuskaart is natuurlijk nul-komma-nul anoniem voor de data-verwerker, die wel degelijk een persoonsrecord eraan gekoppeld heeft die redelijk exact bijhoud wat op dat kaartnummer ingekocht wordt.
Tevens hebben ze een kopppeling met eventuele bankaccounts waarmee de boodschappen op die bonuskaart betaald worden.

Het enige verschil van een zogenaamde 'anonieme' bonuskaart met een persoonlijke, is dat deze niet gekopeld is aan een online AH.nl-account en je er zelf geen persoonsgegevens voor hoeft in te vullen en je dan mogelijk post krijgt en toestemt dat deze verwerkt worden...

maar verder worden ook zogenaamde 'anonieme' bonuskaarten gewoon verwerkt in de statistieken over kopersgedrag, en hebben ze daarbij relatief exacte gegevens over jou, hooguit hebben ze geen toestemming je post te sturen over jouw koopgedrag (alhoewel ik meen dat AH wel eens aangegeven heeft dat zodra je boodschappen bestelt, je alsnog de toestemming geeft je adresgegevens te verwerken en als je dan een 'anonieme' bonuskaart aangeeft geef je ongekerkt alsnog toestemming ook je adresgegevens te verwerken en te koppelen)
Die je elke keer nieuw kan pakken of kan vragen aan de cassiere
Je kan ook met een hele groep hetzelfde bonuskaartnummer gebruiken. Je hebt alleen een probleem als iemand hem stiekem gaat registreren en kooppunten aanzet, dan betaal je 10 cent (of 20 met Premium) extra per hele euro.
Als jij de supermarkt in loopt en een vraag stelt aan een medewerker, zonder iets mee te nemen, mag je ook zo weer naar buiten lopen hoor.
Google ook, alleen dat zie je niet direct op je bankrekening terug...
Mooi Omschreven!!
Een goede ruil als je daarvoor geen advertenties krijgt te zie en je hierdoor weer een beetje privacy terug krijgt. Bij Google blijven ze je tracken ook al neem je een dienst bij hen af.

[Reactie gewijzigd door Hydranet op 19 januari 2025 09:56]

Maar dat kun je ook wel blocken.
Dat wel, maar Kagi is wel top. Doorgaans goede resultaten, daadwerkelijk privé en een fijne interface.
Ik heb wel is naar Whoogle gekeken. Maar het is toch juist beter om 'tussen de menigte' te verdwijnen? Dus een dienst als het Nederlandse Startpage.com?

Die gebruiken Google op de achtergrond. Ofwel. Alle verzoeken bij Google komen bij Startpage vandaan. Je 'zoekbubbel' (zoals Startpage het noemt) wordt dus gedeeld met alle andere Startpage-gebruikers.

Als je iets lokaal voor jezelf host, dan komen je verzoeken alsnog allemaal bij één plek vandaan.
Sites als:
https://coveryourtracks.eff.org/
en
https://amiunique.org/
laten je gewoon zien dat je browser uniek is. Je wordt dus toch wel gevolgd. Hooguit dat het correleren aan je zoekopdracht iets ingewikkelder is, maar aangezien er vast wel een automatische correlatie tussen de site en de zoekopdracht te maken is, hoeft dat ook niet ingewikkeld te zijn.
Op de site van amiunique eens de extension gedownload voor mijn brave Browser.
Bij elke nieuwe sessie zie ik dat mijn fingerprint veranderd is en wat er allemaal veranderd is door Brave.
Bij coveryourtracks geeft hij randomized fingerprint aan.
Ik denk dat Brave de enige browser is met enige fingerprint resistance.
Dat is de geaggreerde fingerprint die uniek is. Een adverteerder zou natuurlijk een paar zaken kunnen doen. Maar allicht dat Brave het inderdaad beter doet dan andere browsers. Uit nieuwsgierigheid. Veranderd de fingerprint ook binnen een sessie?

(dus stel dat je nu van Tweakers naar Wehkamp naar Reddit naar ns.nl naar efteling.nl gaat. Krijgen die allemaal een andere fingerprint? Of ben je binnen die sessie alsnog te volgen (als die allemaal dezelfde trackingboer zouden gebruiken)
Binnen de sessie blijft de fingerprint dezelfde.
Ik heb mij dan ook de gewoonte eigengemaakt om mijn browser daadwerkelijk te sluiten bij langere inactiviteit.
Alle kleine beetjes helpen denk ik dan.
Ik heb jaren geleden is naar Brave gekeken. Ik vond het toen niks. Ik heb hem net weer is geïnstalleerd en het ziet er nu wel beter uit, maar wat een partij spul zit er in die browser. Zo te zien is alles wel uit te zetten, maar ze gaan wel los! :)

Edit: Althans.. Het is uit de GUI te halen. Het is waarschijnlijk nog wel 'aan' allemaal.

[Reactie gewijzigd door lenwar op 18 januari 2025 15:20]

Het is maar wat je belangrijk vindt en ja alles is uit te zetten.
Zowel Brave als Firefox hebben hun pro's en contra's.
Gelukkig hebben we de keuze :-)

https://www.privacyguides...ended-brave-configuration
Het is inderdaad puur persoonlijk.
Ik ben van mening dat een besturingssysteem en een browser zo kaal mogelijk moet zijn van zichzelf en dat de specifieke zaken met extenties/addons/enz. kan worden geïnstalleerd.

Je begrijpt dat ik niet happy ben met de recente ontwikkelingen van browsers en besturingssystemen waar alsmaar meer en meer spul in wordt gezet dat je al-dan-niet nodig hebt en niet of moeilijk kunt verwijderen.

Nogmaals. Puur persoonlijk. Ik snap prima dat sommige mensen graag een 'feature-complete' product willen hebben. Maar zaken als een AI-assistent, een crypto-wallet, VPN-client, Tor-client, enz. hardcoded in een browser voelt een beetje gek.
Ben eigenlijk dezelfde mening toegedaan en ben nog steeds op zoek naar de browser die het beste bij mijn noden past.
Ik vrees wel dat met de komst van AI dat het steeds moeilijker zal worden om onze privacy te beschermen.
Mee eens, een os moet programma’s draaien en voor de rest op de achtergrond blijven. En een browser moet pagina’s weergeven.
Een browser mag ook best wel wat meer hebben dan dat. Zaken als video's weergeven, TLS-certificaten controleren op geldigheid. Dat soort zaken. De rest moet gewoon via add-ons. Bijvoorbeeld PDF-documenten bekijken en wachtwoord synchroniseren en dat soort zaken.

Een browser moet dus gewoon een basaal basisproduct zijn, maar met een walgelijke hoeveelheid veilige API's voor extensies. Ditzelfde voor een OS.
Maar waarom video wel inbouwen en pdf niet?
Allicht arbitrair, maar gevoelsmatig is het logischer dat een browser een video (a la YouTube) kan streamen dan zelfstandig PDF-document kan weergeven?

Ik weet niet of PDFs gestreamd kunnen worden of altijd volledig gedownloaded moeten zijn? (Als dat al moet uitmaken)
Ik krijg een beetje een deja Vu gevoel. 20 jaar geleden kregen we Firefox omdat Netscape/Mozilla zo enorm bloated was geworden.
Als je dat wil kan je Whoogle ook configuren om gebruik te maken van Tor, maar dat doet ik niet want doordoor worden zoek opdrachten erg traag gezien Tor ook traag is.
Misschien dat LibreY, SearXNG, Leta nog wel goed blijven werken
Ik was Leta tegen gekomen, daar zat ik ook al naar te kijken maar voor nu doet Whoogle het weer. Die eerste die je noemde ken ik niet, die tweede wel. Zal nog wel een keer rustig naar alternatieven nemen maar ik denk dat als ik serieus naar een alternatief voor Whoogle ga zoeken dat ik voor iets ga wat zelfstandig is, dus niet afhankelijk van Google of Bing of zo.
Gebruik sinds kort Searxng op een rpi, echt wel een fan geworden. Circumvent ook de verslechterde UX/UI van sommige andere zoekmachines. Googles JS verandering blijkt geen probleem voor searxng
Ik gebruik sinds kort Kagi en ben erg tevreden! Zo fijn om geen ads te hebben en allerlei dingen te kunnen customizen. Vooral bepaalde sites promoten dan wel demoten is heel Nice.

Ze komen volgens mij binnenkort ook met hun AI assistant naar de andere pricing tiers (i.p.v. alleen ultimate), daar ben ik erg benieuwd naar. Je kan dan heel veel verschillende modellen gebruiken, die dan kunnen leunen op de goede zoekresultaten van Kagi. Edit: Dat klopt idd, hier geven ze aan dat het 'very early next year' naar starter en professional plans komt, met wss limitaties in welke modellen je kunt gebruiken.

Overigens ben ik ook een erg tevreden gebruiker van hun browser, Orion. Dat is ook een aanrader als je een iPhone of Mac hebt en in principe fan bent van de UX van Safari, maar wel een browser wilt die customizable is, ad blocking by default heeft en FF&Chrome extensies kan installeren. Begin dit jaar beginnen ze overigens het werk aan een Linux versie, maar ik weet niet hoe snel dat al tot een release zal leiden.

[Reactie gewijzigd door cpkiller op 19 januari 2025 08:00]

Goed om te weten dat meer mensen goede ervaringen met Kagi hebben, bedankt voor het delen van je ervaring met Kagi! Ik gebruik alleen een Linux distributie als dagelijks os en Android voor mijn mobiel, zo te zien heeft Orion alleen ondersteuning voor Ios en Mac. Hopelijk veranderd dat nog in de toekomst dan.
Graag gedaan!

Wat betreft de browser: in hun community update van eind vorig jaar vertelden ze aan het eind van het browser deel dat ze dit voorjaar starten met werken aan een Linux versie, maar het is natuurlijk nog even afwachten hoe lang het duurt voordat er semi stabiele releases zijn.
Ze hebben toch al die AI assistent? Maar die zat alleen in dat allerduurste abonnement (die van 25 per maand). Anders heb je volgens mij nog wel een heel beperkt aantal tokens om mensen te verleiden, maar ik ga er niet vanuit dat ze het zo pushen als Google en Microsoft omdat het nou eenmaal veel knaken kost.

En qua browser kan ik Vivaldi aanraden (al is dat wellicht meer voor de android-gebruikers haha). Maar vooral de desktop-app is echt enorm goed te customizen en bevat bizar veel features. Adblocking is opt-in (daarom wat lage score op die privacy test), maar werkt verder prima en voor adblocking prefereer ik toch adguard omdat ik daarmee ook systeembreed kan adblocken, whitelisten en ook inhoud van requests kan laten wijzigen om de boel wat bruikbaarder te maken.
Yes, ze hebben al die Assistent met het duurste pricing tier (ultimate), maar ik heb die stap nog niet gemaakt, omdat ik dat wel veel geld vind.
Ik dacht dus dat ze ergens hadden gezegd dat het ook naar de goedkopere tiers zou komen, maar dat moet ik eerlijk gezegd even opzoeken. Dan zou je idd beperkte tokens hebben.

Vivaldi lijkt me idd ook wel Nice, heb wel meer mensen daar heel positief over gehoord.
Waar ik eigenlijk ook wel benieuwd naar ben, is het ook mogelijk om Kagi als Custom Search Engine in te stellen in je browser?

Edit: Ik heb antwoord op mijn vraag gevonden. Ja dat kan.
https://help.kagi.com/kag...rted/setting-default.html

[Reactie gewijzigd door Hydranet op 19 januari 2025 13:21]

Kan me niet heugen wanneer ik Google search voor het laatst gebruikt heb. Eerst een pagina gesponsorde links en dan zoeken naar het bruikbare resultaat.

Ik heb nog nooit niet kunnen vinden wat ik zocht. Zolang mensen zichzelf voor de gek blijven houden dat Google de beste resultaten heeft (en als een rechtgeaarde autist niet met verandering om kunnen gaan) zullen we altijd dubbel blijven betalen voor onze spullen: 1 x met data en 1 x om de advertentiekosten te dekken.
ecosia.org ben ik laatst tegengekomen, uit Duitsland en ze planten bomen. en werkt ook zonder Javascript.
Precies dat. Dan maar geen Google
Daar is Noscript handig voor. Whitelisten alleen waar nodig.
Google is lekker bezig om hun zoekmachine onbruikbaar te maken. Ik ben al een jaar geleden overgestapt naar DuckDuckGo vanwege de overdaad aan reclame en gesponsorde inhoud is de verplichting van javascript een volgende rede om Google de de deur uit te doen,

De rede die Google opgeeft is naar mijn mening ook onzin. Zij zijn de verzendende partij en moeten zelf zorgen voor de veiligheid. Voor de gebruiker neemt de veiligheid alleen maar af. Als javascript aanstaat kunnen advertenties daar ook gebruik van maken en hebben daardoor nog meer toegang tot functies van jouw systeem.
Voelt ook een beetje alsof javascript verplicht wordt om je beter te kunnen fingerprinten
Is dit vanwege tracking en cookies?
Javascript helpt daar zeker bij:
https://amiunique.org/fingerprint <-- Op het moment van schrijven is mijn browser uniek binnen 2,3 miljoen fingerprints.

De meeste zaken coreleren ze via javascript.

Het is overigens prima mogelijk dat Google daadwerkelijk makkelijker bepaalde zaken kan doen 'voor de gebruiker' als Javascript aan staat. Dat hoeft niet gelogen te zijn. Het maakt het de facto ook makkelijker om een browser over het internet heen te volgen gewoon door de eigenschappen van de browser in combinatie met de nevenzaken rondom die browser (Dus allemaal zonder cookies/cache/enz.).

En als die simpele site het kan, kan iedereen het.
Het probleem met die site is dat deze altijd aangeeft dat je uniek bent. Open ze eens tweemaal na elkaar in een privaat venster in dezelfde browser. Alle instellingen zijn dan identiek en toch claimt deze nog altijd dat je uniek bent.
Ik heb net even gekeken in mijn browser.
Er zit bij mij een verschil in optie 10 bij Javascript attributes (Navigator properties)
Mijn 'normale' pagina heeft 44 properties. Mijn 'Prive tab' heeft 43 properties.

Dus m'n privé-tab en m'n reguliere tab zijn beiden uniek. Ik ben even in dubio of ik dit kloppend vindt (aangezien het verder dezelfde browser is)

Hij laat helaas ook niet de ruwe data zien. Zaken als de WebGL-data (dat gekleurde driehoekje), is moeilijk om te bepalen hoe 'uniek' die is

Edit: Ze hebben een browserextensie die wel de ruwe data laat zien en die ook historisch kan vergelijken. Ik weet niet goed hoe ik die data moet interpreteren.

[Reactie gewijzigd door lenwar op 18 januari 2025 13:51]

Klopt toch gewoon? Jouw privé tab heeft één verschil met jouw reguliere tab.

Als de site kijkt naar de status 'net privé / openbaar' als een eigenschap dan heeft privé tab niet die registratie.
Het is wel dezelfde browser…
ik weet niet wat die ‘propertjes’ inhouden en wat het precies zijn.

De ene heeft er 44 de ander dus 43, en dus blijkbaar verschillend. Zou een site dus kunnen zien dat je een privé-tab hebt? 😳

Maar goed. Het is wat het is 😊.
Het werkt ongeveer zo:

De browser vraagt gegevens op. De properties (zoals): Ryzen CPU (type), geheugen, Browserversie, Do not track optie, Taal, Schermgrootte, Javascript enabled, locatie etc. Een van de properties (van de browser) die opgevraagd wordt is 'Prive tab' wat een waarde F(alse) of T(rue) kan hebben. En zichtbaar is voor de website.

In mijn geval bijvoorbeeld, Nederlands (Taal), Locatie (Filippijnen), Do not track. Omdat ik de enige Nederlander ben in de Filippijnen die de 'Do not track' optie heb aanstaan, ben ik uniek. (Die andere drie hebben dat niet ingesteld). Maar die zijn te onderscheiden omdat ze ieder weer een afwijkend scherm hebben en dus zijn we alle vier uniek.

En zo zijn we dus te tracken zonder cookies o.i.d. Waarmee eigenlijk de hele cookie-wetgeving weer achter de feiten aanloopt.
Ik snapte hem. Ik bedoelde meer dat ik niet weet wat er allemaal exact in die 43 of 44 items zit :) Het verbaast me een beetje dat er verschil in zit tussen de twee. (dus wat is er anders of hetzelfde in die lijst.)
Ik denk dat het er met name om gaat dat je op basis van bijna alle eigenschappen te onderscheiden bent. Dat je dan binnen 2 sessies op 1 onderdeel verschilt doet er dan wat minder toe. Hoofdzaak is dat iemand "van buiten" dan aan de hand van al die eigenschappen toch vrij makkelijk kan onderscheiden dat die 2 nauwelijks verschillende sessies van zelfde persoon / systeem komen. Heb trouwens ook vrij specifieke fonts op mijn machine en zag op die website dat hij daardoor al erg uniek wordt. Toch niet direct bij stil gestaan.

[Reactie gewijzigd door 2right op 20 januari 2025 13:44]

Het probleem met die site is dat deze altijd aangeeft dat je uniek bent.
Omdat je dat misschien ook wel bent.
De technieken die gebruikt worden, leunen namelijk niet op cookies of andere zaken die een eindgebruiker makkelijk kan lozen (en die in private windows automatisch geloosd worden) maar op karakteristieken van de browser zelf en van het OS.

[Reactie gewijzigd door R4gnax op 18 januari 2025 13:47]

Ik geloof dat privaat venster is alleen voor cookies en geschiedenis. Browser eigenschappen gaat verder: canvas schrijven, processor, geheugen enz.
Als ik even kijk is de weergave niet helemaal realistisch vwbt de uniekheid, maar het helpt inderdaad niet dat ze mij eruit filteren op taal (nl), browserwindow afmetingen (mijn vivaldi is toch net wat anders), GPU (ik snap niet helemaal waarom die zo vermeld wordt), permissions en canvas render. Maar ik heb niet het idee dat ze daar vervolgens ook mij als persoon aan kunnen koppelen. Allen dat ik een gebruiker op de site ben. Pas als ik inlog maakt het uit, maar dan hebben ze sowieso je profiel te pakken.

Wel maakt het duidelijk dat je op moet letten en dat het niet echt handig is om af te wijken van de massa (zoals een niet-standaard browser). Maar om te zeggen dat ik helemaal uniek ben, mwoah.
Het ligt eraan natuurlijk.

Denk jij dat Google/Meta/andere-advertentie-verkoper het ook maar IETS kan schelen dat ik, ik ben. Zij adverteren niet op mij (als natuurlijk persoon), maar als ID 123456 met als interesse gaming, handboogschieten, die geschatte leeftijd, woonregio, enz.

Het gaat er hier om dat jouw browser uniek is. Een advertentiedienst kan zo dus precies mijn browser volgen over het internet heen. Als jij nu op tweakers.net zit en daarna met dezelfde browser naar reddit.com en daarna naar wehkamp.nl gaat, dan is dat dus te volgen. Ook als die bedrijven niets met elkaar te maken hebben. Ze hoeven alleen maar dezelfde tracker te hebben. (laten we zeggen Google Analytics of zo). Er komt geen cookie of localstorage bij te pas.
Ik zou aanraden om Brave browser te installeren.
Heb op de site van amiunique eens de extension gedownload voor Brave.
Na elke sessie is mijn fingerprint aangepast en kan ik zien welke aanpassingen zijn doorgevoerd.
Mullvad browser, Librewolf en Arkenfox falen hierin.
Het zal zeker niet feilloos zijn het geeft toch enige vorm van bescherming.
Brave is alleen een behoorlijk twijfelachtige toko.
Da's voor interpretatie vatbaar en zal voor iedereen verschillend zijn.
Brave heeft net zoals Firefox inkomsten nodig.
Brave doet dit crypto, vpn en privacy vriendelijke advertenties.
Firefox haalt zijn inkomsten bij Google, vpn en Relay
Ze zijn daar heel openlijk over.

Aan iedereen de keus dus.

Mijn initiële reply ging dan ook over het feit dat enkel Brave bij het starten van een nieuwe browser sessie en andere fingerprint gaf op de website van Amiunique.
Ja dat snap ik, die had ik ook gelezen.

Ja dat is ook weer zo. I guess, pick the better of two evils. Ben ook al niet blij met Mozilla privacy vriendelijke advertentie programma. Heeft weinig nut als de huidige manier van advertenties doen ook blijf bestaan. Ik zou er wel een maandelijke/jaarlijkse subscribtie voor over hebben om wat meer privacy, i.p.v dat iedere browser data gaat verzamelijk voor hun eigen advertentie bedrijf.

Is het niet zo met fingerprinting dat je of iedere keer een randomized will of iedere keer zo zoveel mogelijk lijken op de rest?

[Reactie gewijzigd door Hydranet op 18 januari 2025 16:22]

Op het gebied van fingerprinting zijn er op dit moment twee strategieën.
Deze van Firefox (en de forks) die willen opgaan in de menigte door iedereen dezelfde fingerprint toe te eigenen en deze van Brave door iedereen een unique (welliswaar randomized) fingerprint te geven voor één enkele sessie.

In het geval van Firefox denk ik dat moeilijk te behalen is omdat je de browser niet mag aanpassen.
(dus geen addons, about:config aanpassingen,...)

Ikzelf zie meer in de benadering van Brave, maar da's mijn persoonlijke mening.
Firefox kan je aanpassen door een eigen user.js bestand ergens te plaatsen in je profiel. Ik gebruik op dit moment nog Firefox met de aanpassingen van Beterfox.
https://github.com/yokoffing/Betterfox

Gezien jij verstand van fingerprinting hebt ben ik wel benieuwd wat jij de meest privacy vriendelijk e en gebruikers vriendelijk browser vind, ik denk Brave?

Ik vind Vivaldi ook erg fijne browser en de ontwikkelaars lijken ook echt om Privacy te geven maar volgens mij voor privacy van het browsen op het internet zal Vivaldi minder goed zijn.

[Reactie gewijzigd door Hydranet op 18 januari 2025 16:47]

Ik ken Betterfox ook en heb hier de user.js in mijn firefox profielen staan.
Maakt de browser net wat smoother en sneller :-)

Om op je vraag te antwoorden,... het hangt af wat je noden zijn.
Voor de meeste mensen denk ik vooralsnog Brave mits een paar aanpassingen.
Vivaldi heb ik nog nooit gebruikt omdat ik volledige opensource belangrijk vind.
Maar als dit binnen mensen hun privacy profiel past, waarom niet?

Het feit al dat wij erover communiceren en ons bewust zijn van de privacy issues binnen de browser wereld is al een win :-)
Bij Vivaldi is alleen de user interface niet open-source.

https://help.vivaldi.com/...cy/is-vivaldi-open-source

Maar die code word wel geaudit.
https://forum.vivaldi.net...-browser-ui-open-source/2

Ik zal wel is nog een keer naar Brave kijken, want het is al weer een tijd geleden dat ik die gebruikt heb.

Juist dat is belangrijk om er over te communiceren want dan weten we dat er nog mensen mee bezig zijn die een verbetering willen zien voor het algemen goede. :)
Nee dat is niet voor interpretatie vatbaar. Ze zijn een twijfelachtige toko.

Wikipedia: Brave (web browser)

Het zijn niet zo maar "oepsiepoepsie" foutjes, het zijn fouten op het niveau van "betrouwbaarheid--;".
Je kan de hele bloatware uitzetten maar dat wist je wel.
Net zoals je Firefox moet aanpassen om er het beste uit te halen.
Enkel doet Brave dat beter in geval van Fingerprinting naar mijn inziens.
Dat is de geagreerde fingerprint. Het ligt er een beetje aan welke aspecten de tracker gebruiker natuurlijk, maar het zal wel al beter gaan met Brave dan andere browsers inderdaad.
Natuurlijk, maar het wordt weer verkocht onder “optimalisering van de ervaring voor gebruikers”. Yeah right!
Javascript is niet helemaal vrij van security-risico's helaas, het is in het verleden al vaker gebruikt om minder lekkere dingen op computers mee te doen.

Zeker voor niet-techneuten is dit niet echt een heel lekker idee, en al helemaal niet als ze het verplicht gaan stellen om Javascript aan te hebben

Ik gebruikte al weinig Google Search meer (Bing levert me tegenwoordig veel betere resultaten waarbij je ook niet eerst 2 pagina's met "sponsored content" door moet worstelen), maar dit zou voor mij zeker een potentiele reden kunnean zijn om ook het laatste gebruik van Google Search stop te gaan zetten.
Niet-techneuten zullen JavaScript in principe altijd aan hebben staan. Tegenwoordig is surfen op het internet zonder JavaScript eigenlijk niet te doen en logisch ook. De jaren 90 zijn al even voorbij, we draaien tegenwoordig o.a. webapps in de browser.
Er zijn sinds die tijd ook legio aanpassingen geweest om misbruik onmogelijk te maken. Om lokaal bij bestanden te komen moet je of zelf het bestand selecteren of je hebt een plugin nodig. En alles draait in een sandbox, dus je kan niets meer op het systeem.
Niets is overdreven. Er zitten zelfs lekken in de hardware (CPU bijvoorbeeld) en die zijn in elke taal te misbruiken, ook JavaScript. Een van de security "features" die browsers hebben moeten implementeren is het randomizen van de timers. Accurate timers zijn fijn voor allerhande toepassingen, maar vooral voor het uitbuiten van lekken (cache gedrag bijvoorbeeld).
Ergens is het misgegaan ja...

In de jaren 90 probeerden we het netwerk verkeer te verminderen door alleen delen van de pagina aan te passen. Bijvoorbeeld een grafiek, die kon je dan "live" maken door de "src" in Javascript elke seconde te verzetten.

Nu worden er zoveel megabytes aan Javascript enzo binnen gehengeld om een suf stukje van 200 woorden aan nieuws te tonen en te renderen, dat het minder netwerkverkeer had gekost om gewoon een volledige "screenshot" in PNG te sturen.
Ik kan mij voorstellen dat met deze maatregel ze AI beter kunnen reguleren en mogelijk hiervoor kosten in rekening kan brengen. Google zal hoe dan ook profielen kunnen opbouwen van gebruikers of ze javascript gebruiken of niet.

In praktijk zie ik dat bijna iedere website javascript verplicht. Wat je daar ook van vind zal deze wijziging voor de reguliere gebruiker weinig verschil maken. Vroeger was het uitsluiten van javascript gericht op toegankelijkheid zoals bijvoorbeeld ondersteuning van een brailletoetsenbord gebruikt door blinden. Ik mag hopen dat die ondertussen javascript ondersteunen en met de opkomst van AI hoop ik dat de toegankelijkheid voor dit soort gebruikers veel beter is geworden.
Zat sites proberen inderdaad JS te verplichten, en voor vrij veel sites kan ik er ook genoeg info uit halen zonder JS. Nee, de reacties doen het niet, vele advertenties en flitsdingen doen het niet, en ik word minder lastiggevallen door allerlei pop-ups, dus ik vind het vaak prima. Wil ik echt de site volledig gaan gebruiken dan zet ik het wel aan, maar default staat het bij mij uit. Mocht een site (zoals nu google) echt onwerkbaar worden dan ga ik eerst even alternatieven checken.
Google Maps heeft volgens mij nooit gewerkt als javascript uit staat. Dan krijg je zo'n plaatje te zien die lijkt op Sherlock Holmes met de tekst: "When you have eliminated the JavaScript, whatever remains must be an empty page.". Maar ik verwacht dat de gemiddelde gebruiker niet eens weet wat javascript is en dat er een optie bestaat om deze uit te schakelen.
Dus ik kan mij voorstellen dat je als bedrijf op basis daarvan best de keuze kunt maken javascript te verplichten. Dan blijft het antwoord uit waarom ze het specifiek nu doen; en dat zou dus mogelijk kunnen komen doordat ze de verbruikskosten van AI/bots willen verhalen op die bedrijven. Aangezien Google nu dalende inkomsten heeft en flinke concurrentie krijgt van bedrijven als OpenAI die ook zoekmachines aan (gaan) bieden.
Alleen kunnen bots al heel lang javascript.
En met javascript kunnen ze (AI) bots mogelijk uitsluiten waardoor ze deze beter kunnen reguleren. Dit zou dan een potentieel verdienmodel kunnen zijn door grootverbruikers voor toegang te laten betalen.
Google's eigen crawlers lezen al ruim 10 jaar javascript, waarom zouden de crawlers van AI dat niet kunnen?
Mijn punt is dan ook niet dat bots geen javascript ondersteunen maar dat ze javascript kunnen inzetten om selectief gebruikers, zoals bots, het leven lastiger te maken.

Google gebruikt zoals je zegt zelf crawlers en die crawlers hebben er juist voor gezorgd dat veel nieuwswebsites niet meer te lezen zijn als javascript uit staat. Hiermee hebben nieuwsorganisaties o.a. contracten kunnen afsluiten met Google. Daarnaast zijn rechtszaken natuurlijk een optie.

Als Google het leven van een (AI-)bot lastiger kan maken zal dit een verschil maken voor grote diensten die dit soort bots gebruiken. Een bot kan bijvoorbeeld niet meer werken, trager zijn werk doen of foute resultaten kunnen geven. En tegen een betaling zou Google die drempel kunnen verwijderen. Met de aanname dat ze deze wijziging doorvoeren voor dit soort bots.

Op Youtube hebben ze ook Adblockers het leven lastiger weten te maken om mensen te motiveren de reclames te kijken of een abonnement af te sluiten. Zolang de oplossing effectief is voor het gros van de gebruikers halen ze hun doel. Er zullen vast omwegen zijn maar daar zullen ze vast iets op verzinnen als hun huidige oplossing niet effectief is.
Dan maar geen Google meer om te zoeken. Ik vertrouw dit ook eigenlijk niet eens. Wat zou de echte reden zijn om JavaScript te forceren bij een functie als deze?
Waar geloof je het niet? Ik snap dat Google één van de meest verwerpelijke bedrijven op het internet is, maar het is prima mogelijk dat ze hier de waarheid spreken natuurlijk.

Ik schat in dat ongeveer 100,0% van de mensen die Google gebruiken, Javascript al aan hebben staan. (Ik schat ook in dat ongeveer 99,5% van de gebruikers van Google niet eens weten wat Javascript is of wat je er allemaal mee kan. (inclusief veel bezoekers van deze site)

Als het om 'tracking' zou gaan, daar zullen ze niet zo veel mee winnen.
Omdat iedereen toch zelf mag beslissen hoe hun zoek ervaring is? Technische is het prima mogelijk te zoeken zonder javascript, dit heeft echt wel te maken met wat zij willen. Waarschijnlijk client site fingerprints? Even wat willen opslaan in je lokal storage?
Dat spreek ik niet tegen.
Ik gebruik zelf geen Googlediensten, dus mij maakt het persoonlijk allemaal niet uit. Maar waarom zou je er vanuit gaan, dat hetgeen dat ze claimen niet de echte reden is? Ze lijken er zo weinig mee op te schieten als dat de reden is.

Dat het technisch anders kan spreekt niemand tegen. :)

(( Edit: Geen Googlediensten op YouTube na. Omdat iedereen (Tweakers, NOS, Rijksoverheid, enz.) al hun spul alleen op YouTube zet, dus daar ontkom je redelijkerwijs niet aan. ))

[Reactie gewijzigd door lenwar op 18 januari 2025 13:55]

De reden is niet 'on de ervaring te verbeteren' maar de echte reden vertellen ze niet. Mijn mening geef de echte menig (bij om scrapers te pesten) dan heb ik respect voor een bedrijf. In dit geval lijk je te worden gemanipuleerd. En daar houd ik niet van.
Maar heb je daar bewijs voor dat ze nu glashard liegen? (want dat zeg je nu toch? (ik wil geen woorden in de mond leggen ))

Het verhaal dat ze vertellen is wel een kloppend verhaal. Je kunt met JavaScript heel veel doen om bots e.d. tegen te gaan.

(( N.B. Ik zeg niet dat je ongelijk hebt, hè? ))
Er hoeft niet per definitie een addertje onder het gras te zitten bij alles wat Google doet. Het kan prima zijn dat Google kiest voor deze wijziging voor de redenen die Google zelf noemt.
Omdat iedereen toch zelf mag beslissen hoe hun zoek ervaring is?
Eh nee, de enige vrijheid die je hebt is om Google niet te gebruiken. Maar als alle search sites javascript verplichten dan heb je het maar te accepteren. Het web past zich niet aan jou aan, altijd andersom.
Internetten zonder js aan kan nog steeds, maar komt er op neer dat de meeste sites dan niet meer werken. Dus dan moet je je het constant aan/uit zetten.

Misschien zijn er wel tools voor het beheren van js per site en anders kun je twee browsers gebruiken: een met js aan en een met js uit.

Het is begrijpelijk dat er een sfeer van achterdocht hangt rond Google etc maar js is een vorm van techniek en dat heeft nou eenmaal altijd twee kanten.

Internet is in de basis heel open en onbeveiligd en dat heeft voordelen maar het is daardoor vaak juist ook kwetsbaar, zelfs nu nog, zoals de relatief simpele ddos-aanvallen van afgelopen week weer bewezen.
Dit is echt een totaal verkeerde richting, met HTML5 is het juist makkelijker geworden om JS-vrije websites te maken.

Aangezien JS een stevig security risico is en bovendien veel ram en cpu cycles kost (en dan heb ik het nog niet eens over al die crypto-mining code die vaak wordt geinjecteerd) moeten we echt alleen JS gebruiken waar het strikt noodzakelijk is.
Daar ben ik het mee eens. Veel webpagina's kunnen prima zonder JavaScript.

Ik heb niks tegen JavaScript. Ik vind het een prachtig iets, dat enorm helpt met het toevoegen van leukigheden aan webpagina's.

Maar, helaas maken veel webpagina's hier misbruik van, door belachelijk lange JavaScript-scripts uit te voeren op jouw computer, zonder dat dit nodig is voor het correct functioneren van die webpagina. Of nog erger: webpagina's die JavaScript gebruiken om jouw activiteit in andere tabbladen te bespioneren.

[Reactie gewijzigd door markwiering op 20 januari 2025 00:17]

Het is al treurig genoeg dat dit wordt gedownvote - op een tech site!
Alle technische redenen daargelaten, kan ik dit best begrijpen.

Ik heb hier en daar nog steeds aanvragen of ik één van mijn (behoorlijk grote en complexe) websites niet even zo kan maken dat het ook werkt voor de mensen zonder Javascript.

Basically zou het mij tonnen bovenop tonnen kosten om deze websites zo te maken dat ze zonder JS zouden werken, laat staan alle extra onderhoud. Je moet het hele zooitje basically dubbel maken. Javascript is gewoon ideaal voor zaken als lazyloading en gebruikersinteracties. Het bespaart me ook enorm op serverkosten omdat zoveel zaken clientside kunnen gebeuren wat de server een hele lading aan operations per user scheelt. Mogelijk wel 99%.

Mijn antwoord is dan ook meestal iets in de richting van "Als jij nou een miljoentje voor me regelt, dan doe ik dat speciaal voor jou".

Ik kan me inbeelden dat een gigant als Google, waarbij enorm veel overhead is en zelfs het wijzigen van een spelfoutje 9 miljard kost ofzo, dit ook wel ziet als een soort eindeloze geldput.
Je kunt ook alleen zonder javascript maken. Waarom dubbel?
Met JavaScript is het vooral mogelijk browsers te fingerprinten. Op die manier kun je tracken zonder dat je cookies nodig hebt. Verder kan ik geen enkele reden bedenken waarom je JavaScript nodig zou hebben voor Google search.
Tja, laten we wel wezen hoeveel websites doen het goed zonder JavaScript tegenwoordig? En hoeveel van de mensen die nu heel hard roepen Google niet meer te gebuiken hadden écht JavaScript uitstaan in de browser? Ik denk heel weinig.

Neem niet weg dat ik als frontend developer die dagelijks met React werk het hele concept SPA eigenlijk overrated vindt. JS is in veel gevallen echt niet nodig op een pagina, en google.com is daar een prima voorbeeld van.
Je hebt ze erbij. Maar het zijn er inderdaad weinig.
Wat ik vooral vervelend vind is dat er gemakzuchtige programmeurs zijn die opdracht krijgen om de rpm's niet eens lokaal op de server hosten... "Goed idee ben ik er niet verantwoordelijk voor."
Hele teams worden er voor opgetuigd om de corporate website high performing te houden.

Op dit item kan niet meer gereageerd worden.