Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 70 reacties

Google gaat voortaan in zijn zoekresultaten waarschuwingen opnemen wanneer een site in de lijst mogelijk gehacked is. De notificatie moet gebruikers waarschuwen wanneer de inhoud van de te bezoeken site door derden is aangepast.

In zijn Webmaster Central Blog maakte Google vrijdag bij monde van Gideon Wald de toevoeging van de notificaties aan de zoekresultaten wereldkundig. Onder de titel van de te bezoeken website staat, wanneer geknoei door derden vermoed wordt, de waarschuwing 'This site may be compromised'. Een klik op die waarschuwing stuurt de bezoeker naar een uitleg in Googles helpcenter. Google wil de bezoeker zo beschermen tegen spammers en phishing-aanvallen, zo legt het op die pagina uit. De waarschuwingen staan overigens los van de malware-waarschuwingen, die met 'This site may harm your computer' een bezoeker voor onder meer virussen proberen te behoeden.

De sites waarvan Google vermoedt dat de inhoud door derden is aangepast, zijn overigens nog wel gewoon te bezoeken. Google gebruikt geautomatiseerde tools om eventuele ongewenste wijzigingen door hackers te detecteren. Het bedrijf zegt tevens de beheerder van de websites te benaderen, mits contactinformatie voorhanden is, maar zij kunnen ook zelf contact met het zoekbedrijf opnemen. Wanneer de site weer op orde is, zou de melding vanzelf verdwijnen. Hoe Googles detectietools reguliere wijzigingen van de content op websites, en dus false positives, moeten vermijden, maakte Wald niet bekend. Google site-hack-notificatie

Moderatie-faq Wijzig weergave

Reacties (70)

Er is wel een klein nadeel aan deze techniek van sites te blokkeren. Namelijk dat FireFox ( welke de Google resultaten gebruikt ) voor IEDERE pagina dezelfde waarschuwing weergeeft, zelf als je aanklikt dat het geen aanvalssite is, en je wilt verder surfen. Volgende pagina, waarschuwing, volgende pagina ...

Uiteindelijk dan maar die check uitgezet.

Probleem is, Google geeft geen info waarom de site echt geblokkeerd is. Veel bla bla, maar geen echte "proof" van wat er echt mis is met de site. Is een beetje zoals een virusscanner dat tegen je zou zeggen: Doe dat bestand niet open, er is volgens ons iets mis mee, maar we geven je geen details wat er mis is.

Ook redelijk risicovol voor valse positieve in mijn mening.

En wie ben ik, maar ik ben het vaak beu aan het worden, dat 3de partijen allemaal willen zien waar je naartoe zit te surfen om je "zogezegd" te beveiligen.

Google, anti virus programma, enz. In het verleden al meegemaakt, dat een bepaalde anti virus bedrijf, letterlijk de linken, en de POST/GET data ontving en repliceerde op hun servers!

M.a.w, als je inlogde op sites, werd op een andere server in de VS, dezelfde site bezocht, en ingelogd met dezelfde gegevens. De gebruiker voerde een nieuwe lid toe in het systeem ( ledenbeheer ), en het systeem kreeg dan ook van een identieke gebruiker in de VS, dan dezelfde request ( dubbel data aanmaak ).

Moet je eens inbeelden wat voor gevolgen dat kan hebben als je naar een banksite gaat.

We hebben het bedrijf gecontacteerd, en volgens hun was het een "foutje". Ondanks herhaald mailen, hebben ze nooit meer terug geantwoord.

Mijn advies, als je een anti virus gebruikt, zet al die LINK scanner en andere toestanden UIT.

Het wordt tegenwoordig erg, hoe men je probeert te tracken op het internet. Privacy?? Cookies, Flash Cookies, Anti Virus programma, Toolbars, Google, enz enz... En dan spreek ik nog niet over de soms vertragende werking van spullen 's zoals google's analystics toestanden ( al vaak genoeg meegemaakt dat dit de reden is op websites, dat hun site dubbel zo lang duurt om te accessen ).

Moet dringend strengere regelgeving komen, om de privacy en neutraliteit van het internet te waarborgen.
En hoe gaat Google beoordelen of een wijziging door een hacker is aangebracht, of dat de legitieme eigenaar van de site dat heeft gedaan?

Zeker omdat Google weigert het algoritme te openbaren waarmee dit detecteren gebeurd, heb ik toch grote vraagtekens of dit wel wenselijk is....

Dit lijkt me ook erg gevoelig voor misbruik, om concurrenten dwars te zitten laat je dan gewoon hun website als 'gehacked' markeren door Google.

Kan je dit ook uitzetten? Nog liever: kan dit default uit staan, waarbij je het expliciet moet aanzetten, als gebruiker?
Nou nou.. Wees blij dat Google's algoritmes niet openbaar zijn, anders zou Google waardeloos worden. Search Engine Optimization zou dan een must worden om überhaupt nog in de eerste 10 pagina's van Google terecht te komen.

Er zijn een aantal goeie strategieën te bedenken om dit te doen. Bijvoorbeeld het volgende eisenlijstje om een defacing-run te detecteren:
1. Dezelfde tekst verschijnt binnen 1 dag op meer dan 20 websites
2. De tekst staat op een prominente locatie en is minstens x% groter dan de gemiddelde tekst (let op, we hebben het hier over statistieken. Natuurlijk is er wel een site die zulke grote letters heeft enzo, maar dat is niet zo belangrijk).
3. De tekst maakt geen gebruik van de CSS van de site zelf.


Dan zou het ook nog goed denkbaar zijn dat er een aantal Google engineers beschikbaar zijn om in geval van twijfel het algoritme een handje te helpen.

Wat betreft de site van je concurrentie laten markeren als gehacked, dat zie ik niet snel gebeuren. Immers, daarvoor zou je de de site van je concurrentie daadwerkelijk moeten hacken.
4. De tekst is ineens helemaal veranderd en veelgebruikte woorden uit de vorige versie komen niet meer in de tekst voor.
Wat Google's algoritmes precies zullen zijn, komen wij als leken nooit achter. Vergeet niet dat de meest begaafde mensen van deze aardbol bij Google werken. Honderdduizend wereldwijd proberen dagelijks uit te vogelen wat volgens Google een relevant website is om zo hoger in de rankings te komen en niemand die de holy grail gevonden heeft.
neej maar je kunt met gezond verstand wel raden hoe ze ongeveer zullen werken,

net als dat we nog steeds niet weten hoe bepaalde dingen exact werken, ook al hebben we er behoorlijke theorieën over.

als je als team een goede website weet op te bouwen, kom je al snel hoger in de ranks.
zo staat bij it-gerelateerde termen tnet bij mij meestal wel op page 1 of 2
wenselijk? Wel mijn wens was dat ik veilig kon surfen.
Omdat steeds meer mensen een web-side gaan maken,
is de potensiele dreiging van gehackte site`s ook groter.

Het is een waarschuwing die je krijgt,en ik stel dat wel op prijs.
De schade die kan ontstaan uit het bezoek van een zo`n gehackte site ,kan
varieren tot schade aan de pc tot identiteits fraude,en alles wat er tussen zit.

Het maakt in principe niet uit,wie het gedaan heeft,google constateerd het ,en waarschuwd .
Waarom zou je dat willen uitzetten?

edit;kan& van

[Reactie gewijzigd door Patecatl op 19 december 2010 10:34]

wenselijk? Wel mijn wens was dat ik veilig kon surfen.
Dat kan al volop met andere technieken, denk aan firewalls, virusscanners, ingebouwde dingen in browsers (smartfilters, phishing-fiters, popupblockers etc etc).

Probleem is imho tweeledig:

1) Het gebruikte algoritme is niet openbaar, in andere woorden: werkt volgens het 'security by obscurity'-principe wat niet werkt. En algoritmes zijn te beïnvloeden (zie eerdere manipulaties om hoger in de zoekopdrachten te verschijnen). Beinvloedbaar betekent dus misbruikbaar.

2) Het is niet aan degene die links aanbied om te beoordelen of een site wel of niet veilig is, dat is aan de gebruiker, of software van die gebruiker (wederom: denk aan virusscanners etc).
Het maakt in principe niet uit,wie het gedaan heeft,google constateerd het ,en waarschuwd .
Zoals hierboven: het is volledig onduidelijk en dus oncontroleerbaar hoe Google dat wil gaan bepalen. Als iemand volgens oncontroleerbare methoden werkt, hoe kan je dan de output van dat algoritme nog verrtrouwen?

Hoe kan je er bijvoorbeeld op vertrouwen dat niet van hogerhand (denk aan druk vanuit de regering) word bepaald dat ongewenste informatie als bijvoorbeeld de Cables uit Cablegate niet als 'hacked site' worden aangemerkt? Zomaar op hun woord geloven? Want controleren kan jij of ik, in de rol van gebruiker, het niet, omdat het algoritme niet openbaar is.

Nee, dat vind ik persoonlijk geen wenselijk systeem, zeker niet als het standaard aan zou staan.
Heb jij ooit de broncode van je virusscanner gezien? Dacht het niet. En die vertrouw je toch ook? Wat is dan nog het verschil tussen een virusscanner die je tegen een site waarschuwt of google die hetzelfde doet?
En over misbruik ervan maken, je moet daadwerkelijk toegang tot de site zelf kunnen krijgen wil je de inhoud kunnen veranderen om die waarschuwing te geven. En laat dat nou net het geval zijn wanneer die waarschuwing er hoort te zijn.
- Virusscanner zet je zelf aan of uit, deze functie kan je niet (?) aan of uit zetten. Dat is het verschil; je kan in dit geval niet kiezen.

- Misbruik kan ook van Google zelf komen, zoals al eerder gezegd. Google kan een website als gehackt aanmerken en ontkennen dat ze het zelf gedaan hebben omdat immers hun automatische tool alles regelt. Omdat het algoritme dan niet bekent is, is het niet te controleren en dus is het gevoelig voor misbruik.
Okee, toegegeven, daar heb je wel 2 goede punten.
Maar ik denk alsnog, als je het niet aan wil hebben, kan je het advies natuurlijk gewoon negeren. En dat laatste, tja dat blijft natuurlijk bij hopen dat Google er goed mee omgaat...
Overigens geldt dit natuurlijk ook voor virusscanners, virusscanners kunnen er ook voor kiezen om bepaalde programma's zonder reden aan te melden als virus. Gelukkig gebeurd dit (zover ik weet) niet, en hopelijk gaat Google dit dus ook niet doen.
ik kan niet kiezen? ik dacht dus echt wel...

ik kan 1000x makkelijker overstappen naar bing of een van de andere zoekmachines...
maar ik kan niet zomaar een andere (vaak betaalde) anti-virus kiezen....


google is koning omdat wij als gebruiker vinden dat google het goed doet, vinden we dat google er met de pet naar gooit of ons probeert te bedriegen, dan kan google dag dag zeggen...
Sinds wanneer betekend niet inzichtelijk (of: Onduidelijk) "oncontroleerbaar"?
Je kunt nog altijd prima statistisch onderzoek doen. Ook kunnen simpele waarnemingen als bijvoorbeeld het als gehacked aanmerken van Wikileaks een heel duidelijk signaal afgeven.

Uiteindelijk komt het natuurlijk gedeeltelijk neer op vertrouwen. Immers, het openbaar maken van de algoritmes is gewoon niet mogelijk. Maar, let wel, op het moment dat mensen Google niet meer vertrouwen, zullen ze Google ook niet meer gebruiken. Het gevolg is dat Google uiteindelijk ten onder gaat.

Dus, zal Google zo gek zijn om bijvoorbeeld stiekempjes Wikileaks te markeren als gehacked? Nee natuurlijk niet! Dat zou ze miljoenen of misschien wel miljarden kosten. Dat lossen ze anders op. Ze brengen het in de openbaarheid. Uit het recente verleden zijn hier meer dan genoeg voorbeelden van.

Ik heb zelf vertrouwen in Google. Niet direct omdat ik vertrouwen heb in hun motto, maar meer omdat ik er vertrouwen in heb dat een (van oorsprong) Amerikaans bedrijf geen geld weg zal gooien.
qwerty1971:
- google constateerd het ,en waarschuwd
wildhagen:
- Het is niet aan degene die links aanbied
Nijn:
- Sinds wanneer betekend
(ontopic) Naast de inhoud ook (offtopic) vanwege de spelling een interessante thread. Jullie zijn toch intelligent genoeg om even een simpele regel aan te leren?
En het is zo simpel: vervang de werkwoordsvorm door bijv. de vervoeging van 'lopen' en je weet meteen of er een -t achter komt. Een -dt moet alleen als er ook nog een d in het werkwoord zit. De voltooide vorm heeft er niks mee te maken, en die beheersen jullie perfect :)

Voor de duidelijkheid:
- google constateert het, en waarschuwt
- Het is niet aan degene die links aanbiedt
- Sinds wanneer betekent

Wel jammer voor m'n karma natuurlijk.
Hou toch op met dat gecorrigeer.
Hoe kan je er bijvoorbeeld op vertrouwen dat niet van hogerhand (denk aan druk vanuit de regering)
En hoe kan je er bijvoorbeeld op vertrouwen dat de routine in Windows die bepaalt of iemand jouw netwerk shares mag lezen geen backdoor bevat (master password, alleen bekend bij de Amerikaanse regering)? De source van Windows is toch ook niet openbaar (da's net zo goed "security through obscurity" als je het persé zo wilt noemen).
Heeft jouw bank al hun protocollen openbaar gemaakt, de exacte werking van hun online bankieren? Vertelt de Nederlandse staat welke informatie precies in je digitale paspoort staat en hoe die beveiliging werkt? Volgens mij heeft de Belastingdienst om even iets te noemen waar je onmogelijk omheen kunt ook nog wel wat niet-openbare algorithmes liggen.

Waarom zou je nu opeens aan Google (dat een service aanbiedt die je niet eens hoeft te gebruiken, dat doe je vrijwillig!) zoveel strengere eisen stellen dan de eisen die je voor allerlei andere instanties gebruikt? Als je een hekel hebt aan Google, prima, moet je zelf weten. En als ze iets echt verkeerd doen (niet-geblurde foto's tonen in de Duitse street view terwijl ze die data eigenlijk niet eens meer hadden moeten hebben / iets te "enthousiast" data capturen van onbeveiligde netwerken) dan mag je ze van mij helemaal afkraken, geen probleem. Maar ga nou geen onzin-redenaties en -argumenten gebruiken puur omdat je een soort anti-fanboy bent en persé wat te klagen wilt hebben.
Dit lijkt me ook erg gevoelig voor misbruik, om concurrenten dwars te zitten laat je dan gewoon hun website als 'gehacked' markeren door Google.
hoe ga je dat bewerkstelligen als er in het artikel staat:
Google gebruikt geautomatiseerde tools om eventuele ongewenste wijzigingen door hackers te detecteren
verder ben ik erg nieuwsgierig hoe ze dit detecteren. hopelijk dat dit toch ooit naar buiten komt.
Er zijn altijd mensen/bedrijven die er toch in slagen het systeem te beïnvloeden, ook al is het algoritme niet openbaar. Dat is in het verleden met zoekresultaten immers ook gebeurd (waarna Google het algoritme aanpaste).

Wat Google doet met het niet openbaar maken van het gebruikte algoritme hierachter staat bekend onder de term "security by obscurity", en we weten allemaal dat dat dus niet werkt.

Maak gewoon het gebruikte algoritme voor dit systeem bekend, of maak het gebruik van deze feature optioneel (en dan wel by default disabled). Imho is het gevaar van misbruik om anderen dwars te zitten gewoon té groot.
Security by obscurity wordt tegenwoordig te pas en te onpas gebruikt als argument waarom alles maar openbaar moet worden. Zo ook in dit geval. We weten namelijk allemaal dat Security by Obscurity wel werkt. Of deel jij je pincode met de hele buurt, vertel jij aan iedereen dat je reservesleutel onder de derde bloempot links van de deur ligt? Het probleem wat er rond Security by Obscurity hangt is dat in bepaalde gevallen het de enige beveiliging is. Als iemand weet dat je reservesleutel onder de bloempot ligt kan hij je deur openen. Als je dan een alarmsysteem hebt moet hij alsnog een tweede fase door (alweer gebaseerd op security by obscurity) Zonder alarm kan hij rustig je huis in.

Er zijn de laatste tijd vele voorbeelden langsgekomen van systemen waarbij Security By Obscurity de enige veiligheidslaag was. Denk aan DRM systemen maar ook aan "master passwords". Op het moment dat die beveiliging is doorbroken ligt het systeem dus op zijn gat en kan er vaak ook niet meer gecorrigeerd worden.

Bij Google lijkt dat niet het geval. Het geheim houden van het algoritme helpt ongetwijfeld om ongewenst en doelbewuste "Searchengine Optimalisatie" te voorkomen maar Google kan die optimalisatie ook op andere manieren herkenen en heeft de middelen om deze optimalisaties zinloos te maken. Vergelijkbaar dus met je pincode. Zonder je pas is die zinloos en als je denkt dat een ongewenst iemand je pincode kent kun je die aanpassen.

Security By Obscurity is dus een zinvol instrument om als deel van je veiligheidbeleid toe te passen. Het kan echter nooit het enige element zijn. We weten allemaal dat dat niet zo werkt.
We weten namelijk allemaal dat Security by Obscurity wel werkt. Of deel jij je pincode met de hele buurt [...]?
Dat is geen security by obscurity.

De notie "security through obscurity" vloeit voort uit Kerckhoffs's Principle, wat ongeveer als volgt luidt (gecopy/paste van Wikipedia):
A cryptosystem should be secure even if everything about the system, except the key, is public knowledge.
Security through obscurity is de tegenhanger van dit principe; namelijk een poging veiligheid te halen uit geheimhouding van een proces of implementatie in plaats van de sleutel.

Zelf een encryptie-algoritme ontwerpen, en dat algoritme geheim houden is security through obscurity; je gaat er dan van uit dat je veilig(er) bent omdat de details van je algoritme niet bekend zijn. Dit is vaak een slecht idee; zie de OV-chipkaart, daarvoor werd een geheimgehouden zelfgemaakte encryptie gebruikt. Een elektronenmicroscoop later was er genoeg over de encryptie bekend om zwakheden erin te vinden.

De wereldwijd gepubliceerde en onderzochte AES-256 encryptie gebruiken met een geheime sleutel is geen security through obscurity, ondanks de geheime sleutel. Een pincode is evenmin security through obscurity; het proces is niet geheim, maar de sleutel (de pincode) wel.
vertel jij aan iedereen dat je reservesleutel onder de derde bloempot links van de deur ligt?
Nee, want daar leg ik ook geen sleutel neer ;)
Bij Google lijkt dat niet het geval. Het geheim houden van het algoritme helpt ongetwijfeld om ongewenst en doelbewuste "Searchengine Optimalisatie" te voorkomen ...
Maar het is wel het geheimhouden van het proces, wat prima te beschouwen is als security through obscurity (als je de context van de definitie wat oprekt).

Je kunt twisten of dat in dit geval een goed idee is of niet (ik doe daar geen uitspraak over overigens), maar dat is wat anders.
Security By Obscurity is dus een zinvol instrument om als deel van je veiligheidbeleid toe te passen.
Soms. Meestal geeft security through obscurity vooral schijnveiligheid; het idee dat je veilig(er) bent terwijl dat feitelijk vies tegenvalt. Dat is gevaarlijk.
volgens mij heb jij het hele idee van Securty through Obscurity (het is 'door' niet 'bij' of 'met')

een wachtwoord is geen obscurity, maar een geheim, een sleutel is ook geen obscurity,
maar bijv een doolhof in je voortuin en dan geen slot op je deur, dat zou obscurity zijn.
het verstoppen van je reserve sleutel, in plaats van die bij de buren af te geven is ook obscurity.

het idee van security is in principe dat je weet dat er een slot is maar niet aan de sleutel kunt komen omdat niemand je die zomaar geeft. het idee is dat je een wachtwoord moet intypen en maar 3 poginen krijgt voor je geblocked wordt. (pin), allemaal systemen waarvan we weten hoe ze werken.
"Security through obscurity" past hier volstrekt niet bij. Het is immers niet "security" wat Google nastreeft. Je argument dat we allemaal weten dat dat niet werkt vind ik niet bepaald sterk...

Security through obscurity als (primaire) beveiliging is inderdaad een slechte zaak. Maar dan hebben we het daadwerkelijk over de beveiliging van zaken (doorgaans data). Als iemand een creditcard betaling kan onderscheppen kan er onherstelbare schade ontstaan.

Maar, als iemand een deel van het algoritme van Google ontcijferd, is de schade minimaal. Sterker nog, het algoritme wordt er enkel sterker van. Het gevolg is namelijk dat er een zwakte in het algoritme wordt geïdentificeerd welke opgelost kan worden. Dat zie je dan ook al jarenlang gebeuren.

In het geval van Google is het ook simpelweg praktisch niet haalbaar om een algoritme te bedenken wat volstrekt niet vatbaar is voor welke Search Engine Optimization dan ook. Het logische gevolg hiervan is dan ook dat het algoritme wel geheim moet blijven, wil je een goeie zoekmachine houden.
Dit heeft niets te maken security by obscurity want ze beveiligen niets. Ze geven alleen maar aan dat de site mogelijk gehackt is. Verder is het algoritme wat gebruikt word juist een inkomstenbron van google. Wanneer je deze openbaar maakt kunnen je concurrenten het kopiëren en daardoor kun je weer marktaandeel verliezen.
Er zijn altijd mensen/bedrijven die er toch in slagen het systeem te beïnvloeden, ook al is het algoritme niet openbaar.
Het lijkt mij (toegegeven, dat is een aanname) dat Google de huidige versie van de site vergelijkt met vorige versies. Probeer maar eens om daar invloed op te hebben zonder de site te beïnvloeden (en als het goed is kun je dat niet met de site van je concurrent). Op het moment dat je wel bij de site van je concurrent komt dan is de waarschuwing op zijn plaats, dus ook in dat geval gaat je redenering niet op. Het enige wat je kunt doen met kennis van dit algorithme is:
- Een site aanpassen (defacen? links manipuleren?), maar nét genoeg op het origineel laten lijken om de waarschuwing niet te triggeren. Dit lijkt me niet bepaald wenselijk.
- Je site een grondige update geven, zonder dat je klanten een waarschuwing krijgen. Ik denk dat je bij het updaten van je site geen rekening wilt moeten houden met wat wel of niet "mag" van Google's anti-hack waarschuwing, er zijn vast betere methoden om dat probleem te omzeilen.

Aan welke kant wil je dit optioneel maken?
Moet een admin dit aan of uit kunnen zetten voor zijn eigen site? Lijkt me niet handig; welk mechanisme je daar ook voor gebruikt, op het moment dat je site gehacked wordt zal je aanvaller het gegarandeerd uitzetten, wat het geheel compleet nutteloos maakt.
En als je het door gebruikers uit wilt laten zetten dan heb je twee mogelijkheden: default aan of default uit.
Bij default aan weet je vantevoren dat nagenoeg niemand dit uit gaat zetten (niet vergeten, dit is een melding die je (als het goed is!) zeer weinig tegen gaat komen). Iemand die het persé niet wil al zie ik niet in waarom iemand van één regeltje dat bijna nooit verschijnt een halszaak zou willen maken, die zou dat kunnen (in principe goed), maar elke malware toolbar kan dat ook (niet handig).
Bij default uit gaat niemand het aanzetten (zeker niet "digibeten", de mensen waarop dit voornamelijk is gericht / die de grootste kans hebben om in de val te lopen van een gehackte site let op, ik beweer niet dat tweakers immuun zijn, alleen dat we een betere kans hebben om het zelf door te hebben), zodat we weer bij nutteloos uitkomen.

Nee, mijns inziens is het beter als dit niet aan of uit te zetten is. (Als je echt wil kun je altijd nog tegen GreaseMonkey zeggen dat ie het moet wegtoveren.) Het openbaar maken van het algorithme erachter lijkt me al helemaal een slecht plan. Bovendien, laten we eerst eens in de praktijk kijken hoeveel false positives er zijn; Google heeft best wel ervaring met en verstand van dit soort geintjes (in essentie: data minen en patroonherkenning), dus laten we eerst eens kijken hoe goed het werkt voordat we gaan klagen over problemen die misschien wel miniem zijn.
Ik zou zeggen; geef ze een lagere pagerank zodat gebruikers er niet direct mee geconfronteerd worden. De eigenaars van de sites komen er dan vanzelf achter.
Zo geef je toch niet aan of een site gehackt is? Zo komen er alleen minder mensen op de site en de mensen de wel op de site komen snappen niet waarom je inhoud ineens anders is. Slecht idee dus. Daarnaast kijkt lang niet elke site eigenaar dagelijks naar zijn statistieken!
Dat is toch juist de bedoeling? Als een site gehackt is moet je er niet meer opkomen. Dat is het hele idee hiervan.
Nee, de bedoeling is de gebruiker te informeren dat een site mogelijk gehackt is.
Als een hacker ergens een smiley heeft geplaatst is de site wel gehackt maar verder nog wel bruikbaar.
Alleen kan het ook zo zijn dat de smiley gepost is door iemand anders... Ik vraag mij af hoe Google het verschil gaat zien tussen een comment van de beheerder, een comment van een bezoeker of een tekst op dezelfde plek die via hacken is neergezet. Aangezien Google geen toegang heeft tot de server moet dit - lijkt mij - door middel van data mining gebeuren en dat zal mogelijk duizenden false positives op gaan leveren. Beter hadden ze wel gebruik gemaakt van de eerder 'this website may harm your computer' meldingen, omdat hierbij daadwerkelijk een kwaadaardig bestand (virus/trojan) op de website is gevonden.
Ben het volledig met je eens.
Google moet in dit geval de vingers er vanaf laten, dit kan misbruik in de hand werken.
Ook misbruik door Google!
Aangezien Google geen toegang tot de servers heeft, lijkt mij dat Google alleen een melding kan geven als er overduidelijk wijzigingen zijn die niet van de site zelf kunnen komen. Denk hierbij aan een volledige omgooi van de website, links naar dubieuze websites, en hieronder heeft Nijn ook nog een aantal dingen gezet die hierop zouden kunnen wijzen. Een smiley toegevoegd zal Google echt niet zien als een hack.
En bovendien, als je dit niet wil, kan je er toch gewoon zelf voor kiezen om de tool te negeren? Ik denk dat dit voor een heleboel mensen wel degelijk zal werken. Ik denk dat vrijwel elke tweaker mee kan praten over buren/vrienden die door onveilig surfgedrag hun computers om zeep hebben geholpen. Deze mensen zullen ook niet snel vermoeden dat een website gehackt is (het goede adres staat namelijk in de adresbalk). Zulke waarschuwingen kunnen voor deze mensen behoorlijk van pas komen.
Wat niet in het artikel staat is dat Google meestal ook de eigenaar van de website een mailtje stuurt. Het argument "dit lost het niet helemaal of op de verkeerde manier op" vervalt hiermee; integendeel, ze doen juist zoveel mogelijk (eerst was het de eigenaar bericht geven, en nu dus ook de gebruikers).

Ik zie dus geen reden waarom dit slecht zou zijn.

[oeps, het staat er idd wel]

[Reactie gewijzigd door phoenix op 19 december 2010 20:29]

Het staat er wel
Het bedrijf zegt tevens de beheerder van de websites te benaderen, mits contactinformatie voorhanden is, [...]
Inderdaad, dat is een slecht idee. Ik ben het helemaal met jou eens. Gewoon direct duidelijkheid scheppen.
De eigenaar zou natuurlijk inderdaad zelf achter wijzigingen van zijn site moeten komen. Maar hoe een lagere pagerank hen daarbij helpt weet ik niet. De pagerank van een site kan door tig zaken beinvloed worden. Nee, op zich lijkt dit wel een goed systeem te zijn al moet het aantal false positives wel laag blijven anders brengt Google ongewenst schade toe aan de websites in kwestie.
Je zoekt, je krijgt resultaten en het eerste resultaat is als dubieus bestempeld, waarom zou je die als eerste moeten zien ?

next step is een preference item waarbij je deze uit de resultaten kan laten, zou ik persoonlijk wel willen.
Ik denk dat je hier te veel vertrouwen hebt in Google. 't Is niet omdat zij denken dat er misschien iets mis is met de site, dat de site volledig verloren is en het bezoeken ervan nutteloos en/of gevaarlijk (Zoals in het artikel staat is de malware-waarschuwing los van de hacking-waarschuwing) wordt.

Het is niet omdat een of andere groepering hun politieke rommel op de homepage heeft gegooid dat bepaalde pagina's op de site niet meer relevant kunnen zijn.

Verder zou het aanzetten tot meer hacken als je door subtiele hacks ongemerkt iemand z'n Google pagerank naar de knoppen kan helpen.
En Google heeft er dus weer een machtsmiddel bij.

Ze geven niet aan hoe het werkt (uiteraard, want dan is het weer veel te makkelijk te omzeilen) maar daardoor is er meteen ook geen transparantie. Dus als Google om oneigenlijke redenen een pagina als "dubieuze pagina" markeert kunnen ze eenvoudig hun handen in onschuld wassen door te verklaren dat de automatische tool het gedaan heeft.

Dat is al eerder gebeurd toen ze automatisch met de streetview auto's het WiFi verkeer gingen bewaren.

"Do no evil !" Okay, maar Google is inmiddels zo'n grote gigant dat ze per definitie kritisch beschouwd moeten worden.

Is zo'n label dan een verslechtering ? Nee, ik denk het niet. Het is namelijk 1 van de weinige nieuwe beveiligingstechnieken van de laatste jaren die nu eens niet een inbreuk op de privacy pleegt. Daarvoor hulde !
Eerst alles afbranden, en dan aan het eind 'hulde'?
Google beheert het internet niet, het is een zoekmachine die de gebruikers het leven makkelijk probeert te maken. Ik vind dat ze goed bezig zijn.

Ontopic: Ik sluit me volledig bij de reactie van Zer0 aan.
De site-eigenaar krijg als het goed is gewoon een emailtje waarin dan een link staat om die label weer eenvoudig weg te halen.
Als ik naar de rabo bank zoek wil. ik de rabo site boven aan zien, ook als deze gehackt is en als dubieus bestempeld wordt.
Het feit dat ze je gewoon toegang verschaffen en geen eyecatcher als waarschuwing geven, toont de betrouwbaarheid van hun actie.

Dit is ook normaal omdat het zeer moeilijk is om al de verschillende technieken te gaan detecteren én daarbij nog eens onderscheid maken tussen geen gehackte site.

Wel vind ik dit een heel goed project.
dus jij bent voor censuur op het zoeken naar sites? het op deze manier weergeven lijkt me de juiste manier.
Jij ziet het verschil niet tussen censuur en een optioneel filter? Bij censuur heb je geen keuze. Als google de optie zou bieden om deze sites niet meer te laten zien, zou dat de keuze vrijheid alleen maar vergroten.
Adblock plugins zijn toch ook geen censuur? Toch ga ik echt niet de hele lijst met sites zelf doornemen die de plugin automatisch ophaalt. Als er toevallig een site ten onrechte op staat, jammer dan.
ja als er een optie wordt ingebouwd. Maar die is er niet. ook al suggereerde hij deze.
Ook wil hij de site niet eens zien omdat ze mogelijk gehakt zijn.
Ik wil geen enkel filter, Filteren is censuur IMO.
Google zou zich hier beter niet mee bemoeien.
Dus, nadat de eigenaar van de website slachtoffer is geworden van een hacker moeten ze ook nog eens door Google bestraft worden met een lagere pagerank? Dat lijkt me geen goed plan..
Ik zou zeggen; geef ze een lagere pagerank zodat gebruikers er niet direct mee geconfronteerd worden. De eigenaars van de sites komen er dan vanzelf achter.
Het laatste dat Google zal doen is pageranks handmatig bewerken (of dit toegeven), dan gaan al hun argumenten waar ze nu rechtszaken mee voorkomen hebben mbt privacy in één keer weg. Nee, Google moet gewoon alles automatisch blijven doen, en niet rechter gaan spelen op het internet - en ze lopen al heel dun over dat lijntje.
en hoe lang duurt dat wel niet voordat ze erachter zijn gekomen...

geloof niet dat ze elke dag op google kijken hoe hoog ze zijn
een reden te meer om de concurrent te hacken dus...
Zelf heb ik dat op twee sites mogen ervaren. De index.html was gewijzigd waardoor een bezoeker direct een download aangeboden kreeg. Deze wijziging in de index.html was niet door mij aangebracht!
Op het moment dat ik mijn eigen sites (via google) bezocht kreeg ik de melding dat het een gerapporteerde aanvals-site was, van zowel google als firefox! WTF? Backup van de index.html teruggezet en gekeken of er verder nog schade was. Google gemeld dat het weer in orde is en binnen enkele dagen was de "aanvals-site" melding weg.

Vanaf heden kan ik dus al in de zoekresultaten zien dat het foute boel is. Het komt volgens mij op hetzelfde neer als wat AVG doet als je de link-scanner activeert. Die toont ook of een site veilig zou moeten zijn. Prima verbetering!
Ik vraag me serieus af hoelang het geduurd zou hebben als jij geen contact had opgenomen met Google. Als het mét contact opnemen al 'enkele dagen' duurt, hoelang zou het dan wel niet duren als je geen contact opneemt (wie gaat erover nadenken dat Google jou gaat 'blacklisten' door zo'n tijdelijk geval).
Vanaf heden kan ik dus al in de zoekresultaten zien dat het foute boel is. Het komt volgens mij op hetzelfde neer als wat AVG doet als je de link-scanner activeert. Die toont ook of een site veilig zou moeten zijn. Prima verbetering!
Het lijkt mij dat er een klein verschil is. Bij AVG 'vraag' je zelf aan AVG of ze vermoeden dat de site gehackt is. Google gebruik je om te zoeken, en vertelt uit zichzelf of volgens hen de site gehackt is.

De enige redelijke vergelijking die ik ter illustratie kan bedenken is in het wielrennen. Wanneer een dopingonderzoeker onderzoek doet naar een wielrenner en meldt dat die renner doping gebruikt, is het een heel andere situatie dan dat een commentator dat live op televisie roept (ook al heeft die man het misschien wel uit betrouwbare bron).

Als Google alles perfect aanwijst dan lijkt mij dat er niemand een probleem van maakt, maar het is m.i. onvermijdelijk dat er een aantal sites zullen tussen staan die niet gehackt zijn maar wel als zodanig worden weergegeven. En dat is behoorlijk vervelend als je voor je inkomsten afhankelijk van bent van die website.
Zelf heb ik dat op twee sites mogen ervaren. De index.html was gewijzigd waardoor een bezoeker direct een download aangeboden kreeg. Deze wijziging in de index.html was niet door mij aangebracht!
En dat zou je na de eerste keer al genoeg moeten zeggen. Je mist kennelijk een bekwaamheid in security en zou derhalve geen websites meer moeten maken. (<flame> iets zegt me dat je een PHP "programmeur" bent </flame>)
Op het moment dat ik mijn eigen sites (via google) bezocht kreeg ik de melding dat het een gerapporteerde aanvals-site was, van zowel google als firefox! WTF? Backup van de index.html teruggezet en gekeken of er verder nog schade was. Google gemeld dat het weer in orde is en binnen enkele dagen was de "aanvals-site" melding weg.
Rede te meer om te geloven dat je geen websites moet hosten. Als je server "gehacked" is, en je hebt geen flauw benul waardoor, moet je de server per direct opnieuw installeren. Zelfs als je wel een idee hebt over de oorzaak. Je weet immers nooit wat de attacker op je systeem heeft uitgevoerd en system tools vertrouwen is uit den boze op dit moment.
Vanaf heden kan ik dus al in de zoekresultaten zien dat het foute boel is
Uitgaande van bovenstaande geef ik je een week voordat je weer "slachtoffer" bent. Daar heb je google niet voor nodig.

[Reactie gewijzigd door tomhagen op 19 december 2010 23:35]

Nog meer onzin erbij. Daar gaat de winning-factor; simple and clean. Zoals je in de eerste screenshot ziet krijgt het eerste resultaat de grote van twee resultaten en dan komt het ook nog eens te vaak voor dat het tweede resultaat van de zelfde site is (zoals nu ook al direct in de screenshot te zien is).

Daarnaast betwijfel ik of dit wel een gewenste situatie is, sinds Google nou niet bepaald snel resultaten vernieuwd. Stel je hebt je website na één uur al gecorrigeerd en Google is nét langs geweest. Staat daar voor een week lang dat je website "compromised" is. Die 'snelheid' is vooral te merken aan de vele 404's of niet werkende websites die je tegenwoordig krijgt in de zoekresultaten.
sinds Google nou niet bepaald snel resultaten vernieuwd

bron???

Volgens mij is google juist wel snel met het verversen van results.
Dat moet ook wel ,want de google,is hun brood. :)
Als je met een beetje normale website gewerkt hebt (die niet een gigantische backlink heeft), dan weet je precies wat ik bedoel. Het duurt dan gewoon dik 2 weken voordat Google überhaupt je opneemt in de zoekresultaten. Vervolgens kun je gerust nog een week of 4 wachten voordat je volledig opgenomen bent in de database. Probeer het eens zou ik zeggen.. vooral *nieuwe* SSL websites hebben het te doen bij Google (uw certificaat is niet geldig, nee, jouw systeem klok loopt niet goed..)
Nou mooi toch: Dan zorgt google er voor dat deze sites geldige certificaten hebben en wat er verder nog bij hoort.
Google kan enorm snel zijn. Sommige sites worden meerdere keren per uur bezocht door de spider.

Ook hier zit weer een algoritme achter, om te bepalen hoe vaak een site bezocht moet worden. Hierin is bijvoorbeeld een duidelijk verband tussen hoe vaak een site geupdate wordt en hoe vaak hij bezocht wordt. Een site die al 2 jaar hetzelfde is, zal niet meer dan ééns per week (2 weken? maand?) bezocht worden.

Ik kan mij echter heeeeeel goed voorstellen dat sites die als gehacked zijn gemarkeerd vaker dan normaal bezocht zullen worden door de spider. Het is in ieder geval geen onoverkomelijk probleem.
Wel handig zo`n systeem al is de kans dat het misgaat volgens mij te groot. Een lagere pagerank geven lijkt me wel een goede oplossing, maar dan krijg je weer het gezijk dat er gerotzooit wordt met de resultaten, zoals de vorige keer met google gebeurde
Ik ben toch erg benieuwd hoe deze 'tool' werkt, dat compromised sites te detecteren zijn, zou mischien nog mogelijk zijn (vage zooi in de source), maar spammer en phisingsites? Ik zie daar toch een aardige bron van 'misbruik'.

Hele pagerank systeem en resultaten is toch al enorm gaar, 90% van resultaten die ik nu tegen kom, zijn van crawersites en prijsvergelijkers of die domme pubarticles zut die 0,0 informatie nog verschaffen waar ik op zoek naar ben.
Waarom wil ieder1 toch dat de werkwijze`s van bedrijven openbaar word?
Als ieder1 het zelfde kan doen,heeft dat bedrijf geen unieke factor.

Ipv respect en dankbaarheid ,komt er kritiek en subversiviteit.
Het lijkt wel of men liever wel op een gehackte site terecht komt,zonder waarschuwing.

Mijn vermoeden bestaad dan ook dat veel mensen zich bezig houden met het hacken van sites,en daarom dit niet willen.

Begrijp wel als google dit openbaar zou maken ,dan heeft het allemaal geen nut,want
de hackers zouden het daarop aan passen.
Heel logies daarnaast dus,dat google die algoritme`s niet openbaar maakt
Zeker een goed idee dit. Eerder dit jaar was de website van PuTTY gehacked/hijacked. Het was dat ik de URL van de pagina zelf niet vertrouwde, maar de eerste hit op Google was naar de compromised website.
Probleem is met deze technologie hoe er met false positives om gegaan wordt. Daarnaast is er nog een probleem, wie bepaald of een site gehacked is en wat is het algorithme er achter? Is het beïnvloedbaar? Hoe wordt er omgegaan met (imago) schade wanneer er een false positive is?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True