Uit de GPD-blunder blijkt weer eens dat zoekmachines soms meer gegevens verzamelen en uitspuwen dan webmasters zouden willen. Heb jij je website wel voldoende beveiligd tegen nieuwsgierige zoekrobots?
Aantal stemmen: 9.765. Deelname gesloten op 03-09-2009 15:56. Stemmen is niet meer mogelijk.
[Reactie gewijzigd door HollowGamer op 26 juli 2024 03:39]
volgens mij is dat echt onmogelijk hoor, tenzij de content ooit niet afgeschermd is geweest. Of er is gewoon iets mis met de beveiliging, bijv. dat er pas een linkje naar 'geheim.htm' verschijnt als je inlogt, terwijl 'geheim.htm' ook wel op te vragen is als je het in de adresbalk intiktHelaas komt het wel eens voor dat Google Cache door bepaalde onderdelen toch doorkomt, waar je toch echt voor zou moeten inloggen met een account.
Wellicht dat de beheerder van de website aan de slag moet? Antwoord: Ja, direct! Als het door Google gespiderd kan worden, dan kan en willekeurige cracker ook bij die dat komen - ook zonder Google's hulp.Helaas komt het wel eens voor dat Google Cache door bepaalde onderdelen toch doorkomt, waar je toch echt voor zou moeten inloggen met een account.
Wellicht zou Google dit toch moeten aanpassen, om de veiligheid van bepaalde websites te garanderen.
[Reactie gewijzigd door Little Penguin op 26 juli 2024 03:39]
[Reactie gewijzigd door Barleone op 26 juli 2024 03:39]
[Reactie gewijzigd door Herko_ter_Horst op 26 juli 2024 03:39]
[Reactie gewijzigd door Barleone op 26 juli 2024 03:39]
Dat zijn ook 'crawlers' en zullen zich ook aan robots.txt moeten houden!Hoe gaat het echter om met plugins die alle links al in de achtergrond laden of de hele pagina downloaden voor offline browsen? Ben je dan meteen je bezoeker kwijt?
[Reactie gewijzigd door SWINX op 26 juli 2024 03:39]
Op dit item kan niet meer gereageerd worden.