Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 48 reacties

Na de aanval geopend te hebben op spam die zich huisvest in e-mails, e-mailservers en voor dat doel gebouwde internetpagina's, gaat Microsoft nu zijn pijlen richten op zogenaamde commentspam. Dit type reclame viert sinds de opkomst van weblogs en de daaraan gekoppelde populariteit van het achterlaten van berichten hoogtij. Commentspam houdt in dat de reactiemogelijkheden op deze digitale dagboeken en fora geautomatiseerd volgestouwd worden met reclamelinks. Terwijl bezitters van deze systemen zich het hoofd breken over hoe zij deze aanvallen kunnen weerstaan, heeft Microsoft naar eigen zeggen een gereedschap ontwikkeld dat in ieder geval een doel van commentspam onhaalbaar maakt, namelijk opname en populariteitsvergroting van het doeldomein in zoekmachines.

Microsoft Strider Search Defender-logoDe toepassing is Strider Search Defender gedoopt en is onder meer bedoeld om geïntegreerd te worden in het indexeringssysteem van zoekmachines. Strider werkt in drie stappen. Eerst wordt er door het onderdeel Spam Hunter een lijst opgebouwd met 'erkende' spamsites. Vervolgens wordt er via het 'link:'-commando in een zoekmachine gezocht naar websites die verwijzen naar deze spamdoelen. Als laatste worden de gewraakte links door de zogenaamde Strider URL Tracer verwijderd uit het verdere indexeringsproces. Microsoft hoopt hiermee websites die zich op notoire wijze bedienen van commentspam te demotiveren hiermee door te gaan.

Naast het verwijderen van spamlinks kan Strider Search Defender contact opnemen met de beheerder van het vervuilde domein en hem ervan op de hoogte brengen dat er ongewenste reclameverwijzingen zijn aangetroffen. Ook kunnen aanbieders van gratis websites, zoals Blogspot en MySpace, de toepassing standaard in hun software opnemen om preventief commentspam tegen te gaan. Veel populaire weblogsystemen bieden al soortgelijke oplossingen aan om het probleem tegen te gaan, zoals Wordpress en Pivot. Ook Google heeft eerder een poging gedaan iets tegen commentspam te doen, namelijk door aan te raden het 'nofollow'-attribuut mee te geven aan links in de reactiepanelen van weblogs. Hierdoor zouden zoekmachines de aanwezige informatie niet meenemen in hun indexering. Niettemin heeft deze oplossing weinig navolgers en toepassingen in zijn kielzog zien verschijnen.

Commentspam (smudge)

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (48)

Nice article! I bet you'll really enjoy my homepage, www.viagra-online.com. Go check it out!

( B-) )
Naast het verwijderen van spamlinks kan Strider Search Defender contact opnemen met de beheerder van het vervuilde domein en hem ervan op de hoogte brengen dat er ongewenste reclameverwijzingen zijn aangetroffen.
Nu maar afwachten wanneer Femme zn mail krijgt :P
toffe site. goedkopere viagra kan je niet vinden. :Y)
Tenzij je opgewonden raakt van de nieuwe Conroe's ;)
dit is inderdaad erg iritante manier van spamming. yourtube staat er al vol mee. maar ik denk dat er in de praktijk niet veel zal veranderen.
Zolang er bakken met mensen zijn die een blog neerknallen, daar 3x in krassen en vervolgens jan en alleman er in laten posten zonder ooit te modereren, nee. Ditto voor gastenboeken.
Ik snap niet waarom men (dergelijke sites) gewoon geen imageverificatie invoeren :? Dan zijn spambots al uitgeschakeld.
Hier zijn drie redenen voor:
- Plaatjes zijn al vrij snel leesbaar door een script
- Plaatjes die niet leesbaar voor een script zijn, zijn meestal ook niet echt leesbaar voor de gebruiker.
- Die plaatjes zijn irritant (ook door punt 2), voor een registratie is dat nog niet erg, maar voor elk berichtje is gewoon zwaar irritant.
punt 3 is te verbeteren door alleen voor het eerste bericht een image verificatie te vragen.
Ik laat op mijn site alleen reacties met links toe als de persoon reageert als "geregistreerd" iemand. Als je registreert krijg je zo'n image verification voorgeschoteld. Site heeft 3000+ reacties per dag en het was een echte hel om die spam-brol te overwinnen. So far lijkt deze methode toch te helpen, want ik heb al meer dan 2 maand geen enkele reclame-post gekregen *hout vasthouden*
Bouw je gastenboek met flash, dat is simpel (je haalt ergens een template vandaan ofzo) en zoekmachines komen niet in swf bestanden.
Ook een oplossing is om alleen bijv de googlebot, firefox, ie etc clients toe te staan.
Dat zal echter ook maar een kwestie van tijd zijn.
Ik heb ook nog geen spambots aangetroffen die JavaScript ondersteunen. Sinds ik een comment feature via AJAX laat lopen ben ik ineens alle spambots kwijt. Maar ook zoiets werkt ook alleen maar omdat verder bijna niemand dit nog doet. Zodra de meute hier lucht van krijgt gaan spambots natuurlijk ook javascript parsen.

zoiets als dit is simpel en effectief:
<form action="reageren_vereist_javascript.html" onSubmit="this.setAttribute('action','submitform.php')">
Comment spam zal snel stoppen als iedereen eens de tijd nam om de bagger direct te wissen. Maar nee, duizenden blogs en gastboeken staan wagenwijd open voor een simpel script. Met als gevolg dat men automatisch in Google et al meer van hetzelfde zoekt, en vol probeerd te spammen.

Recent iets leuks over geschreven:
http://johnbokma.com/mexit/2006/07/13/

BlogSpot (Google) doet er (nog) niets aan, zelfs na 2 weken staat het circus nog open.
Alsof bots 'nadenken' en zien waar wel en niet wat verwijderd wordt. Nee joh, bots blijven gewoon die rommel erin pompen, of je het nu verwijdert of niet. De kans op succes is gewoon het grootst als je blijft 'flooden'.
"Alsof bots 'nadenken' en zien waar wel en niet wat verwijderd wordt. Nee joh, bots blijven gewoon die rommel erin pompen, of je het nu verwijdert of niet."

Tot iedereen het altijd verwijderd, *en* gaat klagen bij de ISP (IP address van de bot), en de spamvertized sites.
RE: JJJBokma

Ja, dat helpt enorm, echt élke Chinese, Russische, Afrikaanse en Zuid Amerikaanse ISP vindt het v-r-e-s-e-l-i-j-k dat zijn klanten zomaar spambots draaien.

Oftonnie?
"Ja, dat helpt enorm, echt élke Chinese, Russische, Afrikaanse en Zuid Amerikaanse ISP vindt het v-r-e-s-e-l-i-j-k dat zijn klanten zomaar spambots draaien."

Hoeveel abuse emails heb je al verzonden, en wat zijn jouw ervaringen? Of herhaal je maar wat dingen die iemand ooit eens uit zijn duim gezogen heeft?

De bagger die bij Google al 14+ dagen staat te redirecten doet dat vandaag nog steeds. Al diverse klachten gestuurd. Nee, Google is snel ( http://johnbokma.com/mexit/2006/07/13/ )
ik beheer een aantal website en moet dagelijk tientallen van dit soort berichten verwijderen. Daarnaast staan die berichten er 's nachts al op en worden dan geindexeerd.

Er kwamen zelfs bots die zich automatisch aanmelden met een gebruikersnaam en emailadres!

Nu heb ik de registratie nog verder dichtgetimmerd met o.a. captcha en dat blijkt de laatste weken resultaat te hebben.

Maar binnenkort zal captcha ook gewoon door OCR herkend worden.
En nog een reden: De algoritmes om ze te herkennen worden ook steeds beter, waardoor ze op een gegeven moment geen nut meer hebben.

Edit: sh*t... Net iets te laat @mphilipp
Dan zijn spambots al uitgeschakeld.
Dat gedoe met zo'n plaatje met letters is erg vervelend. Ik moet vaak 3x kijken voordat ik goed kan zien welke letters er staan. En er zijn meer mensen die er nóg meer moeite mee hebben. En inmiddels komen de spammers steeds dichterbij manieren om OCR software te gebruiken die het truukje al kent. Het zal niet lang meer duren...
Ik gebruik Textpattern op mijn site en ik moet zeggen: de spammers komen er (nog) niet door. Mede door een 'preview'-functie, eerst een preview voor er daadwerkelijk gepost wordt. (Mijn stats laten zien dat honderden IP's uit wazige landen als Oekraïne, Burkina Faso, Vietnam, China, Korea, etc. mijn site bezoeken en vooral targetten op het 'guestbook'. Spam posten is ze nog niet gelukt.)
Hoe zit het dan met referral sites die je doorlinken naar een andere site? Een simpele go.to (of welk andere dan ook) adres en het hele ding valt al in de soep.
Die worden dan als het goed is na een tijdje ook opgepikt door dat stap 2 gebeuren. Maar tis idd wel beetje dweilen met de kraan open, zo is de strijd tegen spam altijd. Alleen hopen nu dat het dweilen sneller gaat dan dat de kraan loopt.
Domeintjes opzich zijn voor dit soort bedrijven ook niet zo duur, kan gewoon een .com of .net zijn.
ik heb voor sommige gastenboeken , een fiter ingebouwd ,
en bij het woord viagra en poker en nog een paar woorden wordt het gewoon niet geplaats.

ps : sommige ip ranges bannen helpt ook al voor 90%
Bij IP-ranges bannen sluit je onbedoeld vaak ook "gewone" gebruikers uit.
Ik ben bezig met een klein onderzoekje, en de bagger lijkt nogal vaak uit dezelfde ranges te komen. Wellicht omdat de ISP er niets aan doet (ik rapporteer elk spamgeval)? Ik zit al hard te denken om elk IP address uit zo'n range een mooie pagina voor te schotelen:

U kunt niet kijken. Voor klachten: neem contact op met uw clueless provider.
Nog mooier zou zijn als je een site kan maken met een gastenboek en als dan de bot met het verdachte IP-adres op de verzendbutton drukt deze wordt beloond met een smerig koekje van eigen deeg (denk aan een 180solutions oplossing :) of een heerlijk virus ).
Dat drukken op de verzendknop gaat buiten een browser om met een programma. Dus hoe je een virus wilt terugsturen? Het antwoord van de site wordt wellicht gewoon gedumpt.

Verder, zo'n programma draait vaak op een computer waar de eigenaar geen idee heeft dat het draait, wil je die met nog een virus opzadelen?

En tenslotte, 1 bugje in je virusplaatscode, en hop, je normale bezoek is besmet.
"namelijk door aan te raden het 'nofollow'-attribuut mee te geven aan links in de reactiepanelen van weblogs. Hierdoor zouden zoekmachines de aanwezige informatie niet meenemen in hun indexering."

Meest ondoordachte wat Google ooit heeft opgehoest. Uiteraard stopt dat comment spam niet. Comment spam gaat volautomatisch, en een spammer ligt er niet wakker van als de helft van de 32,000 blogs een nofollow als waarde opgeeft voor het rel attribuut van het a element (Er is geen 'nofollow'-attribuut zoals het artikel lijkt te suggereren). Mensen klikken toch wel.

Nog triester is dat blog software tegenwoordig rel="nofollow" default aanzet, met als gevolg dat mensen die wel ergens normaal op reageren met een relevante link gestraft worden. Totaal niet over nagedacht door Google, en diverse blog bouwers. Het sloopt het web, en doet niets tegen comment spam. :r

(Niet voor niets gebruikt Wikipedia het niet).
Het rel=nofollo geeft geen straf aan een link. Het verteld zoekmachines alleen maar dat ze deze link moeten negeren, waardoor de link geen hogere pagerank krijgt.

Dat betekend ook dat spam sites minder makkelijk aan Google toegevoegd kunnen worden.

Tuurlijk moet je het niet op iedere website toepassen, maar slechts in het reactiegedeelte van je site ;) Anders zou het idd een staf zijn; jouw geplaatse links verhogen dan geen pagerank.
"Het rel=nofollo geeft geen straf aan een link. Het verteld zoekmachines alleen maar dat ze deze link moeten negeren, waardoor de link geen hogere pagerank krijgt."

Dus straf. Negeren en geen hogere pagerank = straf.

"Dat betekend ook dat spam sites minder makkelijk aan Google toegevoegd kunnen worden."

Maar stopt het spam? Nee, want er zijn altijd mensen die klikken op "cheApzz vi@gra!!"

"Tuurlijk moet je het niet op iedere website toepassen, maar slechts in het reactiegedeelte van je site Anders zou het idd een staf zijn; jouw geplaatse links verhogen dan geen pagerank."

Ook in het reactiedeel kan het straf zijn. Als iemand een link naar nuttige informatie plaatst, geheel on topic, is het dan eerlijk om aan het a element rel="nofollow" toe te voegen? Ik vind van niet.

Kwalijker is dat het bij blogsoftware de default is. Er zijn bloggers die *wel* comment spam weggooien, maar geen weet heeft van het hele nofollow gebeuren.

Nogmaals: er is een extreem goede reden dat Wikipedia het *niet* gebruikt. En elk zichzelf respecterend blog zou het ook *niet* moeten gebruiken, maar gewoon modereren.
Mooi. Maar toch heb ik een aantal bedenkingen:

- het irritantst is dat spammers de website-eigenaar een flink deel bandbreedte kosten. Het gaat er mij niet om dat ze niets kunnen posten, het gaat er mij om dat eenvoudigweg niet eens je domein binnengeraken.
- hoe zit het met referer spam? Tegen comment spam bestaan er mooie tools, maar ik moet merken dat mijn wordpressblog toch ook onder vuurl igt van refererspammers. Vrij irritant en kostelijk.
"- het irritantst is dat spammers de website-eigenaar een flink deel bandbreedte kosten."

Die paar comment postjes per dag? Hier niet eens een fraktie van de bandbreedte (maar goed ik zit op 11,000 bezoekers/dag). Ik heb meer last van leechers.

"- hoe zit het met referer spam? Tegen comment spam bestaan er mooie tools, maar ik moet merken dat mijn wordpressblog toch ook onder vuurl igt van refererspammers."

Referers gewoon niet meer laten zien, als je doelt op: iemand "komt" van een andere site op jouw blog, en jij laat dat zien als een referer. Het nut is ook 0, wie interesseerd het nu (buiten jouzelf) dat blog xyz naar jouw blog linkt? Vaak is het een quote uit jouw entry met 2 regels tekst er bij geplakt.
De enige reden dat er geautomatiseerd gespamd kan worden lijkt me toch dat iedereen standaard (php) templates gebruikt voor z'n guestbooks/blogs/zelfs hele sites. Als je gewoon je eigen code schrijft dan kan zo'n spambot daar hoogstwaarschijnlijk niet mee omgaan. Als je weinig tijd hebt kan je natuurlijk ook gewoon wat wijzigingen maken in de template.
"Als je gewoon je eigen code schrijft dan kan zo'n spambot daar hoogstwaarschijnlijk niet mee omgaan."

Yup, dat kan zo'n bot dus wel. Mijn comment post script is zelfgemaakt, en een bot heeft daar geen moeite mee. Wellicht dat de input velden: email, name, url en message een mooie hint zijn, en dat het omwisselen van die namen helpt (b.v. email en url) om het snel te detecteren binnen het script (een url met een @ en een email address dat het http:// begint) maar verder, een formulier is een formulier, en een bot kan controleren of er een fout gegeven wordt.

Verder heb ik het idee dat er echt mensen zijn die handmatig sites nalopen om te zien hoe het formulier in elkaar zit (een tijd terug stopte ik er extra controle in, en prompt kreeg ik aangepaste spam :-) ).

Kortom: handmatig weggooien, aanmelden bij ISP en hostingprovider(s).
Erg ideaal is het niet, maar ik merkte dat gastenboeken in flash er toch minder last van hebben...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True