Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 58 reacties, 23.747 views •

Onderzoekers van de Radboud-universiteit in Nijmegen hebben een wiskundig model ontwikkeld waarmee het lezen van gedachten tot op zekere hoogte mogelijk zou zijn. De onderzoekers konden met hun methode achterhalen naar welke individuele letters een proefpersoon kijkt.

De Nijmeegse onderzoekers, onder leiding van Marcel van Gerven, maken gebruik van fmri, een scantechniek die hersenactiviteit in kaart brengt. Die meetgegevens worden verwerkt in voxels, een soort driedimensionale pixels. Tot zover maken de onderzoekers gebruik van technieken die al eerder zijn ingezet, maar de verwerking van de data is nieuw. De voxels van 8 kubieke millimeter kunnen door computers gereconstrueerd worden tot een beeld van de waargenomen letters.

De reconstructie is echter standaard niet bijzonder informatief, maar de onderzoekers leerden hun systeem hoe letters eruitzien. Met die voorkennis kon het algoritme de beelden veel beter reconstrueren. Die voorkennis voor het reconstructiemodel zou vergelijkbaar met de manier waarop hersenen voorkennis gebruiken om objecten te herkennen. In de toekomst willen de onderzoekers een betere fmri-scanner inzetten om reconstructies van 15.000 voxels te maken in plaats van de huidige 1200 voxels. Daarmee moet het mogelijk zijn gezichten te herkennen.

Letterherkenning uit fmri

Boven de aangeboden letters, in het midden de letterherkenning zonder voorkennis; onder reconstructie met voorkennis

Lees meer over

Reacties (58)

Reactiefilter:-158054+134+28+30
Moderatie-faq Wijzig weergave
Dit 'kon' al een tijdje, niet? Of wat is er anders aan dit onderzoek dan onderstaande video?

http://www.youtube.com/watch?v=l6EF0AjPzOw

Ik heb zelfs al een video ergens gezien waar een complete 'film' van gedachten werd gereconstrueerd door een computer een mega-database aan plaatjes mee te geven en dit te laten mixen.

*edit* http://www.youtube.com/watch?v=0o17Zwzam1g Zoiets dus.

[Reactie gewijzigd door redah op 16 augustus 2013 11:44]

Dat heb ik gedaan, anders zou ik niet reageren. In het bericht staat:
‘Vervolgens hebben we iets nieuws gedaan', zegt onderzoeksleider Marcel van Gerven. ‘We hebben het model voorkennis gegeven: zo zien letters eruit. Dat verbeterde de herkenning van de letters enorm, het model vergelijkt met welke letters de spikkels het meeste overeen komen en duwt dan de uitkomst van het plaatje in de richting van die letters, en dan komt de letter tevoorschijn, een echte reconstructie.'
...maar dit hebben ze eerder met figuren, letters, en afbeeldingen ook gedaan. De computer zoekt welk plaatje het best overeenkomt met de 'spikkels' die uit de hersenen worden gelezen, en reconstrueert het plaatje. Wellicht dat de bron wat summier is, maar ik zie geen grote nieuwswaardige sprong vooruit in dit onderzoek.
Maar waar in de hersenen lezen ze dit uit? Ziet het er echt uit in mijn hersenen zoals in het midden, als ik een stuk tekst lees?

Wordt het uitgelezen in de superior collicus of in de Cerebral cortex of ergens anders?

Wat ik dus bedoel te zeggen is of dit wordt uitgelezen in de plek van de hersenen waar het verwerken van 'data/licht' die in het oog komen. Of dat dit bovenste plaatjes worden uitgelezen op de plek in de hersenen waar de data die binnen is gekomen vergeleken wordt met de data die al opgeslagen was(herrineringen).
Als ik heel simpel denk dan stel ik me voor dat men een letter of figuur laat zien en dan kijkt welke delen van de hersenen activiteit vertonen en dit dan een flink aantal keren om dan het gemiddelde activiteitspatroon voor een letter of figuur te bepalen. Of iets in die richting.

Maar ik kan me zo voorstellen dat wanneer je figuren laat zien die er op lijken dit in de buurt kan komen van wat het systeem al kent voor een letter en dus gelijkende figuren ook als identiek herkent. Terwijl dit dan niet zo hoeft te zijn.

Volgens mij is dan een van de oplossingen om de resolutie te verhogen zoals ze zelf ook al aangeven, zodat het systeem meer detail kan onderscheiden.
Het wordt zo langzamerhand tijd voor een kopfirewall.
Het valt nogal op als je in zo'n scanner ligt, dus dan maakt het niet meer zo veel uit.
Als dit op afstand te doen zou zijn zou ik me toch wat meer zorgen gaan maken.

Nu is de vraag wel een beetje, wet het algoritme hoe letters er uit zien of weet het hoe deze letters er uit zien?

Die R is bijvoorbeeld nogal afwijkend, en wat hij er van maakt lijkt ook niet echt heel erg veel op een R. Meer een cursieve B.
Volgens de bron (http://www.ru.nl/onderzoe...@899074/computer-letters/) hebben ze het systeem geleerd hoe letters eruit zien. Dus niet dit specifieke 'font'.
Volgens de bron (http://www.ru.nl/onderzoe...@899074/computer-letters/) hebben ze het systeem geleerd hoe letters eruit zien. Dus niet dit specifieke 'font'.
Wat je ook even niet moet vergeten is dat ze een 'plaatje' hebben gemaakt uit het MRI-beeld, wat (in vorm) duidelijk op de gelezen letters lijkt.

Het herkennen van letters is iets wat blijkbaar in de software gebeurt.

Waar ik nu zelf aan denk is dat ze vooral hebben geprobeerd om het zichtcentrum te onderzoeken en hoe het beeld vanuit iemands netvlies binnenkomt. Dat hebben ze nu deels weten te decoderen, maar het is nog altijd iets wat gewoon voor de ogen van een persoon wordt geprojecteerd.

Dit heeft nog niks met 'gedachten lezen' te maken maar alleen maar met het aftappen van het beeld wat je ziet als je ergens naar kijkt. Als iemand dus aan een stuk tekst denkt dan zal er weinig gebeuren, want de 'codering' van tekst en gedachten in iemands brein is anders dan de codering van een plaatje waar toevallig letters op staan.

Het enige wat ze nu leren is hoe het brein bepaalde objecten, zoals letters (en misschien ook geluidsprikkels, zoals spraak) herkent. Iets wat erg nuttig is in bijvoorbeeld synthetic vision-systemen, automatische chauffeurs en spraakherkenning.
Dit gaat inderdaad over het 'aftappen' van signalen van de visuele schors. Daar is een redelijke 1op1-verhouding tussen hersenactiviteit en wat wij bewust 'zien': de lichtsignalen komen gespiegeld terecht op de hersenschors. Het gaat hierbij niet om 'gedachten' maar om visuele input. Ook een soort cognities, en je zit redelijk in de buurt van het registreren van mentale activiteit, maar na links-rechts-boven-onder-bewegingsvoornemens (actietendensen) en dit soort aftappen komt een hele, hele steile drempel totdat je bij echte gedachten/voornemens/genuanceerde emoties terecht komt. Het probleem met de modaliteit 'zicht' is inderdaad: hoe krijg je de info technisch te pakken? Dat (technische) probleem zijn ze nu aan het oplossen en ze komen een heel eind, en het gebied zal snelle vorderingen maken verwacht ik. Maar met complexere cognities is het probleem dat ze niet makkelijk van de schors af te lezen zijn, maar bestaan uit een waanzinnig complexe interactie tussen bijna alle hersendelen. Daarvan hebben we nog vrij weinig benul, en zolang we dat niet snappen is 'uitlezen' nog niet aan de orde.
Maar uiteraard een waanzinnig interessant onderzoeksveld.

[Reactie gewijzigd door Znorkus op 16 augustus 2013 18:41]

Je merkt het wel als je in een fMRI-scanner ligt hoor, je hoeft niet bang te zijn dat iemand stiekem deze techniek op je loslaat ;) En een 'kopfirewall' heet natuurlijk een alu-hoedje.
Natuurlijk merk je dat vandaag, of morgen. Maar de ontwikkeling van fMRI-scanners staat echt niet stil. Kijk naar een plaatje van een oude telefoon, of een oude (relais)computer en stel je voor dat scanners net zo snel kleiner worden.
Er is ook nog zoiets als de natuur die bepaalde grenzen stelt.
- Een magnetisch veld van pak hem beet 1 tesla ga je echt niet opwekken met een heel klein apparaatje. Het vergt veel energie en grote magneten.
- Zelfs als het wel zou kunnen dan moet je nog de RF signalen die terug gestraald worden ontvangen en verwerken. Hoe verder weg je ontvanger van de hersenen zijn, hoe zwakker het signaal. Er is een ondergrens aan de sterkte van signalen die je nog detecteren kunt.
- Bij een dergelijk sterk magneetveld vliegen metalen spullen uit de omgeving letterlijk naar de magneet toe. Zoiets wordt opgemerkt.
- Zou je het met een veel zwakker magneetveld willen doen, dan worden de bijbehorende RF signalen ook veel zwakker. En wel zo zwak dat ze in de achtergrondruis verdwijnen en niet meer te meten zijn.
- Zou je het met een veel zwakker magneetveld willen doen, dan worden de bijbehorende RF signalen ook veel zwakker. En wel zo zwak dat ze in de achtergrondruis verdwijnen en niet meer te meten zijn.
Ook daar zijn oplossingen voor;
  • Je kunt de achtergrondruis opvangen met meerdere meters, om hem te onderdrukken*.
  • Je kunt de achtergrondruis harmoniseren
  • Je kunt de magneetveld met een bepaalde codering uitzenden
* vereenvoudigd een consumenten voorbeeld; denk aan de stereo microfoon bij een carkit, details lees: Dubbele microfoon voor heldere gespreksweergave. Dit kan ook met magneetvelden.

[Reactie gewijzigd door djwice op 16 augustus 2013 14:36]

En hoe ver kun je met die methoden gaan?

Bijv, als ik de intensiteit van het magneetveld met een factor 10^6 laat afnemen, hoeveel detectors heb ik dan nodig om de ruis te onderdrukken om dezelfde signaal/ruis verhouding te krijgen?
djwice heeft een punt, maar ik denk dat ie het puur bedoelt als (theoretische) aanvulling op jouw post, niet als iets dat in praktijk een bruikbare, draagbare en onopvallende "gedachtelezer" mogelijk gaat maken.
Onzin, want jij gaat vanuit dat wat wij weten al lang bekend is, natuurwetten zijn 'wetten' die de mens bedacht heeft om een beter begrip te proberen te krijgen van wat er in/om ons heen gebeurd, maar deze worden wel telkens bijgesteld naarmate onze kennis groter wordt.. Vroeger was er een 'natuurwet' dat de aarde plat was en werd je afgemaakt als je anders beweerde, nu weten we inmiddels wel beter, en zelfs Einstein heeft gezegd dat zijn theorieen niets meer zijn dan theorieen op basis van de kennis die hij had, maar dat ze dus best ontkracht kunnen worden door betere kennis..
Er is nog zoveel dat wij niet weten, of weten hoe je het effectief moet gebruiken..
Dus de grenzen waar jij het over hebt, zijn grenzen die WIJ als mens aan de natuur hebben gegeven omdat wij het anders niet begrijpen.. Maar grenzen zijn er om overschreden te worden.......... Anders liepen we nu nog steeds in ons nakie rond en bessen te eten ofzo...
Neem een rij getallen. Stel je voor dat elk getal groter is dan het getal ervoor. Betekent dit dat de rij dan uiteindelijk naar oneindig gaat? Nee, het kan ook zijn dat de rij convergeert naar een eindig getal.

Zo ook met technologische vooruitgang. Dat de wetenschap vooruit gaat wil niet zeggen dat uiteindelijk alles mogelijk is. Holodecks en replicators zijn leuk om naar uit te kijken, maar blijven misschien uiteindelijk in de wereld van de fantasie. En dus misschien gelukkig ook wel hersenscanners.
We gaan wel 'een beetje' off-topic nu, maar volgens Wikipedia:[quote]Volgens de Star Trek: The Next Generation Technical Manual is het holodeck een afgesloten ruimte waarin mensen, voorwerpen en omgevingen worden gesimuleerd middels een combinatie van hologrammen, zwakke trekstralen en krachtvelden. Ook geluiden en geuren worden door de kamer gesimuleerd. In een holodeck bevindt men zich in een realistische virtuele wereld die bijna niet te onderscheiden is van de werkelijkheid.[quote]
Ik zie niet in waarom dat geen realiteit kan worden. Het gaat om de beleving van de gebruiker, en daarin gaan we echt steeds verder, inclusief extra sensorische ervaringen.
Niemand weet wat er wel of niet mogelijk is anders werd er geen onderzoek naar gedaan.

Het voorbeeld wat jij noemt is dikke onzin want getallen zijn ook maar door mensen bedacht. Je kunt dus net zover doortellen als je zelf wil, als je getallen op zijn dan bedenk je gewoon een nieuw getal.

ontopic: best bijzonder dat de letters die het algoritme genereert zo afwijkend zijn van de letters die bekeken worden. Ligt dit aan het algoritme of worden letters op die manier door iemand herinnerd?

[Reactie gewijzigd door tweakerss op 16 augustus 2013 14:23]

Ik denk dat de letters die teruggezien worden een combinatie zijn van wat de uitgelezen hersenen in het beeld herkennen en hoe het er in het echt uit zag.

V.w.b. de grenzen van de natuur: Die gelden alleen voor hoe we de natuur op dit moment gebruiken. De maximale snelheid is op dit moment bijvoorbeeld de lichtsnelheid. Het zou mij niet verbazen als we die ooit gaan overschrijden.

Onhandig als we ons proberen te verplaatsen want dan zien we niks. Misschien is daarvoor de Lightfield camera dan eigenlijk wel uitgevonden :)
Ik vroeg mezelf ook af wat de onderzoekers nu precies registreerden. Wat op het nl-internet is te vinden als wordt gegoogled op hoe we beeldinformatie verwerken in de hersenen heeft veelal betrekking op aandoeningen. Blijkbaar de enige reden om dit te willen zoeken.

Op een redelijk maffe pagina vond ik wat informatie. Voor de puristen is er meer definitieve info in de (Engelstalig natuurlijk) wiki.

Er zijn 5 hersengebieden betrokken bij het verwerken va beeldinformatie. V1 t/m V5. Nou, zo zie ik het graag, geen gedoe met latijn, nummeren maar.

V1 zal vele vagelijk bekend voorkomen, dit is de primaire visuele cortex. Dit gebied heeft samen met V2 alleen distributie naar de overige drie gebieden als taak, en wel zo snel mogelijk.

V1 bevindt zich in het uiterste puntje van het achterhoofd en zorgt onder anderen ervoor dat het accent op de onderste helft van het beeld uit het netvlies (retina) wordt gelegd. Dit is evolutie bepaald. V2 zorgt voor de verdere distributie naar de V3-V5 gebieden. V2 is net als V1 een generalist, met het accent op discrimineren van zaken als kleur, demarcatie en beweging. V3 Is gespecialiseerd in de interpretatie van globale beweging van grote patronen in het beeldveld. V4 is gericht op vorm en geometrie en kleurinformatie. V5 is gespecialiseerd in lokale bewegingsinformatie die bijvoorbeeld nadere oogbeweging kan veroorzaken (volgmechanisme).

Uit het bovenstaande zou ik afleiden dat de onderzoekers het V4 gebied aftapten. V1/V2 lijkt me hierbij minder waarschijnlijk, omdat daar alle informatie nog samenvalt (ruis?). In de wiki wordt echter fMRi vooral bij het onderzoek van het V1 gebied genoemd.

[Reactie gewijzigd door teacup op 18 augustus 2013 00:10]

Als ik jou was zou ik dingen die je niet snapt niet zomaar afschrijven als dikke onzin.
Als je die rij getallen aan een systeem vast hangt heb je gelijk(dat is denk ik ook wat jij en twop bedoelen) maar anders is er toch geen reden om niet meer door te kunnen tellen?

[Reactie gewijzigd door tweakerss op 18 augustus 2013 20:15]

Als iedereen dacht zoals jij zaten we nu nog in de grotten.
Het lijkt me wel van belang om wetten en ideeën uit elkaar te houden. Een wet is bijvoorbeeld de eerste wet van Newton:

F=m.a

(Kracht = massa x versnelling)

Die wet zegt dat de kracht die je op een voorwerp uitoefent evenredig is met zijn massa en met de versnelling. Het is niet zozeer, dat 'we inmiddels beter weten', maar dat is bedacht/ontdekt dat die wet in bepaalde extreme omstandigheden ('relativistische') moet worden bijgesteld.

Dat de aarde plat is of niet, lijkt me geen wet, maar een idee of 'wereldbeeld'.
Het magneetveld in stand houden kost geen energie. De magneet is een supergeleider. Zonder weerstand gaat er ook geen energie verloren. De magneet wordt 1x opgeladen en daarna losgekoppeld.

Een kleine supergeleider op kamertemperatuur zou daarom dus ook als sterke magneet kunnen functioneren.

Nadeel in de huidige MRI mageneten is dat als er ergens om onbegrepen redenen toch een weerstand ontstaat de temperatuur snel oploopt en daardoor de supergeleiding verloren gaat. Door die hogere temperatuur komt er ook weer meer weerstand. Dit noemen ze "quenchen". Het vloeibare helium stroomt er dan ook als gas in hoog tempo uit. Vaak gaat ook de magneet kapot.
Foutief denken.
Er was ooit eens een wetenschapper die berekende hoeveel energie er nodig was om een raket in een baan om de aarde te brengen. Volgens zijn berekeningen was dat onmogelijk. Wetenschappelijk bewezen!

Het punt is dat je niet kunt zeggen of iets onmogelijk is. Het wordt mogelijk doordat je er op een andere manier tegenaan kijkt en dus met een andere type oplossing komt.

Ooit duurde het maanden voordat je een reis om de wereld voltooide, tot men een snel schip uitvond en toen was het een zaak van weken. Handig zo'n 'zeilschip'. En toen kon men niet harder varen maar men ging dan om de wereld met een vleigtuig. Men zocht een ander medium op om in te reizen. En nu kun je de wereld rond in minder dan een dag.

En het kon nog rapper. Men bedacht een ruimteschip en nu kun je de wereld rond in enkele uren. Weer een nieuw medium, water, lucht, ruimte en wat komt nog?

Een fMRI in een horloge kan best mogelijk worden.
Misschien komen die aluminium hoedjes dan eindelijk een keer echt van pas! :D
Dan moeten ze hoedjes van lood gaan dragen, dat word een flinke workout!
Ik vraag me af of dit enkel werkt als een persoon die letters visualiseert. Er zijn natuurlijk enorm veel verschillende manieren waarop je bijvoorbeeld 'brains' kunt denken. Je kunt inderdaad de letters visualiseren, maar je kunt ook een plaatje van een brein oproepen.
Ik vraag me af of dit enkel werkt als een persoon die letters visualiseert.
Ik denk dat je rustig kunt stellen dat dit is wat er is gebeurt in deze test. Een gewoon mens leest namelijk geen letters maar woordgroepen. Vandaar dat je probleemloos een tekst kan lezen waarin de letters niet op de juiste volgorde staan. Zoals dit bijvoorbeeld voor mensen die gewend zijn Engels te lezen:
I cnduo't bvleiee taht I culod aulaclty uesdtannrd waht I was rdnaieg. Unisg the icndeblire pweor of the hmuan mnid, aocdcrnig to rseecrah at Cmabrigde Uinervtisy, it dseno't mttaer in waht oderr the lterets in a wrod are, the olny irpoamtnt tihng is taht the frsit and lsat ltteer be in the rhgit pclae. The rset can be a taotl mses and you can sitll raed it whoutit a pboerlm. Tihs is bucseae the huamn mnid deos not raed ervey ltteer by istlef, but the wrod as a wlohe. Aaznmig, huh? Yaeh and I awlyas tghhuot slelinpg was ipmorantt! See if yuor fdreins can raed tihs too.
Het is niet altijd even makkelijk om zulke teksten te lezen, zie https://en.wikipedia.org/wiki/Typoglycemia.
In het bericht staat dat de proefpersoon naar de letters kijkt.
Het visualiseren en dan uitlezen is nog een stap verder, omdat dat bij iedereen echt anders gaat.
Het waarnemen en opnemen in de hersenen gaat wel bij iedereen op de zelfde wijze.
Want volgens mij bekijken ze dit nog voordat het verwerkt is.
kan een zeer nuttige uitvinding zijn bij het communiceren met mensen die in coma liggen en lijden aan het 'locked-in' syndroom.
da's ook een goede reden inderdaad....die was nog niet bij me opgekomen. Zo zullen er nog wel een paar gevallen zijn waar het zeer goedvan pas zou komen. Alleen vraag ik me af wie er nu het eerst aan bod komt, wanneer ik de ontwikkelingen volg rond het terrrorisme en aanverwante zaken. Ik vrees dat de V.S hierin toch de grote tegenspeler blijft. En wat dat betreft kunnen we alleen maar hopen op een goede afloop.

Paranoïde? Misschien wel. Maar dat zou je ook kunnen beweren over mensen als Snowden en Julian Assange. Terwijl zij ons toch ook wel weer een paar eye openers hebben bezorgd. Dus een gedegen wetgeving rond het aftappen van iemands gedachten lijkt me op zijn minst wel noodzakelijk iets.

[Reactie gewijzigd door Phaerion op 16 augustus 2013 16:15]

ga er maar vanuit dat de laatste groep is die hier voordeel uit haalt, ziekenhuizen zijb traag met nieuwe technieken toepassen. Tenzij het een experimentele ziekenhuis is. veel ziekenhuizen zullen.

De politie zal hoogstwaarschijnlijk de eerste groep zijn om van de technologie gebruik te maken
Gaaf, ben wel benieuwd hoe het werkt als ze meerdere fonts en vervolgens willekeurige objecten aan het systeem leren, denk dat de succesrate dan hard naar beneden zal gaan (lijkt me nu een beetje 'willekeurig geluk' mede door de kleine aantal vormen om mee te vergelijken (1 font soort alphabet neem ik aan)
ik wil niet pedant zijn, maar dit is geen gedachtelezen - dit is 'lezen' van de input van je zintuigen
Het lijkt me anders best lastig naar een letter te kijken en er vervolgens niet aan te denken. :+
Het lijkt me anders best lastig naar een letter te kijken en er vervolgens niet aan te denken. :+
Dat kan prima met heel even 'schakelen' van je gedachten.

Dan zie je namelijk geen letters meer, maar vormen. Waardoor je op het gebied komt van typografen, tekenaars en andere beeldende figuren.

Als je een portret van iemand tekent moet je bijvoorbeeld ook proberen om je 'interne gezichtsherkenning' uit te schakelen en je te concentreren op de vormen die je ziet. Het is dus zeker wel de rauwe input van de zintuigen die ze hier proberen op te vangen.
Als er naast speech to tekst,
weldra ook thoughts to tekst uitrolt is het wel gaaf EN productief / handig !!
Zowel in 'gewoon' opzicht als uiteraard voor hen die niet kunnen spreken.

Hoewel de hoeveelheid data in de hersnen met een gangetje of 450 kmpu wordt rondgenuront.
Dus je hebt wel een super-computer nodig ben ik bang.

(Denk aan Japanse super computer die slechts 1% brein kon simuleren)
Nu is 'slechts' uitlezen wel wat anders, maar toch...

[Reactie gewijzigd door notsonewbie op 16 augustus 2013 14:37]

Ach, wacht 10 jaar en je kan het met je telefoon
Ik kan me ook nog wel herrineren dat ik tijdens een college een video had gezien waarin het ook aardig werd uitgelegd. http://www.cbsnews.com/video/watch/?id=5119805n
Mooi vanwerge het onderzoek naar bepaalde vormen van blindheid, en om de vraag te beanwoorden waarom sommige mensen wel kijken maar niets zien. Besturing door middel van gedachten lijkt me ook wel interessant, maar ik denk niet dat ik dan in een vliegtuig zou willen zitten dat bestuurt wordt door iemand met adhd. Daar zal dus een soort filter voor bedacht moeten worden dat minstens net zo snel is, zo niet sneller, dan het brein zelf.

En ja het heeft ook een duistere schaduwzijde m.b.t het hele big brother gebeuren. En helaas hebben overheden hierin altijd het laatste woord. Dus mocht deze techniek ooit een uitgebreide toepasssing krijgen, zal er nog wel het één en ander om te doen zijn, voordat het goed en wel zou zijn ingeburgerd. Dat je het niet tegenhoudt is wel duidelijik. Je kunt dus alléén maar hopen dat het voornamelijk voor goede dingen gebruikt gaat worden. Want oh wat zou het een rel veroozaken, als tweakers op afstand konden uitlezen door wie en waarom hun reactie was gedownmod. ;)

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True