GeForce 6800 overklok, geluid en stroomverbruik getest

Dat nVidia's nieuwe paradepaardje, de GeForce 6800 Ultra, erg snel is weten we ondertussen. Hoe goed de kaart overklokbaar is, hoeveel geluid hij produceert en hoeveel energie hij daadwerkelijk nodig heeft zijn echter vragen waarop het antwoord nog niet volledig gegeven is. Om ook deze vragen te beantwoorden hebben verschillende websites artikelen gepubliceerd waarin dit onderzocht wordt. Zo vinden we bij Hardware.info en FiringSquad een test op overklokbaarheid.

Het blijkt dat de behaalde resultaten flink van elkaar verschillen. De kaart die de mannen van FiringSquad in handen kregen was slecht overklokbaar. Het geheugen bleek slechts 5Mhz boven de standaard snelheid te kunnen werken en de core was ook geen overklokwonder met een overklok van 8 procent. Hardware.info had meer geluk met de GeForce 6800 Ultra en wist de core 14 procent harder te laten werken terwijl het geheugen zelfs 18 procent boven de standaard snelheid nog prima bleef werken.

Bij FiringSquad kunnen we verder een aantal mp3's vinden waarmee je zelf kan vergelijken hoe de GeForce 6800 Ultra klinkt in vergelijking met de Radeon 9800 XT. Het blijkt dat het koelsysteem van de GeForce 6800 Ultra goed presteert. Het merendeel van de tijd loopt de ventilator niet op volle snelheid waardoor de geluidsproductie binnen de perken wordt gehouden. Desondanks blijkt de Radeon 9800 XT nog wel een tikje stiller te zijn.

De laatste openstaande vraag, hoeveel energie de kaart gebruikt, is onderzocht door Tom's Hardware. Met behulp van een simpel apparaat heeft men gemeten hoeveel energie een systeem uitgerust met een GeForce 6800 Ultra gebruikt en dit vergeleken met verschillende videokaarten. Het blijkt dat de kaart inderdaad veel energie slurpt, maar relatief gezien valt het redelijk mee. De kaart gebruikt "slechts" circa 17W meer dan de Radeon 9800 XT en GeForce 5950 Ultra. Onder andere door de relatief goede prestaties qua geluidsproductie, koeling en energiegebruik wordt er op de fora van Beyond3D gespeculeerd dat de retail versie van de GeForce 6800 Ultra een kloksnelheid zal krijgen van 475MHz in plaats van 400MHz. Hiervoor zou gebruik gemaakt worden van een nieuwe en zuinigere stepping.

Door Hielko van der Hoorn

20-04-2004 • 16:43

63 Linkedin

Bron: Hardware.info

Reacties (63)

63
59
42
13
1
5
Wijzig sortering
AdV:
Effe over de 2 molexen op de kaart:
Hoe lager de spanning, hoe hoger de stroom!
als de kaart de 5 volt draad gebruikt, en 80 watt verbruikt,
is dat 16 ampere. De stroom bepaald de kabeldikte, dus heb je hier een 1,5 mm2 massieve kabel voor nodig om in thuisstroom termen te blijven spreken.
Dus die 2 molexen zijn zo gek nog niet...
gr. Paul
En het verlies op de kabels is:

P(verlies) = I*I*R

Oftewel: het verlies neemt quadratisch toe met de weerstand, in dit geval in de printbanen..
Nou ben ik dus benieuwd aangezien, de eerste indicaties aangaven >400 watt voeding nodig.

Hoe dat nu in de praktijk uitwerkt:

Tom zegt +- 110 Watt max.

Nou een rekensommetje levert mij het volgende op:
110 Watt Geforce 6800
30 Watt 2 SATA Disken
30 Watt CDR/DVDR
90 Watt P4 Prescot

Geeft totaal 260 Watt dus met een 350 Watt kwaliteitsvoeding hou je nog 90 Watt over voor je mobo, geluid en geheugen.

Nou weet ik niet precies hoeveel mobo, geheugen en geluid gebruiken maar het lijkt me dat met een goede 350 Watt voeding het mogelijk moet zijn een normale config te laten draaien.

Iemand andere ideeen ?
Vergeet niet dat een voeding van b.v 350Watt dit vermogen alleen VERSPREID over de 3,3V, 5V en 12V kan geven!! Wat jij zegt is dat een GeForce 6800, HD's, CD-drives etc. en een P4 (die niet voor niets een extra P4 stekker van 2x 12V heeft) makkelijk op een 350Watt voeding gaat draaien. Als je het omrekent haal je dat dus never nooit.
Hangt er maar net vanaf hoeveel vermogen die voeding op zijn 12V lijn kan leveren.

Er zijn 350W voedingen die makkelijke 300W op de 12V kunnen leveren. Die hebben dus nergens last van. Er zijn er ook, die maar 250W op de 12V kunnen leveren, en dan kom je in de problemen.

Op de doos zal niets staan, maar volgens mij staat op iedere voeding zelf een stikker met de vermogen die de 12, 5 en 3,5 V lijnen kunnen leveren.
vele no-name psu's van 300Watt halen lang geen 300Watt. langs de andere kant halen goede psu's zeer ruim hun specificaties. ik denk dat nVidia een soort veiligheidsmarge wil inbouwen.
een 350W voeding levert geen 350W aan de hardware. Die 350W geeft meer het maximale verbruik aan als ik me niet vergis. Het gecombineerd vermogen is veel belangrijker.

Maar als je stelt dat je met een 350W KWALITEITS voeding genoeg hebt dan zeg je niks verkeerds ;)
Goed punt maak je hier.

Neem bijvoorbeeld een Thermaltake voeding van 480 Watt en een Zalman van 400 Watt. respectievelijk leveren deze 2 voedingen 240 en 380 Watt gecombineerd vermogen. Zo zie je dat de Zalman nauwelijks inleverd. Daarnaast is de prijs van beide voedingen nagenoeg hetzelfde. Hieruit blijkt overgens wel in mijn optiek dat de zalman de betere keuze is.

Ik denk dat het dus echt geen kwaad kan om te overwegen een 400 Watt of hogere voeding te gaan gebruiken... De modificaties van hardware en gadgets gaan momenteel in een stroomversnelling lijkt wel, dus een beetje "overcapaciteit" kan geen kwaad lijkt me :9
Het probleem met PC-voedingen is dat ze 3 verschillende voedingsspanningen hebben. Dat wil zeggen dat je 350W voeding waarschijnlijk wel écht 350W kan leveren, maar dat is het gecombineerde vermogen van de 3.3V, 5V en 12V lijn.

In een doorsnee PC heb je nooit een perfecte vermogensverdeling tussen de 3 voedingslijnen. Als zowel je CPU als je grafische kaart op de dezelfde voedingslijn hangen, kan het goed zijn dat je zelfs een 350W voeding eruit trekt met slechts 260W stroomverbruik.

[edit] Silent_puma was me voor ;)
Dat verschilt dus weer per voeding.. over het algemeen hebben de meest emensen merkloze voedingkjes wat meestal niet zo goed is.

Gecombineerd vermogen van mijn 360watt HPC voeding (in Cheiftec kast) gaat over de 400 als je de +3/+5 en +12 wattage optelt.
Het schijnt maar 17 wattage te verschillen tussen een 9800XT en GF6800, ik heb dan een 9800pro maar dat zal niet veel schelen als die ook is overgeklokt :)

http://www20.brinkster.com/hopefleet/pics/voltage.png (let niet op vcore, brak moederbord)

[edit]
letter vergeten
Dat je deze kaart niet kan overclocken betekend dat de kaart al "overgeclocked" is. De core en het mem zijn al duidelijk vrij vergepushed.

Als je kijkt naar een 9800pro die makkelijk de 9800XT
speeds haalt zelfs met standaard cooling.

Ik ben benieuwd hoe de nieuwe R-chip van ATi het gaat doen ik vergelijking...
Anoniem: 60259
@Setambre20 april 2004 17:52
Dat hoeft nog niets te zeggen, aangezien het om één kaart gaat en nog een vroeg model ook.
Mijn MX440 (el cheapo) draait zowel op core als geheugen dik 20% hoger, dezelfde kaart van een kennis kan nog geen 5% hoger draaien.
Ik denk dat we pas later zullen zien wat je echt met die kaarten kan doen en hoe groot de onderlinge verschillen werkelijk zijn.
Dat deze kaart niet goed scoort zegt helemaal niks. Dit is nog een testmodel en geen finale versie dus wat de schaalbaarheid nu doet is puur een beta test.
Anoniem: 19358
20 april 2004 17:17
overklokken van review samples en rev0 silicon, de resultaten zijn geen fluit waard imho;

enkel retail produkten kunnen iets of wat beeld geven van de overclockbaarheid van de kaarten die de gamers hier in hun pollen gaan krijgen.

overclocken van pre-retail samples is zo ie zo iets dat de meeste HW review sites niet doen, of zekers niet "in-depth"

check reviews op anandtech, tomshw, hardocp, hexus,... to see what I mean :)

ps: indien je denk dat een 460Watt voeding ECHT nodig is.. think again.

hier draait die 6800 Ultra in een barebone systeem met een 200Watt (u leest het goed) PSU
http://www.nvnews.net/vbulletin/showthread.php?t=27394
als ie maar 17 wat meer gebruikt.. hoezo heeft ie dan 2 molex stekkers nodig ipv 1?
verder denk ik dat het vrij eenvoudig is om deze nog stiller te maken door een klein beetje te spenderen in een betere fan. dit is voor nvidia natuurlijk een plek waar ze enigzins op kunnen bezuinigen en blijkbaar ook gedaan hebben...
ik vraag me eigenlijk af hoe de airflow avn dit apparaat eruit ziet.. dit is vrij makkelijk aan te tonen met een camera/foto-toestel en een sigaret/rookmachine
verder denk ik dat het vrij eenvoudig is om deze nog stiller te maken door een klein beetje te spenderen in een betere fan. dit is voor nvidia natuurlijk een plek waar ze enigzins op kunnen bezuinigen en blijkbaar ook gedaan hebben..
nVidia biedt zelf geen kaarten aan, die bieden alleen een GPU en een reference design die de fabrikanten kunnen gebruiken. Een fabrikant staat vrij een eigen design te maken met een andere koeling, alleen doen de meeste dat niet omdat het redelijk veel geld kost, geld wat ze goed kunnen besparen door de felle concurentie. Die gebruiken dus gewoon het reference design.

Maar er zullen echt wel fabrikanten komen die een andere (betere?) koeling ontwikkelen of toepassen, bijvoorbeeld door een Zalman oplossing of een grote fan te gebruiken waardoor de fan minder luidrichtig hoeft te zijn.
Anoniem: 74500
@Beaves21 april 2004 15:00
MSI brengt zo meestal een kaart met een stukken betere koeloplossing op de markt. Ze gebruiken nl. een koperen koelblok met één relatief grote fan vooraan en één kleine fan achteraan én het produceert dan nog niet eens veel lawaai! :)
Nu zullen ze die kleine fan zelfs niet meer nodig hebben, want er bevinden zich geen memorychips meer op de achterkant van de kaart.
MSI FX5950 Ultra

Ook bij hun FX5900 is een soortgelijk ontwerp:
MSI FX5900
er zijn waarschijnlijk 2 molex stekekrs om de printbanen korter en dunner te kunnnen houden
Eerder om zwakkere/goedkopere voedingen beter te ondersteunen.
Ja die 2 molexen heb ik ook nog steeds nergens duidelijk uitgelegd gezien.
Noodzakelijk voor het wattage is het absoluut niet, want een standaard molex-voedingsdraad is dik zat om er 2KW doorheen te laten lopen, kijk maar naar gewone stekkerblokjes.

Misschien denken ze juist dat de gemiddelde n00b denkt dat hij dan extra snel is, net als een dubbele carburateur in je auto ofzo |:(
Reactie op TheLemon:
Misschien denken ze juist dat de gemiddelde n00b denkt dat hij dan extra snel is, net als een dubbele carburateur in je auto ofzo
Uhh dubbele carburateurs laten je wagen ook daadwerkelijk sneller rijden, mits goed afgesteld.

Of 2 molexen de kaart sneller laten draaien: beats me! :+
Ik kan het mis hebben, maar ik meen dat de dikte van de kabel verband houdt met het vermogen dat er doorheen gaat en niet direct met de stroom, immers stelt 50A bij 10mV nog niet zoveel voor.
Je hebt het mis ;) Het is de stroom die een geleider warm maakt, niet het vermogen.

Dat is ook één van de redenen waarom hoogspanningsleidingen zulke hoge spanningen hebben; de stroom kan relatief laag zijn, dus er is weinig warmte ontwikkeling.
Ja dat weet ik, alleen je hebt mijn zin verkeerd geïnterpreteerd, ik bedoel dat het bij een auto wel zo is.

Over die draadjes @blokker_1999: Dan mag jij ook terug voor het vak Nederlands ;) Maar oke 2KW is misschien iets overdreven, maar toch zeker meer dan ruimschoots genoeg voor zo'n vga-kaart lijkt me.

Ik kan het mis hebben, maar ik meen dat de dikte van de kabel verband houdt met het vermogen dat er doorheen gaat en niet direct met de stroom, immers stelt 50A bij 10mV nog niet zoveel voor.

Oftewel stel je laat er inderdaad 9A doorheen lopen, dat komt bij 230V neer op ruim 2KW. Ik snap niet hoe je dan erbij komt om ineens maar met 12V te rekenen zodat je op 100W uitkomt. En hoe lang is zo'n draadje helemaal, die draden in je huis (die overigens heus wel meer dan 16A kunnen vervoeren, anders was het veel te brandgevaarlijk geweest om zo op het randje te gaan zitten) zijn vaak tientallen meters lang, ga die weerstand maar eens meten.

Kijk voor de lol eens naar een waterkoker van 1800W, die kabels+contacten zijn niet zoveel dikker dan een molex hoor, in ieder geval niet 18x zo dik, om het voorbeeld hierboven nog maar even aan te halen.
@TheLemon:

Jij zegt dat er 2000W doorheen kan. Aangezien de molexjes 12V aankunnen, kom ik dan uit op:
P=UxI
2000/12=166,7A

Dat kan never nooit niet, kijk maar eens naar die dikke kabels die 69A ( :?) vervoeren. ;)

[edit]
Met die waterkoker kan je hetzelfde sommetje toepassen.
1800W/230V=7,8A
Dat kan makkelijk (16A zekeringen).
Het 'waarom twee molex stekkers' is al een paar keer uitgelegd.
Maar hier komt ie nog een keer.
Het is om genoeg SPANNING en stroom bij de GPU te krijgen (maar vooral de spanning).
Als er namelijk veel stroom moet lopen, dan is ook bij een kleine weerstand de spanningsval toch al redelijk groot (enkele millivolten).
Hoe meer dat tegengegaan kan worden (door dikkere draden, meer draden/printbanen naast elkaar) des te beter dat is. Vandaar dus twee molexen.
haha als dat zo is

kaart iets breder maken en er 4 plaatsen
plak er wel een 2de voeding in.

200 watt ofzo uit een barebone voor alleen de videokaart
Anoniem: 84469
@TheLemon20 april 2004 17:38
Standaard molex kabeltjes zijn beduidend dunner dan de leidingen in je huis. Verder zijn ze maar 12V i.p.v. 230V.

Heb laatst even naar het verschil in diameter gekeken... 16A max voor huiskamer kabels, betekent dan 9A max voor Molex kabel. Is dus max 100W.

Heb ik het nog niet over de connector zelf gehad, of de manier waarop die op het bord gevestigd wordt... Kunnen nog extra bottlenecks vandaan komen, waardoor je molex niet genoeg is.

Vereenvoudigd ontwerp van de kaart geloof ik niet zo hard. Daarvoor zitten ze te dicht bij elkaar.
Misschien denken ze juist dat de gemiddelde n00b denkt dat hij dan extra snel is, net als een dubbele carburateur in je auto ofzo

Niet echt omdat hij twee toegewijde kabels nodig heeft... ik denk ook niet dat een gemiddelde (lees: El Cheapo) voeding al te veel stroom op één kabel kan sturen... misschien daarmee twee molex connectors.
Nee, maar ik ken geen voedingen die meer dan één toegewijde 12v of 5v bus hebben, intern komen ze allemaal uit dezelfde trafo en elco's etc.
Mag ik voorstellen dat gij is trug naar't school gaat aub, 2kW door zo'n dun draadjes, zijde op uwe kop gevallen?

Voor zover geweten is zijn de 2 aansluitingen nodig voor een vereenvoudigd ontwerp van de kaart.
ehrm 2KW bij 230 Volt ja das iets heel anders als bij 12 of 5 volt. Aangezien P=U * I, dus als je de spanning laat zakken word je stroom (lees temp/kabeldoorsnede) hoger

doh eerst naar beneden srollen ben duidelijk niet de 1e |:(
Anoniem: 95392
@TheLemon20 april 2004 19:20
Ik denk dat de gemiddelde Noob die kaart echt niet zelf aan zal sluiten, laat staan dat hij zich druk zal maken over hoeveel molexen da ding heeft.
Nadat de P4 z'n privé connector kreeg moet de GPU nu eigenlijk ook gewoon z'n eigen connector krijgen. Die P4 connector voldoet misschien al aardig, gaat al een dubbel paar doorheen. Nu alleen nog ff dubbel zo breed uitvoeren zodat er ook nog 2x +5 doorheen kan (of gaat het alleen om de +12V?), of die leidingen gewoon extra dik uitvoeren en dan zijn we er weer klaar voor op een wat minder klungelige manier. En de PSU bouwers ook weer blij :D, kunnen ze na S-ATA weer wat veranderen.
Die extra molex stekkers zie ik ook niet echt zitten. Volgens de AGP pro spec zou de kaart zeker meer dan genoeg stroom uit de connector moeten kunnen trekken. 110W is toch wel ruim genoeg voor zo'n kaartje. Maar waarschijnlijk zijn deze dingen gemaakt voor de MB's die geen pro ondersteuning hebben ofzo...
17 watt is bij 5 volt nog wel even 3.5A
Als je bv. over 100 watt praat praat je wel over 20 ampere bij 5 volt

Nu zijn veel Molex stekkers kwalitatief om te janken en zou een stroomverdeling over 2 stekkers minder risico op storingen kunnen geven.
Anoniem: 98646
@n4m3l35520 april 2004 16:51
volgende maand als je vakantie geld binnen komt :)
Anoniem: 59362
@n4m3l35520 april 2004 16:58
als ie maar 17 wat meer gebruikt.. hoezo heeft ie dan 2 molex stekkers nodig ipv 1?
Misschien voor een stabielere stroom toevoer.

btw, ik word niet echt wijzer van die mp3's |:(
als je een keer een voeding heb open gesloopt weetje dat alle roode / gele / zwarte molex connector-draaden met een grote berg soldeer-tin aan elkaar zijn gesoldeerd om het zo maar te zeggen ( naruurlijk zijn de kleuren wel geschijden )

ik denk dat die 2 stekkers ongeveer het zelfde is als een ventilator op de north-bridge bij moeder borden
Anoniem: 84469
20 april 2004 17:33
Er wordt inderdaad druk gespeculeerd op Beyond3D. Maar B3D is zo'n forum waar niet alleen geinteresseerden rondlopen, maar ook mensen die het 100% zeker weten. Ontwikkelaars van ATI en NVidia zelf, of mensen die direct ermee in contact zijn.

Voor zover ze hun mond mogen open doen, komt van die mensen een heel duidelijk antwoord aangaande al die speculaties: De eerste versie die nu in de winkel komt is 400MHz. punt.

Het lijkt er wel op dat er een nieuwe core stepping aankomt, en daarvan zouden er exemplaren zijn geweest waar men succesvol op 475MHz heeft geklokt. De vraag is natuurlijk of dat representatief is. Die GDC variant was duidelijk een overklokte versie.... In het gunstigste geval, komt er eind van het jaar een 6900 o.i.d. met 475 MHz core... Dit deel is uiteraard wel speculatie.
Er lopen sinds de 6800 release bij Beyond3D ook nog een derde slag mensen: de fanboys. (en op dit moment dus de Nvidia fanboys)
Het zijn die nieuwe mensen die speculeren over 475Mhz, terwijl de complete oude garde het op 400Mhz houdt.

Nvidia heeft zelf al een aantal keren aan verschillende mensen bevestigd dat de Ultra 400Mhz wordt. Ze bevestigen dat zelfs zwart op wit, en je kan het zelfs op hun site nalezen.
(Hoewel daar dan 1100Mhz voor het geheugen staat, en je de frequentie van de core even moet uitrekenen aan de hand van de fillrate, maar ook dan kom je keurig op 400Mhz)
Onder andere door de relatief goede prestaties qua geluidsproductie, koeling en energiegebruik wordt er op de fora van Beyond3D gespeculeerd dat de retail versie van de GeForce 6800 Ultra een kloksnelheid zal krijgen van 475MHz in plaats van 400MHz. Hiervoor zou gebruik gemaakt worden van een nieuwe en zuinigere stepping.
Albatron press release
The GeForce 6800/6800UV VGA cards also apply AGP 8X that can support the design of most mainboards on the market. The GPU has been clocked up to speeds of 600 MHz and contains 16 pipeline design, therefore the performance of GeForce 6800 is twice as GeForce FX5950. The memory clock for the 6800 is rated at 700 MHz and the 6800UV is rated at 1 GHz. The 6800 contains 128 MB of DDR memory and the 6800UV includes 256 MB GDDR 3 memory. Both cards contain a 256-bit memory bus.
600Mhz core }> ? of bedoelen ze 600Mhz toch de DDR3 RAM chips :? ?

Omdat de reviewversie (A1), met 500Mhz Samsung chips is uitgerust en deze al standaard op 550Mhz liepen viel de RAM Overclock erg tegen bij de meeste reviewers. Dus is Albatron in de war?
Dat kan haast niet anders dan dat Albatron in de war is.

De waardes voor het geheugen zijn bv totaal niet in overeenstemming.
Nvidia heeft 1100 Mhz voor de Ultra, (550 DDR). En dan zou Albatron de core verhogen tov de Nvidia reference terwijl ze het geheugen verlagen??

Als iemand me daar de logica van kan uitleggen dan hoor ik het graag.

De non-ultra zou dan maar 350Mhz DDR krijgen. De kaarten zouden dan een gigantische geheugenbottleneck krijgen, terwijl de waardes voor de core onwaarschijnlijk hoog liggen.
De speculaties voor een 475Mhz core zijn al niet waarschijnlijk laat staan dat het 600Mhz zou zijn.
den r9800 had dan ook al betere yields bij z'n release...
Ik vind het persoonlijk erg jammer dat de kaarten van tegenwoordig zoveel stroom moeten verbruiken. Het is natuurlijk logisch omdat de prestaties ook toenemen, maar overal wordt geroepen dat we zuiniger moeten zijn op het milieu en dan komen de fabrikanten met dit slurpende kaarten :?
Slechts 17 watt meer. Poehaaa. Valt mee hoor.
Wanneer gaan we wat meer zuinig chips bouwen. Vind het de laatste tijd echt uit de hand aan het lopen hoor.
Wat dachten we van het mileu tegenwoordig. Nu is chips produceren sowieso al niet echt goed voor het mileu, maar hoeveel zal zo'n pc met deze videokaart wel niet gebruiken.

Mijn Athlon 2000+ systeem gebruikt al 200W zonder wat te doen (Als ik Vcool draai haal ik hier dan nog wel 50 Watt af bij idle toestand). Oplopend naar 260W stressed met spellen.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee