.Community - Q&A: Vraag alles wat je wil weten over pc-hardware aan Tomas

Vandaag proberen we iets nieuws op Tweakers: een Q&A met een van onze reviewers. Op woensdag beantwoordt redacteur Tomas Hochstenbach al je vragen. Hij reviewt pc-componenten voor Tweakers, dus daar ligt zijn expertise, maar als je iets anders wil weten, is dat ook welkom.

Over Tomas Hochstenbach

Tomas schrijft al meer dan een decennium over computercomponenten: van processors en videokaarten tot kasten en koelers.

Menig Tweakers-redacteur krijgt regelmatig vragen van lezers in zijn DM- en e-mailinbox. Normaal gesproken is het voor ons onmogelijk om die allemaal individueel te beantwoorden, maar deze Q&A is jouw kans om de mening of het advies van een redacteur over jouw persoonlijke casus te krijgen. Of wie weet ben je juist benieuwd wat de redacteur van een bepaalde trend vindt, aan welk product in een bepaalde categorie hij de beste herinneringen heeft, wat zijn laatste techaankoop is of welke kleur zijn tandenborstel heeft. Je mag alles vragen, of je ook antwoord krijgt, merk je vanzelf ;-)

Vanmiddag zit Tomas klaar om tussen 15.00 en 16.30 uur je vragen te beantwoorden. Die kun je alvast stellen in de comments hieronder. Wil je live meelezen of vervolgvragen stellen, check de comments dan tussen de genoemde tijden of zorg dat je notificaties voor replies op jouw reactie aanstaan (belicoontje rechtsbovenin > 'Ontvang pushnotificaties').

We kijken uit naar jullie vragen en zien jullie graag woensdag om 15.00 uur.

Door Tomas Hochstenbach

Redacteur

08-02-2023 • 11:30

160 Linkedin

Reacties (160)

160
160
82
9
0
69
Wijzig sortering
Ik sta voor de klas (middelbare havo/vwo), daar behandelen we in een periode een domein waar hardware/architectuur een onderdeel van is.
Mijn vraag: Wat is een echt gaaf stukje techniek waarvan het waard is om een les verdieping aan te besteden?
Om te beginnen ben ik jaloers op je leerlingen, want zelf heb ik helaas nooit informatica-onderwijs gehad op de middelbare school. Maar het kan toch altijd nog goed komen zoals je merkt ;)

In aanvulling op alle toffe suggesties van medetweakers die je al hebt gehad, zou ik om te beginnen willen voorstellen om eens klassikaal een pc in elkaar te zetten. Er is niets dat opbouw van de 'black box' die een computer voor velen is zo concreet maakt als dat.

Daarnaast is chipproductie naar mijn mening een razend interessant onderwerp, en ook steeds maatschappelijk relevanter door bijvoorbeeld de rol van ASML. Een korte geschiedenis van lithografie en dergelijke klinkt mij als machtig interessant in de oren.

Ook relevant, en meer richting architectuur, is hoe een datacenter in elkaar zit. Dat kun je heel concreet maken: wat gebeurt er nou eigenlijk als je leerling z'n insta-feed refresht? Van wifi of 4G naar het providernetwerk, internetknooppunten, etc. Blijft zo'n verzoek in Nederland, in de EU, of gaat het de wereld over?

Maar wat ik zelf nog wel meekrijg van wat jongere techniekgeïnteresseerden in mijn omgeving, is dat het echte enthousiasme tegenwoordig toch vaak begint bij toffe gadgets: drones, home automation, 3D-printers etc. Daarmee krijg je ook de matig geïnteresseerde wat sneller mee, denk ik.

Ik ben natuurlijk zelf geen docent, maar hopelijk zit er tussen deze en alle andere suggesties wat mooie inspiratie :)
Ik ben niet de persoon in het topic, maar een super interessante is de allereerste Core i series processor, de switch van Core 2 naar de i serie was een gigantische switch qua shrinking, design en performance. Je kunt kijken hoe hun favoriete spelletjes opeens dus veel sneller waren, en uitleggen waarom!

Qua videokaarten, een HD 5970/3870X2 is ook een interessante verdieping omdat dit een van de eerste consumentenproducten is geweest met dual cores op 1 PCB als het aankwam op videokaarten. Zelfde als hierboven, je haakt flinkt in op wat ze al jaren doen, gamen, en kunt meer uitleg geven waarom ze nu al die mooie graphics hebben.

Ook een interessante is koeling! Wat maakt nou een D15 zo goed vergeleken met een goedkope AliExpress koelert? Vapor chambers en dergelijke zijn wel degelijk de aandacht waard, en heel simpel te integreren met natuurkunde en wiskunde!

[Reactie gewijzigd door DMZ op 8 februari 2023 13:01]

Qua videokaarten, een HD 5970/3870X2 is ook een interessante verdieping omdat dit een van de eerste consumentenproducten is geweest met dual cores op 1 chip als het aankwam op videokaarten.
Hoe bedoel je dit precies? Want dit zijn geen voorbeelden van "dual cores op 1 chip". Op zowel de HD 5970 als de HD 3870X2 zijn twee discrete GPUs aanwezig. Het zijn geen dual core ontwerpen, maar het zijn qua architectuur twee videokaarten op 1 PCB. Er zit een PCI Express bridge chip op die de PCI Express lanes verdeeld over de twee GPUs.
Vanuit het perspectief van de bus (de hardwarekant) of de driver/game (softwarekant) is er geen significant verschil tussen deze "combi"-kaarten of twee losse videokaarten.

Het eerste voorbeeld van een dergelijke kaart waarbij twee volwaardige GPUs op één PCB zijn geplaatst die ik mij kan herinneren, voor de consumentenmarkt, is de ATi Rage Fury Maxx (1999).

Kijk je iets verder naar de "techniek" die wordt toegepast dan is dat eigenlijk het idee van "teaming" wat je mogelijk kent onder de namen "SLI" of "CrossFire". Dat principe is voor het eerst, voor de consument, beschikbaar gekomen met de 3dfx Voodoo2.
Daarvan konden er twee in de PC gestoken werden, waarbij de kaarten onderling met een kabeltje verbonden werden. Zo waren ze in staat flink hogere prestaties te behalen.
En technisch is eigenlijk de Voodoo2 zelf al een voorbeeld van zo'n multi-chip oplossing. De Voodoo2 heeft namelijk twee texture mapping units aan boord. Je ziet op die kaart drie chips zitten die het werk doen, en twee daarvan doen hetzelfde werk, alleen elk op een andere render pass. Zo wist die kaart de prestaties van zijn voorganger, de Voodoo, flink voorbij te streven. Nog extra geholpen door een verhoging van de kloksnelheid.

Daar zou ik het dan ook heen willen sturen qua vermeldingswaardige techniek: de 3dfx Voodoo.
Dat was de eerste 3D acceleratorkaart voor de consumentenmarkt. Dat ding zorgde voor een enorm verschil in de looks van 3D games en de speelbeleving. Plots hadden games echt diepte. Je kunt dat tastbaar maken door het te zetten als de evolutie van Doom naar Quake.
De Voodoo is in mijn ogen de vader van de 3D kaarten zoals we die hedendaags kennen. En dan zitten er zeker nog wel mijlpalen op de weg, maar dit is het begin van die reis.

[Reactie gewijzigd door Ultraman op 8 februari 2023 14:21]

Je hebt helemaal gelijk, ik heb zelf helaas nooit een VooDoo gehad!
Micro Bit (van bbc) heb ik in onderwijs positief ervaren; erg toegankelijk voor 'iedereen'
ESP en Arduino's? Juist met microcontrollers kun je zoveel leuke dingen met de echte wereld doen.
Valt dat onder PC hardware? (zie de titel van dit artikel)
Hij reviewt pc-componenten voor Tweakers, dus daar ligt zijn expertise, maar als je iets anders wil weten, is dat ook welkom.

aan welk product in een bepaalde categorie hij de beste herinneringen heeft, wat zijn laatste techaankoop is of welke kleur zijn tandenborstel heeft. Je mag alles vragen, of je ook antwoord krijgt, merk je vanzelf
@Bramtweakers vroeg niet specifiek om PC hardware. Neemt niet weg dat microcontrollers erg fun zijn, en je pubers daar ook mee kunt binden.
koeling in de breedste zin van het woord en koppel dit aan andere dingen die ze "cool" vinden zoals koeling in een auto. Vertel over luchtkoeling vs vloeistofkoeling. De evolutie die je in de pc wereld ziet die bij auto's al gemaakt was en hoe dit nu naar servers aan het gaan is. Kun je leuk beeldmateriaal bij gebruiken van zowel computers als een Porsche etc. Zo komen hardware en natuurkunde en coole dingen samen
Machine Vision projectjes met een Raspberry Pi voor zaken als home automation en beveiliging bijvoorbeeld erg tastbaar en zet hopelijk de creativiteit een beetje aan.
Dan ben ik voor nieuwsgierig welk vak jij geeft.
Wordt er nog informatica gegeven?
Modulariteit versus Geïntegreerd.
DIY versus KantEnKlaar.
Geldt voor computers, drones, tools etc.
Node-RED applicatie op een Raspberry Pi met wifi/ethernet verbinding.
Kan je low level met flow diagrammen aan de slag a la IFTTT (if this then that).
Leuk om dingen te automatiseren.
Cache, associativiteit van de cache, register renaming (Tomasulo algoritme).
Wat is een goede manier om te bepalen of een "oude" harde schijf aan vervanging toe is? Het meeste advies dat ik vind is van en voor mensen voor wie opslag hun Tweakers-hobby is, en die een setup hebben waarin die dingen 24/7 draaien en gemonitord worden. Ik heb het over oude schijven die al lang mee gaan mede omdat ze slechts sporadisch gebruikt worden.

Voor de comment-sectie, omdat het misschien te nauw is voor Tomas: en dat dus in Linux met ext4-geformatteerde schijven.
Het checken van de SMART-stats is zoals andere users al opmerken de beste manier. Zodra je onherstelbare bad sectors ziet opduiken, weet je dat het tijd is om 'm te gaan vervangen.

Maar, goeie SMART-waardes zijn geen garantie: een harddisk die perfecte stats heeft, kan er alsnog morgen mee ophouden. Zorg bij belangrijke data dus altijd voor back-ups, ook al heb je net een nieuwe schijf.
SMART is daarvoor de juist toepassing. Smart values uitlezen en die interpreteren.
Bij Backblaze hebben ze daar een goed artikel over: https://www.backblaze.com...cate-hard-drive-failures/
Helaas is het artikel van Backblaze totale onzin door de manier van schijfacquisitie:

TL;DR: ze kochten al 2ehands schijven voor die test, die dus op veel verschillende manieren stuk gaan en geen historie hebben.

https://www.zdnet.com/art...s-drive-reliability-data/
Er loopt hier op tweakers ook een draadje over het interpreteren van je SMART status: forumtopic: Check je SMART

Edit: @DMZ Ik heb het artikel waar je naar linkt gelezen, ik heb de indruk dat de schrijver een heel stuk milder oordeelt over de publicaties van BackBlaze dan jij schijnt te doen. Wat zie ik over het hoofd?

[Reactie gewijzigd door sjirafje op 8 februari 2023 13:10]

De schrijver heeft als doel om een beetje schaduw te gooien op die test van ze, ik zet dit even om naar wat het echt is: als wij de origine van de schijven dus niet kunnen vaststellen, hoe kunnen we dan uberhaupt enige conclusies trekken uit die test?

Kan best zijn dat ze een stell consumentenschijven ergens vandaan hebben gehaald die allemaal Seagate waren en allemaal waterschade hadden, en dat zou je dan in de grafieken terug zien als 'Seagate heeft een hoge failure rate'.

In veel gevallen wisten ze niet eens hoe lang de schijf voor Backblaze draaiende was.

Dit is niet hoe je dingen test op uithoudingsvermogen en kwaliteit.
S.M.A.R.T.
Wat kan ik daarvan zeggen....leuk in theorie. In de praktijk is het toch minder.
Waarom deze opmerking?
Ik leef en werk in Paraguay. Computer-onderdelen die door fabrikanten op de Zuid-Amerikaanse markt worden weggezet zijn minder van kwaliteit dan voor de V.S/Canada, West-Europese en Japanse markt.

Monitoren, dat is altijd "prijsschieten" met de verschillen tussen internet specificaties en wat daadwerkelijk word afgeleverd. Maar dat is een andere discussie.

Nu heb ik hier al 9 verschillende drives meegemaakt (7 Seagates, 1 WD en 1 Hitachi) waarvan hun S.M.A.R.T. aangaf dat de "algemene gezondheid" van de drive zo laag is dat deze vervangen moeten worden. Er is zelfs 1 Seagate drive die dit al bijna 11 jaar aangeeft, de andere doen dit tussen de 3 en 5 jaar.

Heb echter veel meer drives gehad waarbij S.M.A.R.T. aangaf dat er niets aan de hand was, maar dat de drive daadwerkelijk onbruikbaar was geworden (door zaken die S.M.A.R.T. op had moeten merken). Dan moet je denken aan 50+ drives (allemaal Seagates op een WD na).

Nu ontken ik de cijfers van BackBlaze niet. Ook hun conclusies niet. Maar door eigen ervaring op veel kleinere schaal dan BackBlaze (ik beheer 40 computers hier) denk ik toch echt anders over het nut van S.M.A.R.T. en de conclusies die men zou moeten halen uit de resultaten die S.M.A.R.T. produceert.

Er is andere software die drives serieus kan testen op problemen. Deze software kan veel meer, maar je je moet echt heel goed weten wat je doet anders heb je een hele dure deurstop. MHDD is de naam. Het ziet er heel spartaans uit, alsof het recht uit het DOS tijdperk komt. Onderschat de mogelijkheden van deze software echter niet. Het is erg krachtig en en een fout is zo gemaakt. Het werkt ook op een zodanig laag nivo dat reparatie/restauratie niet meer mogelijk is.

Tests met deze software kunnen uren duren, maar daarna weet je wel waar de problemen zitten. Beschadigde blocks, trage blocks, maar ook controller problemen. MHDD doet zijn beste werk met spinnend roest drives, maar bied ook wat inzicht met SSD (SATA) drives.
Deze website vond ik wel erg handig, is wel in het engels : https://www.digitalcitize...at-smart-what-does-it-do/
Gaat ook over SSD.

[Reactie gewijzigd door Calamor op 8 februari 2023 12:33]

SMART data. Paar zaken: een HDD kan raar gedragen door bijvoorbeeld een slechte SATA kabel. Deze fouten kan je vaak spotten mbv de UltraDMA CRC counter.

Als die erg laag is, dan zit de oorzaak echt in de HDD zelf. Er zijn verschillende indicatoren zoals reallocated sector, pending sector en uncorrectable sector count.

Reallocated sectors geeft aan dat de HDD data heeft verplaatst naar een reserve sector, omdat de originele traag is om te lezen (moet herhaardelijk opnieuw proberen) en/of corrupt. Een HDD kan met ECC bits (error correcting code) nog enige fouten herstellen en de juiste data terug geven. De HDD kan dan besluiten die sector te behouden of op een later moment te verplaatsen (pending sector count).

Echter als een HDD een slechte sector aantreft (die ook geen kans heeft gehad om te verplaatsen, bijvoorbeeld dankzij bitrot of 'wear' en lange tijd niet gelezen is geweest): dan is die data daadwerkelijk onleesbaar zijn geworden. In dat laatste geval is de sector echt verloren gegaan 'uncorrectable'. Dit stadium wil je echt voorkomen, want met een beetje geluk gaf de schijf daarvoor al kenmerken dat die begon te falen.

Helaas zijn de rapportages in SMART niet altijd gestandaardiseerd. Read error rates kan ook een indicatie geven dat een schijf slechter wordt, echter de SMART uitlezing is dat niet. In mijn NAS kan ZFS dat wel netjes monitoren. De reallocated en uncorrectable sectors counts zijn echter wel goed te monitoren met SMART, want deze zouden voor een gezonde schijf stabiel (het liefst op 0) moeten staan. Nu heb ik wel schijven gehad waarbij ze vanaf dag 1 al op >0 stonden, maar wel continu stabiel.
Ik ben benieuwd naar iets waar echt nooit over gesproken wordt.

Als je videos wel eens bekijkt van PC builds (Linus of jay2cents), dan pakken ze de componenten overal beet en zitten ze overal aan alsof het niet kapot kan. Er wordt echter in iedere manual gewaarschuwd voor statische electriciteit en dat je componenten voorzichtig moet pakken en niet aan chips moet zitten etc.

Mijn vraag
Hoe voorzichtig dien je nu om te gaan met hardware. Is het vandaag de dag echt nog zo gevoelig voor alles, of kun je alles net zo beetpakken en half mee smijten zoals ze soms op de videos doen?

Ik ben tot op heden altijd uiterst voorzichtig, maar ik twijfel dus of ik mijn voorzichtigheid enigzins los kan laten. Het beperkt je namelijk ook in het sneller bouwen van een PC.
Interessante vraag! Ik ben geen elektrotechnicus, maar ik kan je wel vertellen wat de voorzorgsmaatregelen in ons testlab zijn. Die blijven beperkt tot zorgen dat je ontladen bent (bv. de ongeverfde achterkant van een radiator aanraken) en geen gekke dingen doen om statische elektriciteit op te zoeken. Ga dus niet met je pantoffels op een tapijt een computer lopen bouwen ;). Het is ook niet nodig om bewust chips aan te gaan zitten raken ofzo.

Aan de andere kant, er geldt natuurlijk altijd better safe than sorry en zeker als het je eigen, duurbetaalde hardware is kan ik goed begrijpen dat je liever voorzichtig bent.
Linus Tech Tips heeft samen met Electroboom zelfs een video gemaakt over of (normale) statische electriciteit je componenten kan slopen:

https://youtu.be/nXkgbmr3dRA

Disclaimer: het is wel een video met een gezellige sfeer om het zo maar het zeggen, het is geen ultra-serieus wetenschappelijk experiment :D

[Reactie gewijzigd door iCore op 8 februari 2023 11:53]

Voor iets meer onderbouwing kan je ook naar hetzelfde filmpje kijken maar dan via Elektroboom ;)

https://www.youtube.com/watch?v=4SjOv_szzVM
Ja dus als ik het een beetje goed begrijp vanuit de video van Linus (die ik gek genoeg nog nooit bekeken had). Dan is het wel echt beter om toch voorzichtig te doen en als het even kan jezelf te ontladen of een armband te dragen?

Het is en blijft alleen altijd gek om te zien hoe ze in al die video`s om gaan met de apparatuur. Een kleine disclaimer dat je er niet zo mee om hoort te gaan zou misschien handig zijn? Ik kan me voorstellen dat veel mensen hierdoor toch op een verkeerd been worden gezet (inclusief ik zelf), want ook al heb ik een PC of 20 gebouwd in mijn leven, toch was ik altijd in twijfel over mijn voorzichtigheid en hoe dat contra stond op hoe 'experts' er mee om gaan.

Wellicht kan er in de Q&A toch nog extra aandacht aan gegeven worden, want naast electriciteit, kan ik me voorstellen dat je ook niet met chipsvingers (vet) aan componenten moet zitten.

@com2,1ghz Bedankt voor je verdere uitbreiding op de reactie.
@MrCuddles Ondanks de dubbele link, jij ook bedankt!
Tegenwoordig lijkt het redelijk degelijk te zijn, meestal. Omdat een RMA geld kost wordt het spul redelijk degelijk gemaakt. Maar toch, waarom zou je niet voorzichtig zijn?
Toen ik nog aan Sun servers knutselde was ik altijd voorzichtig, door met 1 hand te werken en met de andere het chassis vast te hebben. Helaas interpreteerde een collega dat als "de senior doet het zonder polsbandje, dus dat hoeft niet". Dat systeem had na een paar maanden een kapotte CPU (en ja we hadden net die CPU bijgeplaatst).
Dus ik vind het geen onzin. Al was het Sun spul natuurlijk niet idiotproof.
Aan de andere kant, de echt gevoelige componenten zijn extra gemarkeerd tegenwoordig.
Van die figuren als Linus die hebben dag-in-dag-uit zoveel hardware in handen wat ze gewoon opgestuurd krijgen, dat valt natuurlijk niet te vergelijken. Als je zelf flink je bankrekening leeg hebt geplunderd voor je hardware ben je toch voorzichtiger.

ps: Ik was net een minuutje eerder met mijn link! 8)7
Linus heeft dit zelf beantwoord middels een video:
https://www.youtube.com/watch?v=nXkgbmr3dRA
Ik werk al ruim 25 jaar met elektronica , van hifi tot het bouwen van PC's, en modden van consoles en in al die tijd nooit een bandje gebruikt. In al die jaren heb Ik honderden apparaten uit elkaar gehaald en in elkaar gezet. Nog nooit is er iets gebeurd door statische elektriciteit.

Als er al iets kapot ging, kwam het doordat ik iets verkeerd had aangesloten of gesoldeerd. Tip, maak geen lus in je ATX voeding, daar kan ie niet goed tegen. :o :+ De brandvlek zit na 20 jaar nog steeds in de vloerbedekking bij mijn ouders op zolder }:O
Ik heb t nog niet zien staan maar gou er ook rekening mee dat iets niet direct stuk hoeft te zijn een statische schok.
Ik heb ook geleerd je gelijk te zetten met de pc, die dus aanraken op kaal metaal. Er kan ook een schok van de pc naar jou gaan namelijk.

Ook zie ik nooit staan welk effect het zuur op je handen heeft. Als ik de connector van een videokaart vastpak is deze binnen 2 weken geoxideerd. Maar dat verschilt bij iedereen.
Wij hebben zoveel afgedankte hardware liggen en maak daar regelmatig een opstelling mee om dingen te experimenteren / simuleren. Het gaat over zoveel rommel het heeft geen naam. Ik spring daar vaak nog stukken onvoorzichtiger mee om dan wat je op menig yt kanaal tegen komt en je zou nogal opkijken van wat hardware kan hebben vooraleer het defect is.

Imo is het een kans berekening. Met het bandje en door het stuk juist te hanteren ben je vrijwel 100% zeker dat het als het defect is het niet door jou statische elektriciteit komt. Des te onvoorzichtiger je bent, des te meer kans dat het daardoor defect gaat.

Maar ja daar komt het dan, wat als je onvoorzichtig bent geweest. In die zin dat je het normaal hebt gehanteerd maar zonder bandje te gebruiken. Je installeert het onderdeel en het werkt niet. Wat zeg je dan? DOA, en je krijgt een nieuwe. Hoe weet je überhaupt dat het door statische elec kapot is gegaan zonder een soort van mri scan te doen?

Ik heb ook het vermoeden dat hier zo weinig over gepraat wordt omdat het zo moeilijk te constateren is en het echt zeer weinig voorkomt.

[Reactie gewijzigd door BlaDeKke op 8 februari 2023 18:04]

Vandaag de dag is het nog gevoeliger geworden dan vroeger, ESD schade kan zich echter pas later voordoen, ram wat ineens kapot gaat kan na een half jaar nog gebeuren net als een moederbord ineens vreemde niet herleidbare error,s kan geven in Windows.

Een ESD polsbandje is dan wel weer overdreven, gewoon niet bij de koper puntjes beetpakken maar met de vingers aan de kantjes, en niet steeds in de haren zitten met je handen, even ontladen aan de aarde is ook handig.

In zo beetje alle fabrieken moet je vandaag de dag alsnog ESD bandjes om en/of speciale jassen en om je schoenen een band(aarding) dat is niet zonder reden.

[Reactie gewijzigd door mr_evil08 op 9 februari 2023 18:01]

Wat is een goede manier om je VRAM en normale RAM te testen op bad sectors? :?
Memtest86 (of de opensource versie Memtest86+) is mijn go-to voor het testen van werkgeheugen. Veel ASUS ROG-moederborden hebben dat sinds de Z590-generatie zelfs ingebakken zitten, dus daarmee kun je zo'n memtest gewoon vanuit het bios uitvoeren zonder dat je met bootable usb-sticks enzo aan de slag hoeft.

Videogeheugen testen heb ik zelf eigenlijk nog nooit gedaan, maar om eerlijk te zijn denk ik dat je moet beginnen met de vraag waarom je dat zou willen doen. Zodra je zeker weet dat een issue dat je hebt in je videokaart zit, kun je garantie claimen, en als je buiten garantie bent en er zou inderdaad een probleem zijn met je videogeheugen, dan is er geen economische manier om alleen dat te fixen of vervangen. Kortom, wat kun je met die info?
Probleem is dat als ik bepaalde programma's open heb, waardoor mijn memory gebruik over de 20gb gaat, ik vaak vage memory-related errors krijg als ik een spel open in m'n pauze. Maar of het nu aan system memory, video memory of Docker ligt, weet ik niet.

Ik ga na werk eens kijken of ik Memtest86+ kan draaien. Bedankt voor je reactie!
Om je alvast op weg te helpen. ;)

Gewone RAM:
Memtest86+

VRAM:
GpuMemTest of OCCT.
Beiden testen VRAM niet volledig, dus niet echt goede tests.
Bron of verduidelijking?

[Reactie gewijzigd door The Zep Man op 8 februari 2023 12:10]

Helaas ervaring, heb al die tests gedraaid in combinatie met een bitscanner die kijkt of alle delen van de memorychips zijn aangesproken, en OCCT heeft moeite boven de 5 GB door alle memorychips te lopen, maar is wel in te stellen dat het wel kan.

GPUMemTest heeft moeite om meer dan 10GB te testen en gaat niet door alle modules heen. Ik heb nog geen instellingen kunnen vinden die dat wel kunnen.
TestMem5 anta777 is een goede test voor DDR4/5:

https://github.com/integr...d#memory-testing-software

Daar even kijken dat je de anta777 config goed inlaadt en je kunt in een korte tijd goed je RAM testen.

VRAM test hou je nog even tegoed, degene die bijvoorbeeld KrisFix gebruikt is betaald.
Sluit mij hierbij aan; Testmem5 is een stuk beter in het vinden van fouten als bijvoorbeeld de secundaire timings niet goed staan. Dit was vooral in het begin van het AM4 platform erg handig om een stabiel systeem te krijgen. Met Zen 2 en 3 was dit al een stuk minder nodig en natuurlijk ook de bios waren een stuk stabieler met elke nieuwe versie.
Goedemiddag Tomas,

In de verschillende review artikelen over moederbords (ook buiten tweakers) kom ik vaak de opmerking tegen dat het ene moederbord een betere audio codec (vaak de realtek 1200, 1220 of 4080) heeft dan de andere (Realtec 897). Maar hoe verhouden die codes zich nou tot elkaar en zijn ze de meerprijs waard?

Op internet (inclusief tweakers) kan ik nergens echt reviews of informatie vinden welke codec je nou waarvoor nodig hebt en of je verschil merkt. En zo ja, wat zijn die verschillen en waar moet je dan op letten?

Ik heb een tijdje geleden al wel de vraag gesteld over de werking van de codecs en in het specifiek de samenloop met (USB) headsets voor bijvoorbeeld gaming. Zie https://gathering.tweaker...message/74398994#74398994
Handig voor anderen om nog even na te lezen.

Groet!
In de meeste moederbordreviews neem ik een uitklaptabelletje op met de belangrijkste verschillen tussen bijvoorbeeld de Realtek ALC887, ALC897, ALC1200, ALC1220 en ALC4080. Zie bijvoorbeeld review: 15 AMD X670-moederborden - De dikste mobo's voor je Ryzen 7000-cpu.

Wat deze chips doen, is het omzetten van het digitale audiosignaal naar analoge output - het zijn dac's, dus - en daarmee zijn ze alleen relevant als je de analoge jacks van je moederbord of pc-kast gebruikt. Met een usb-headset omzeil je de hele ingebouwde audio.

Tussen de ALC887/897 en de luxere ALC1200/1220/4080 zit een duidelijke stap qua signaalruisverhouding - er zit dus simpelweg minder achtergrondruis op je audio. Om eerlijk te zijn: een purist hoort dat, maar voor 95% van de gebruikers maakt het eigenlijk niet uit.

Vervolgens is het voornaamste verschil tussen de ALC1200 en ALC1220 dat laatstgenoemde een luxe hoofdtelefoon met een impedantie van meer dan 32Ω aan kan sturen. Het verschil tussen de ALC1220 en ALC4080 is uitsluitend dat die laatste intern wordt aangesloten via USB in plaats van de gebruikelijke HD Audio-interface. Daardoor kan de beperking van maximaal 24-bit audio worden omzeild, wat alleen voor zogenaamde high-res audio relevant is.

Nu heeft @DMZ wel een beetje een punt, namelijk dat zodra je audio écht belangrijk vindt, je toch vaak kiest voor een mooie externe DAC die inherent minder gevoelig is voor interferentie en vaak nog andere mogelijkheden biedt, bv. een XLR-aansluiting.
Is er ook invloed op de kwaliteit van de optische (SPDIF) aansluiting? In principe zou je zeggen dat het digitaal blijft en dus de chip niet uitmaakt.

Als ik echter een gewone radio station luister via mijn PC aangesloten op de versterker via een optische kabel, is de kwaliteit hoorbaar slechter dan wanneer ik via een Chromecast HDMI dongle dezelfde radiozender stream. Nu is dat misschien iets van settings op de versterker, maar wellicht is het toch ook iets met de aansluiting op mijn PC?
In theorie kan dat niet, want door een S/PDIF gaan inderdaad alleen maar enen en nullen. Ik denk dat je de oorzaak van dat verschil elders moet zoeken; gebruikt je Chromecast wellicht een hogere kwaliteit bronstream, of wordt er andere processing op gedaan?
Dit is een onderwerp dat al 6 jaar geleden aan bod kwam bij /r/CabaloftheBuildSmiths, en gelukkig hebben we daar een audioengineer zitten die deze vraag tot op de dag vandaag nog kan beantwoorden.

Het komt er op neer dat het beste geluid je in principe alleen krijgt met een externe DAC(amplifier) en dat gaat dan niet zozeer om 'mooier' geluid, maar stabieler geluid, want je externe DAC is niet afhankelijk van alle EM interference op je moederbord.

Maar als je dat niet hebt of niet wil, kijk vooral uit voor de ALC892 codec, die is behoorlijk oud en behoorlijk mediocre en vrij gevoelig voor interferentie (bij onze audioman kwam er vervorming toen de hele machine aan stond. Maar echt super slecht is ie ook niet/

De top end zit je nu nog rond de ALC1200, goede codec die duur is, maar voor iedereen prima geluid oplevert. Voornaamste verschil is bijna geen vervorming en mooie highs (stemmen klinken net wat beter).

USB headsets hebben vaak een eigen kleine DAC om niet systeemafhankelijk te zijn, en die kunnen zowel slechter als beter zijn als je onboard audio.

[Reactie gewijzigd door DMZ op 9 februari 2023 14:27]

Is overclocking van de CPU met de huidige generatie nog de moeite waard om de meeste bang for buck te krijgen? Er valt vaak meer performance te halen, maar volgens mij tegen een onevenredige toename in energieverbruik (en dus geluid + warmte + kosten)
Eerlijk? Eigenlijk niet. Wellicht kun je nog een leuke prestatieverbetering behalen als je een processor koopt die standaard een vrij laag tdp heeft, door de powerlimits hoger in te stellen, maar dat is eerder het automatische turbo-algoritme meer ademruimte geven dan echt overklokken.

De meeste aandacht gaat bij het tunen van je processor tegenwoordig uit naar efficiëntie, zeker nu veel mensen ook fors meer betalen voor stroom. En buiten dat is een zuinige en bovenal stille computer natuurlijk ook gewoon fijner om te gebruiken. Niet voor niets schreef ik laatst dit artikel: review: Maak je cpu zuiniger én sneller - Ryzen 9 7950X en Core i9 13900K bed...
Nu niet. Dat is een beetje het nare er van, als je een CPU van NU overclockt, zie je er niets van want hij is al snel genoeg voor de software van vandaag (of je hebt een Atom, dan helpt het wel!).

Over een jaar of 5-6? Dan helpt het soms _enorm_, kijk maar eens naar videos van Iceberg Tech op youtube, die heel veel oude hardware test.

Daarom heb je dus ook mensen die zeggen 'OC maakt toch niks uit' terwijl ze op een 13900K zitten en op 4k60 spelen. Tuurlijk heb je er dan niks aan, bij wijze van. Maar je systeem kan een heel stuk langer mee als je de optie om te overklokken over 5 jaar nog hebt.
Komt ook omdat er gewoon bijna geen performance meer blijft liggen. Ik weet niet hoe het zit bij Intel maar AMD heeft een dynamische manier om voltages en snelheden te regelen. Daarom lopen ze tegenwoordig ook zo warm, omdat het afhankelijk is van je koelprestaties. Overclocken zal voor velen niet echt weggelegd zijn. Ik heb mij er ook eens aan gewaagd, het liefst heb ik die performance gewoon OoB.

[Reactie gewijzigd door Robe90 op 8 februari 2023 12:29]

PBO kan nog steeds de fabrieksoverklok ver overtreffen, dus ook in die gevallen is het waard om even zelf te kijken. Daarbij kun je er helaas niet van uit gaan dat fabrikanten van bijvoorbeeld moederborden geen fouten maken en niet even 1.5V op je chip zetten 'als toch maar 1 core in gebruik is', dus hoe wel of niet het weggelegd is, valt te betwisten.

Moet je leren om hardcore over te klokken? Nee
Zal dat hardcore overklokken echt enorme voordelen opleveren in games of programmas? Heel af en toe.

Kan het helpen om niet de bange consument uit te hangen en toch even voorzichtig, met een guide, rond te kijken in het BIOS om te zien of je misschien koeler kan draaien en misschien ook meer performance haalt?

Ja

Niet er van uit gaan dat alles dat de fabrikant aanlevert perfect is. Soms kun je het best een duwtje geven om stiller te zijn, of sneller te zijn. En waar jij geen waarde hecht aan zelf moeite doen om sneller te gamen, hecht ook jij waarde aan een stiller systeem, dat dus met 1x in de BIOS rommelen, prima te doen is.

Om het even in lekentermen te doen: Je vervangt ook een keer zelf de olie in je auto, of je laat hem anders afstellen dan in de fabriek, of je zet er winterbanden op. Dit is exact hetzelfde.

[Reactie gewijzigd door DMZ op 8 februari 2023 12:36]

is overclocken de moeite waard, ik zou bijna zeggen dat iedereen die hier 'ja' op zegt gewoon gek is.

maar dan is natuurlijk de vraag: wat is overclocken, wat is moeite, en wat is het doel dat je wilt berijken...

als jij nu een 8th gen core i7 hebt met 32gb ram en een vrij gecente gpu die soms NET te kort schiet in jouw favoriete spel, dan kun je natuurlijk beter proberen dat laatste beetje uit je systeem te persen dan dat je direct een heel nieuw setje mobo ram cpu moet kopen...

als je merkt dat je cpu nogal vaak thermo-throttle'ed dan is het misschien een idee om eens wat met undervolting te proberen, technisch gezien maak je dan immers van dezelfde zaken gebruik als bij overclocken... en als je dat heel goed doet haal je misschien wel 5 of 10% extra uit je cpu omdat ie langer op lagere temps blijft en dus langer in turbo kan blijven...

overigens ben ik altijd huiverig geweest voor het hele begrip overclocken, tot op het punt dat ik mensen dingen liever een kapotte pc hadden dan die laatste 100mhz te moeten missen - en dat al ver nadat we de magische 3ghz waren overschreden voor mainstream pc's

mijn vraag aan Tomas zou dan ook zijn: wordt het niet eens tijd dat we, als community, meer tijd en energie gaan besteden aan efficiëntie, zuinigheid, duurzaamheid en optimalisatie dan aan raw power... Wat kan de redactie doen om dat thema beter in de schijnwerpers te zetten zodat het artikel over undervolting geen unicum blijft.
Als het om singlecore gaat niet; er valt nog wat te winnen als je alle cores oced en ook daadwerkelijk veel multithreaded programma's draait.

Over het algemeen, zeker als je met name singlethreaded applicaties gebruikt dan ben je beter af met het TDP lager zetten waardoor je wel een prestatie verlies hebt maar zo 100+ Watt kan winnen op verbruik.
AMD vs Intel en AMD vs NVidia. Welke grootmacht geeft het meest terug voor onze centjes?
Ik denk dat je daar niet echt een eenduidig antwoord op kan geven. In beide markten, die voor cpu's en die voor gpu's, is AMD van oudsher de underdog, en toch zie je dat het zeker niet vanzelfsprekend is dat Radeon-kaarten en Ryzen-cpu's een betere prijs-prestatieverhouding hebben dan de concurrentie. Zeker de Ryzen 7000-cpu's waren dat bij release allesbehalve.

Dat is ook logisch, want je schiet jezelf als bedrijf in de voet door je producten te laag te prijzen. Je krijgt dan het imago van een budget-optie, en boze aandeelhouders achter je aan, want je maakt bewust minder winst dan mogelijk was.

Kortom, klamp je vooral niet vast aan een fabrikant, maar kijk gewoon wat voor jouw budget en gebruiksdoel de beste optie is. En dat kan beste de ene keer AMD en de volgende keer weer Intel zijn.
Volgens mij is het heel moeilijk, maar wel belangrijk om behalve de hardware zelf te reviewen ook iets te kunnen zeggen over aanverwante minder tastbare aspecten zoals documentatie, drivers, ondersteuning bij problemen en ondersteuning door verschillende besturingssystemen. Dat kan gaan over iets als een muis waarvan sommige functies alleen gebruikt kunnen worden als er specifieke software van de fabrikant wordt geïnstalleerd. Maar het kan ook geen over de vraag of de fabrikant de hardware documentatie geheim houdt zodat open source besturingssystemen aanzienlijk meer moeite moeten doen om de hardware te ondersteunen. In hoeverre is het haalbaar (en redelijk) om dergelijke aspecten consistent mee te nemen in reviews?
Bij veel van de producten die ik zelf review, componenten dus, is de software toch wel ondergeschikt aan de hardware. Eigenlijk moet de software de mogelijkheden van de hardware vooral niet in de weg zitten. Gebeurt dat wel, dan lees je dat in onze reviews.

Wel is Windows het standaard test-OS voor vrijwel alle componentenreviews, simpelweg omdat het overgrote merendeel van de tweakers dat gebruikt. En heel eerlijk, een site als Phoronix zoekt de Linux-kant van moderne hardware stukken beter uit dan wij vermoedelijk zouden kunnen. In plaats van het proberen te imiteren, zeg ik daar dus heel eerlijk over, voor een dergelijke niche kun je ook gewoon het beste terecht bij een niche-site.
Is het mogelijk dat videokaarten ook worden getest bij 3440 x 1440 resolutie?
Deze! En ik denk niet dat wij de enigen zijn.
Gezien de hoeveelheid werk dat dit is, en het gemiddelde percentage van 4k gebruikers die al onder de 5% ligt, hoop ik heel erg dat ze voor jullie (gemiddeld gezien <1%) ook dit soort benchmarks er bij doen.
Ik vind dit ook een hele goede. Ik loop altijd maar een beetje te gokken dat de prestaties ergens tussen 4K en 1440p uitvallen maar dat kan gezien de hoeveelheid pixels niet kloppen toch?

3440x1440 heeft 34% meer pixels dan 1440p, vertaalt dat dan ook naar 34% minder prestaties? En als we kijken naar de prestaties op 4K, dan heeft 3440x1440 40% minder pixels, zouden we op ons scherm dan ook 40% hogere FPS halen? Ik kan me niet voorstellen dat het in de praktijk ook zo werkt.
Hier heeft hij al eens naar gekeken bij HWI: https://nl.hardware.info/...staties-mag-je-verwachten
De essentie van de conclusie daar was:
Gemiddeld liggen de prestaties op wqhd-resolutie dus 24% hoger, terwijl ze op 4K-resolutie 29% lager uitvallen. Concreet betekent dat: reken je vanaf wqhd naar 3440x1440, trek dan 19% van de prestaties af, reken je vanaf ultra hd, tel er dan juist 40% bij op.
Volgens Steam Hardware Survey, zijn jullie niet enigen, maar ook niet met heel veel: 1,51% van alle Steam-gebruikers heeft deze resolutie.
Ìk had verwacht dat we met meer zouden zijn. ;)
@Jan1337 had het artikel al gevonden dat ik hierover eens heb geschreven bij HWI. Ik denk dat de vuistregels van toen nog prima toepasbaar zijn:
Concreet betekent dat: reken je vanaf wqhd naar 3440x1440, trek dan 19% van de prestaties af, reken je vanaf ultra hd, tel er dan juist 40% bij op. Rekenen we volgens die rule of thumb van qhd naar 3440x1440, dan zitten we er gemiddeld minder dan 3 fps naast, met 6 fps in Doom en GTA V als grootste uitschieters. Omrekenen vanaf ultra hd-resolutie is met twee uitschieters van 7 fps en gemiddeld 4 fps verschil iets minder nauwkeurig. Door de bank genomen kun je de prestaties op uwqhd echter redelijk precies voorspellen aan de hand van deze vuistregels.
En om je concrete vraag te beantwoorden, ja natuurlijk is dat mogelijk, maar het verlengt de testtijd van elke videokaart natuurlijk wel met 33 procent. En dat terwijl een videokaart testen volgens onze standaarden al onwijs tijdsintensief is: met tien games in een zestal combinaties van resolutie en settings zit je al aan zestig tests, en dat is dan nog exclusief alles wat we doen met raytracing (steeds meer), stroomverbruik en synthetische tests. Effectief heeft het verzamelen van alle testdata van de 32 videokaarten in onze review: Videokaart Best Buy Guide - De beste gpu's in februari 2023 ruim een maand geduurd. Bovendien doen we dat niet eenmalig, maar gedurende het jaar meerdere keren zodat we altijd goed vergelijkbare, representatieve testdata met de nieuwste drivers en gamepatches beschikbaar hebben.

Eigenlijk is onze videokaarttest dus al veel te uitgebreid als je er economisch naar kijkt :+. Daar nog 'even' +33% testtijd aan toevoegen is echt niet te doen. Maar dat betekent natuurlijk niet dat we er eens als een one-off naar zouden kunnen kijken, zoals ik destijds ook voor HWI heb gedaan.
Hoe kom je er achter of jouw systeem wel optimaal draait, in vergelijking met andere vergelijkbare systemen. Natuurlijk zijn er benchmarks te vinden, maar daar word altijd zoveel mogelijk of de CPU of de GPU bottleneck weggenomen. En vaak ook zonder achter grond processen, die in de echte wereld er wel zijn.
Je kunt in principe er van uit gaan dat je sowieso een optimaal draaiend systeem hebt als je bottleneck ligt op het makkelijkst te vervangen punt(meestal GPU)

Dit zie je als je GPU voor ongeveer 100% in gebruik is tijdens je applicaties, en je CPU is dan niet in de buurt van de 90% gebruik. Kun je prima zien op een normale machine met alle achtergrondprocessen.

Natuurlijk heb je in een ideale situatie alle componenten op 100% gebruik, maar dit komt dus zelden voor en heeft zowel hardware(te zwakke CPU of GPU, RAM, SSD), software(OS, drivers, optimalisatieissues, onze drang om inefficient te zijn als we toch de hardware hebben om dat te zijn) als omgevingsredenen (warme kamer bijvoorbeeld, die je systeem sneller laat throttlen).

RAM bottleneck kun je testen door te kijken of een kleine overclock of underclock van je RAM, je opeens meer performance geeft, (of minder, bij de underclock). Doen ze dat niet? Dan is RAM (in dit geval dan, applicaties verschillen!) niet je bottleneck. (puur de snelheid omhoog of omlaag te zetten met een paar 100Mhz).

Als je CPU constant op 100% zit tijdens je spel of je applicatie, tijd om even te kijken of je de CPU kunt overklokken. Als een kleine boost ook meer FPS geeft, dan zit je bottleneck dus daar.

SSDs en dergelijke zijn live moeilijker te testen, je ziet meestal wel dat laadtijden bij tragere drivers langer zijn, maar of het echt popup in het spel vermindert is nog maar de vraag.

[Reactie gewijzigd door DMZ op 8 februari 2023 12:23]

In principe ben je er tegenwoordig wel met alles juist aansluiten en XMP (of bij AMD, EXPO) aanzetten na het bouwen, zoals @Alxndr en @DMZ al zeggen. Maar, het kan nooit kwaad om even wat simpele tests te draaien om de prestaties van de belangrijkste onderdelen te checken.

Dan zou ik vooral focussen op cpu en gpu:
  • Cinebench R23 MT -> gratis te downloaden via https://www.maxon.net/en/downloads/cinebench-r23-downloads, zorg dat je de minimum test duration uitzet in de advanced settings zodat je maar één score krijgt. Dit zou niet meer dan 5% onder de resultaten in onze cpu-reviews uit moeten komen, anders gaat er echt iets mis qua instellingen, koeling of stroomtoevoer.
  • 3DMark -> gratis te downloaden via Steam. Draai een van de gratis tests (bv. Time Spy) en vergelijk de Graphics-score met die in onze gpu-reviews. Ook hier zou je op z'n minst in de buurt moeten komen.
Anderzijds, als je pc goed werkt en snel is, is er in principe geen reden om aan te nemen dat er iets fout loopt natuurlijk.
Simpel antwoord: Als je oplucht koeling zit, luisteren.

De CPU fan zal rustig blijven wanneer de GPU het zware werk doet en vice versa. Als je een vermoeden hebt kan je het bevestigen door simpelweg de task manager er bij te pakken. Als één component op 100% zit en een ander eigenlijk uit z'n neus eet, weet je dat (voor die applicatie) de bottleneck bij het eerste component ligt.

Verder zijn er websites waar je dus je specs in kan geven waarmee er gezocht wordt naar gelijke systemen, zodat 3D Mark scores worden vergeleken.

Goede vraag in ieder geval om toe te lichten in zo'n video. Heb vroeger ook wel eens in alle onwetendheid niet bepaald optimale upgrade doorgevoerd.
Wat noem je optimaal?

Hardware is puur een kweste van goed aansluiten edit: en juiste instellingen zoals xmp en voldoende koeling, dan kun je met benchmarks kijken of je CPU, GPU, RAM, SSD etc qua prestaties bij de fabrieksspecificaties in de buurt komen.

Je moet hier natuurlijk wel een slag om de arm bij houden, want naast de 'silicon lottery' is qua software en instellingen geen enkele PC precies hetzelfde en bovendien gebruikt iedereen z'n PC anders.

Als je een systeem bouwt of koopt, met een schone installatie testen om te zien of er geen grote afwijkingen zijn, daarna er nooit meer naar omkijken tenzij je het leuk vindt en/of wil tweaken om een procentje hier en daar te winnen.

[Reactie gewijzigd door Alxndr op 8 februari 2023 13:33]

Met deze aanpak zou je systeem dus niet in de buurt komen van de fabrieksspecificaties, want je XMP zou niet aan staan. En dan lijkt het alsof jij de hele PC zou weggooien, want niemand zal je meteen vertellen 'oh ja, de reden dat je met normale GPU clocks en CPU clocks en temps nog steeds 20 fps minder hebt dan normaal in Apex Legends is je geheugen.

Er komt helaas meer bij kijken dan alleen even goed aansluiten.
lol, tijdens het aanpassen van m'n reactie vergeten de opmerking over instellingen zoals xmp (en de juiste dual channel slots) terug te plakken |:(

Ik zeg trouwens niet alleen aansluiten, maar ook testen, pas als er significantie afwijkingen zijn hoef je op onderzoek. Een XMP profiel wat uit staat kom je dan snel genoeg achter. En 20 fps minder zou ik wel onderzoeken als het 40 ipv 60 fps is, maar niet als het 140 ipv 160 is.

Wat ik bedoel te zeggen is dat tweaken iets is voor de hobbyisten, voor huis tuin en keuken gebruikers zijn er te veel variabelen en dingen om rekening mee te houden. De minimale verbeteringen die je kan halen zijn de tijd en moeite die het kost niet waard tenzij je het leuk en interessant vindt.

[Reactie gewijzigd door Alxndr op 8 februari 2023 13:56]

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee