Vermelding toont dat Nvidia GTX 1650-videokaart 4GB vram krijgt

Nvidia's GeForce GTX 1650-videokaart krijgt 4GB vram. Dat blijkt uit een verwijzing naar een MSI-variant bij de Eurasian Economic Commission. Volgens eerdere geruchten wordt de GTX 1650 op 30 april aangekondigd.

De vermelding van MSI's GTX 1650 Gaming X 4G op de EEC-website werd opgemerkt door VideoCardz. Meer dan de naam is niet bekend, maar de 4G-aanduiding maakt in ieder geval duidelijk dat het gaat om een videokaart met 4GB vram. Waarschijnlijk is dat gddr5, net zoals bij de GTX 1660 die vorige week uitkwam.

Er gaan al lange tijd geruchten over de komst van de GTX 1650; de verwijzing bij de EEC is een bevestiging dat de kaart er komt. Eind februari claimde de Taiwanese krant Digitimes dat de GTX 1650 op 30 april aangekondigd zou worden. De krant noemde toen ook dat de GTX 1660 op 15 maart onthuld zou worden, dat bleek uiteindelijk een dag eerder te zijn.

De exacte specificaties van de GTX 1650 zijn nog niet bekend. Vermoedelijk is de kaart gebaseerd op een kleine TU117-gpu. De adviesprijs zou 179 dollar bedragen, omgerekend met btw is dat zo'n 191 euro. GTX 1660-videokaarten zijn momenteel te koop vanaf 235 euro.

GTX 1650 * GTX 1660 GTX 1660 Ti RTX 2060
Gpu TU117 TU116 TU116 TU106
Cuda-cores nnb 1408 1536 1920
Geheugen 4GB gddr5 6GB gddr5 6GB gddr6 6GB gddr6
Geheugenbus 128bit 192bit 192bit 192bit
Introductiedatum ~ 30 april 14 maart 22 februari 7 januari

* Vermoedelijke specificaties van GTX 1650

Door Julian Huijbregts

Nieuwsredacteur

18-03-2019 • 15:29

72

Reacties (72)

72
70
41
5
0
21
Wijzig sortering
Het begint een beetje een rommeltje te worden, alsof ze nerveus worden vanwege de achterblijvende verkopen van hun RTX20-lijn. Bij de uitfasering van de GTX10-serie, tóch nog een 1650, 1660 én 1660ti uitbrengen... ik vind 't best vreemd. Ergens begrijpelijk, maar vreemd. Waarom niet alléén een RTX2060 en RTX2060ti, en de rest van de GTX16xx kaarten niet meer inzetten?
Gewoon omdat er een te groot performance gat is tussen de 150€-300€ 10xx kaarten en de RTX 2060, dewelke niet met een RTX kunnen gevuld worden gewoonweg omdat RTX dan nog slechter performed en eigenlijk onbruikbaar wordt. Dus krijgen de 150€-250€ kaarten een upgrade, zodat op dit prijspunt met AMD kan geconcureerd worden.
Alleen kunnen ze nu al bij lange na niet concurreren, en met deze adviesprijs waardoor hij al snel richting de €200,- zal gaan zal de kaart wel aanzienlijk beter moeten presteren dan de rx580 bijvoorbeeld.
En dat kunnen we denk ik wel vergeten als je ziet dat de 1660 dat al amper kan.
Alleen kunnen ze nu al bij lange na niet concurreren, en met deze adviesprijs waardoor hij al snel richting de €200,- zal gaan zal de kaart wel aanzienlijk beter moeten presteren dan de rx580 bijvoorbeeld.
En dat kunnen we denk ik wel vergeten als je ziet dat de 1660 dat al amper kan.
Hhet verschil tussen een 1660 en een 580 is aanzienlijk, zo'n 19% in de grafiek bij techpowerup in het voordeel van de 1660. Dit terwijl de average gaming met 113W flink onder de 198W van de 580 ligt.

Dat gezegd hebbende is de geheugenbus van dit modelletje en stuk smaller (128 ipv 196) en zal hij op basis daarvan onderhand wel op RX 580 of lager niveau uitkomen, nog even los van het aantal cores waar we nog niets van weten.
Wat er ook gebeurt , ik blijf lekker de op de NAVI trein rijden ! :+

Want voordat ik een nieuwe GPU koop , wil ik eerst de specs van NAVI weten .
Als er niet iets bijzonders , komt dat minstens 40% sneller is dan mijn GTX 1070ti , voor minder
dan 400 euro , dan wacht ik wel weer een jaartje extra .

Mijn grootste hoop is dat het iig meer Vram heeft , wat Nvidia deze generatie niet heeft gedaan !

Wat ik perfect zou vinden , is een NAVI GPU met GTX 1080ti performance , met 12GB GDDR6 !
en hopelijk voor minder dan 500 euro !
Eigenlijk wil jij gewoon de Radeon 7? Die heeft zelfs nog meer/sneller VRAM, en ongeveer 1080ti performance. Nu nog die 400 euro price tag die je noemt, en dan zijn we er.

2 jaar geleden had ik ook wel gewed dat we dat nu zouden hebben, maar gebrek aan competitie + breakdown van Moore's Law heeft de hele industrie even op pauze gezet.
€500 voor de Radeon VII ? dan koop ik m nu gelijk ! 8)7
€750 vind ik nu net even teveel , Max € 600 zou ik er misschien nog wel voor willen betalen .
Ik kan iig de 16Gb Vram erg goed kunnen gebruiken voor mijn " X-Plane 11 " flightsim , met
VR , maar ik heb tot nu toe nog geen VR resultaten gezien van de Radeon VII .

Ook al zou ik die resultaten nu weten , ik wil eerst de specificatie's van AMD's NAVI zien O-)
voordat ik een beslissing neem . Gelukkig is RAM nu erg goedkoop , ik heb net een extra
16Gb 3200Mhz kit gekocht , zodat ik nu 32Gb heb .

En nu hou ik geld in me zak , zodat ik straks me Ryzen 1600 kan wisselen met een Ryzen 3600X !
en voor een nieuwe ( NAVI ? ) GPU . Het word een paar spannende AMD maanden ! :X

Kan nie wachten tot Computex 2019 ! AMD4LIFE _/-\o_
Ik had ook hoge verwachtingen van NAVI, maar het lijkt me vrij duidelijk dat ze die Radeon 7 niet uitbrengen om vervolgens enkele maanden later een veel snellere kaart voor een veel lagere prijs aan te kondigen. Ik denk dat het beste waar we op kunnen hopen zal zijn dat ze het verschil met Nvidia zullen bijbenen in de high range.

Ryzen 3+ aan de andere kant... Ik doe voornamelijk development, maar wil ook wel graag op 120+ fps kunnen gamen, en als ik een workstation/gamePC wil bouwen die niet inlevert op multicore performance heb ik dan eigenlijk alleen de 9900K als optie. Ryzen is super voor het prijskaartje, maar in games telt iedere FPS (vooral de 1% low) en dan heb je er opeens een stuk minder aan.

Finger crossed. Als een Ryzen 3+ de huidige Intel generatie kan bijbenen in single thread performance, dan ben ik verkocht.
6Gb Vram gaat geen 5 jaar mee ! dat is het probleem !

Maar AMD kenende , krijgt NAVI meer Vram dan zijn Nvidia counterparts :P
150€-250€ kaarten zijn ECHT geen upgrade...128 bus? dat kan echt niet meer {dat koopt geen hond die verstand van pc's heeft }
Het begint een beetje een rommeltje te worden, alsof ze nerveus worden vanwege de achterblijvende verkopen van hun RTX20-lijn. Bij de uitfasering van de GTX10-serie, tóch nog een 1650, 1660 én 1660ti uitbrengen... ik vind 't best vreemd. Ergens begrijpelijk, maar vreemd. Waarom niet alléén een RTX2060 en RTX2060ti, en de rest van de GTX16xx kaarten niet meer inzetten?
Nvidia doet toch altijd vaker wel dan niet een hele line up? De 1000 series ging van 80 dollar tot 1200 dollar:

GT 1030 DDR4
GT 1030
GTX 1050 2/3
GTX 1050 Ti
GTX 1060 3/5/6/GDDR5
GTX 1070
GTX 1070 Ti
GTX 1080
GTX 1080 Ti
Titan X
Titan XP

Dat RTX te duur is voor kaartjes van 80 dollar wisten we natuurlijk al sinds de aankondiging van RTX. Het vreemde blijft de keuze van '16' in plaats van '20' of '11'. Dat de kaarten an sich er komen verbaast mij niets.

[Reactie gewijzigd door sdk1985 op 23 juli 2024 02:43]

Je bent de GTX 1060 6 GDDR5X vergeten :+
Snap ook niet helemaal waar die 16xx vandaan komt, je had eerst 10xx serie, logisch dat er dan een 11xx serie komt? Of je gaat gewoon door naar GTX2050/2060(Ti), maar misschien is dat te verwarrend?
Eens. Die keuze voor 16xx lijkt echt volslagen random, heb ik nog geen enkele uitleg voor gezien. Dat hele 20xx-verhaal als extra serie, soit, als het zo nodig moet, maar doe dan 11xx en 20xx, waarom 16xx?

Sterker nog, ik ga zelf bij het lezen van RTX nog altijd in eerste instantie de fout in, door associaties met RTG, maar dat is dan weer een andere RT. RayTracing vs Radeon Technology. Het is bijna alsof ze het erom doen :+
Nee, de keuze voor een een andere naam/nummering in plaats van 11xx is waarschijnlijk bewust gedaan om te voorkomen dat mensen niet de 20xx maar de 11xx als opvolger van de 10xx serie zouden gaan zien. De 20xx serie is toch echt de opvolger van de 10xx serie en om het mid-range gat tussen de 20xx en de 10xx te vullen is er nu de 16xx.

Imho was het beter voor Nvidia geweest indien men eerst een 11xx reeks uitgebracht had zonder Raytracing en vervolgens een exclusieve lijn, de 20xx met raytracing als eerste oplage. Dan bestaat er met behulp van de early adopters altijd de mogelijkheid om bij de volgende generatie dit in alle kaarten toe te passen. Het uitbrengen van de 16xx komt nu een beetje over als paniekvoetbal, de tegenvallende verkopen van 20xx lijken dit te bevestigen.
Ze hadden ook met de GTX serie door kunnen gaan met de GTX 11xx naam en de RTX lijn gewoon een compleet andere naam te geven. Geen RTX 2060/2070/2080 maar bijvoorbeeld RTX 160/170, of zoals ze bij de GT(X) 200 series waren begonnen: RTX 260/270/280...
Ik ging soms (bijna) de fout in door bijvoorbeeld de RTX 2080 de RX2080 te noemen (heb zelf een RX 580, dus vandaar :P)
Als je de 1 even wegdenkt dan houd je de 660 over. Deze is sterker (hoger) dan de 580 van het rode team. Zo simpel is het volgens mij.

Marketing ...
de chip zelf heet T116. dus ze laten de 1 van de 11 serie weg. GTX11660 zou nog verwarrender zijn? Maar dit is puur speculatie van mijn kant.
De GTX1060 heet GP106, dus logisch 1060, T116 zou logisch zijn 1160... Ff nulletje toevoegen

[Reactie gewijzigd door d22wth op 23 juli 2024 02:43]

Van 10 naar 11 lijkt zo weinig. De stap naar 16 is een hele sprong. Het is niet logisch maar psycho-logisch ;)
Voor mij niet, de 16xx lijkt nu eerder als een soort ''sub-serie'' ipv een echte opvolger van de GTX10xx lijn... :)
Het is een goed plan met de 1650 het midden segement te bestrijken voor nvidia niet meer of minder dan dat.
De die size van 20x0 series is veel groter dan die van de 10x0 serie. x060: ~200mm2 vs 445mm2. Dat is een redelijke kostenverschil.
Inderdaad , een GTX 2060 , een GTX 2050 , en een GTX 2030 zou veel duidelijker zijn .

ook het gebruik van " ti " is gewoon belachelijk ! Daar moeten ze ook eens mee stoppen !

Noem de RTX 2080ti gewoon een RTX 2090 !

5 verschillende GPU voor elke generatie is ook meer dan genoeg ( ipv gemiddeld 9 )

1. een LOW-end , met een prijskaartje tot $ 100,-
2. een MID-LOW-end , met een prijskaartje tot $ 200,-
3. een MID-end , met een prijskaartje tot $ 300,-
4. een MID-HIGH-end , met een prijskaartje tot $ 450,-
5. een HIGH-end , met een prijskaartje tot $ 600,-
6gb is al mager als je nu een nieuwe videokaart koopt, een nieuwe kaart kopen met maar 4gb aan boord is echt te weinig, zonde van je geld.

Edit: wat degene die reageren hieronder niet blijken te begrijpen is dat men in het hier en nu of zelfs in het verleden praat. 4gb is nu al net aan in veel games. Maar zo'n kaart koop je om een leuke 2 jaar mee te doen, lekker als je dan snel gelimiteerd wordt door het geheugen, ik heb zelf ook een 4gb kaartje en merk dat het net aan is. Als je nu een nieuwe kaart koopt is het gewoon zonde om voor 4gb te gaan. En dat je daarvoor geen McLaren hoeft te rijden(gaap die eeuwige auto vergelijking) bewijst AMD wel met zijn rx580.

[Reactie gewijzigd door hrichard op 23 juli 2024 02:43]

6GB is al mager voor wat precies?
De overgrote meerderheid van de mensen speelt op een resolutie van 1080p en dat gaat met 4GB aan VRAM prima. En vergeet ook niet dat dit een budgetkaart is, de goedkoopste uit de nieuwe lijn tot nu toe.
Ik speel Far Cry5 atm, een recente game, maar inmiddels toch al een jaartje oud.

De high res texture pack die je optioneel kan installeren heeft exact 0 negatieve effecten op de performance in mijn testen met een RX580, maar alles ziet er een stuk scherper uit, en het VRAM gebruik gaat van +-3 GB naar 7+GB.

Persoonlijk zou ik dus niet meer voor een GPU gaan met minder dan 8GB VRAM. Ook niet op ene krap budget: de RX570 8Gb heb je al onder de 150€, de 580 met 8GB al onder de 200€.

[Reactie gewijzigd door kiang op 23 juli 2024 02:43]

Ik speel Far Cry5 atm, een recente game, maar inmiddels toch al een jaartje oud.

De high res texture pack die je optioneel kan installeren heeft exact 0 negatieve effecten op de performance in mijn testen met een RX580, maar alles ziet er een stuk scherper uit, en het VRAM gebruik gaat van +-3 GB naar 7+GB.

Persoonlijk zou ik dus niet meer voor een GPU gaan met minder dan 8GB VRAM. Ook niet op ene krap budget: de RX570 8Gb heb je al onder de 150€, de 580 met 8GB al onder de 200€.
Gebruikt is niet hetzelfde als vereist. Leeg ram is zonde dus je software probeert er altijd wat mee te doen. Windows wordt daar ook steeds beter in. Betekent niet dat het zonder hoeveelheid X niet werkt, dat is te kort door de bocht.

In geval van far cry 5 is er inderdaad een 29GB texture pack. Maar de minimum hoeveelheid vram om deze functie te gebruiken is door ubisoft op 'meer dan 4GB' gesteld. Afhankelijk van je resolutie kom je net boven de 4 GB uit volgens de 'voorspeller' bij de settings. Op full hd en ultra (wat zo'n kaartje niet aan kan) is het iets van 4.1-4.2 GB. Dus 8 GB VRAM is zeker geen vereiste op Far Cry 5 op ultra te spelen.

Neemt niet weg dat dit wel een voordeel is van midrange kaartjes met veel geheugen; die ultra textures kosten je vaak geen fps maar zien er wel erg tof uit. Maar die grens lijkt momenteel bij 5 a 6 GB te liggen.

[Reactie gewijzigd door sdk1985 op 23 juli 2024 02:43]

Probleem is meer de 128 Bit bus !
Dit klopt gewoon niet en al helemaal niet voor gamen op 1080p. Dan is 4 GB VRAM prima en voor veel games is het zelfs op 1440p nog heel goed te doen, tot geen enkel probleem. VRAM vereisten zijn echt niet zo hoog voor de meeste games. En vaak is het verlagen van de texture quality met 1 stap, al voldoende om je uit de problemen te helpen mocht het wel zo zijn. En dat verschil zie vaak helemaal niet.

Zie ook Hardware Unboxed hierover (video over de RTX 2060 en alle ophef over 't feit dat ie slechts 6 GB heeft):
https://www.youtube.com/watch?v=pfnzHA3-MhM

[Reactie gewijzigd door Cloud op 23 juli 2024 02:43]

Een 2060 heeft 6 GB , niet 4 !
Ik had te weinig koffie op 8)7 Crisis.

De video is niet minder relevant trouwens maar het verhaal over 1440p past er inderdaad niet in. Thanks voor de correctie!

[Reactie gewijzigd door Cloud op 23 juli 2024 02:43]

hey, dit is zeker niet waar. 4gb vram is voor veel games gewoon voldoende om te spelen.
dergelijke kaarten zoals de 1650 worden gemaakt om het voor beginnende gamers leuk te maken.
veel van deze kaarten zullen in de instap-game pc's van grote webwinkels komen te zitten.
deze pc's zijn in de ogen van de thuisbouwer dan wel veel te duur, maar toch vind je juist zulke kaarten daar weer in terug.

niet alle videokaarten zijn bedoelt als high end ;)
Ook een beginnende gamer wilt games uit 2019 spelen !

4Gb is gewoon niet meer genoeg in 2019/2020 voor een "gaming" GPU !
Niet iedereen rijdt een mcclaren hoor. Soms is een vw ook prima met een kleinere moter. Dit geldt ook voor videokaarten. Voor de meeste doeleinden is 4G nog steeds zat of zelfs teveel
Niet iedereen koopt een kaart om te gamen, er zijn er legio, inclusief ik zei de gek, die hardwarematige versnelling voor het bewerken van video wel prettig vinden en om dan vele honderden euro's uit te geven aan een enorm snelle gaming kaart gaat ook weer wat ver.
Zo'n sub 200 euro kaartje geeft al een mooie performance boost.
Dat is niet helemaal waar wat je zegt want steeds als ze met dikkere videokaarten komen word de hoeveelheid geheugen bijna nooit ondersteund door de software boeren.Wat wel waar is dat men nu als instap 4 gb kiest, als je hoger gaat dan voel je dat in je portemonee.Denk aan de 11 gb kaarten die nu maximaal bijna is, achter een paar jaren zal dat pas normaal zijn.Of althans ondersteund word door sommige spellen.
6gb is al mager als je nu een nieuwe videokaart koopt, een nieuwe kaart kopen met maar 4gb aan boord is echt te weinig, zonde van je geld.

Edit: wat degene die reageren hieronder niet blijken te begrijpen is dat men in het hier en nu of zelfs in het verleden praat. 4gb is nu al net aan in veel games. Maar zo'n kaart koop je om een leuke 2 jaar mee te doen, lekker als je dan snel gelimiteerd wordt door het geheugen, ik heb zelf ook een 4gb kaartje en merk dat het net aan is. Als je nu een nieuwe kaart koopt is het gewoon zonde om voor 4gb te gaan. En dat je daarvoor geen McLaren hoeft te rijden(gaap die eeuwige auto vergelijking) bewijst AMD wel met zijn rx580.
Dat is totaal niet hoe videokaarten werken. Geheugen allocatie anno 2019 is voor 80% afhankelijk van de ingestelde texture detail setting. Die texture details gaan in elke game van low naar high/ultra. Heb je een kaartje met minder VRAM dan is het een kwestie van kijken welke textures jij mag draaien en that's it.

Het mooie van extra geheugen op een midrange kaartje is dat die ultra textures een game mooier kunnen maken terwijl de performance impact nihil is. Maar je moet wel goed opletten hoeveel je daarvoor betaald.

Het is hoe dan ook een misvatting dat je de game niet zou kunnen spelen met 4 of 6 GB VRAM, de fps heeft er geen last van. Mits je niet te hoge texture settings gebruikt; zit het geheugen vol dan kun je drops krijgen.

[Reactie gewijzigd door sdk1985 op 23 juli 2024 02:43]

Krijgen we straks ook nog een 1680? Tis een beetje een zooi.
1670, 1680, 1680 Ti :P
Ondanks dat ik het maar een aparte naamkeuze blijf vinden hoop ik van wel, misschien dat het tegen die tijd de 2e hands prijzen van de 1080ti een beetje laat kelderen.
Nee, hoogstwaarschijnlijk niet. Ze zullen niet hun eigen RTX kaarten de markt uitprijzen.
4 Gb lijkt me redelijk voor dit segment... Belangrijk zal het stroomverbruik (oa ivm formfactor) zijn. Maar zucht de tijden dat je eentje uit de '50ti' serie had rond de 120 euro zijn wel voorbij. Dat zou nog niet zo erg zijn als dit niet het goedkoopste model uit deze serie zou zijn :(

[Reactie gewijzigd door AtariXLfanboy op 23 juli 2024 02:43]

Waarom zou je die überhaupt willen als er ook een rx570 op de markt is met een stuk betere perf/dollar.
Die ligt eerder op ca 140 euro en een videokaart die 195 W stroom verbruikt is op andere vlakken weer helemaal niet zo perf/dollar. De 1050Ti verbruikt nog niet eens de helft en ook de 1650 schijnt onder de 75W te blijven.

[Reactie gewijzigd door AtariXLfanboy op 23 juli 2024 02:43]

jetspiking Freelanceredacteur 18 maart 2019 17:11
Blijf het gek vinden dat de 16 serie niet gewoon de 11 serie is geworden. Had veel logischer geweest qua naamgeving en duidelijk het verschil weergegeven tussen de 1100 en 2000 serie
Ze gaan de verkeerde kant op.. Van 1660 naar 1650 ipv van naar 1670/80
En dan gaat AMD komen met een RX3080, om het nog wat overzichtelijker te maken. Beetje flauw is het wel, eerlijk gezegd.
ze maken het niet duidelijker bij nvidia. hadden ze niet ff iets langer over de namen kunnen denken?
Ja ze hebben echt ongelofelijk vreemde namen gekozen de hele opbouw is lastig nu. Ze hadden de hele 20 serie de 11 serie moeten noemen. En vanuit daar nuances aanbrengen qua rtx en gtx
Volgens mij is deze slomer dan de 1060? aparte keuze van Nvidia.
1050 is ook slomer dan 960.
de t.i. niet
Kijk dit is leuk, een leuke vervanging van de Geforce GTX 1050(Ti), hoop dat er ook Low Profile varianten van uitkomen, dan kunnen de mensen met een heel kleine kastje, dat ongeveer net zo groot is als een Xbox One hun Geforce GTX 950/ GTX 1050 (Ti), vervangen.
Anoniem: 669957 @AmigaWolf18 maart 2019 23:08
Ook leuk omdat het lekker laag in verbuik mis waardoor je ze alleen door de pcie kan gebruiken. Vooral lekker goedkoop voor als je een snelle moba pc in elkaar wil gooien.
Ja precies, je hebt met de Geforce GTX 950/ GTX 1050 (Ti) geen PCI-E kabel nodig, wat ook erg handig is, en ja goedkoop.

[Reactie gewijzigd door AmigaWolf op 23 juli 2024 02:43]

Klopt, maar daar had ik het niet over, we vergeleken de zelfde typenummers van de nieuwere en oudere generatie, 1050 en 1050ti zijn totaal verschillende gpu's, net zoals de 1070 en 1070ti dat zijn.
de 1060 3gb en de 1060 6gb waren totaal verschillend !
Nee daar heb je gelijk in !
Maar het gaat hier ook niet om een 1650Ti, dus die hele vergeljking Non-Ti vs. Ti is een beetje overbodig.
Anoniem: 669957 @w00t00w18 maart 2019 23:06
Ja dat is inderdaad wel waar.
Maar dit is dan ook geen 1650ti...
Hoezo is dit een aparte keuze volgens jou?
Dit gebeurt bij Nvidia al generaties lang.
Ik vraag mij af wat de meerwaarde is van een gtx 1650, de gtx 1660 non ti versie schommelt al tussen de RX570 en RX580 in en is puur als je kijkt naar stroomverbruik en performance behoorlijk aan de prijs.

Bron: https://www.youtube.com/watch?v=O9IN4nAOhRM)

Maar als de gtx1650 lekker zuinig word en sneller dan de gtx1050 zal zijn, zal het wel zeker potentie hebben als low profile kaartje voor bijvoorbeeld een m-itx setup
De review die je linkt, zou ik toch met een korrel zout nemen. Bijna elke andere review gaat ervan uit dat GTX 1660 prestaties minstens gelijk zijn aan RX 590. Het stroomverbruik valt bovendien mee, zeker in vergelijking met de RX 590. Prijs/prestatie is de RX 570 momenteel het best.
Dat betwijfel ik aangezien de RX570 de 1050ti nu al volledig wegvaagt qua prijs/performance

Op dit item kan niet meer gereageerd worden.