'Nvidia gebruikte 12Vhpwr-opvolger al voor de GeForce RTX 4070 FE'

Nvidia gebruikte voor de GeForce RTX 4070 Founder Edition mogelijk al een connector met het 12V-2x6-ontwerp, in plaats van 12Vhpwr. Dat beweert Igor Wallossek van de Duitse website Igor's Lab. Eerder zei hij dat deze opvolger pas geïntroduceerd wordt als onderdeel van PCIe 6.0.

Igor Wallossek denkt dat de GeForce RTX 4070 FE-videokaart al gebruikmaakt van de nieuwe connector, vanwege de vier datapinnen aan de onderkant. Die zijn bij de 12V-2x6 verder naar binnen geplaatst, 1,7mm in plaats van 0,4mm, iets wat hij ook bij de 4070 FE ziet. Ook bij de custom MSI RTX 4070 Gaming X Trio-variant ziet hij het nieuwe ontwerp, al staat op het label nog steeds 12VHPWR H+. Dat terwijl de nieuwere versie het label H++ zou moeten meekrijgen. Het is niet duidelijk waarom deze nieuwe connector naar het schijnt al in massa wordt geproduceerd, terwijl het ontwerp klaarblijkelijk nog niet klaar is.

Wallossek deed eerder deze week voor het eerst melding van de 12Vhpwr-opvolger op basis van gelekte documenten. Twee van de vier pinnen zorgen voor de detectie van de videokaart. Doordat ze verder naar binnen zijn geplaatst, zal de videokaart in zijn geheel niet aangaan zolang die twee datapinnen geen contact maken. Daardoor zal de videokaart dus niet functioneren als de kabel niet volledig is ingeplugd, hetgeen de veelvoorkomende problemen met de smeltende 12Vhpwr-connectors moet voorkomen.

Vergelijking connector RTX 4070 en RTX 4080 FE
De RTX 4070 FE met vermoedelijk een 12V-2x6-connector, vergeleken met de 12Vhpwr van de RTX 4080 FE

Door Kevin Krikhaar

Redacteur

05-07-2023 • 14:25

58

Submitter: nzall

Reacties (58)

Sorteer op:

Weergave:

Ik zou denken verhoog het voltage zodat er niet 50A doorheen hoeft bij 600 watt. In plaats van 12 volt, 5x zo veel, dus 60 volt, dat is dan nog maar 10A.
DC/DCs worden minder efficient bij hogere ingangsspanningen. Dat komt omdat MOSFETs altijd enige tijd in een half geleidende modus doorbrengen. Als de voedingspanning stijgt gaan deze MOSFETs nog meer vermogen verstoken tijdens deze overgangsperiode. De bedoeling van "gate drivers" is om de MOSFET zo kort mogelijk in deze regio te laten doorbrengen. Om de transitie zo snel mogelijk te maken, moeten de MOSFETs op z'n beurt moeten een zo klein mogelijke gate lading benodigd hebben om aan te schakelen.

Het is vast mogelijk om een VRM te ontwerpen voor 24V of 48V, maar je hebt dan wel een uniek portfolio aan onderdelen nodig. De gehele industrie is ingesteld op 12V, dus dat zal ongetwijfeld ook prijs en volume voordelen meebrengen.

Tevens, de verliezen in een VRM zijn doorgaans veel groter danhet vermogensverlies van kabels en connectors. Stel je neemt een VRM van 100W met een rendement van 95% (zeer proper design), dan gaat daar zo'n 5W verloren. Er wordt dan 105W power aangeleverd bij bijvoorbeeld 12V, welke overeenkomt met 8.75A, dus prima voor 2 aders van VCC/GND. Wil je evenveel vermogen verliezen in transport moet ook daar 5W verloren gaan, wat gebeurd bij een totale series resistance van de kabeling+connectors van 65m Ohm. PCIe connectors worden doorgaans gemaakt met 18AWG bedrading, welke ~21Ohm/km aan serie weerstand hebben. Je komt dan 5W verlies pas tegen als je 3m aan bedrading hebben (1.5m aan extension kabels), waarbij je de kabels ook nog zo saboteert dat er maar 1 VCC/GND pair is aangesloten ipv de gebruikelijke 2 of 3.

Dus nee, het transport over een halve meter in je PC kast is het probleem niet. Mits je natuurlijk alle connectors goed inplugd. ;)

[Reactie gewijzigd door Hans1990 op 25 juli 2024 15:01]

Ja maar daarom ben jij dus geen ontwerper van videokaarten. :+

Halfgeleiders werken met extreem lage spanningen en hoge stromen.
Het moet uiteindelijk naar ~1.2v bij 500A wanneer het door de gpu gaat. Dan zouden de VRMs nog groter worden en nog veel meer hitte genereren. Daarnaast vereisen hogere spanningen meer afstanden tussen tracés op de PCBs.

Het maken van connectoren die 50A kunnen hebben is geen raketwetenschap, maar Nvidia heeft ontwerpfouten gemaakt. De makkelijkste optie is om gewoon een fatsoenlijke connector te bouwen.
Het maken van connectoren die 50A kunnen hebben is geen raketwetenschap, maar Nvidia heeft ontwerpfouten gemaakt. De makkelijkste optie is om gewoon een fatsoenlijke connector te bouwen.
De connector is gespecificeerd door PCI-SIG: https://pcisig.com/membership/member-companies.
Waar Nvidia gewoon lid van is. Waarschijnlijk met een redelijke grote invloed gezien het formaat van het bedrijf.

Ze hebben echt wel invloed gehad/kunnen hebben op de connector.
sterker nog, als je gaat naar de kop Board of Directors zie je staan dat Steve Glaser de Principal Engineer van PCI Express Architectuur is bij NVIDIA.
En hoe denk je dat PCI-SIG er op gekomen is? Juist, deelnemende bedrijven (zoals Nvidia) suggereren wat er in de specificatie moet komen. Het is niet alsof één of andere bureaucraat het zomaar uit zijn duim heeft gezogen.
Ja, maar bedacht door Nvidia.
NVIDIA heeft de connector niet ontworpen, dat is het werk van Intel.

Alleen de sense pins zijn een idee van NVIDIA.
Juist andersom. Nvidia had hun 12-pin voor de 3000-serie. Vervolgens wilden ze dat een algemene standaard maken en toen moesten er van de PCI-SIG nog een stelletje sense-pins bij.
Grootste ontwerpfout die ze gemaakt hebben was niet de connector.
Maar een GPU die een halve kilowatt nodig heeft.
12v is veilig bij aanraking (tenzij je eraan gaat likken) 60v gelijkstroom is al een ander verhaal qua veiligheid ;)
Al zou je richting 24v gaan, dat halveert al het aantal amperes dat nodig is.
Dat vereist natuurlijk een enorme stap in de volledige stroomvoorziening van een PC. Krijg je er nooit zo even doorheen, daarnaast worden de componenten op het pcb van de gpu weer duurder.
gewoon terug een aparte adapter zoals bij de voodoo5 600 vroeger :+
kan je rustig een interne voeding van 400W blijven gebruiken voor al de rest ;)
Dat is helemaal waar natuurlijk, economisch niet haalbaar. Maar technisch gezien zou het een betere oplossing zijn om vanaf de voeding naar de CPU/GPU een hoger voltage te laten lopen en daar de laatste step-down te doen naar 12v. Volgens mij gebeurt dat al toch? Een chip wordt tegenwoordig gevoedt met 1.x volt, dus zo'n gek idee is het volgens mij niet.
gewoon een step up adapter maken en bijleveren bij zware GPU's 3x 8pin -> step up naar 24v "hwpr 2.0" en dan dus op de videokaart terug naar beneden.

Ja je videokaart zal een 20 euro duurder worden, maar of het nu 1800 of 1820 is maakt dan ook niet meer uit :+
En dan mag je ook weer met een nieuwe ATX standaard komen waarbij in één klap alle huidige PSUs niet meer met die nieuwe videokaarten werken.

Lijkt mij, naast het punt dat @unglaublich maakt, een complexere oplossing dan de huidige.
Als het voltage omhoog gaat, dan zouden de ontwerpers dunnere, soepelere kabels gebruiken, met kleinere connectors, zodat we alsnog met hetzelfde probleem zaten.

Hetzelfde met nieuwe accutechnieken, Apple gebruikt die om kleinere accu's in te kunnen zetten voor dunnere telefoons.

De grens wordt altijd opgezocht.
Blijf het een kansloze aansluiting vinden...
Die pinnen zitten zo dicht op elkaar en dan 600 watt er door heen jagen is gewoon vragen om problemen :(
Het vermogen is het probleem niet, het probleem is de stroomsterkte.

We blijven vasthouden aan 12V, waardoor de stroomsterkte omhoog moet om voldoende vermogen te krijgen, en laat die stroomsterkte nou net zorgen voor dissipatie (warmte) in de kabels en connectoren.

Simpel rekensommetje -> 2x zoveel stroom = 4x zoveel warmteontwikkeling. dus van 300W->600W betekent vier keer zoveel verlies in de kabels/connectoren (aangenomen dat die hetzelfde blijven).

We moeten gewoon naar een hogere spanning toe bij deze vermogens.
Maak bijvoorbeeld een 48V rail (o.i.d.) op GPU's voor grootverbruikers zoals de videokaart en maak de juiste spanningen op de kaart zelf.
Of we moeten gewoon eisen dat de fabrikanten weer gaan focussen op energiezuinigheid en niet puur op prestaties...
Is toch te belachelijk dat een 850 watt voeding aangeraden wordt voor een midrange kaart?
In principe zijn de kaarten van nu heel energiezuinig hoor ze worden alleen zo ingesteld dat je er de absolute maximale performance uit kan halen.
En die laatste paar procent performance kost in verhouding vaak een hoop extra stroom.

Ergens best begrijpelijk want ze worden uiteindelijk vooral op de prestaties afgerekend..

Als je zelf de kaart gewoon wat tweaked kan je dat zo 30% energieverbruik schelen, en vaak tegen minimaal performance verlies.
Dat snap ik, maar de fabrikanten zouden de gpu's zelf zo moeten afstellen.
De meeste gebruikers begrijpen niet hoe ze moeten undervolten, ik heb er zelf ook nog geen tijd in gestoken.
Vind ik bijvoorbeeld ook van auto's... Waarom brengen ze auto's met een turbo motor uit die met simpele software tweakers meer performance kunnen leveren tegen een 10% gemiddeld lager fabriek. Waarom brengen ze die auto's niet uit met die tweak al toegepast??

Als je een GPU bijvoorbeeld op 95% van de performance kan laten presteren maar dan wel 20-30% zuiniger dan zou ik een fabrikant echt feliciteren met die aanpak!
Undervolt is tegenwoordig niet zo spectaculair meer hoor,
dat is gewoon een slider in je videokaart software ;)

Even zoeken naar je kaart op google om een beetje een idee te krijgen, slider instellen en testen.
Misschien 15 minuten werken.

En als je regelmatig gamed kan het je zo vele tientallen euros per jaar aan stroom schelen,
lijkt mij wel de moeite waard.

Vaak zijn er overigens wel een paar energiezuinigere modellen hoor, als je goed zoekt.
Maar een model zoals jij omschrijft waarbij de kaart echt specifiek gebouwd is op laag energieverbruik, met bijvoorbeeld undervolt, dat heb ik eigenlijk nog niet gezien.

Wie weet komt dat ooit nog, ik zou het zeker toejuichen.
En hoeveel consumenten gaan daar de voorkeur aan geven? Ik koop nog altijd gebasseerd op prestaties en niet op het verbruik. Die paar euro meer of minder die het mij kost in verbruik gaan echt niet meespelen bij aankoop.

Fabrikanten zijn er vandaag al veel meer mee bezig dan de consument net omdat zij weten dat ze het thermisch ook afgehandeld moeten krijgen, en met een steeds belangrijker deel van de industrie die naar AI en datacenter technologie kijkt wordt energieverbruik en warmtebeheer van de ontwerpen ineens weer een heel stuk belangrijker.

En het feit dat men een 850W voeding aanraad is om stabiliteit te garanderen. Men weet dat er redelijk wat goedkope voedingen zijn die helemaal niet in staat zijn om maar in de buurt te komen van het geadverteerde vermogen.
Soms krijg je ook betere prestaties bij undervolten
Dat gaat dus ook niet gebeuren, omdat PSUs net over willen naar de 12VO standaard.
De 48V 15A naar 1.2V 600A omzetting bij de GPU gaat enorm veel warmte genereren op een plaats die nu al zo goed als thermische beperkt is.

Ja, kabelverlies schaalt kwadratisch met stroomsterkte, maar die verliezen zijn helemaal niet zo hoog. De verliezen zitten voornamelijk in de AC/DC en DC/DC transformatoren in de PSU en de VRMs bij de processoren.
Is 12VHPWR, 12VHPWR H+ en 12VHPWR H++ backwards compatible met elkaar?
Of moeten mensen nu ook nieuwe kabels bestellen bij hun PSU leverancier?
Ik vermoed dat de kabels/connectors ook wijzigen, daar de pinnen immers dieper in de videokaart aansluiting moeten. Dus je zult waarschijnlijk of nieuwe kabels moeten bestellen of je krijgt deze bij de nieuwe ATX 3.1 PSU. Geen idee in hoeverre fabrikanten bereid zijn gratis nieuwe kabels te verstrekken voor de reeds bestaande ATX 3.0 PSU's met nog de "oude" kabels.
Ik denk dat de huidige kabels gewoon bruikbaar blijven. Doordat de onderste pinnen verder naar binnen zijn geplaatst maken ze pas verbinding als de connector *ver genoeg* in de aansluiting is geduwd (lees: helemaal ipv 'net niet' waarbij er dus slecht contact is met kans op vonken/warmte/smelten). Dus de bestaande kabels zullen gewoon werken mits de connector er helemaal (zoals het hoort) in is geduwd.

[Reactie gewijzigd door P-e-t-j-e op 25 juli 2024 15:01]

Gaat het na een aantal jaar geen problemen geven als het nieuw al zo nauw luistert?
De PSU kabel blijft gewoon bruikbaar. De GPU kant is aangepast zodat het niet werkt als de kabel niet voldoende is ingeplugt of los is gekomen.
De enige uitzondering hierop is de 150W 12vhpwr. Voorheen had die geen van de sense-draden gevuld, waardoor ook niet te detecteren was of deze correct waren aangesloten. In deze revisie is bij de 150W vereist dat de twee sense-draden aan elkaar zijn verbonden, met een draadje wat dus maar zo'n 3 cm hoeft te zijn.
12VHPWR en 12VHPWR H+ is hetzelfde, alleen niemand noemt het zo, de H+ staat op elke huidige connector. H++ is de connector die nu op de 4070 FE zit, de 4090 en andere kaarten hebben H+.

En ja, je kunt gewoon je huidige 12VHPWR kabel in een 12V-2x6 (H++) connector pluggen.
Ze hadden natuurlijk ook niet zo stronteigenwijs kunnen zijn en gewoon een klassieke 8 pin stekker gebruiken die al jaren prima werken.
Letterlijk niemand zit te wachten op deze stekkers op onhandige plaatsen en blijkbaar mogelijke gevaren. iedereen heeft al case-mod kabels voor 2/3x 8 pin en een goede kabelroute in de kast, iets dat met dit gedrocht nooit mogelijk is.
Hoi, Niemand hier.

Ik zat hier wel op te wachten. Of nou ja, ik heb toch een dichte kast dus maakt mij niet zoveel uit hoe het er precies uit ziet, maar kom op zeg, verandering is wel heel eng voor Tweakers schijnbaar. Waarom zou met een enkele connector een goede kabelroute niet mogelijk zijn, en met 3 connectoren wel?
En ja, zelfs met mijn gesloten kast ben ik voorstander van gewoon één stekker erin drukken ipv meerdere stekkers te gebruiken. Wat overigens niet direct door de standaard, maar door belabberde kabels, ook veel problemen oplevert doordat je dan twee stekkers hebt. Je koopt een voeding met een kabel met twee connectoren eraan, maar die mag je niet beide gebruiken want je moet twee losse kabels gebruiken.
Verandering is prima als het maar beter is. Dit heeft voor 99.99% van de gebruikers alleen maar nadelen en geen enkel voordeel.
De enige die er baat bij hebben zijn de knuppels die een slechte voeding hebben en ook nog eens een 2x8 pin high end GPU daisy chainen. Die mensen hou je nu ook gewoon want je kan met de bijgeleverde adapter exact hetzelfde doen en dus heeft de nieuwe standaard daar NIETS in veranderd en dus geen verbetering.

En een goede kabelroute is niet mogelijk met een kabel in het midden van je gpu onder een slechte hoek tenzij je een uniek moederbord en bijpassende kast heb met een gat boven/onder je PCI-E slot waar je de kabel door kan routen. Het is gewoon heel slecht doordacht in de huidige kaarten.
De locatie van de voedingsconnector heeft niet heel veel te maken met de connector. Natuurlijk wel iets met de form factor, maar er is nul reden waarom ze de nieuwe connector niet op de oude plaats kunnen doen. Dus dat is echt geen reden om tegen die connector te zijn.

En ik durf wel te stellen dat voor 99.99% van de mensen dit primair voordelen heeft. Gewoon één connector erin duwen, en dat is het.

Daarnaast als ik kijk op GoT zijn ook heel veel van de 'goede' voedingen uitgerust met kabels die je niet mag doorlussen als er twee connectoren zijn, dat je de doorlus functie alleen mag gebruiken bij kaarten met drie connectoren. Waar bijvoorbeeld een Corsair RM series de uitzondering is die wel voldoende dikke kabel heeft.

Dat je met een adapter het ook kapot kan maken, is toch iets heel anders dan dat je het met gewoon de standaard kabel verkeerd kan doen. Je kan ook een SATA naar PCIe power adapter kopen natuurlijk.
Ik kan alleen maar toejuichen om van meerdere kabels naar 1 kabel te gaan. Ik begrijp je argument echt niet. Er zijn alleen maar voordelen, als de kabels fatsoenlijk werken natuurlijk.
Je koopt een voeding met een kabel met twee connectoren eraan, maar die mag je niet beide gebruiken want je moet twee losse kabels gebruiken.
Wie zegt dat je niet beide connectoren op 1 kabel mag gebruiken? Natuurlijk mag/kan dat wel, anders zouden ze het niet zo maken. Misschien dat de stroom wat schoner is als je er 1 gebruikt, dat is niet meer dan logisch, maar dat het niet gebruikt mag worden is dikke BS!
Je koopt een voeding met een kabel met twee connectoren eraan, maar die mag je niet beide gebruiken want je moet twee losse kabels gebruiken.
Zie het bericht van Jon Gerow hierover: http://www.jongerow.com/PCIe/index.html
Ja, mensen worden flink angst aangepraat alsof je pc explodeert zodra je een pigtail gebruikt, maar dat slaat nergens op. Zoals Jon Gerow schrijft:
If we do our math again using 16g HCS parts, we would take 10A, multiple by 3 conductors, for 30A total current. Then multiple by 11.4V. That's 342W.
Generaliseren kun je wel he.

Ik ben best blij met de nieuwe kabel standaard. Recentelijk een nieuwe PSU gekocht, connectors zijn een stuk kleiner en dus makkelijker weg te werken, en 1x12VHPWR naar de GPU is toch wel makkelijker dan 3x8..
Er zijn ook flink wat 4070's te krijgen met de klassieke 8 pin stekker, dus je kunt zeker een model uitzoeken zonder de 12 pin's stekker.
Ze hadden natuurlijk ook niet zo stronteigenwijs kunnen zijn en gewoon een klassieke 8 pin stekker gebruiken die al jaren prima werken.
Letterlijk niemand zit te wachten op deze stekkers op onhandige plaatsen en blijkbaar mogelijke gevaren. iedereen heeft al case-mod kabels voor 2/3x 8 pin en een goede kabelroute in de kast, iets dat met dit gedrocht nooit mogelijk is.
Tja daarvoor hadden we voor alles molex connectoren. Met de tijd worden dingen nu eenmaal herzien. De PCIe kon maar 150W per connector voorzien. Met 12VHPWR is dat opgerekt naar 600W. Daarnaast moeten de ATX 3 voedingen 3x de GPU power kunnen leveren. Dus voor een 4090, 450W variant, moet een voeding 1350W voor 100 microseconde kunnen leveren.
In theorie kan een 8 pin gewoon 600 watt leveren als je ge wire gauge even aanpast in een PCI-E 8X Gen 2 variant. De rest is dan allemaal niet interessant als je zorgd dat een Gen 2 voeding gewoon de juiste specs heeft via de specsheet.
Zo heeft Der8auwer een keer alle kabels doorgeknipt met een zware overklock en er was niets aan het handje.
Enige probleem is de bagger voedingen met dunnere kabels maar die gaan ook met een dikkere kabel geen 4090 aansturen door de pieken.

In de theorie klopt het allemaal wel maar in de practijk is de nieuwe standaard gewoon slecht uitgevoerd. 12 pins is in realiteit onnodig waardoor de stekker kleiner en gevaarlijker maken ook niet nodig geweest was. puntje bij paaltje komt het allemaal aan op de dezelfde rails aan zowel de kaart als de voeding zijde waar de "gauge" een stuk dunner is als die kabels. Het zijn dan ook de koppelpunten (de stekkers) die het zwakke punt zijn. En met dus een modded kabel ertussen heb je nog 2 extra zwakke punten. niet echt ideaal.
Dan kan je zeggen sluit de modded kabel direct op je PSU en GPu aan maar dat kan dan vaak weer niet en dat is de schuld van dezelfde PSU fabrikanten die ervoor zorgen dat er een nieuwe standaard "nodig" is. Want die vinden het leuk om de standaarden niet te hanteren en aan de voeding kant een non standaard schema/layout aan te houden waardoor je je pc op kan blazen...

Maarja uiteindelijk goed voor de hardware fabrikanten want die kunnen weer nieuwe modded kabels en nieuwe PSU's verkopen he. Ik wens ze liever niet te sponsoren omdat alles al duur zat is maar helaas denkenn velen daar anders over, die hebben blijkbaar geld te veel. Puntje bij paaltje zit >95% via een converter stekker aangesloten op jawel 2 a 3x PCI-E 8x waarvan zeer waarschijnlijk 1 met daisy chain. Enige wat je dan gerealiseerd hebt is dat je er extra contact punten tussen gemaakt heb die altijd de slechtste stroom geleider zijn.
Minder ruimte nodig op de PCB, en een standaard voor elke GPU ongeacht het wattage.

Voor PSU's heeft dit uiteindelijk ook voordelen, en worden minder complex met 6 tot soms wel 10 8-Pin aansluitingen.

Ik zie in de toekomst de EPS van de CPU ook naar een dergelijke 12-pin verhuizen i.p.v. 2x 8-Pin
Mwa voor een CPU is het al helemaal niet nodig.
Tenzij je echt serieus wil overclocken heb je helemaal niet meer nodig als 1x 8 pin. mijn cpu trekt met een zware overclock al 255 watt en dat is met maar 1 van de 2 kabels aangesloten.
Van wat ik weet doet AMD bij de nieuwste socket 240 watt max en Intel 330 watt max, doorgaans niet continu maar wel door de boost. Ik zie de boost snelheden nog wel omhoog gaan net als dat bijvoorbeeld een (Nvidia) gpu flinke transients trekt of een 13900K(S) soms meer trekt (even snel een review: 342 watt max), eventueel dat de kabels er daarom al zijn?

Voor een APU wel handig ook, 65/105 watt voor de cpu, rest voor de gpu.
Verschil is tussen beide versies erg klein, zo te zien. Ook geen voorziening ter voorkoming van insteken verkeerde connector. Zie het al gebeuren dat gebruikers toch de onjuiste connector erin rammen.
Waarom niet een simpele/duidelijke beveiliging hiertegen?
Er is maar één type vrouwelijke connector voor 12VHPWR en 12V-2x6 dus wat zou er fout moeten gaan? Het grootste verschil is de 4 kleine sense pinnen die met de nieuwe versie korter zijn, en dat maakt aan de kabel kant geen verschil wat inpluggen betreft.
Welke verkeerde connector zou je erin willen steken ?
De 2 connectoren op de foto's zijn 1:1 pin compatible met elkaar. Alleen bij de nieuwe zitten de data / negotiation pennen iets dieper waardoor die pas contact maken als de 12v stroomkabels als goede contact hebben met de gpu.
Ja, je hebt gelijk. Ging uit dat de positie iets anders was, ivm 'naar binnen geplaatst'.
"Dat terwijl de nieuwere versie het label H++"
Energielabel :? :P
En wat nu als ze die pinnen in die GPU connector zowel dieper als 1.4mm langer maken? Dan zou de kabel nog steeds moeten passen en maakt hij volgens mij nog beter contact.
Mooi dat het aangepast is, moet wel zeggen dat veel mensen bang gemaakt zijn maanden geleden met het hele gebeuren, in de praktijk is er niet zoveel aan de hand.
Totdat het je overkomt. Dan ben je denk ik toch een heel stuk minder blij.

Op dit item kan niet meer gereageerd worden.