Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 34 reacties
Bron: AnandTech, submitter: Soar

De mensen bij AnandTech hebben weer een artikel toegevoegd aan hun zogeheten 'Inside'-serie. Na eerdere visites aan VIA en Intel kon men nu ATi en nVidia met een bezoek vereren. In het artikel wordt uiteengezet hoe de hedendaagse grafische processors worden ontworpen en gefabriceerd. Bij ATi hadden de bezoekers de gelegenheid om met een ingenieur rond de tafel te zitten, bij nVidia zijn er een aantal interessante afbeeldingen geschoten van de machines die gedurende dat proces gebruikt worden.

nVidia logoElke nieuwe kaart begint met het bepalen van een aantal specificaties, waaronder het aantal transistors en de productiemethode. De fabrikant probeert te bepalen welke technologie ten tijde van de release gemeengoed zal zijn en baseert de GPU daarop. Een afwijking die voor uitstel zorgt is hierbij natuurlijk snel te verwachten, iets dat de 0,13 micrometer NV30 momenteel ondervindt. Zodra de technici en de marketingmedewerkers het eens zijn geworden over de eigenschappen van het te ontwerpen product, begint men aan het virtueel bouwen van de chip. In een zogeheten Hardware Description Language (HDL) programmeert men een chip die zelfs zonder werkelijk silicium getest kan worden.

Na enkele maanden van programmeren volgt een uitputtende validatieperiode. Aangezien er ongeveer vier weken tijd zit tussen het insturen van een ontwerp en het ontvangen van een chip, is het belangrijk dat er geen fouten in het ontwerp zitten. Bij het testen kan men gebruik maken van een FPGA, een apparaat met een grote hoeveelheid instelbare logische poorten die ervoor zorgen dat elke willekeurige chip kan worden nagebootst. Als alles lijkt te werken wordt het eerste product gefabriceerd, de zogeheten A0-stepping. Deze chip wordt getest, waarbij het met bepaalde apparaten mogelijk is om binnen de core verbindingen aan te leggen en te verwijderen. Met deze FIB's kan men bepaalde oplossingen voor bugs testen zonder vier weken op het resultaat te hoeven wachten.

Natuurlijk vereist het nabootsen van een virtuele chip bestaande uit tientallen miljoenen transistors een behoorlijke vracht rekenkracht: nVidia heeft letterlijk duizenden processoren in clusters bijeengebracht om deze taak tot een goed einde te brengen. Voorlopig is het bedrijf gebonden aan dure 64-bit machines in verband met de 4GB-geheugenlimiet die x86 nog altijd meedraagt. Het bedrijf geeft dan ook aan uit te kijken naar de Opteron, die door de 64-bit extensies van AMD geen last zal hebben van deze bovengrens. Interessant om te zien zijn de kaarten die gebruikt worden om de chips te testen: het gaat hier om kaarten met sockets, waarin een product van het juiste type kan worden geplaatst om ze na te kijken. Zowel chipsets (nForce2) als GPU's worden op deze manier gevalideerd:

Socketed GPU voor testen bij nVidia

Moderatie-faq Wijzig weergave

Reacties (34)

Waarom oh waarom kunnen ze niet zo'n plain pcb maken met zodat je het geheugen en de chip apart kan upgraden?
Dit moet toch te doen zijn? En bespaart volgens mij veel kosten, ze zouden zelfs verschillende soorten pcb's kunnen maken. Bv voor de overclocker, voor de beeldkwaliteit en video freak, voor de gewone gebruiker, voor budget, ...
Het idee is heel leuk .. maar je moet als consument dan ook dingen gaan doen als etsen van datapaden, verwisselen van de juisten componenten (condensatoren, (spannings)regulatoren, etc) zodra je je vidchip/geheugenchips vervangt.. Bovendien zal je ook in dat geval aan 1 merk (GPU) gebonden zijn, of zeer meesterlijk tweaker ;).
Natuurlijk is dit ook te integreren in de GPU maar de kosten daarvan lopen dan weer uit de hand. Bovendien is het een vorm van zelfmoord van de kaarten-bakker die die kaartjes gaat maken, jij koopt immers geen nieuwe PCB's meer

Anywayz het idee is natuurlijk zeer stoer B-) maar de haalbaarheid is wat minder, als je natuurlijk ook nog flinke prestaties wil.
Ja maar hoe ga je dan aan drivers komen... ik bedoel als je je eigen kaarten inelkaar zet dan moet je ook je eigen drivers maken ......
Dus... heeft iemand een handleiding ? :+
Hoezo? Nvidia levert nu toch ook al drivers voor een hele reeks chips.. lijkt me niet anders als je zelf je chip kunt upgraden :)

Lijkt me alleen nogal nutteloos. Want ook de architectuur op de PCB evolueert. En dan loop je tegen dezelfde problemen aan als met anders upgraden: bottlenecks van de oude hardware.
Ik zou niet weten waarom. Als ik zelf mijn PC bouw, dus zelf mijn CPU op mijn mobo prik, etc, dan hoef ik ook niet mijn eigen drivers te schrijven hoor ;)
De reden is heel simpel: Omdat je dan geen nieuwe videokaart koop.

[en aangezien geen enkele video-kaarten-fabrikant dat doet hebben ze ook geen concurentie-nadeel]

[en al die onzin over de prijs van een socket is natuurlijk onzin, want bij je PentiumIV en Athlon-chip en je SDRAMs is het opeens wel mogelijk...]
Je wil niet weten hoeveel zo'n testsocket kost... :D
idd, een "dom" socketje met 50 pinnen kost ongeveer 25 euro. Dat socketje op de foto kan paar honderden euro's kosten.
Dacht al wel dat er een catch achter zat, maat het zou toch een mooi principe zijn.
Natuurlijk vereist het nabootsen van een virtuele chip bestaande uit tientallen miljoenen transistors een behoorlijke vracht rekenkracht: nVidia heeft letterlijk duizenden processoren in clusters bijeengebracht om deze taak tot een goed einde te brengen.
Vraagt het echt ZOVEEL kracht om een chip na te bootsen?
Ja, bij elke clockcycle moet je uitrekenen hoe alle signalen zich door het ontwerp verplaatsen. Je moet echt met een heleboel faktoren rekening houden.

Nou heb je daar wel allerlei mooie testmethodes voor zoals boundary scan test e.d. maar het duurt toch altijd erg lang en kost nog veel meer cpu power en heeel veel geheugen.
precies... anders zou je net zo goed je GF4tje kunnen emuleren :)
BitBoys waren destijds zo in het nieuws gekomen omdat ze daar een zogenaamd revolutionair software pakket voor hadden ontwikkeld. Voor het testen van hardware in ontwerp-fase zeg maar. En toen zag het er nog rooskleurig uit voor hen. Feit blijft dus dat het gewoon heel veel rekenkracht en dus geld kost om een stuk hardware te imiteren (in ontwerpfase).
die op dat plaatje moet ik hebben :) dan prik ik er gewoon een gf5 in als die komt :)
Omen heet de volgende kaart van nVidia... niet GF5
Omen is NIIIIEEEET de naam van de volgende kaart van nVidia tenzij ze een vlinke vracht geld op tafel toveren, want ATi heeft deze naam in zn bezit, ik heb het al eerder gezegd maar het schijnt niet door te dringen.
er komt geen Geforce 5....... de volgende "eigelijke geforce" gaat anders heten...
Nvidia wil van die naam af...
(snap ik ook wel, omdat het voor heelveel normale consumenten een beetje onduidelijk word)
Het zou toch wel lekker makkelijk zijn als we een VGA kaart hebben waar je gewoon de GPU kunt wisselen, dus gewoon een met een socket.

Kun je lekker upgraden voor weinig, OK maar dat doen we niet want dan verdienen ATi/Nvidia niet genoeg.

Want zoals boven in het plaatje te zien is kan het wel, al is het dat in het bovenste plaatje voor test doel einde wordt gebruikt.
ok
stel nu eens voor dat je dat al kon doen met de eerste Geforce DDR.
Je hebt dan nu eindelijk het geld om up te graden en je koopt je dus een geforce 4 ti4600.
Ik ben er heel zeker van dat ie niet op volledige capaciteit zal werken, simpelweg om dat het geheugen de gpu nooit of te nimmer kan bijhouden, ...
aan zo een upgrade heb je dus bitterweinig tot vrijwel niets.
Het is idd een heel mooie gedachte, maar in de praktijk bijna onmogelijk haalbaar.
Ach... als waar is wat jij zegt zou het upgraden van een Ahtlon 600 MHz naar een Athlon XP2600+ ook niets uitmaken, want daar is (vrijwel) ook alleen maar de multiplier omhoog geschroefd en het geheugen gelijk gebleven....

Niet waar dus (hoewel een slim ontwerp van de videochip, dat minder afhankelijk is van geheugen-bandbreedte wel noodzakelijk is)
Ligt er aan waar de bottleneck van je oude systeem ligt. Stel dat die GF! DDR al een geheugenbottleneck heeft dan kan je niet zomaar de GPU versnellen, het geheugen blijft. Bij de CPU is dat anders\.
Zo te lezen heeft nvidia uit heb zitten kijken naar de Opteron, met als hoofdreden voor het meer kunnen adresseren van geheugen(>4GB), en ook omdat x86 hardware goekoper is. Zal wel een leuke order/promotie project zijn voor AMD...
Athlon MP's hadden ze niet, tussen de regels in staat er toch eigenlijk omdat ie teveel warmte produceert, en daarom ook wereldwijd niet echt succes vol is.

Wel leuk om te lezen dat nvidia geen idee had welke hardware ze moesten kopen voor hun boerderij, dus kochten ze maar van alles en wat het beste was kochten ze meer van. Simpel en effectief...
Ze hebben daar wel een hoop aan hardware staan zeg, leuk als je daar mag werken !

Ook interessant dat ze chips met die FIB tool kunnen bewerken om er zo fouten uit te halen....en natuurlijk de hoofdreden om in nvidia te investeren :)
Jij leest wel op een hele rare manier tussen de regels door. Er staat nergens (ook niet tussen de regels) ook maar de geringste suggestie dat het iets met warmte te maken heeft.

Het kan heel goed zijn dat hun software nou net één van die zeldzame stukken software is die het zeer goed doen op een P4. (Wellicht SSE2 gebruikt etc)
moet jij je naam niet gewoon veranderen in rVudie? ;)
Vet stoer zo'n kaart met socket erop. Beetje jammer dat je alleen een identieke chip kan vervangen.
Anders was het een relatieve goedkope manier geweest om te upgraden
Best leuk allemaal om te zien, alleen jammer dat er geen kiekjes werden/mochten worden gemaakt bij ATI
Dan zie je waarschijnlijk precies hetzelfde spul. Ik moet zeggen dat ik het verhaal er omheen dat ze van ATI kregen veel interessanter vind dan die kiekjes.
Nou dacht ik toch echt dat 3dFx de naam Omen wilde gebruiken. En dan heeft nVidia die naam toch geerfd.
HO-LY-CRAP!!!
tjeeez wat een serverruimte :9~

* 786562 STi
waarschijnlijk zal er in ieder station niet veel schijfruimte inzitten....
lijkt wel een pers :P

Hoe werkt dat dan eigenlijk met het geheugen? Dat lijkt er toch aardig vast op de kaart te zitten.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True