Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 64 reacties
Bron: nVidia, submitter: silentsnow

Op de site van nVidia kun je een video downloaden die een kijkje geeft in de engine room van nVidia. Zo leert ons de video dat het ongeveer 100 miljoen dollar kost om een nieuwe grafische chip te ontwerpen en een enorme hoeveelheid rekenkracht vereist om het ontwerp te simuleren voordat de uiteindelijke chip gefabriceerd kan worden. Het data center waarin deze rekenkracht staat opgesteld wordt door nVidia engine room genoemd. Wat kun je zoal zien in de film:

    nVidia Logo (graphics^n)
  • 19 SunFire servers van Sun met elk 24 CPU's en 196GB (ja je leest het goed: gigabyte) geheugen voor backend berekeningen.
  • Meer dan 2000 Linux stations uitgerust met een Pentium 4 2GHz processor voor simulatie doeleinden.
  • 800 Linux stations uitgerust met een Pentium 4 2,4GHz processor en 4GB aan geheugen, ook voor simulaties.
  • 90TB aan opslagcapaciteit.
    Nog eens 4000 Linux stations.
Moderatie-faq Wijzig weergave

Reacties (64)

Bij het lezen van zoiets vraag ik me af hoeveel generaties vga kaarten ze moeten ontwikkelen om alleen al uit de kosten te komen van zo'n engine room. Dat zal toch niet gering wezen.
Dat valt best mee hoor, zeker voor een bedrijf als nVidia. De kosten van deze Engine Room worden voor een groot deel doorberekend in de prijs van de grafische kaarten natuurlijk.

Het bedrijf waar ik werk, heeft alleen al voor het "gewone" personeel (onder andere administratie, webscripters, programmeurs, zoals ik dus) P4 2.0 procs, met 512 MB geheugen, draaiend op Win2k. Daarvan hebben we er zo'n 1000 stuks.

De "veeleisende medewerkers" (CAD, Machine-ontwerp) hebben veel, en veel zwaardere PC's. Daarvan hebben we er 500 of zo.

Daar komt nog bij dat het bedrijf een contract met HP/Compaq heeft, waardoor men alle hardware tegen 40% van de winkelprijs verkrijgt, terwijl servers "maar" 60% van de winkelprijs kosten. Zelfs met deze enorme kortingen verdient Compaq nog op de hardware. Gegarandeerd dat nVidia ook een of ander contract heeft waardoor zij korting hebben op de hardware.

Windows 2000 is zo duur in de licenties, dat nVidia best die Engine Room kan betalen als ze op Linux draaien. Van al het geld dat ze op het OS besparen, kunnen ze die rekenbeesten "gemakkelijk" kopen.
Je vraagt je het verkeerde af. Je zou je af moeten vragen hoeveel ze wel niet verdienen aan al die videokaarten die ze verkopen :) En dat kun je gewoon op hun site zien want nVidia is een beursgenoteerde onderneming.
Zo zie je toch maar eens waar al dat geld naar toegaat. Het valt dus niet mee om een grafische chip te ontwerpen.

Hieraan kun je ook zien dat het voor nieuwkomers enorm moeilijk moet zijn bestaande spelers als nVidia of ATi te overtreffen, aangezien je aan een enorme hoeveelheid geld moet komen om al deze hardware te moeten financieren, laat staan de mensen en kennis.

* 786562 mr._Anderson
Ja maar de nieuwkomers kunnen natuurlijk ook gelijk beginnen met het kopen van nieuwere Pentiums en xeons die wat sneller zijn, misschien in kleinere aantallen maar ja.

Overigens blijkt dat de Opteron de uitkomst is voor Nvidia aangezien ze dan 64 bits x86 code kunnen draaien wat voor hun een uitkomst is.
Meer dan 2000 Linux stations uitgerust met een Pentium 4 2GHz processor voor simulatie doeleinden.

800 Linux stations uitgerust met een Pentium 4 2,4GHz processor en 4GB aan geheugen, ook voor simulaties.
Nog nieuwer, zo oud is dit nog niet dacht ik.
pfffft, bitboys speelt die mannen zo van de markt :9
Toch vreemd. In totaal dus iets van 6000 Pentium systemen die ze (naar ik aanneem) aan elkaar kunnen koppelen om zo een mooi reken cluster te vormen. Waarom is er dan geen spoor van deze opstelling in de Cluster Top 500 te vinden? Het snelste cluster wat ze daar hebben staan bestaat uit iets van 1200 nodes. Die moeten ze dus makkelijk weg kunnen blazen.

Ik vind dit ook zo'n absurd hoog aantal dat ik heel erg mijn vraagtekens plaats van de betrouwbaarheid van het artikel en het filmpje.

Wel een mooi filmpje verder!
Als je goed hebt opgelet, worden er duizenden verschillende simulaties tegelijkertijd uitgevoerd. Er is dus geen sprake van een cluster, want in een cluster wordt de rekenkracht van alle machines gebruikt voor één simulatie.
Toch is het een goeie vraag, bestaande clusters worden ook niet altijd maar voor 1 ding gebruikt. Bij Sara in Amsterdam hebben ze bijv. een 1024 CPU SGI staan en die wordt tijdens 'normaal' gebruik opgedeeld in meerdere virtual machines...

In het filmpje, die muur met 800 P4's die zou alleen al in de top500 thuis horen... Maar hij heeft het over 4 p4's in een 1U-behuizing? Bestaan er quad-P4's?
het zal geen cluster zijn... voor dat werk hebben ze namelijk
19 SunFire servers van Sun met elk 24 CPU's en 196GB (ja je leest het goed: gigabyte) geheugen voor backend berekeningen.
Ik las op Anandtech November 2002 industry update dat nVidia naast de NV18 (MX segment vervanger) en de NV28 (4200 segment vervanger) ook met een Geforce 4800 op de markt komt. Niet dat dit spannend is want het is gewoon een 4600 gebaseerd op de NV28 met AGP8*. Dit omdat we nog lang moeten wachten voordat de NV30 in de winkel ligt...
Ik las op Anandtech November 2002 industry update dat nVidia naast de NV18 (MX segment vervanger)
De NV28 is zelf ook een MX. Ga maar na, de NV28 GeForce 4 MX440 met AGP8x is een MX :)
en de NV28 (4200 segment vervanger)
Met de NV28 bedoelen ze de Ti4200 met AGP8x. Dus ik denkt dat jij bedoeld dat de NV28 de NV25 Ti4200 gaat vervangen ;)
Niet dat dit spannend is want het is gewoon een 4600 gebaseerd op de NV28 met AGP8*.
De NV28 is gebaseerd op de NV25. De Ti4800, wat volgens anandtech dus in feite een GeForce4 Ti4600 met AGP8x is, is gebaseerd op de Ti4600 uit de NV25 familie :)
Dit omdat we nog lang moeten wachten voordat de NV30 in de winkel ligt...
Sja, dat is nog maar de vraag. Hier over kan je alleen speculeren. Zelf denk ik dat we de NV30 wel voor Q2 van 2003 kunnen verwachten. Maar dat blijft gokken gebaseerd op wankelijke geruchten.
Klopt weinig van...

MX440 8* is gebaseerd op de NV18 en niet op de NV28.

De NV28 is niet enkel een NV25 met AGP 8, er hebben ook nog enkele andere wijzigingen plaatsgevonden. Daardoor is het mogelijk dat sommige MX kaarten op een hogere klokspeed draaien en/of een breedere geheugenbus krijgen (de 440 SE bv)

De 4800 is toch echt gebaseerd op de NV28 hoor en niet op de NV25 ondanks wat je beweert. Dus:

420MX > 440SE
440MX > 440MX 8* (NV18)
TI4200 > TI4200 8* (NV28)
TI4400 > TI4800SE (NV28)
TI4600 > TI4800 (NV28)
NV30 producten...

Of we lang op de NV30 moeten wachten is niet misschien niet pubiekelijk bekend maar de release datum ligt al wel vast hoor :)
Nou snap ik wel waarom ze als een van de weinige linux drivers produceren haha (8>
Ik ook, maar om dan het filmpje in het propetary Windows MediaPlayer-formaat op internet te zetten is dan toch wel een beetje jammer. Ik kan 'm op mijn Linux-doosje niet bekijken.
Hehe, Dus nvidia heeft een compleet rekenpark.. En vaak zit in een goeie rekenbak een server moederbord.. En raad eens wat je op erg veel server moederbord terug vindt :P . Juist, een ATI rage onboard video :D
Bwahahaha, en nVidia heeft allerlei exclusieve deals met Microsoft lopen (naar aanleiding van de X-Box), maar wat draaien ze op hun eigen computers? Juist ja: Linux :))).

Ik begin te begrijpen waarom Microsoft de laatste tijd toch steeds minder goede maatjes is met nVidia, hehehehe :).
Ik begrijp best waarom ze Linux draaien, anders als ze maanden bezig zijn met een ontwerp lopen die monsterbakken vast. :) Kunnen ze opnieuw beginnen.
Veel hiervan was ook al te zien in een artikel van Anandtech van 2 maanden geleden: Inside ATI & NVIDIA: How they make frames f.
http://www.nvidia.com/content/areyouready/index.asp?task=settings&vide o=

Voor diegene die geen windows media player hebben.
Hij is er nl ook voor realplayer.
Wat mij opvalt aan het artikel is dat geen een keer windows wordt genoemd. :)
Ik kan me nog herinneren dat er bij een artikel dat hier gepost is nogal wat ophef was over een uitspraak van Linus Torvalds en in een aantal reacties werd meteen door geimpliceerd dat bedrijven door die uitspraak meteen tot de conclusie zouden moeten komen dat linux niet "Enterprise Ready" zou zijn.

Dit lijkt me in ieder geval een duidelijk signaal dat dat zeker niet het geval is.
Linux is overduidelijk Enterprise Ready :7
nVidia gebruikt waarschijnlijk CAD pakketten van Cadence en Synopsys. En die paketten werken alleen op Sun, HP (HP-UX), IBM (AIX) en Linux machines. Windows is gewoon niet praktisch voor het uitvoeren van duizenden simulaties tegelijkertijd.
ik zie wel in het filmpje een hele grote microsoft poster / vlag hangen :)
waarschijnlijk zat dat mee in de x-box deal - ze moesten minstens 1 M$ product in hun serverroom hebben staan :+ :P
Denk eens na. Voor welke markt maken ze producten? En wie maakt daar besturingssystemen voor? Voila, daar heb je de relatie met Microsoft. Heeft verder niks te maken met de servers/workstations die gebruikt worden om grafische chipjes te ontwerpen.
100 miljoen hmz das dus voor de GF4 bijna een 1/2 miljoen GF kaarten van 250 euro die ze moeten verkopen... wel te doen lijke me met al die GF4 kaarten in omloop :) halen ze wel winst uit ...
Lang niet het volledige bedarag dat voor zo'n kaart betaald wordt gaat naar nVidia, zij krijgen per kaart alleen een paar dollar voor de chip, en wat meer dollars voor de licentiekosten :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True