Nvidia introduceert Tesla-productlijn voor supercomputing

Nvidia is vandaag in de supercomputingmarkt gestapt met de introductie van de Tesla-productfamilie. De Tesla-serie maakt gebruik van GeForce 8800-gpu’s om een flinke hoeveelheid rekenkracht aan te bieden.

De Tesla-familie heeft momenteel drie leden. De Tesla C870 is een insteekkaart die beschikt over één gpu, 1,5GB gddr3-geheugen en levert ruim 500 gigaflops. De kaart lijkt bijzonder veel op de Quadro FX 5600-videokaart, maar moet het doen zonder aansluitingen voor een beeldscherm. Het tweede familielid is de Tesla S870. Dit is een standaard 19”-behuizing met een hoogte van 1U waarin vier gpu’s gehuisvest zijn die samen 2 teraflops kunnen leveren. Het laatste product is de Tesla D870. Deze bestaat uit een uit de kluiten gewassen pc-behuizing waarin twee gpu’s opgesloten zijn.

Nvidia claimt dat de Tesla-systemen vaak sneller bepaalde complexe berekeningen kunnen uitvoeren dan conventionele cpu’s. Een bepaalde moleculaire dynamicasimulatie die 110 cpu-uren nodig had op een Itanium 2-supercomputer kon in 27 minuten uitgevoerd worden op een GeForce 8-videokaart, een verschil van een factor 240. Andere taken die snel uitgevoerd kunnen worden zijn onder andere het werken met seismische databases, het simuleren van antennes en het verwerken van mri-data. Nvidia claimt dat deze applicaties enkele tientallen tot enkele honderden malen sneller uitgevoerd kunnen worden met de Tesla-producten. De Tesla C870 heeft een adviesprijs van 1.499 dollar, de D870 gaat over de toonbank voor 7.500 dollar en voor de S870 moet 12.000 dollar neergeteld worden. Nvidia is niet de eerste met dergelijke producten, AMD introduceerde eerder al processors die gebaseerd zijn op ATi-gpu's.

Nvidia's Tesla-productfamilie op een rij
Van links naar rechts: de C870, de S870 en de D870

Door Hielko van der Hoorn

21-06-2007 • 18:19

49

Bron: Nvidia

Reacties (49)

49
47
27
23
0
3
Wijzig sortering
Gezien de prijs maken ze lekker winst op deze producten. Er zullen er ook geen massa's van verkocht worden zoals videokaarten maar de prijs ten opzichte van videokaart is toch wel behoorlijk hoog.
Maar goed als men tig keer sneller berekeningen kan maken wil men dat extra wel investeren.

De grote andere vraag is wat is het verbruik van dit alles. Intel claimde vandaag 24 watt voor 1 terraflop. Hoe is dit in vergelijking tot deze kaarten.
De prijs zit 'em niet in de producten maar in de softwarebibliotheken, ontwikkelingtools, waarschijnlijk verregaande support en natuurlijk licenties...
Daar zit de prijs 'm ook niet in.
(ontwikkeltools en software bibliotheken zijn er nog vrijwel niet voor dit spul)

De prijs zit 'm in wat de gek er voor geeft.
Als iemand die power daadwerkelijk in zijn applicaties kan gebruiken, dan is die prijs helemaal geen probleem.
De grote andere vraag is wat is het verbruik van dit alles. Intel claimde vandaag 24 watt voor 1 terraflop. Hoe is dit in vergelijking tot deze kaarten.
Op zich kan een GPU veel sneller met floating-point berekeningen zijn dan een CPU. Maar een GPU is veel meer beperkt. Ook haalt een GPU veel snelheid uit meerdere berekeningen tegelijk doen. (Dit kan goed voor graphics omdat het renderen van een driehoek geen invloed heeft op het renderen van de driehoek ernaast.) Echter kunnen niet alle problemen zo in parallel worden gedaan, dus de kracht van een GPU en een CPU is lastig te vergelijken.
Ja, maar is die 80-core intel wel zo uitgesproken een CPU? En anders nog, intel heeft ook de larabee, misschien is die ook wel efficienter...
Even over alles wat games en films betreft die gemaakt worden op systeem ... en os...

Bijna alles qua 3d word gedaan op pc''s met windows er op, en het liefst 64bit tegenwoordig, omdat je dan 4 gig aan kan roepen, dat kon met 32 bits versie niet.

Dat osx veel word gebruikt is onzin, je hebt een paar 3d programmas die er op werken maar voor externe plugins en rand software is het allemaal zeer incompatible, de 3d wereld iks een echte pc wereld.

Er zijn hier vaak teveel mensen die van alles roepen omdat ze een enkel artikel hebben gezien waar iemand iets naar voren brengt wat meer een uitzondering op de regel is, maar dat heet hype, en reclame maken.

dat voor de xbox spellen als laatst op de een windows pc worden getweaked is ook raar, want alles word al gemaakt door individuele 3d artists, freelance of een bedrijf, en ea werkt ook met pc''s.

Een Gpu is op 3d gebied superieur, en zal dat ook nog wel even blijven, zulke racks met extra gpu power zijn heel erg handig voor grote simulaties,die dan eventueel, min of meer realtime kunnen draaien, als deze gpu's aangeroepen kunnen worden als een enkele gpu voor realtime berekeningen, ga uit van wel.

Dit is in iedergeval zeer handig om snel je simulaties zichtbaar te hebben, gebouwen die instorten, fluid sims etc waar nauwkeurigheid en een bepaalde look vaak belangrijk is en vaak vele testrenders aan voorafgaan voor het uiteindelijk resultaat is bereikt.
Anoniem: 82404 @Daikiri22 juni 2007 03:17
3D gaat ook wat verder dan je 3dMAX, game development en films. 3d wordt ook extensief gebruikt in weervoorspelling, geografische dingen etc en geloof me daar komt weinig Windows (voor het rekenwerk iig) aan te pas. Dat gebeurt op Linux/Unix (SGI in het verleden) gigantische clusters die de complete modellen berekenen. De visualisatie van het model kan op ieder platform waarvoor er een client bestaat. Uiteraard heb je hier ook wel wat power nodig, maar dat valt in het niet vergeleken met de clusters die het daadwerkelijke rekenwerk doen.
De zojuist aangekondigde nVidia producten zijn juist niet bedoelt voor live visualisaties. In het voorbeeld wordt een 'moleculaire dynamicasimulatie' aangehaald die een enorme snelheidsverbetering laat zien op deze systemen en niet een 3D visualisatie.
Dit is volgens mij een doorontwikkeling van de quadroplex.
De quadro plex zat ook in een behuizing zoals de meest rechtse kast op het plaatje.

Ik denk trouwens niet dat dit ff een paar kaartjes in sli plaatsen is want sli is niet super effectief in een standaard systeem want je blijft dan altijd afhankelijk van de rest van de pc. De quadro plex was trouwens wewl een zeer geavanceerd systeem met meerdere kaarten in een soort SLI modus, elke unit werd echter als 1 apparaat berschouwd en kon ook weer gelinkt met andere units worden.

nVidia heeft nu waarschijnlijk een soort chipset ontwikkeld die de geforce 8 chips als cpu's gebruikt en ik geloof ook niet dat er met standaard pci-express wordt gewerkt :P.
Uit de bron maak ik op dat er gewerkt wordt met het cuda principe en dit werkt dus op windows en linux platforms.
Anoniem: 133073 22 juni 2007 01:31
Kan dit niet gezien worden als een soort psysicskaart/uitbreiding, maar dan voor de enterprise markt? Want een physicskaart heeft als primaire taak om natuurkundige berekeningen uit te voeren en daarmee de stress op de CPU en GPU te verlagen.
Wat ik me afvraag: hoe zich dit verhoud tot bijvoorbeeld de supercomputer van Sarahttp://tweakers.net/nieuw...ter-voor-Sara-bouwen.html.
Zet 30 van die dozen neer 30 * 12.800 = € 384.000. Ben je een heel stuk goedkoper uit en heb je ook 60 Tflop/s. De computer van Sara heeft wel veel meer geheugen (15TB), maar wat is daar nou zo anders/beter aan dat het de investering van 60 miljoen rechtvaardigt? Waarbij IBM het apparaat ook nog bijna voor inkoop levert!

[Reactie gewijzigd door kikkervis op 27 juli 2024 14:48]

Wat ik nou niet snap is waarom dit niet eerder gebeurt... Was het gewoon nog niet 'uitgevonden' dat de GPU bepaalde berekeningen veel sneller kon doen? En betekend dit dat ze bij die 'super computers' nu allemaal GFX-kaarten gaan inzetten in plaats van 'gewone' CPU's?

*is vraag van nieuwsgierig persoon
Ik vraag mij af wat voor 'n OS daarop draait.
waarschijnlijk aangesloten via extern PCI-e op een normaal x86 systeem was mijn eerste gedachte.

na een paar linkjes doorgeklikt te zijn bleek dat in ieder geval de D870 via een PCI-e host adapter card aangesloten wordt (gedachte klopte dus bijna ;) ) en uiteraard is de C870 gewoon een insteekkaart. de S870 zal wel vergelijkbaar met de D870 zijn, lijkt me.

op zoiets draait uiteraard geen OS, dit zijn een soort van co-processors.
Windows XP 64 bits, daarmee maken ze games en geanimeerde films

[Reactie gewijzigd door michel1991 op 27 juli 2024 14:48]

Anoniem: 112442 @michel199121 juni 2007 23:16
Dreamworks gerbruikt Linux om te renderen.

http://www.linuxtoday.com...007-06-11-004-26-OS-HE-DV


Of beter gezegd voor bijna alle animatie rendering, voor films:
http://www.linuxmovies.org/

Linux: #1 Operating System in Hollywood

Linux is used to create practically every blockbuster movie in theaters today, movies produced by Disney/Pixar, DreamWorks Animation, Sony, ILM, and other studios.


Dit is een link naar wat de studios aan hardware en software gebruiken.
EA maakt zijn games voornamelijk op het OSX-platform, xbox360 games worden gemaakt op PPC systemen (zoals de power6 van IBM, niet met XP dus)
dus ik weet niet vanwaar jij het haalt dat windows XP x64 een degelijk develop platform voor games/3d animatie is...

bron EA: zie WWDC07 keynote, waar een EA-kopstuk vermeld dat macs de belangijkste basis voor ontwikkeling is, en Windows eerder voor het testen en afwerken voor distributie.
bron xbox360: Zie interview met Bill Gates op All Things Digital 07

(voor het geval ongelovige Thomassen opdagen ;) )
Anoniem: 133470 @kiang21 juni 2007 23:11
Nou, op de Windows XP x64-pagina staat anders wel een indrukwekkend demonstratie-filmpje van SoftImage: http://www.microsoft.com/windowsxp/64bit/videos/default.mspx

Ik kan me dus wel voorstellen dat een hoop SoftImage-gebruikers intussen overgestapt zijn op Windows XP x64, want het biedt echt gigantische voordelen, als je dus echt op 'Hollywood'-schaal aan het animeren en renderen bent.
ik vind het filmpje niet echt indrukwekkend :s
het toont gewoon dat je in 64bit meer geheugen kan adresseren, en dus sneller kan werken...
vorig jaar heb ik exact hetzelfde gezien in de osx 10.5, maar gewoon niet met fancy 3d: de rendering van een 3d model van een dna helix, waar 64bit veel duidelijker wint van 32bit.
http://www.youtube.com/watch?v=gezP5g48fSU (voor de test:ga naar 1 min30)

maar geen van deze zegt iets over de voordelen van het OS: enkel over de voordelen van 64bit, dus sorry dat ik niet onder de indruk ben van XP x64 :p
.oisyn Moderator Devschuur® @kiang22 juni 2007 01:14
@kiang: Euh, ik denk dat je die keynote verkeerd interpreteert. Wat er gezegd is, is dat EA weer games voor het apple platform gaat releasen, wat niets zegt over op welk platform de games ontwikkeld worden. Dat kan best OSX zijn, maar dan is Xbox 360 development zo goed als uitgesloten aangezien de XDK (Xbox Development Kit) bij alleen voor windows wordt gereleased en alleen werkt icm Visual Studio (de laatste update is zelfs VS 2005 only). Of de PS3 tools en SDK er ook zijn voor de OSX weet ik verder niet.

Vziw werken de meeste gamedevelopers die multiplatform (als in PC en consoles) games ontwikkelen gewoon met windows. Óók Xbox 360 games, ookal is de 360 een PPC architectuur. Runnen en debuggen gaat gewoon op de PC - je compilet je code, binary wordt automatisch gedeployed, en via het netwerk debug je de console op je eigen PC.

[Reactie gewijzigd door .oisyn op 27 juli 2024 14:48]

Wat men in de Keynote waarschijnlijk bedoelde, is dat Mac OS X deel uitmaakt van het ontwikkelprocess en dan waarschijnlijk in de handen van de grafici. Programmeurs ontwikkelen zover mogelijk op het doelplatform.
.oisyn Moderator Devschuur® @zakalwe22 juni 2007 11:55
Nou je ontwikkeld niet echt op een Xbox360, PS3 of Wii hoor ;)
Anoniem: 177006 @michel199121 juni 2007 18:40
Dat lijkt me erg sterk, aangezien Windows XP 64 bits werkt op het X86 platform. GPU's maken geen gebruik van dat platform en hebben een heel andere aansturing nodig (op machine niveau). Dat komt omdat de architectuur van de processor totaal verschillend is. :)
De architectuur van die processor is voor spellen net zo verschillend. En toch gebruik je dan wel windows als OS.

Het OS is totaal niet van belang voor deze oplossingen. Het is gewoon een los stuk hardware waar je speciale code voor moet schrijven. Dat staat totaal los van het OS.

Je moet niet raar opkijken als dat 1U systeem bedoeld is als los rack naast een andere rackmounted server. (die bv windows draait)
Ja, maar de architectuur van je processor is dan wel x86, wat Windows wel verstaat. Als je die CPU weghaalt en alleen maar werkt met GPU's, kan je er Windows niet op draaien wegens de reden die WASonline1 aanhaalde.

Waar je wel gelijk in hebt is dat er naar alle waarschijnlijkheid specifieke software voor moet geschreven worden. Ofwel gebeurt dat door een controller node in te lassen die een ietwat gestandardiseerd OS heeft en die speciale drivers/applicaties heeft om de workload te verdelen over z'n rekennodes, ofwel gaan ze een onbenullig chipje in die dingen plaatsen dat de workload zelf probeert te verdelen.

Ik denk eerder aan de eerste oplossing, gezien dat alle supercomputers nu ook al controller nodes en load balancers gebruiken :)
Anoniem: 62763 @lvh22 juni 2007 09:23
plus supercomputing met windows o_O
Je wilt de overhead van een OS zo beperkt mogelijk houden, je wil immers niet dat er van je resources gesnoept wordt door iets anders dan de berekeningen die je uitvoert. Windows is nogal bloated.
Op het moment dat je je berekeningen op die GPU's uitvoert, dan worden er helemaal geen resources weggesnoept door windows, aangezien die dan op zijn eigen x86 cpu draait en niets doet op de gpu's.

Dus dat argument doet totaal niet ter zake.
Behalve dan dat de GPU aangestuurt moet worden door de CPU, zodra windows dus zou besluiten dat het tijd is om een HD te fragementeren en tegelijkertijd eentje te indexeren kan de performance wel eens wat teruglopen .' )
Helemaal zwart-wit is het nu dus ook weer niet.

[Reactie gewijzigd door fevenhuis op 27 juli 2024 14:48]

ik dacht dat ze al een c compiler geport hadden naar hun gpu platform?
dus 'gewoon ffe' een aangepaste linux erdoor draaien en klaar :p
WIndows werkt ook op mips, Itanium en Alpha cpu's. En dan ben ik vast nog andere platformen vergeten.
sparc.

sparc+alpha is alleen sinds NT3 (of 4) hardstikke dood.
Nee nee, niet alles draait op windows.
Er is waarschijnlijk niet eens een windows kernel die op dat platform draait.
Een unixachige is waarschijnlijker omdat daarvoor zelf een kernel gehacked en geconfigureerd kan worden.

Verder heb je bij een dergelijk systeem ook helemaal geen gui nodig, dat vreet enkel resources en je wilt enkel dat het systeem zijn berekeningen zo snel mogelijk maakt.

Wanneer je de output grafisch weer zou willen geven, kun je nog altijd de uitkomsten van de berekeningen grafisch weer laten geven op een ander systeem, dat dan enkel de grafische weergave doet.

Die factor 240 sneller vind ik trouwens erg bruut. _/-\o_

[Reactie gewijzigd door Mathijs op 27 juli 2024 14:48]

Ik vermoed een soort gestripte Linux/Unix, voor de insteekkaart maakt het niet uit, die zal alleen goede drivers nodig hebben, ("Computing on NVIDIA Tesla is now available through the world's only C-language development environment for the GPU." nVidia Site ) die andere bakken linken naar een computer : "and attaches to a PC or workstation through an industry-standard PCI-Express connection." , dus da's gewoon een standaard moederbordplank met in plaats van 8 sockets 8 PCI-E-aansluitingen
De volgende stap van nVidia om dalijk ook in de CPU/server markt te komen?
Voor mij klinkt het als meerdere quadro kaarten in SLi opstelling eerlijk gezegd.

[Reactie gewijzigd door bokkow op 27 juli 2024 14:48]

Anoniem: 87819 @bokkow22 juni 2007 08:53
Geen SLI, aangezien dat voor grafische doeleinden bedoeld is en dit voor parallel rekenwerk (daar wordt elke kaart gewoon los aangestuurd). Waar je wel gelijk in hebt is dat het eigenlijk gewoon servers zijn met 4 grafische kaarten.

Wel jammer dat het nog steeds single precision is, double precision is toch noodzakelijk voor veel rekenwerk van tegenwoordig.
Anoniem: 47200 @bokkow21 juni 2007 19:06
Ik denk van niet, SLI maakt gebruik van de PCI-express bus en ik denk dat bij dit soort systemen de PCI-express bus niet snel genoeg is voor het verkeer tussen kaarten. Ik denk eerder aan een Hypertransport achtig systeem.

Het gaat hier om hele grote hoeveelheden data, de berekeningen waar het hier over gaat gebruiken waarschijnlijk enorme hoeveelheden data, en deze moeten ook razendsnel uit te wisselen zijn tussen gpu.
Daar is zelfs al een standaard voor: HTX (HyperTransport eXpansion). Mechanisch betaand uit een PCIe x16 connector (data) en een PCIe x1 connector (voeding). Op systeem niveau bestaande uit een directe HT verbinding naar de CPU en DMA van 16 bit breed, en werkend op 800MHz.

Hier zijn ook al veel leukere kaarten voor te krijgen: FPGA boorden. Deze kan je natuurlijk perfect aanpassen voor elke situatie.

Het nadeel voor nVidia (en ATi/AMD) is natuurlijk dat het ontwerp van de GPU aangepast moet worden of dat er een externe HT controller bij moet. Daarnaast is de HTX beperkt tot (16 bit / 800MHz =) 3.2GByte/s (iets minder als PCIe x16).

[Reactie gewijzigd door knirfie244 op 27 juli 2024 14:48]

Ars Technica schrijft hier al langer over en heeft deze "voorspelling" al eerder (april) geuit. (Ik weet niet of ze de eerste waren die dat hadden bedacht). Best leuke artikels, leuk leesvoer voor geinteresseerden.
Kan dit ook gebruikt worden voor bijvoorbeeld een databaseserver? Als dit het geval is, klinkt het best interessant.
Alles kan maar heel nuttig lijkt me dit niet. Die GPUs zijn vooral heel sterk in floatingpoint berekeningen en dat is precies waar een database server vrijwel nooit mee bezig is. Bij een database komt het vooral neer op het snel op en neer kunnen schuiven van flinke hoeveelheden data (snel/veel geheugen, snelle disks).
Anoniem: 205245 21 juni 2007 18:47
de tesla c870 doet mij denken aan een 8800 ultra, meer geheugen en je hebt een tesla
Nee, een Quadro zonder aansluitingen en je hebt een Tesla ;)

Zo vinden veel mensen de Quadro kaarten ook op de Ultra lijken. Echter, Quadro kaarten, en Tesla's op een iets andere manier, zijn totaal anders. De kaarten zijn VEEL duurder, hebben enorm goede driversupport (gespecialiseerd in dingen als AutoCAD en Maya voor Quadro's, en grote rekenzooi voor Tesla's), zijn totaal getest (geven dus nooit 'zomaar' artifacts), en hebben nog wat andere kleine aanpassingen.

Deze kaarte zijn, op de core en de koeler na, weinig hetzelfde.
Het verschil is certificatie en drivers. Niet meer niet minder.

De drivers moeten anders zijn omdat de kaart de certificatie anders niet doorkomt. De standaard driver moet snel zijn. De Quadro (en ook Tasla) driver voornamelijk exact. Waarom het belangrijk is dat een driver gecertificeerd is lijkt mij duidelijk. Oops we hebben uw schedel opengeboord omdat de MRI is aangaf maar helaas er is niets aan de hand. Foutje in de software.

Maar afgezien van de software zou er dus geen enkel verschil hoeven te bestaan.

Op dit item kan niet meer gereageerd worden.