Nvidia presenteert extern Quadro Plex-systeem

Videokaartenbakker nVidia levert niet alleen GeForce-kaarten voor gamers, maar ook de zogeheten Quadro-hardware voor de grafische industrie. Voor die laatste doelgroep heeft de fabrikant gisteren de Quadro Plex 1000 gepresenteerd, een extern grafisch subsysteem waarmee taken als 3d-modelleren en wetenschappelijke en medische beeldbewerking een stukje soepeler moeten verlopen. Het grafische monster vereist een (nogal stevige) Windows- of Linux-pc met tenminste een vrij PCIe x16-slot, waar een propriëtair kabeltje ingeprikt wordt. Daarmee kunnen dan drie varianten worden aangestuurd, die elk als desktop of 3u-rack geleverd kunnen worden. Model I is uitgerust met twee met SLI aan elkaar geknoopte Quadro FX 5500-gpu's, Model II beschikt over twee in SLI geschakelde Quadro FX 4500 X2-gpu's - waarmee dit 'middenklassertje' over vier grafische cores beschikt - en Model III beschikt weer over twee FX 5500's in SLI, maar dit model kan behalve met duallink DVI-aansluitingen ook via twee razendsnelle SDI-aansluitingen aan andere hardware gekoppeld worden, zodat deze bak bij uitstek geschikt is voor realtime HDTV-werk. Alle drie de versies beschikken verder over 2GB GDDR3-geheugen en een 520W-voeding en de modellen I en II kunnen bovendien met G-Sync-borden worden uitgebreid.

nVidia Quadro Plex Behalve 'snel' en 'mooi' is ook 'veel' een regelmatig in het persbericht terugkerende term: een Model II moet in staat zijn om 80 miljard pixels per seconde in te kleuren; in diezelfde seconde kunnen zeven miljard lijnstukken doorgerekend worden. De machines kunnen minimaal 32x Full Screen Anti-Aliasing leveren; de Model II draait zijn pinnetjes zelfs niet om voor 64x FSAA. Met die data kunnen zestien monitoren met een gezamenlijke resolutie van 148 megapixel gevoed worden, en voor wie dat alles niet genoeg is, kan een tweede exemplaar aan de host-pc gehangen worden. De meeste spelletjes zullen de nieuwe hardware wel nooit volledig ondersteunen, maar er is een uitzondering: nVidia hoopt de systemen onder andere aan de bouwers van vluchtsimulatoren te slijten. Flight Simulator-fans die over tenminste 17.500 dollar beschikken zouden hiermee een geheel nieuwe experience in huis kunnen halen: naar het schijnt is zelfs een bezoekje aan Google Earth al een vrij schokkende ervaring. De Quadro Plex kan vanaf september met enige moeite over de toonbank getild worden.

Door René Wichers

Eindredacteur

02-08-2006 • 15:52

36

Submitter: MetalRush

Bron: nVidia

Reacties (36)

36
36
12
3
0
18
Wijzig sortering
Hm, dat lijkt me wel een leuke upgrade voor m'n Radeon 9800 pro. Kan iemand me vertellen of mijn CPU - een XP 2000+ - een mogelijke bottleneck zou kunnen vormen? :P
Ja, denk wel dat er een bottleneck is, alleen is het niet je CPU
het grafische monster vereist een (nogal stevige) Windows- of Linux-pc met tenminste een vrij PCIe x16-slot
Denk niet dat jij een PCIe x16 slot op je mamaplank hebt! ;)
ik denk eerder dat het gebrek aan omvang van zijn portemonix de bottleneck zal vormen.... :+
Valt op zich nog wel mee hoor, maar een XP2000+ zal het inderdaad niet snel trekken. :)
Minimum System Requirements:

Requires installed NVIDIA Quadro FX 4500 or 5500
Windows XP, Windows 2000 or Linux operating system
256MB minimum system memory
Intel Pentium 4 or AMD Opteron Processors
PCI-Express system
1 available slot (G-Sync board requires any free expansion slot)
@Exploited:

Wel vreemd dat ze zeggen Intel Pentium 4 of AMD Opteron? Waarom niet Xeon 4 of AMD Opteron.. Ik vind het een beetje kromme vergelijking...
Alles is beter dan een Radeon 9800 pro....... Ik heb er zelf ook 1tje en sinds day one ben ik er niet tevreden mee (had voorheen een simpele GeForce2 GTS, en daarvoor een Viper 550, of wel allemaal Nvidia's), dus je kunt wel raden welke merk er de volgende keer gaat komen.. ATI kan gewoon geen fatsoenlijke drivers maken...
wtf?? mijn R9700Pro was mijn beste aankoop ooit, wel jammer dat hij enkele maanden geleden gestorven is
De R9800/9700 drivers waren in ieder geval stukken beter dan die van nvidia in 2003, sinds de detonator 50's zijn zowel de drivers van nvidia als de drivers van ati van uitstekende kwaliteit. (nvidia heeft iets betere ogl drivers & ati iets betere d3d drivers maar het verschil echt klein)
Ben best benieuwd naar de uiteindelijke prestaties van dit ding. En of het uiteindelijk prijs-prestatiegewijs voor zaken als rendering niet handiger is om voor een netwerk-render oplossing te gaan (met zeg drie tot vier simpelere renderstations, die in totaal goedkoper zijn dan dit apparaat maar wel even snel)

Nu zijn drie tot vier van deze knakkers natuurlijk wel een stuk sneller ;) (hrm, max twee per moederstation lees ik)
Ach, het is waar je zin in hebt: mocht je een netwerkoplossing willen, dan mag je ook in profi gigabitapparatuur en bekabeling investeren.
Netwerkrendering in bijvoorbeeld Maya is niet zo'n zware last op het netwerk hoor, dat deed ik jaren terug ook al op de eerste 100mbit netwerkjes.
gast lul niet :)

Dit zijn bakken voor "real time" werk, terwijl jij het over netwerk renderen vanuit 3d paketten hebt.

Het heet beide renderen maar er zijn nogal wat verschillen. Deze dingen zijn voor real time renderen voor interactieve 3d ruimtes / simulaties. Over het algemeen reken je met Frames per sec.

Netwerkrenderen gebeurt via de processor van een pc en daar zit je meer aan de frames per uur :)
Persoonlijk vind ik dit qua oplossing van Nvidia uit niet zo slecht, vroeger kostte een beetje workstation ook een vermogen, heden ten dagen door enerzijds high-end cpu's die veel goedkoper zijn en anderzijds door mid-end gpu's die veel goedkoper zijn worden 'workstations' betaalbaarder. Echter de echte high-end zoals deze zijn qua prijs nog steeds normaal. Ik vraag me alleen af wat je nou krijgt behalve grafische kaarten qua cpu/geheugen/hdd's.
hoe bedoel je, dit is gewoon een kast met videokaarten, verder niks.
Zou wel leuk zijn voor 'krachtige en mobiele' grafische toepassingen :). Vooral icm mn laptop zou dit niet misstaan :+ :Y)
Hoe kan dit nu in godsnaam werken?
De processor wordt al een bottleneck bij 1 van zo'n kaart, laat staan 4.
Je kan een proces toch niet helemaal 100% door de GPU laten berekenen?
De grote hap is echt wel GPU werk als je werkt op buitenaardse resoluties. Simpel gesteld heeft een cpu niet meer werk op een hoge resolutie dan op een lage.
CPU doet geometrie, en da's onafhankelijk van de resolutie, wel afhankelijk van de complexiteit van de scene. Maar de hedendaagse cpu's kunnen wel wat aan hoor.
Anoniem: 167619 @Adrianb2 augustus 2006 16:55
omdat een computer die dit als hulpmiddel heeft vermoedelijk ook wel 2 tot 4 opterons heeft :)
Mag wel weer een keer gezegd worden:
Zeer amusant & informatief stukje redactie.
Mijn complimenten!

Wel is het nadeel van zijn schrijf stijl, dat ik dit apparaat nu al op mijn bureau zou willen zien staan en eigenlijk al heel lang mis! :Y)
Anoniem: 14038 2 augustus 2006 19:10
Allemaal leuk en aardig, we willen gewoon benchmarks zien. :Y)
...De meeste spelletjes zullen de nieuwe hardware wel nooit volledig ondersteunen...
Ach jaaah, is weer leker makkelijk en snel geld verdienen voor de NuoN.

520W-voeding is niet niks :Y)
En dan nog de Voeding van je eigen PC mee gerekend.
Wat ook wel gemiddeld een Wattje of 400 is ;)
En jij denk dat het energie verbruik van de computer + dit speeltje ook nog maar enigsinds relevant is als je het energieverbruik van de schermen/projectors die er bij gebruikt worden meerekend? :)
Anoniem: 120926 @Reg-Edit2 augustus 2006 22:52
http://cache.gizmodo.com/...08/nvidia_quadro_plex.jpg

dan moet je eens bedenken wat die rechter gebruikt.
denk niet dat dit bedoelt is voor een simpel spelletje.
hehe ik wou dus net zeggen, als dit allemaal niet genoeg is wordt de volgende stap deze shit aan elkaar te koppele.. ben alleen wel bang dat op dat plaatje ze echt niet allemaal gekoppeld zijn en tegelijk rekenen aan 1 beeld.. ofwel :D ?
Denk je nu echt dat er constant 520W uit de voeding getrokken wordt? Als de kaarten idle zijn wordt bijna niks verbruikt.
Of ze er nu een Gigawat voeding insteken of gewoon 520W, de kaarten gaan erdoor echt niet meer verbruiken.
Anoniem: 119094 2 augustus 2006 16:11
en het ziet er nog leuk uit ook : :9
naar het schijnt is zelfs een bezoekje aan Google Earth al een vrij schokkende ervaring.
Dat kan ik me wel voorstellen, maar dan in letterlijke zin. Het lijkt me dat Google Earth via een ADSL-aansluiting deze grafische systemen van Nvidea niet kan bijbenen. De bottle-neck zit dan bij de aanlevering van de fotografische data en niet in de grafische verwerking er van.
Anoniem: 171680 @Timfonie2 augustus 2006 16:34
Dat is op mijn systeem met lage middenklasse grafische kaart volgens mij al het geval. Snap het google earth voorbeeld dan ook niet. Het FS voorbeeld is koel... Lijkt me wel wat.
Als bedrijf kan je ook prima een lokale cache van google earth hebben hoor, je kunt namelijk gewoon een google-earth server kopen bij google, en daar je eigen zooi over heen projecteren met de ingebouwde software.

Lijkt me one hell of an experience.
een aardbol van 146megapixel, die on the click of a mouse alle kanten op kan draaien.
Anoniem: 134214 2 augustus 2006 16:25
Zou die ook in SLI kunnnen :+

Op dit item kan niet meer gereageerd worden.