Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 67 reacties

Nvidia heeft vier nieuwe Quadro-kaarten geïntroduceerd. Behalve drie desktop-kaarten, is er ook een Quadro-kaart voor laptops. De snelste videokaart, de Quadro 6000, heeft maar liefst 6GB gddr5-geheugen en 448 cuda-cores.

De Quadro 4000, 5000 en 6000 beschikken over respectievelijk 256, 352 en 448 Cuda-cores en 2GB, 2,5GB en 6GB gddr5-geheugen. Behalve de drie nieuwe desktopkaarten ontwierp Nvidia tevens een mobiele variant, de Quadro 5000M, met 320 Cuda-cores en 2GB gddr5-geheugen. Nvidia biedt ook de Quadro Plex 7000 aan, met daarin twee Quadro 6000-kaarten. De Quadro Plex 7000 is verkrijgbaar in een rackmount- of desktop-formfactor.

Opvallend aan de videokaarten is dat ze over ECC-geheugen beschikken, waardoor eventuele foute berekeningen kunnen worden hersteld. Nvidia claimt dat de Quadro 6000 1,3 miljard triangles per seconde kan berekenen, wat ruim vier keer zo veel is als de tot op heden snelste Quadro-kaart, de FX5800. In enkele tests die Nvidia zelf draaide, is de Quadro 6000 bijna twee keer zo snel als de FX5800. De Quadro 5000 en 4000 moeten het doen met respectievelijk 950 en 890 miljoen triangles per seconde.

Alle nieuwe modellen zijn uitgerust met twee displayports en een dvi-uitgang. De Quadro 5000 en 6000 hebben tdp's van respectievelijk 156W en 225W en zijn dan ook uitgerust met dubbelslots-koelers. De Quadro 4000 heeft een tdp van 142W en heeft voldoende aan een enkelslots-koeler. De videokaarten moeten 1199, 2249 en 4999 dollar kosten, terwijl de Quadro Plex 7000 14.500 dollar moet opleveren. De Quadro 4000 en 5000 zijn vanaf nu leverbaar, terwijl de Quadro 6000 en de Quadro Plex 7000 vanaf de herfst te koop zullen zijn.

Nvidia Quadro 4000, 5000 & 6000

Moderatie-faq Wijzig weergave

Reacties (67)

Wat kunnen deze kaarten dan dat normale kaarten niet kunnen?
betere openGL ondersteuning, software die op deze hardware wordt gecertificeerd, en ik geloof dat ze in tegenstelling tot gamekaarten wel altijd het hele plaatje doorrekenen, dus ook de pixels die je niet ziet omdat ze aan de "achterkant" van het gerenderde object zitten

edit: ik ben erg benieuwd naar de eerste onafhankelijke test met benchmarks die laat zien hoe deze zich verhouden tot de 8000 serie firepro, ook de mobiele variant.

[Reactie gewijzigd door Teigetje! op 28 juli 2010 12:34]

betere openGL ondersteuning
Mwoa dat valt wel mee. De OpenGL ondersteuning van nVidia is altijd al goed geweest, ook voor consumentenkaarten. Daarnaast draait veel CAD/CAM software voor het Windows platform tegenwoordig gewoon op Direct3D. Wat er overigens sowieso niet echt toe doet, want dit zijn typische GPGPU kaarten voor in een renderfarm. Oftewel, de API zal iets als Cuda, OpenCL of DirectCompute zijn.
en ik geloof dat ze in tegenstelling tot gamekaarten wel altijd het hele plaatje doorrekenen, dus ook de pixels die je niet ziet omdat ze aan de "achterkant" van het gerenderde object zitten
Nee, dat is onzin :). Daarnaast, zoals ik net al zei, renderfarms renderen sowieso niet op de traditionele rasterization manier zoals je in games ziet, maar gaan raytracen. Maar ookal zou je 'm in een workstation gebruiken voor bij CAD/CAM software, dan nog is het onzinnig om achterkanten te berekenen.

Het geld dat je betaalt voor deze kaarten zit 'm voornamelijk in de support en driverontwikkeling.

[Reactie gewijzigd door .oisyn op 28 juli 2010 12:55]

...en ik geloof dat ze in tegenstelling tot gamekaarten wel altijd het hele plaatje doorrekenen, dus ook de pixels die je niet ziet omdat ze aan de "achterkant" van het gerenderde object zitten
Nou, nee. Alle typen culling kan je op een gamekaart ook gewoon uitzetten.

Het grootste verschil zit hem in het renderen in line mode. Dat gaat op deze kaarten met dezelfde GPU ineens sneller. Zij noemen dit driveroptimalisatie. Ik noem het bewust traag houden op gamekaarten.

Daarbuiten is het zo dat er software leveranciers zijn die alleen support leveren op hun software als je deze kaarten gebruikt.
Het grootste verschil zit hem in het renderen in line mode. Dat gaat op deze kaarten met dezelfde GPU ineens sneller. Zij noemen dit driveroptimalisatie. Ik noem het bewust traag houden op gamekaarten.
Voorheen waren dit soort kaarten veel en veel beter in vertex transformaties omdat de verhouding vertex:pixel units veel hoger lag dan bij gamekaarten. Ook logisch, games willen pixel throughput, terwijl je voor modelling meestal simpele pixelshaders gebruikt maar met heel veel vertices te maken hebt.

Tegenwoordig met de unified architectures is het verschil een stuk minder aangezien je geen verschillen meer hebt in hardware voor het uitvoeren van resp. vertex- en pixelshaders. Daarentegen heb je nog wel steeds aparte hardware voor triangle setup, wat voor ontzettend veel kleine triangles nog altijd een vrij grote overhead heeft. Daar zijn deze kaarten dus wat beter in.

Lijnen tekenen is verder duur omdat je dan niet met blokjes van pixels tegelijk kunt tekenen. De moderne GPU werkt door een pixelshader voor een blokje van n×m pixels in parallel uit te voeren, en daarna pas te kijken welke van die pixels daadwerkelijk getekend moeten worden (wat afhangt van of ze binnen de triangle vallen en of ze niet moeten worden geculld op basis van de z- en stencil tests). Omdat een lijn maar typisch 1 pixel breed is zit de GPU allemaal werk voor niets te doen (hij werkt nog steeds met blokjes tegelijk, maar slechts een paar pixels van dat hele blokje moeten daadwerkelijk worden gevuld), waardoor je een veel lagere pixelthroughput hebt dan bij een dikke triangle. Nu kun je dat wel optimaliseren door daar extra logica voor in te bouwen in de chip, maar dat kost uiteindelijk alleen maar extra transistors (en dus een grotere die) terwijl consumer hardware toch vrijwel geen lijntjes zal tekenen waardoor je ze onnodig duurder aan het maken bent.

[Reactie gewijzigd door .oisyn op 28 juli 2010 23:05]

Waarom zou iemand in godsnaam 14.500 dollar uitgeven voor een videokaart?
Dit moet je niet zien als een videokaart, ze zijn er zelfs niet eens voor gemaakt.
Deze kaarten worden ingezet als brute rekenkracht. In plaats van een supercomputer met 448 CPU's kun je nu uit de voeten met één *video*kaart.
En ik denk dat je dan met een Quadro goedkoper uit bent (zowel in aanschaf als in gebruik) dan met een renderfarm.
Als je het zo bekijkt heb je natuurlijk behoorlijk zwakke cpu's te pakken, als je 448 hexa-core xeons hebt, vermoed ik toch dat die sneller zijn :P
Maar ik snap waar je op doelt en gelijk heb je; professionele kaarten nemen veel minder ruimte in dan een cluster pc's met cpu's die dezelfde taken moeten verrichten.
Vrees van niet, GPU's zijn vele malen sneller in floating point berekeningen dan CPU's omdat ze er speciaal voor gemaakt zijn en CPU's niet. Elke cuda core heeft een floating point unit en een int unit in tegenstelling tot CPU's die maar 1 floating point unit heeft.
Brute rekenkracht wel voor specifieke taken. Aan de andere kant kun je ook een aantal losse videokaarten kopen die in dubbele opstelling aansturen, paar pc's en je hebt voor minder ook dezelfde rekenkracht.
Cuda cores kun je veel makkelijker schalen dan losse pc's met losse videokaarten in sli/crossfire.
Bovendien zijn deze jongens minstens 10x zo snel als de huidige cpu's
Alles is op te splitsen in verschillende taken, de vraag is: heb je niet te veel overhead?

Ik ben pas begonnen met cuda programmeren, en ik moet zeggen dat het erg vet is :)
deze dingen zijn niet bedoeld als videokaart, maar als GPGPU. Ze dienen voor professionele toepassingen om berekeningen te versnellen dmv CUDA of om bijvoorbeeld CAD toepassingen te versnellen. Ook renderfarms voor 3D animatie kunnen een stel van deze dingetjes benutten.
GTX480 kan dat ook en heeft gewoon dezelfde specs maar dan geen ECC geheugen. Geheugen prijzen zijn dan ineens gruwelijk hard gestegen imo. ok heeft heeft meer video geheugen maar echt het verschil is gewoon buiten proportioneel.

[Reactie gewijzigd door Hakker op 28 juli 2010 12:38]

De reden waarom de Quadro versies vele malen duurder zijn, zit voor maar een klein gedeelte in de hardware natuurlijk.

Het grote verschil komt voort uit de driver en software ondersteuning die nodig is om het onderste uit de kan te halen voor de HPC (High Performance Computing) markt. En die kijkt tevens niet op een paar centen. De server kosten in de HPC markt loopt soms in de miljoenen en zijn vaak de systemen die een kans maken in de supercomputer lijst.

Er zijn talloze rekentaken die gewoon sneller lopen op dit soort GPGPU oplossingen dan op een farm met alleen maar CPUs. En als jij miljoenen spendeert om eiwitten te folden of nucleaire fusie wil uitvinden, dan wil je natuurlijk dat de resultaten kloppen. Een klein foutje door een omgevallen bit kan voor het meerendeel met ECC worden opgelost en dat is dan natuurlijk zeer belangrijk.

En natuurlijk loopt nVidia hier extra winst marges te behalen, maar dat heeft tevens met de markt te maken. Er zijn maar weinig bedrijven die dit soort kaarten kopen, en nVidia is miljoenen kwijt aan de driver en software ondersteuning voor deze Quadro-reeks.

De ontwikkelings kosten worden natuurlijk verwerkt in de verkoop prijs, maar als je in plaats van miljoenen consumenten ineens met enkele honderden bedrijven te maken hebt, dan kan je natuurlijk meteen zien waarom deze kaarten hun geld waard zijn.

Tuurlijk zijn er bedrijven die deze ondersteuning niet nodig hebben en dus extra betalen, maar dat is hetzelfde als de Linux gebruikers die meebetalen aan de Windows driver ontwikkelingskosten voor de consumenten versies van de Fermi.
Het grote voordeel van ECC is niet dat de fout hersteld kan worden, maar dat hij ontdekt kan worden. Je wil niet dat in een belangrijke berekening een fout zit omdat er een bitje omgevallen is. Dat is ook de reden dat de drivers zo belangrijk zijn. Op een beeldscherm maakt een foutje niet echt uit, bij natuurkundige berekeningen wel.
Over onderstaand: ja, het kan, maar het is naar mijn idee niet het grote voordeel. Die zit in de detectiemogelijkheid.

[Reactie gewijzigd door Milmoor op 28 juli 2010 15:52]

Ik zou juist zeggen van wel! Want als een fout met ECC ontdekt is en niet meer door ECC hersteld kan worden, dan is er iets serieus mis met de hardware.

http://en.wikipedia.org/wiki/Error_detection_and_correction

@mjtdevries: Inderdaad. Ik dacht dat ECC minstens een enkele bitfout kon corrigeren, maar blijkbaar wordt het ook gebruikt zuiver voor foutdetectie. Alweer iets bijgeleerd, bedankt.

[Reactie gewijzigd door samvanbrussel op 29 juli 2010 11:44]

- ECC is er in veel verschillende smaken. De simpelste vorm kan inderdaad alleen fouten detecteren en niet corrigeren. (maar het heet desondanks wel ECC!!)
Vervolgens zijn er ook ECC vormen die enkele of zelfs dubbele bitfouten kunnen herstellen.
Er zitten natuurlijk ook hele andere (gecertificeerde) drivers en ondersteuning bij.

Hoewel de drivers soms ook via een hack werkend te krijgen zijn op de gewone GTX kaarten. Deze kaarten zijn gewoon voor een hele andere markt bedoeld, waar ze niet willen dat er een foutje op kan treden, met de hardware of in de software, en dat, mocht dit wel gebeuren, een eventueel probleem zeer snel opgelost is.

Voor deze kwaliteit van hardware en vooral voor de hoeveelheid ondersteuning/(driver)support betaal je gewoon een hoop.

[Reactie gewijzigd door knirfie244 op 28 juli 2010 12:54]

en omdat deze kaarten niet zo'n grote markt hebben.
stel dat ze net zoveel verkocht zouden worden als de GTX460 bijvoorbeeld, zouden deze kaarten veel minder dan de helft kosten
De Quadro Fermi kaarten hebben niet alleen ECC geheugen. De hele interne structuur is ECC: register files, ALU's, caches etc.
Die Quadro Plex 7000 is niet 1 fysieke videokaart. Het is een kleine case met meerdere kaarten in.

http://www.nvidia.com/con...quadroplex_animation.html

[Reactie gewijzigd door Porsche addict op 28 juli 2010 12:29]

Iemand die geen zin heeft in kieren in zijn flatgebouw van 30 etages ;) De quadro heeft gecertificeerde cad drivers. Met de consumer kaarten kan er zo nu en dan een foutje inzitten.....

[Reactie gewijzigd door humbug op 28 juli 2010 12:36]

Waarom zou iemand in godsnaam 1 miljoen dollar uitgeven voor een auto?

Overal is markt voor en voor het snelste betaal je nu eenmaal de hoofdprijs.
6GB ECC GDDR5 zal overigens ook best wat geld kosten.
Mwah, de Veyron SS is anders zeer aantrekkelijk ;-)

Maar de prijzen zijn wel een beetje overtrokken hoor. Maarja, ga je voor de helft van de prijs minstens 2 keer zoveel verkopen? Met de hoeveelheid vraag uberhaupt naar die kaarten is de vraag of de prijs juist net wel goed is.
Een auto koop je als stutus, dit soort producten kan natuurlijk ook maar veel bedrijven kopen het om er geld mee te verdienen. De prijs moet dus in verhouding staan tot de opbrengst.
Eén van de redenen is dat GeForce 4xx kaarten minder snel berekeningen uit kunnen voeren in dubbele precisie. Hebben deze Quadro kaarten dus betere hardware? Nee, Nvidia heeft expres de snelheid van de GeForce kaarten gelimiteerd om deze kaarten aantrekkelijker te maken. Voor mij (en met mij een aantal stinkend rijke BOINC gebruikers - slimme zet Nvidia) de grootste reden om geen 4xx kaart te kopen.
In de F1 voor CFD. Dan is de prijs van 14.500,= helemaal niet veel. :)
terwijl de Quadro Plex 7000 14.500 dollar 8)7 , dit gaat echt nergens meer over. Kosten/prijs van dit product is in verhouding helemaal zoek.
Gewoon geen concurentie dus betaal maar.

[Reactie gewijzigd door a.p.versteeg op 28 juli 2010 12:24]

Dus er is geen concurrentie op dit vlak? Weet je dat zeker?
nieuws: AMD brengt ATI FirePro V8800 met Eyefinity-ondersteuning uit

Hmmm, lijkt me dat er wel concurrentie is, er is alleen nog geen antwoord op gekomen van ATI. Dat antwoord komt wel, duurt alleen even.
Het is precies andersom, dit is het antwoord van Nvidia op die serie van AMD. Die nieuwe ATI FirePro kaarten zijn al gebaseerd op de 5000 serie en hebben dus al DirectX 11.

De Quadro FX 5800, 4800 en 3800 die nu dus door respectievelijk de 6000, 5000 en 4000 worden opgevolgd, hadden nog DirectX 10 (5800 was bijvoorbeeld gebaseerd op GTX 285 en 4800 op GTX 260).

Overigens zijn deze kaarten alleen interessant voor GPGPU toepassingen met CUDA, want voor CAD toepassingen zijn deze kaarten zwaar overkill. Bij veel CAD programma's wordt alleen de viewport gerenderd door de videokaart en de rest door de CPU. Voor de viewport is vaak het instapmodel of één daarboven al genoeg.

Overigens wel een minpunt dat zelfs het topmodel de 6000 'maar' twee 30" schermen (2560x1600) kan aansturen, de ATI FirePro v8800 kan namelijk vier 30" schermen tegelijk aansturen.

[Reactie gewijzigd door Kid Jansen op 28 juli 2010 13:02]

Nou vraag ik me alleen af of het al dan niet ondersteunen van DX11 voor de doelgroep van deze kaarten een bezwaar zal zijn.
Het duidt een generatie aan en dus ook interessant vanwege OpenCL/DirectXCompute.
Precies en de kaarten die OpenGL 4 gaan ondersteunen zijn ook de kaarten die DirectX 11 ondersteunen, kaarten die DirectX 10 ondersteunen gaan maar tot OpenGL 3. Dat maakt wel uit straks, als de software en de drivers daar ook op aangepast worden.
In de tijd dat CUDA niet bestond hadden dit soort kaarten ook al deze prijzen.

Er worden specifiek voor bepaalde programmas aparte drivers geschreven.
Die kosten moeten nu eenmaal betaald worden, en aangezien het maar een kleine markt is, wordt dat een flink bedrag per kaart.

Gebruik je niet zo'n programma waar die aparte drivers voor gemaakt zijn, dan is het ook vrij zinloos zo'n kaart te kopen.

[Reactie gewijzigd door mjtdevries op 28 juli 2010 15:43]

Klopt, maar Nvidia maakt het nog een heel stuk bonter dan AMD met die prijzen van ze.

Bij AMD:
Radeon 5670 1GB met DP €94 en FirePro v4800 €158 (factor 1,68)
Radeon 5870 2GB Eye Infinity €427 en FirePro v8800 €1251 (factor 2,93)

Bij Nvidia zijn de prijsfactoren tussen de professionele kaarten en de consumenten tegenhangers eerder in het bereik van 4 t/m 10.

Bij Nvidia is de vergelijking wel iets moeilijker te maken omdat de verschillen tussen het topmodel van de professionele kaarten en het topmodel van de consumenten kaarten veel groter zijn (FX 6000 4x zoveel geheugen als GTX 480 bijvoorbeeld), maar dan nog zijn de professionele kaarten van Nvidia in verhouding een stuk duurder dan de AMD kaarten, laat staan in absolute zin.

Overigens valt het heel erg mee hoe klein die markt is. Als je alleen al kijkt naar bijvoorbeeld de werktuigbouwkunde richting, dan heb je het al over duizenden bedrijven wereldwijd. Schepen, auto's, treinen, vliegtuigen, energie centrales, hijskranen, boorplatformen, etc. worden allemaal voor een substantieel deel ontworpen in software die van dit soort kaarten gebruik kan maken. En zoals gezegd, dat is nog maar een klein deel. Neem je ook nog de Industrieel Ontwerp richting erbij, dan worden het ineens nog heel veel meer bedrijven, want dan heb je het over zo'n beetje elk product op de markt waar het voor gebruikt wordt in het ontwerpproces.
Maakt ATi niet nog steeds de FirePro kaarten? Dat is toch concurentie voor de Quadro reeks dacht ik.

Neemt niet weg dat de prijs redelijk astronomisch is.

Het zijn natuurlijk geen kaartjes voor in een game-pc, maar kaarten voor in serieuze grafische werkstations, maar toch, blijft heel erg prijzig.
In de werkelijkheid steken ze gewoon consumentenkaarten van AMD in supercomputers en kan NVIDIA op hun kin kloppen.
Maar door die gigantische prijzen kunnen ze zelfs met klein verkoopaantal nog steeds aanzienlijke omzetten draaien.
Er is geen enkele ATI kaart waarbinnen de interne logica ECC is. Voor supercomputers is dat van gigantisch belang.
Sorry voor de teleurstelling. ECC is zwaar overroepen als ECC zo traag en duur blijft tov vele non-ECC.
Zouden je Adobe programma's dan op je beeldscherm voorbij vliegen in combi met dual Xeon quadcores,voldoende geheugen en leuke PCI SSD en esata600SSD.

De 5 en zeker de 14.5k versie zulen weinig verkocht worden, maar hier achter mijn normale kantoor setup die ruim 7 jaar oud is, merk ik dat ik al vaak op mijn comp moet wachten voor grafisch werk, iemand die dit 40 uur per week doet heeft gewoon het beste nodig.
Voor Adobe software is een gamekaart waarschijnlijk sneller. Met name CAD software draait sneller op deze kaarten. (Line mode.)

@Hoover: Mijn opmerking dat een gamekaart waarschijnlijk sneller is gaat uiteraard uit van Adobe software met GPU versnelling. Anders zou het sowieso niets uitmaken.

[Reactie gewijzigd door jvo op 28 juli 2010 13:56]

Photoshop heeft tegenwoordig ook opengl versnelling.
Hier zit namelijk ook 3D in
Er is voor Adobe software zelfs een speciale NVIDIA Quadro CX kaart voor op de markt. Uniek aan deze kaart/wat ze weglaten qua ondersteuning bij andere kaarten is bijvoorbeeld hardware H.264 versnelling via CUDA. Hier maken Adobe programma's dan weer gebruik van.

Een soort hardware-software embargo dus. Dat is vooral waar je extra voor betaalt t.o.v. de game kaarten. Net zoals bijvoorbeeld de NVIDIA Maxtreme (Quadro) drivers voor 3ds max. Het verschil in performance tussen Geforce en Quadro kaarten is doorgaans niet zo groot.

[Reactie gewijzigd door d3vlin op 30 juli 2010 01:15]

Voor zeer beperkte zaken is er opengl versnelling, en dat zijn juist de zaken waar gamekaarten er goed in zijn.
40 uur per week, Illustrator, InDesign, en Photoshop.
De enige die hardware gebruikt in dat rijtje is Photoshop, en dan nog voor een zeer beperkt aantal functies.
Deze kaarten zijn écht puur voor physics en renderfarms, zoals in andere reacties al meermalen gesteld. Voor Photoshop is de Quadro FX 3800 al overkill. De beste winst haalt men, zoals je al zegt, uit snellere I/Ops en meer RAM. De CPU is tot zover ook niet snel een bottleneck.

[Reactie gewijzigd door Moby Dick op 28 juli 2010 13:44]

Check your data: Adobe Premiere Pro en After Effects in de laatste versie gebruiken massaal CUDA. En daar maakt het een wereld van verschil.
Precies.
Voor mensen die het voor werk gebruiken is het een must.
En daarom is er ook een markt voor.
Voor de normale gebruiker heeft het totaal geen nut.
Nou is de Quadro serie voor professionele workstations bedoeld, maar dan nog is 14.500 dollar een klein beetje over de top. De markt zal in het begin klein zijn voor deze kaarten, neem aan dat ze daarom hoge prijzen hanteren, om wat ontwikkelingskosten terug te verdienen op degenen die echt de beste videokaarten die er op de markt te krijgen zijn nodig hebben.
De Quadro plex 7000 is ook geen stand-alone videokaart maar een soort ' mini render farm'.
Zo'n Plex kaartje met dan dus 12GB aan grafisch ECC geheugen is denk ik voor heel veel grafisch professionals toch echt overkill. Leuk om mee te werken natuurlijk wel maar ik heb zo'n vermoeden dat er maar weinig mensen zullen zijn die echt zo'n enorme berg grafisch geheugen nodig hebben. Natuurlijk zal er naast al dit grafisch geweld ook minimaal twee 6 core CPU's gebruikt moeten worden en denk ik toch al snel 96GB of meer werkgeheugen anders heeft het denk ik weinig zin om een tweetal GPU's met elk 6GB geheugen in een computer te hangen. Zo'n systeempje zal al snel tegen de 30 a 40k gaan kosten omdat er natuurlijk ook een redelijk schermpje bij zal moeten om die plaatjes te tonen met natuurlijk een enorme hoeveelheid aan lekker snelle SSD's om het geheel van voldoende data te kunnen blijven voorzien. :9~
Het lijkt me leuk om er eens mee te mogen spelen maar ik kan me niet voorstellen dat er echt veel mensen zullen zijn die zo'n systeem nodig hebben. :?
Als jouw ingenieur $14500 per maand kost (een standaard salaris in de Bay Area) en als die kaart jouw ingenieur veel efficiënter maakt,, dan is die prijs al een stuk redelijker, niet?
Waarom zou je in godsnaam zulke zware CPU´s nodig hebben?

Die doet wat bookkeeping etc. Ik kan met mijn i7 930 best een aantal van die nieuwe Quadros aansturen. En wat moet ik met 96Gb werkgeheugen. Gewoon 12 Gb net als het maximum op die kaarten. Scene op de kaarten laden en renderen.

Plots kun je gigantische scenes snel en efficient rendeen. Iedere Quadro 7000 zal toch pak ´m beet 40 i7 topmodellen kunnen vervangen. Met gespecialiseerd en geoptimaliseerde software wel honderd.

Werkstation P7 extremer, Quadro klasse kaartje voor het beeld, 12 gb geheugen en 1 tb schijf zal toch meer dan 2500E kosten. Van een merk een veelvoud.

Als ik 100.000 Euro (40 werkstation) of zelfs 2,5 miljoen kan besparen met een uitgave van 15k is dat natuurlijk een no braiiner.
Wat mij opvalt is dat ze "1,3 miljard triangles per seconde" dus je moet het delen door 30 bijv wil je 30 fps halen want wie gaat er nou met 1,3 miljard triangles werken op 1 fps? ...

Mijn Quadro fx 5800 (gesoftmodde 8800GTX) die haalt 500 miljoen poly's (polygons zijn zwaarder dan triangles) en dan kan ik gewoon normaal in de scene bewegen dus iets van 25/30 fps.
Op Quadro kaarten zit men geen games te spelen.

Vandaar dat het aantal driehoeken per seconden een interessanter gegeven is voor de potentiele klanten, dan het aantal fps in een benchmark.
Zeer mooie ontwikkelingen van Nvidia, in mijn ogen jammer dat de laatse kaart een single-slot is. De geproduceerde warmte door de kaart zal nu in de kast terechtkomen, in plaats van erbuiten. Wat dan wel weer goed is voor kleine workstations met goede airflow, waarin single-slot kaarten een must is.
Pixar, Weta Digital, Industrial Light & Magic om zo maar even drie studios op te noemen die graag dit soort werkpaardjes in huis willen hebben.

De computer graphics in films worden steeds realistischer en grootser, dat je dit soort rekenkracht in huis wil hebben.

Voor een renderfarm hoeft bv. Weta het niet te doen, zij staan immers op #279 van de snelste 500 superclusters op aarde. http://www.top500.org/system/9977
Avatar had geloof ik ook al per frame een minuut nodig ofzo, met dit soort kaarten word die minuut werl ingekort
Ik zie op zich wel mooie use-cases mbt Citrix XenServer/XenDesktop voor het leveren van oa. CAD applicaties naar gebruikers vanuit een Datacenter/Resource Center..

Hiervoor is is wel noodzakelijk dat de GPU doorgezet kan worden naar een VM, maar dat zal niet zo heel lang meer duren.
http://community.citrix.c...h+for+HDX+3D+Pro+Graphics

Ipv allemaal enkelvoudige (dure) CAD Stations aan te schaffen kan een organisatie dalijk ervoor kiezen een aantal Citrix XenServers met deze grafische kaarten erin te laten uitvoeren en gebruikers laten connecteren naar hun CAD XenDesktop sessie. Dan lijken mij de kosten voor de kaarten toch wel redelijk verantwoord.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True