Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 41 reacties
Bron: nVidia, submitter: LordPan

nVidia heeft vier nieuwe grafische videokaarten geïntroduceerd voor de grafische industrie. Alle modellen hebben een PCIe-interface en 128-bit geheugenbus. Het instapmodel Quadro FX 540 beschikt over 128MB aan geheugen en kan daardoor theoretisch 8,8GB per seconde aan bandbreedte verstouwen en kunnen er 49 miljoen triangles per seconde worden berekend. In tegenstelling tot de andere modellen - de Quadro FX 1400, 4400 en 4400G - beschikt de Quadro FX 540 niet over de mogelijkheid om SLI uit te voeren. Wel is er de beschikking over een HDTV-aansluiting, naast een DVI-I en VGA-connector.

nVidia Quadro FX logoDe specificaties van de Quadro FX 1400 zijn ietsjes beter. Er is namelijk plaats voor een 256-bit geheugenbus en twee DVI-I aansluitingen. Verder is er ook een driepins stereo-aansluiting, die gebruikt kan worden voor OpenGL. De maximale bandbreedte voor de Quadro FX 1400 bedraagt trouwens 19,2GB per seconde. Het aantal berekeningen dat kan worden uitgevoerd bedraagt 75 miljoen triangles en 2,8 miljard texels per seconde.

De topmodellen nVidia Quadro FX 4400 en 4400G verschillen slechts op het gebied van frame- en genlock. Framelock biedt de gebruiker de mogelijkheid om meerdere workstations met elkaar te kunnen koppelen in cluster om zo gebruik te kunnen maken van de rekenkracht van de videokaarten. Genlock zorgt ervoor dat de beelden gesynchroniseerd worden met standaard formaten voor nabewerkingen van video-, uitzendingen- en andere editingsyncsignalen.

De verdere specificaties van de twee modellen zijn hetzelfde. Zo hebben beide videokaarten de beschikking over twee dual-link DVI-aansluitingen en kan er maximaal 135 miljoen triangles en 6,4 miljard texels per seconde worden berekend. Ook is er de beschikking over 512MB GDDR3-geheugen, dat in combinatie met de 256-bit geheugenbus een theoretische bandbreedte van 35,2GB per seconde oplevert. In SLI-modus leveren twee nVidia Quadro FX 4400-kaarten een recordscore van 103 op in de SPECviewperf 7.1.1 UGS-03-benchmark. Daarnaast is er voortgeborduurd op de GeForce 6800 en is er de beschikking over Shader Model 3.0 en 32-bit floating point-berekeningen op het gebied van shading, filtering, texturing en blending.

Moderatie-faq Wijzig weergave

Reacties (41)

Het instapmodel Quadro FX 540 beschikt over 128MB aan geheugen en kan daardoor theoretisch 8,8GB per seconde aan bandbreedte verstouwen en kunnen er 49 miljoen triangles per seconde worden berekend.
1) Die 128MB heeft natuurlijk niets te maken met de 8,8GB/s.
2) "kan daardoor 8,8GB per seconde aan bandbreedte verstouwen"; hoe heette dat ook al weer, pleonasme of tautologie. Er wordt natuurlijk bedoeld "kan 8,8GB/s verstouwen" of "heeft een bandbreedte van 8,8GB/s"
3) "Het instapmodel (...) kunnen er 49 miljoen ...". Argh.

Dat de meeste tweakers geen neerlandicus zijn is prima, maar de hoeveelheid taal- en stijlfouten, zelfs in de nieuwspost, is de laatste tijd toch wel tenenkrommend.
Tsja, dit wordt een -1, maar ik kan het niet laten:

...de meeste tweakers (meervoud) geen neerlandicus (enkelvoud) zijn....

Meervoud van neerlandicus is neerlandici.... Als je dan zonodig moet verbeteren, doe het dan goed
;)
http://gathering.tweakers.net/forum/list_messages/940090

Hier kan je je foutjes kwijt. Mensen die gewoon in het nieuwsitem reageren, zijn de laatste tijd toch wel storend. :(
Is de Quadro nou bedoeld voor dual monitor opstelling (zoals die Matrox dingen) of is het een game kaart zoals de 6800 ultra?
Het zijn workstation kaarten. Dual monitor is een van de features, alhoewel consumer kaarten dit ook al heel lang kunnen. Ze zijn geoptimaliseerd voor 3D CAD programma's en andere applicaties waar zwaar 3D rekenwerk aan te pas komt. Je kan er wel op gamen, maar daarvoor zijn de drivers niet geoptimaliseerd. In een 3D ontwerpprogramma kun je je geen optimalisaties permitteren die mogelijk de beeldkwaliteit verlagen...
Op de eerste regel staat: "nVidia heeft vier nieuwe grafische videokaarten geïntroduceerd voor de grafische industrie."
Dat neemt niet weg, dat de techniek uiteindelijk ook bij Gamers zal belanden (8>

Ik kan niet wachten!
Als gamer heb je er niets aan omdat de drivers niet voor spellen zijn geoptimaliseerd. Bovendien zou ik maar eens beginnen met sparen want ze zijn vreselijk duur.
Maar op zich het niet verkeert om je af te vrage of die kaart geschikt is voor gamen. Dat die kaart duur is zal best wel maar er zijn ook mensen die kopen iedere keer weer een nieuwe kaart van 500 euro. Ik zou op zich best wel eens een benchmark willen zien van deze kaart in bijvoorbeeld doom3. En ook gewoon in de dingen waar die voor bedoelt is en dan tegen een 6800 kaart. Misschien is ie ondanks het gebrek aan optimalisaties nog wel sneller als een 6800 en dan denk ik dat er best nog wel wat mensen interesse zullen hebben. En dan zullen met de tijd ook drivers verschijnen (des noods in de vorm van omega drivers) die wel optimalisaties bevatten.
ze zijn op dezelfde chips gebaseerd als de gamekaarten, tenminste ik neem aan dat dat nog steeds zo is, oude geforecejes kon je ook modden naar quadros

de drivers zijn echter niet geoptimaliseerd voor games maar voor de doelgroep, tevens zijn er hogere eisen aan de drivers mbt stabiliteit, de kaarten zijn gewoon betrouwbaarder
Dat was inderdaad het geval. Of in ieder geval leek het zo.
Bij de Geforce 4 was het erg gemakkelijk om quad-buffered stereo aan te zetten..
Maar bij de Geforce FX was het al na genoeg onmogelijk. Misschien zelfs helemaal onmogelijk.
Maar zelfs dan had je nog geen quadro kaart. Er zitten en zaten kleine verschillen in de architectuur van de GPU en van de printplaat zelf, waardoor een opgefokte Geforce nooit een quadro kon of kan evenaren.
geen van beide... hoewel je er 2 monitoren op kan aansluiten en je er prima 3D-games mee kan spelen.

Maar ze zijn bedoeld voor de professionele 3D-markt... zoals CAD,CAM, 3D modellering in bijvoorbeeld 3DsMax, realtime Virtual reality en meer van dat soort dingen
Het is een professionele kaart, ontworpen voor ontwerpers, waarbij veel kracht van de gpu gevraagd wordt :) Deze kaarten zijn dan ook stukken duurder dan de naar 'consument-gerichte' videokaartseries.
quadro is voor workstations, grafische sector en geen game kaart
Het zijn trouwens niet dezelfde chips zoals je met de geforce 4 enquadro 4 kon doen met een softmod.
Dit zijn totaal andere chips
Met de (dure) software Nvidia Gelato kan je in samenwerking met de Quadro FX kaarten enorm snel renderen. Het is veel sneller dan meerdere workstations en in verhouding dus veel goedkoper.

http://film.nvidia.com/page/gelato.html

Alleen voor Linux op dit moment

Alle verhalen hier boven mij dat de Quadro's overbodig zijn zonder snelle CPU en dat de GPU alleen voor modellen wordt gebruikt en niet voor renderen is dus verleden tijd.

Niet dat ik dat echt kwalijk kan nemen want Gelato is pas paar maanden uit. En is best wel een baanbrekende technologie.
Ik meen ergens in een grijs verleden een test gelezen te hebben die uitwees dat er uiteraard op gegamed kan worden maar dat ze wel achterblijven kwa prestaties op de high end game kaarten.

Ze zijn specifiek gemaakt voor 3D modeling voor de grafische industrie daarnaast werkt de prijs voor bijvoorbeeld een nVidia Quadro FX 2000 van ¤1650,00 tot een nVidia Quadro FX 4400 van ¤3600,00 ook al niet erg mee :+

Je hebt daarnaast aan een P4 3.4Ghz eigenlijk ook al niets. Met zo een kaart moet je eerder aan dual opteron of dual Xeon denken. Kortom zonder deze rekenkracht is de Quatro niet meer dan een Ferarri met 15" velgjes :+
Bijna juist. Je hebt voor een quadro helemaal geen dual bk nodig. Het is zelfs zo als je met CAD bezig bent dat een Pentium 4 3,4GHz (of een vergelijkbare Athlon 64 FX) een dual Xeon 3,2 (of vergelijkbare dual Opteron) afdroogd.
Om de simpele reden dat je 2 dingen kan doen.
1) Modelleren (dan werk je dus met draadmodellen)
2) Renderen
Het eerste doe je met de GPU. De CPU heeft daar ook mee te zien. Maar het modelleren kan niet in meerdere taken worden opgesplits. Autodesk heeft even een poging gedaan om achterliggende lijnen te laten berekenen door een 2de cpu of de HT van intel te gebruiken. Maar dat idee en daarmee ook de directe steun aan intel's HT zitten weer in de kast.
Een multi-tasken doe je ook al niet onmiddelijk op een CAD workstation.
Wanneer je echter gaat renderen komt een dualbak wel tot z'n recht. Renderen gebeurt nl. voor het grootste deel door de CPU (software rendering). Tenzij je met PCI renderkaarten(hardware rendering) werkt (¤5000/stuk).
Nu moet je weten dat een CAD tekenaar voor 90% met draadmodellen werkt.
Wanneer je dus enkel modelleert heb je op zich niet veel aan dat dualbakje. Wanneer je de klant echter een realistisch gerenderd beeld wil tonen kan je nog opteren voor een dualbak. Als je echter met meerdere tekenaars aan het werk bent is een reeks single cpu workstation aangevuld met een dual of zelfs quad renderstation goedkoper.
Mensen die aan DDC doen (maya, 3ds,....) hebben weer wel baat bij een dualbak in combinatie met deze kaart. Zij doen veel vaker een rendering van 1 of ander stukje. En dan is cpu kracht op de werkplek wel intressant.

@ Bram_001 : ik heb dan ook duidelijk geschreven : voor het grootste deel. Ik weet niet hoeveel het verschil bij jou precies is. Maar in bv. 3DS kan 45 tot 60% winst gehaald worden door hij bijsteken van een extra processor.
Zoals je \[urlhttp://img.neoseeker.com/v_thumb.php?articleid=1510&image=8] hier [/url]kunt zien is het verschil tussen een ti4200 en een R9700 pro een stuk minder. De invloed van de GPU is dus beduidend lager. De DX test terzijde aangezien er daar minder gewicht in de renderschaal ligt.
Het voordeel aan een geavanceerde GPU (het heeft niet zozeer met de snelheid te maken) is dat er een beter eindresultaat gehaald wordt. Veel minder verkeerd ingekleurde pixels enzo. En, het draadmodel dat je hebt is veel geavanceerder (lees preciezer) door dingen als anti aliasing. Daardoor krijgt je cpu een model dat makkelijker inkleurbaar is.
Nou, volgens mij wordt de GPU wel degelijk voor het renderen gebruikt. Als je van een Gforce 4200 naar een 9800 Pro gaat met verder geen gewijzigde hardware (wat bij mij het geval is), dan gaat het renderen zeker sneller. Hoe verklaar je dat dan. Opties zoals anti aliasing worden daar pas bij uitgevoerd.
Nee, voor de uiteindelijke render wordt alleen de CPU gebruikt - en eventuele debiel dure kaarten zoals eerder aangegeven.
Je denkt aan het weergeven op het scherm; dat heet in een spel misschien "renderen", maar in de CAD wereld - waar deze termen toch echt vandaan komen - ligt dat heel anders.
dat is niet geheel waar. sommige dure grafische kaarten ondersteunen het renderen. bijv. de gelato
http://film.nvidia.com/page/gelato.html
maar in 't algemeen midrange kaarten zoals de nvidia's/ati's doen dat dus niet
Gelato is iets specials en nieuw. En niet elk 3d programma ondersteunt dit.

Het 3D renderen zoals ik elke dag doe is een pure cpu zaak.

Dan mag je nog 500 quadro fx kaarten in je pc hebben zitten. Hij zal evensnel renderen als met een S3 trio :)
Je hebt gelijk Kris... excuus. Ik vergaloppeerde mezelf even als het om de toepassingen gaat. Ik dacht alleen aan DCC |:(

Complimenten voor je duidelijke uiteenzetting. :9
Niet helemaal waar, je kan er prima mee gamen, ik heb zelf nog een quadro 2 pro draaien en die loopt goed mee met alle games en benchmarks. Het klopt dat de kaarten voor 3D modelling zijn ontworpen maar met de juiste drivers en instellingen gaat ie ook goed mee op game vlak.
@ Darth: Heeej, wel goed opletten hèh.....?
Bij jouw punt 3 ga je zelf in de fout....:"Het instapmodel" is hier niet het onderwerp, maar (49 miljoen -) "triangles" waarbij de persoonsvorm "kunnen" dus wel degelijk klopt bij het meervoud van "triangles".

:7
ff denken, school is zoooohoooo lang geleden.

Wat berekent?
"Het instapmodel" - onderwerp
Wat berekent het instapmodel?
"een ziljoen triangels per seconde" - lijdend voorwerp

Mij lijkt een eenheid geen onderwerp te kunnen zijn. De zin "50 km/uur wordt gereden" is namelijk niet juist, en moet zijn "Er wordt 50 km/uur gereden"

Taalgebruik ben ik het mee eens. Voortaan alle posts via babelfish naar japans en terug. Dan weten we de kwaliteit tenminste zeker.
School is lang geleden dat zien we ja...

De zin is er niet één maar twee, dames en heren. Ja ja, door het gebruik van het woord "en" in plaats van interpunctie en een hoofdletter, komen deze twee deelzinnen samen tot één.
De triangles kunnen gerenderd worden.
kunnen is dus meervoud, want alle 49miljoen triangles kunnen het.
Brugklas havo, atheneum en gymnsium krijgt dit. Mavo en LTS zal dan ook wel. daarmee dus ook vmbo (zo heet dat toch tegenwoordig?)

En dan te bedenken dat ik niet eens goed was in Nederlands :P

edit:
en nog steeds niet in typen...
Alle modellen hebben een PCIe-interface en 128-bit geheugenbus
De specificaties van de Quadro FX 1400 zijn ietsjes beter. Zou is er plaats voor een 256-bit geheugenbus en twee DVI-I aansluitingen
Spreekt dit elkaar niet tegen? 128bit voor alle en dan ineens 256bit?
En die zou moet Zo zijn denk ik.
jij kan zeker niet lezen INPLAATS VAN 256 bit... heb je nu 2 DVI poorten
ik gebruik al sinds hij uit is een quadro fx 500 om te gamen.... maar doom3 trekt ie niet echt meer... enige voordeel boven consumentenkaarten is wel dat ze niet zo snel verouderen voor je gevoel (dus kopen en er is alweer een nieuwe versie) :Y)

voor de rest zijn consumentenkaarten vaak wel sneller etc.
Dit is wel lekker AutoCADten zeg. Wat ik niet begrijp is dat er toch aandacht besteed is aan Shader Model 3.0.Maaruh wat heeft de grafische industry op het moment aan?
Als ik even mag inhaken op het verhaaltje over renderen in hardware en software...
Het uiteindelijke renderen in software zoals Maya is SOFTWARE renderen. als er dan al iets in hardware gerenderd wordt dan is dat expliciet aangegeven door de gebruiker. zo zijn bijvoorbeeld particle systemen in hardware te renderen. maar dit gebeurd alleen maar omdat particles later in een compositing programma (after FX) makkelijk weer in te voegen zijn in de originele scene en dan post-proces effecten e.d. kan toevoegen en dus in die zin een meerwaarde hebben, omdat er na het renderen nog "getweaked" (jaja) . ik denk dat het vooral aan die "meerwaarde" ligt of iets een hardware implementatie krijgt. anders is het gewoon te overbodig voor de prijs die je ervoor gaat betalen. zo ook de Nvidia Gelato...... die overigens inderdaad baanbrekend is... het is namelijk een "FINAL FRAME" renderer. ben benieuwd naar dat ding.... :) :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True