Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 30 reacties

Na de FX 5800 heeft Nvidia nu ook de Quadro FX 4800 voor de professionele markt uitgebracht. In plaats van de 4GB waarover het topmodel kan beschikken, krijgt de nieuwe kaart 1,5GB geheugen.

De Quadro FX 4800 heeft naast minder geheugen ook minder streamprocessors dan Nvidia's zakelijke vlaggenschip, dat in november geÔntroduceerd werd: de FX 5800 heeft er 240, terwijl de FX 4800 het met 192 stuks moet doen. De bandbreedte waarmee de nieuwe kaart zijn 1,5GB grote geheugen kan benaderen is 76,8GBps en dat is evenveel als de topkaart van de vorige generatie, de Quadro FX 5600. Het verbruik van de FX 4800 ligt op 150W, en dat is 21W minder dan wat de FX 5600 nodig heeft. Dat kan goeddeels verklaard worden met het gebruikte 55nm-productieproces, waar de G80-chip van de FX 5600 nog op 90nm wordt gebakken. Naar verluidt is de gpu van de twee nieuwe Quadro-kaarten overigens de G200-302, die Nvidia ook in de GTX270- en GTX290-desktopkaarten zal stoppen.

De referentiekaart van Nvidia heeft een dvi-aansluiting en twee displayport-interfaces. Onder andere PNY, Leadtek en Elsa hebben al aangegeven met kaarten op basis van de Quadro FX 4800 te komen. Volgens Nvidia moet voor de nieuwe Quadro-kaart rond de 2000 dollar neergeteld worden.

Nvidia Quadro FX 4800 1 Nvidia Quadro FX 4800 2 Nvidia Quadro FX 4800 3 Nvidia Quadro FX 4800 4
Moderatie-faq Wijzig weergave

Reacties (30)

Het is al een wat ouder linkje, maar Nvidia is al een tijdje bezig ons consumenten proberen uit te leggen wat het verschil is en waarom de ťťn niet met de ander te vergelijken is..

http://www.nvidia.com/object/quadro_geforce.html
dat was een nuttig stukje leesvoer.

ik was gister even aan het spelen met Photoshop CS4, en ik kwam tot de conclusie dat mijn videokaart te weinig geheugen had toen ik een aantal RAW fotos tegelijk opende (stuk of 25) ik heb een 512 MB geforce 8800GTS, dus dat was wel verbazingwekkend, Photoshop zei netjes dat ik fotos moest sluiten als ik nog wel gebruik wilde maken van de videokaart acceleratie, dus het geheugen op dit soort videokaarten, en zeker de Quadro word wel degelijk goed gebruikt als je hier professioneel mee aan de gang gaat.
En in dat opzicht is het ook wel duidelijk waarom deze kaarten duurder zijn.
Ze zijn een stuk beter voor grafisch werk, 3d en 2d, en natuurlijk zitten er ook ontwikkelingskosten in, en verkopen ze lang niet zo veel van dit soort kaarten als van een gtx260 bijvoorbeeld, ze willen wel de R&D kosten er uit hebben, en liefst ook wat winst maken.
Naar mijn idee is de prijsstelling helemaal zo vreemd nog niet.
Het gaat ook niet om normale kaarten.

De opbouw en vooral de drivers maken deze kaarten geschikt voor proffessioneel gebruik.

De oude FX5700 was bv een kaart voor de consumenten markt.
Eigenlijk bizar dat slechts de stabielere drivers goeddeels de prijs bepalen. 8)7
We hebben hier op het werk een paar Lenovo W500 Notebooks met daarin Ati FireGL kaarten. Blijkbaar zat er in de bios een bug waardoor de kaarten herkend weren als normale Radeons, en dus ook de drivers zo installeert werden.

Met een bios update heeft Lenovo dit opgelost, nu wordt de videokaart herkend als een FireGL kaart.

Dus het is idd de driver en de bios die het verschil in prijs bepalen (en daar gaan waarschijnlijk test-kosten en driver optimalisaties mee gemoed).
Niet alleen de drivers, je betaalt ook voor de support die aanzienlijk beter is dan wat jij en ik aan support krijgen :)
Eigenlijk bizar dat slechts de stabielere drivers goeddeels de prijs bepalen. 8)7
En daarmee kun je je dus weer afvragen,(met alle nu beschikbare videokaarten) of ze doormiddel van een driver, de prestaties sowieso al wat 'afregelen' Ik denk dat ze softwarematig de prestaties misschien wel wat afremmen, dan hebben ze altijd een simpele optie achter de hand om op een later tijdstip de kaart beter te laten presteren.

Het zou me niets verbazen als het (voor een groot deel)een vooropgezet spel is, al die 'driverupdate,s' :P

EDIT: En de bios van een kaart ,niet te vergeten.

[Reactie gewijzigd door pcgek op 3 december 2008 20:37]

Het is gewoon nep. Er zit geen wezenlijk verschil in de kaarten. Maar plak er een 'professioneel' stikker op, en plotseling kun je dikke vette winst draaien.

Bij bedrijfs PC's wordt er gewoon nauwelijks naar de prijzen gekeken. Men gaat er ten onrechte vanuit dat de prijs iets over de prestaties zegt.
lekker gemakkelijk gesproken ja. Firmware en drivers zijn net zo belangrijk als de hardware.

1.000.000x GeForce cards + software costs $500.000 --> +$0.50 per item
5.000x Quadro cards + software costs $500.000 --> +$100 per item

Puur als je kijkt naar de quantiteiten van de GeForce en Quadro producten is het niet meer dan normaal dat de kosten voor de software doorberekend worden. Pak daar een aantal service requests x1000 bij en je hebt je hogere prijs.
Bovendien is dit maar een simpele vergelijking. Het ontwikkelen van software en hardware kost meer dan je denkt...

[Reactie gewijzigd door kalechinees op 3 december 2008 15:40]

Jij doet net of het wiel opnieuw uitgevonden moet worden door ATI ofzo, voor die §500.000 heb je beide drivers.
Het verschil zit hem nl. in een string die aangeeft dat het een quadro betreft, waardoor 3d Studio max beter kan omgaan met de hardware. Vooraf wordt bepaald welke hardwarefuncties in welke driversversie mogen werken.
Ze hoeven niet de hele software opnieuw te schrijven, "speciaal" geoptimaliseerd voor ACAD of 3DSMax, de hardware is hetzelfde in beide gevallen hetzelfde.
Daar heb je niet helemaal gelijk in. De Quadro kaarten zijn wel degelijk sneller op bepaalde gebieden.

Echter meen ik me ook nog te herinneren dat er vroeger wel es Geforce kaarten met een bios flash naar een Quadro gemod konden worden? Het verschil zit hem dus vooral in de bios en drivers, die zijn voor andere dingen ge'optimaliseerd dan de consumenten kaarten.
Klopt. Heb ik eerder dit jaar nog gefixt voor iemand die voor een workstation een quadro zocht maar de wat betere modellen niet kon betalen. Door een simpele softmod kon de goedkope geforce 8800GTS geÔnstalleerd worden met quadro-drivers. Nu heeft ze - op een klein beetje geheugen na - een volwaardige quadro fx 4600 voor pakweg 100 euro. Da's ongeveer 1/6 van de prijs...

Overigens heb je hier het programma rivatuner voor nodig en volgens mij lukt het alleen met bepaalde modellen. Daar is op internet echter genoeg info over te vinden. Ik heb deze guide gebruikt: http://www.techarp.com/showarticle.aspx?artno=539

[Reactie gewijzigd door 2fish op 3 december 2008 22:02]

Het verbruik van de FX 4800 ligt op 150W, en dat is 21W minder dan wat de FX 5600 nodig heeft. Dat kan goeddeels verklaard worden met het gebruikte 55nm-productieproces, waar de G80-chip van de FX 5600 nog op 90nm wordt gebakken.
Ben ik de enige die dit een hele kleine verandering vindt? Ze gaan naar een proces waarop ze alles 2.6x kleiner kunnen bakken, en nog steeds gaat er niet meer dan 15% van de gebruikte energie af. Een deel kan met het geheugen verklaard worden, maar dan nog blijft dit veel. (ik neem aan dat ze hier een GTX2X0 of 9X00 serie als uitgangsmodel genomen hebben).
Het is een compleet andere kaart met compleet andere specs. Waarom deze twee in het artikel dan ook met elkaar vergeleken worden is mij een raadsel. Het zou het zelfde zijn als zeggen dat het verbruik van de GTX280 hoger of lager is dan dat van de 8800GTX.
De FX 4800 zal vast ook een stuk sneller zijn dan de FX 5600.
Tja wij hadden vroeger een FX5700, maar die was vast niet sneller dan deze kaartjes ;). Beetje vreemde naamgeving zo, het lijkt een oudere generatie, terwijl dat niet zo is.
Bovendien hebben ze nu een FX 4800 welke een generatie nieuwer is dan de FX 5600. Ik zou zeggen, begin dan met FX 6x00...
da's met quadro's al sinds the dawn of time zo. het tweede cijfer is de generatie, het eerste de klasse. zou IMO juist verwarrend zijn dat nu opeens om te wisselen.
Dat is helemaal niet zo, vroeger had je gewoon de quadro 2, quadro 4, dus dus bijde op de gpu van de geforce 2 en 4 waren gebaseerd. Ook de FX naamgeving is destijds van de geforce 5 geleend. Het enige is dat ze bij de quadro bij de FX zijn blijven hangen en toen zijn gaan doortellen.
* Emielvenlo heeft nog enkele leuke quadro's gehad en nog 1tje liggen zelfs...
2000 dollar LIJKT misschien veel maar als je ziet wat de computers kosten waar ze meestal inzitten is dit nog niet zoo duur...

zeker als je kijkt naar de prijzen van een paar jaar geleden...
Het niet echt eens om de hardware.
Maar het pakket wat er omheen zit IMO.

Anders nam men wel gewoon een GTX260
Ehm... welk pakket?

De slimmerikken nemen gewoon een consumenten kaart. Daar draait cuda net zo goed op.
Nee hoor,bij een consumenten kaart krij je nul support van nVidia zelf (daarvoor moet je naar ASUS of Club3D of zo), heb je over het algemeen slechtere kwaliteit geheugen, en andere firmware: http://en.wikipedia.org/wiki/Quadro.

Als je cuda (professioneel) gebruikt kun je dat niet hebben.
Wat is slechte kwaliteit geheugen? Het werkt toch prima? En als het kapot gaat, dan zit er garantie op en krijg ik dus een nieuwe.
of de bouwkwaliteit van een quadro beter is, zou ik niet durven zeggen
het verschil zit hem vooral in de firmware, een paar extra functies en vooral: de geoptimaliseerde drivers voor bv Autocad
het gaat in dit geval niet over CUDA, maar voornamelijk high end CAD pakketten zoals A'Cad/Tekla etc
Bogy maakt een zeer valide punt, de machine waar dit in terechtkomt zal niet mals zijn, maar vergeleken met de kosten voor de softwarelicenties zal het relatief goedkoop zijn.
Beetje eigenaardige plaatsing van die DVI poort lijkt mij.
Ik ben zeker geen expert, maar zou de luchtstroming niet veel beter zijn als die DVI aansluiting op het 'onderste' rijtje zou zitten?
Overigens zou ik op een kaart liever 1 HDMI zien minstens, maar goed, dit zijn zakelijke kaarten.....(al kan ik situaties bedenken dat ze alsnog graag HDMI zouden hebben)
Hint: Er zitten displayports op :> (nieuwe standaard, >HDMI)

Daarnaast kun je DVI gewoon converten naar HDMI. En de missende beveiliging van HDMI (voor bluray) gebruik je toch niet op zo'n workstation.

[Reactie gewijzigd door pagani op 3 december 2008 14:14]

Elcomsoft stelt dat met een doorsnee Core 2 Duo-cpu 400 wachtwoorden per seconde verwerkt kunnen worden. Door een GTX 280-videokaart in een systeem te prikken, kan de software dit aantal verhogen naar 12.500 per seconde, terwijl een high-end Tesla S1070-videokaart van 1700 dollar ongeveer 50.000 potentiŽle sleutels kan verwerken.
Uit een stukje van gisteren. Ze zijn wel degelijk sneller met CUDA.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True