Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 37 reacties
Bron: ELSA

Elsa logo Op de Engelse site van ELSA vinden we de aankondiging dat de lancering van de professionele grafische ELSA Gloria DCC kaart, inmiddels een feit is. De kaart is voorzien van nVidia's Quadro DCC GPU, de professionele variant van de Geforce 3 GPU. Hier kun je de verdere specificaties van deze chip rustig nalezen. Hoewel deze kaart in principe voor veel verschillende 3D en CAD/CAM applicaties gecertificeerd is, wordt de nadruk gelegd op 3D studio Max en ELSA's MAXtreme drivers. Zoals al eerder is bericht zal Discreet, eigenaar van 3D studio Max, mede de distributie en verkoop van deze nieuwe kaart gaan verzorgen. De adviesprijs van de ELSA Gloria DCC bedraagt in Engeland 799,99 (omgerekend f 2.840,-) en heeft zoals gebruikelijk bij ELSA 6 jaar garantie:

nVidia Quadro DCC logo The ELSA GLoria DCC is customised for digital content creation professionals who need optimum performance for generating designs for character animation, visual effects and games development. It is the only hardware platform with an optimised application driver for 3D Studio Max with the new Vertex and Pixel shader technology from graphics chip maker NVIDIA. The ELSA MAXtreme driver delivers both performance and stability for the DCC user.

The nFinite engine of the NVIDIA Quadro DCC GPU (graphics processor unit) enables the integration of new features of 3D Studio Max for use in DCC applications as well as offering a significant performance boost.

ELSA's product manager for graphics Adam Foat commented, "This is a specialist tool for people at the cutting edge of digital animation. Designers can now program an almost limitless number of effects and review the results straight away."
ELSA Gloria DCC
Moderatie-faq Wijzig weergave

Reacties (37)

Je kon de Gf3 toch ook al modden naar deze kaart he. Dan bespaar je toch wel wat geld (genoeg om er nog een PC'tje rond te bouwen)
Je kon de GF3 idd modden naar een Quadro. Alleen zijn de prestaties van een echte Quadro altijd hoger. Bovendien krijg je op een Quadro ook professionele ondersteuning (van nVidia) en de garantie dat ie onder bepaalde applicaties werkt, iets wat bij een GeForce 3 of gemodde GeForce 3 niet van toepassing is.
De prestaties van een Quadro zullen vast wat hoger zijn. Maar om een factor 2-3 in prijs te kunnen rechtvaardigen? Ze weten gewoon dat in de industrie veel minder moeilijk wordt gedaan over geld en ze maken daar vet gebruik van. Niet dat ik ze dat kwalijk neem.... :)
Daarnaast kost het ontwikkelen van porfessionele, stabiele drivers ook aardig wat, en omdat er veel minder Quadro's als normale Gf3's verkocht worden moeten die kosten ook over minder kaarten verdeeld worden, wat de prijs uiteraard hoger maakt.
Inderdaad weinig zinnige argumenten. Jullie zijn met een kantoorbaan zeker ook ook veel productiever als je een P4 1,8 GHz met 512 MB krijgt?
En wat de garantie betreft: mensen/bedrijven die zulke kaarten aanschaffen geven te kennen het beste te willen en hebben voor die tijd al lang weer wat anders gekocht.
En tuurlijk kosten die drivers meer aan ontwikkelkosten, maar echt niet zo veel om dat ding 2-3 keer zo duur te maken. Anders zijn er vast wel mensen die het goedkoper kunnen :7
Inderdaad weinig zinnige argumenten. Jullie zijn met een kantoorbaan zeker ook ook veel productiever als je een P4 1,8 GHz met 512 MB krijgt?
Beetje rare vergelijking. Maar als een gemodde GF3 het begeeft kunnen de werknemers niet verder (en dat kan financieel de spuigaten uitlopen). De kans dat een Quadro defect raakt is natuurlijk kleiner dan bij een omgesoldeerde GF3!
het is wel waar dat je meer producten afkrijgt binnen een kortere tijd door betere hardware. Ook is het vaak zo dat je psychisch wordt beinvloed door het feit dat een bepaalde actie makkelijker/moeilijker verloopt en hem dus niet graag gebruikt. Moeilijke effecten gebruik je dus niet als je systeem hem niet optimaal aankan of als je er een half uur op moet renderen... Bij visual design is dit erg belangrijk en dus helpt het verschil wel degelijk. Stabiliteit is ook nog eens een punt dat meehelpt aan een goed bedrijf. Wanneer er een klant naast je zit en je kompjoeter loopt vast staat dat niet echt kewl.
Special fx voor software van diskreet is zwaar dik, en heb je dus de meest geweldige hardware nodig. Niet dat ik zeg dat je dan zeker deze kaart moet nemen (want hij is voor klein bedrijf prof) maar dan kan je nog altijd deze nemen ipv een gewone gf3.
Ik vind dat het zeker Wl duurder mag zijn voor bedrijven:

1. Speciaal geschreven Drivers voor ondersteuning van de meeste CAD/CAM Software
2. 6 Jaar garantie
3. die bedrijven verdienen ook bakken met geld als hun werknemers beter kunnen presteren, en lekkerder kunnen werken.
Je hoort mij niet zeggen dat bedrijven een GF3 moet gaan modden i.p.v. een Quadro te kopen!
Ik bedoel alleen dat het werkelijke verschil in product het prijsverschil niet waard is! Helaas heb je alleen geen keus.
Maar als je Quadro kapot gaat, kun je ook niet verder werken totdat ie vervangen is....
on_zin
moeilijke effecten gebruik je dus niet als je systeem 't niet optimaal aankan ?
zo'n quadro gebruik je niet om je resultaat te renderen hoor... alsof zo'n quadro ooit een beetje fatsoenlijke 3dsmax scene zou kunnen renderen op de kwaliteit waarmee max dat doet...
't is puur voor 't ontwerp in je viewports
dat stabiliteit verhaal vind ik ook nogal vergezocht hoor
ik heb een GF2 en die slaat ook nooit vast (heb ik dan geluk en slaan andere modellen wel vast ?)...
Bobsnl schreef:
Je kon de GF3 idd modden naar een Quadro. Alleen zijn de prestaties van een echte Quadro altijd hoger.
Swinnio schreef:
De prestaties van een Quadro zullen vast wat hoger zijn.
Ik weet niet waar jullie deze wijsheid vandaan halen, maar de chipset GF3 en QuadroDCC van Nvidia zijn exact hetzelfde. Middels 2 pullup (of was het nu pulldown ;) ) weerstandjes kun je de identificatie van de chipset vaststellen, da's het enige wat het onderscheid tussen beide produkten vastlegt.

Bij de GF2 was dit al zo en nu is het nog zo. Gewoon de manier om de produktiekosten van de Quadro DCC laag te houden (die is namelijk gelijk aan de GF3, alleen andere opdruk). Als Nvidia een eigen productierun moest bouwen voor de Quadro zou deze helemaal niet meer te betalen zijn, er worden er immers relatief zeer weinig van verkocht, die markt is nu eenmaal niet zo groot...

Het enige verschil wat eventueel zou kunnen bestaan is instellingen van de VGA bios. De Quadro's draaien vrijwel altijd op een standaard hogere kloksnelheid als de GF2/GF3 maar da's natuurlijk makkelijk te omzeilen.

Ik heb zelf een GF2MX twinview omgeknutseld tot Quadro MXR en er tevens een Elsa synergy III bios ingeknutseld. Ik heb vervolgend mijn kaart vergeleken met een echte Synergy III van de zaak en zie zelfs een klein voordeel in benchmarks van mijn zelf gemodde kaart (dankzij 4,8ns memory terwijl de Elsa 5,5ns gebruikt)...
Je hebt misschien helemaal gelijk, maar toch ff voor de zekerheid; welke benchmarks heb je dan gedraaid? Pro-apps benchmarks of games (3dmark 2000/2001)? In games gaan je prestaties nl. neit omhoog met een quadro, eerder iets omlaag. In pro-apps zouden de quadro's in bepaalde zaken sneller moeten gaan dan een standaard Geforce.
Dat is waar (je kan immers zo'n beetje elke nvidia kaart omsolderen naar een quadro), alleen dat is totaal niet van belang voor het markt segment waar de quadro voor bedoelt is. Want dat is namelijk het bedrijfsleven.... En die geven graag die "paar" extra guldens uit om garantie op stabiliteit te krijgen (en dat kan je dus niet krijgen met een omgesoldeerde geforce).
Tegenwoordig kan het ook met een software mod, en die is zeer stabiel en flink sneller dan een geforce
6 jaar garantie? Terwijl de economische levensduur max 3 jaar is.. Ik denk dat in deze high end industrie waar deze kaart zich op richt dat de economische levensduur zelfs maar 1.5 of 2 jaar is. Niet dat 6 jaar slecht is... maar het is niet duidelijk of up-to-date driver support daar ook bij hoort.
6 jaar garantie? Terwijl de economische levensduur max 3 jaar is.. Ik denk dat in deze high end industrie waar deze kaart zich op richt dat de economische levensduur zelfs maar 1.5 of 2 jaar is. Niet dat 6 jaar slecht is...
6 Jaar garantie is natuurlijk langer dan dat de kaart meegaat, maar het stelt de consument wel gerust dat de producent 6 jaar geeft, want dat geeft aan dat ze veel vertrouwen hebben in het product.
maar het is niet duidelijk of up-to-date driver support daar ook bij hoort.
Natuurlijk blijven de drivers up-to-date, want je kan het simpelweg niet maken om een stervens dure kaart niet goed te supporten, want dat blijven de klanten natuurlijk nooit en kan je als bedrijf beter meteen stoppen, want een beschadigd imago is heel moeilijk te "repareren", zeker met de concurentie die in de ICT markt heerst.
Das leuk hoor... Maar toen de PERMEDIA 2 chipset uitkwam was dat ook een enorm duur speeltje. Maar er zijn nooit goeie Win2K (openGL) drivers voor gereleased...

Niet door 3dLabs en niet door Diamond (was een FireGL 1000 Pro...)

Dus het is maar te hopen dat als de kaart al een tijdje niet meer "de top" is, de fabrikant toch wil blijven investeren in de drivers...
NVidia ondersteunt de TNT nog steeds hoor, pas nog op een viper550 geinstalleerd.

Zie hier
TNT2, Vanta, GeForce256, GeForce2**, GeForce3, Quadro, and Quadro2 family of graphic processors are supported through NVIDIA's Industry Standard Unified Driver Architecture (UDA). If you are using a TNT or TNT2 Ultra product, please download the non-WHQL driver.

http://www.nvidia.com/view.asp?PAGE=windows2000
Die FireGL 1000 Pro was wel duur maar de FireGL 4000 was volgens mij de kaart om te hebben. Later kwam nog de FireGL1 die AGP was.
Als ze zo blijven doorgaan met de unified detonator drivers bij NVidia als nu zie ik de driver support voor dit kaartje hoogstens 2 jaar duren. De TNT wordt nu inmiddels ook al niet meer gesupport en die is misschien net 3 jaar oud.

Aangezien de ELSA drivers voor de grote hoofdmoot waarschijnlijk gewoon kopie zijn van de code geleverd door NVidia kun je na 2.5-3 jaar je driver updates wel vergeten.
die 6 jaar is niet eens extreem veel ofzo. Volgens mij geven de meeste consumer VGA fabrikanten al 5 jaar garantie (ik weet het in ieder geval zeker van diamond).
Het verschil zit 'm voornamelijk in de kwaliteit van de garantie, en wat er allemaal onder valt.
Elsa zal niet zoiets flikken als de driver support voor mijn video kaartje, de Diamond Viper II (brakke drivers, maar al een hele tijd (half jaar ofzo?) geen nieuwe drivers gezien...komen er ook niet meer).
The Source: Ik denk dat in deze high end industrie waar deze kaart zich op richt dat de economische levensduur zelfs maar 1.5 of 2 jaar is
Voor kleiner bedrijven schuiven die kaarten door van modelers naar testbakken voor programeurs, en dan halen ze wel meer als 2 jaar.
Kaap: 2. gebruikers geen games spelen hierop en dus een mega fps hoeven
Een bedrijf dat deze kaart koopt zou best wel eens games kunnen maken (en toch genoeg geld hebben), en dan wil je best wel megafps.
Als een bedrijf games maakt dan hebben ze:

A> Aparte test-bakken om zo'n game te testen.
of
B> Geen Quadro maar een gewone Geforce

Want als er iets is wat irritant is, is het wel niet goed kunnen zien wat de invloed van een paar stukjes code zijn omdat er getest wordt op een andere bak als waar de game op gemaakt wordt.

Let wel het artwork wordt echt niet op dezelfde bakken gedaan als het programmeerwerk, dat zou onzin zijn.
A] We hebben hier in ieder geval geen aparte testbakken, wel hebben we hier Artists die ieder met een ander type bak werken die moord en brand schreeuwen als een bepaalde functie niet werkt :)

B] De 3D mannen hier wel een tijdje met een Quadro gewerkt.. het verschil viel tegen geloof ik... Aangezien al het werk direct geexporteerd en getest wordt op onze eigen engine zijn we inderdaad op standaard GeForces overgestapt.

Je 3de bewering snap ik niet helemaal...

4e: Artists hebben veel geheugen en een snelle 3d/2d kaart nodig om te kunnen produceren...
(Photoshop, 3D Max, Maya enz.)

Programmeurs hebben veel geheugen nodig en een snelle 3d/2d kaart om te kunnen produceren...
(Compileren, Debuggen, en nieuwe 3d "hacks/effecten/truuks" testen zonder in de eerste 3 seconden door een memory leak op je bek te gaan die een andere programmeur veroorzaakt heeft...)

Niet veel verschil tussen die 2 systemen dus... :)
Toch vind ik het vreemd dat deze kaart ineens professioneel is, terwijl hij bijna hetzelfde is als de (relatief) low-end GF3. Ik geloof ook niet dat hij kan concurreren met kaarten van bedrijven als Sun en SGI.
Maarja, de prestaties van de GF3 zijn natuurlijk niet slecht en met de extra drivers en garantie is dit natuurlijk wel mooi voor de doelgroep.
Een leuk voorbeeldje wat deze kaart makkelijk zou moeten kunnen:
http://www.amazonsoul.com/gallery1.html

Mooi staaltje Maya werk :))
de 2D zal natuurlijk better zijn dan de G3, zou die ook better te OC zijn?
OC'en is voor dit soort kaarten niet zo van belang omdat:

1. ze al zo snel zijn
2. gebruikers geen games spelen hierop en dus een mega fps hoeven
3. omdat die gebruikers waarschijnlijk ook geen tweakers zijn
De 2D-kwaliteit van een Quadro is nagenoeg gelijk aan die van een GeForce 3. Helaas zie je dit niet terug in de videokaarten. Videokaartfabrikanten bezuinigen helaas teveel op de onderdelen, waardoor de beeldkwaliteit idd omlaag gaat. Bij de Quadro-kaarten wordt wel gebruik gemaakt van hoogwaardige componenten.
nVidia maakt helaas zelf geen videokaarten, waardoor zij niet altijd even goed de kwaliteit kunnen waarborgen. Iets wat Matrox bijvoorbeeld wel kan, en dat zie je idd terug in de beeldkwaliteit!

edit:

Mag ik mij afvragen waarom dit als flame betiteld wordt??
-1 overgewaardeerd OK prima....maar een flame is dit zeker niet, en al helemaal geen flame richting nVidia. Ik ben super tevreden over hun chippies na mijn TNT1, GF 256, GF2mx en nu GF2mx400. Beeldkwaliteit vind ik zelf prima, maar er zijn veel reacties die het tegendeel beweren....
hmm... ik persoonlijk vind op de 2d kwaliteit van de GF3 helemaal niets aan-te-merken
op wat voor resolutie draai jij dan? je merkt het pas bij hoge resoluties...
misschien is de DCC core meer zuiver dan de normale G3. dan is de core better te oc.

edit: trol, hoezo trol. dat kan toch, misschien is het wel een A6 steppin ofzo,
die software mod voor de geforce werkt overigens niet kon mijn pc niet eens opstarten met die drivers....!!! en heb toch een originele asus v6600
:z iedereen maar zagen over dit kaartje... kom, als dit kaartje voorzien is van de InfiniteX engine, lot's of MB, uitstekend kwaliteiten heeft voor de toekomstige games, en 3D progz...
Gimme this beauty baby... kom, (vr de oc'ers > ) OC'en hoeft toch niet altyd.. mijn games draaien deftig op mijn Gladiac GTS2 + 1Gb Tbird + 256mb... yadayada :)
Hmm, ik heb de Geforce 2 geconverteerd naar een Quadro 2. Zonder te solderen.

Je kunt SoftQuadro hier downen:
http://www.m3dzone.com/files/Videocards/NVIDIA/Drive rs/Tools/Softquadro.zip

Het past je drivers aan, meer niet...je kunt er dus ook weer gewoon een Geforce 2 van maken. Werkt perfect, en het werkt ook bij een Geforce 3.

Is die 2000 piek wel waard denk ik...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True