Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 50 reacties
Bron: The Inquirer

nVidia Quadro logonVidia zou belangrijke klanten die om professionele Quadro-kaarten met 1GB aan videogeheugen hebben gevraagd, te kennen hebben gegeven dat ze geduld moet hebben tot april dit jaar. The Inquirer meent te weten dat er aardig wat aanvragen voor dergelijke kaarten waren gedaan bij de grafische-kaartenbakker. De Quadro's zijn de professionele (en veelal duurdere) broertjes van de bekende GeForce-kaarten en beschikken doorgaans over extra features en (driver)support voor professioneel 2d- en/of 3d-gebruik (OpenGL). De combinatie van 1GB geheugen met de huidige 110nm G70-chip op een pcb zou een te hoog voltage vereisen. Inmiddels is het definitieve ontwerp van de op 90nm te bakken G71-chip goedgekeurd en kan deze binnen drie maanden van de productielijnen rollen. De G71 zou minder vermogen nodig hebben en daardoor het uitvoeren van een Quadro-ontwerp met 1GB aan geheugenchips makkelijker maken. De eerste (GeForce-)samples op basis van de G71-gpu worden verwacht op de van 7 tot en met 9 maart te houden CeBIT-beurs. De Quadro-versies met 1GB, die volgens The Inquirer een prijs van tegen de achtduizend dollar zullen hebben, zouden de maand daarop gereed moeten kunnen zijn.

Moderatie-faq Wijzig weergave

Reacties (50)

Mja, de quadro is van wat ik kan herinneren een doodnormale geforce, alleen met meer dvi connectors :)

zoals met de GF4 en 5 en nog verder.
Hier kon je de quadro op je geforce flashen waardoor hij vele betere AA deed met minder snelheidsverlies, terwijl de echte game taken een beetje minder werden.

Dus je kan hoogstwaarschijnlijk een 500 euro G71 kopen, en hierop de quadro versie flashen, waardoor je dus even 7500 euro bespaard.

Maar dan heb je wel maar 512 MB ipv 1 GB..

Ik zou tegen die tijd 4 500 euro kaarten kopen en die Sli-en.

edit: @ momax:

hier een linkje voor jou http://nvworld.ru/docs/sq4e.html
dit is dus met de GF4 / Quadro

hier zie je een benchmark: het is gewoon 99,98% dezelfde hardware, alleen verkocht als ander, duurder product, met betere drivers en gespecialiseerde firmware:

http://nvworld.ru/pics/sq4/image013.gif

het gaat dus om like i said precies hetzelfde ding, alleen dan met andere firmware: tot wel 600% snelheidswinst.

Nu geld dit dus ook voor latere quadro versies...

dus, ik ben degene die +3 moet hebben, niet jij :P
nee man, ik gun het je O+

hier nog duidelijker:
"The monstrous performance difference between GeForce4 and SoftQuadro4, getting to 1771% (!!!) on Pentium 4 system, is explained by the using of user clipping planes, blocked on gaming cards, in those subtests."

edit3: http://www.pcwelt.de/know-how/hardware/108514/index1.html
dit is een 6800 to quadro 4000 mod: het 'bewijs' dat het met de laatste GF series het hetzelfde is.
@ELiA.net
Kan met rivatuner gewoon door een vinkje te zetten. :Y)
Dan heb je ook een Quadro's.

edit/
Heb je ff geprobeerd en nu heb ik een Quadro FX4000 :+(was een 6800le)
Hieronder een linkje met een toelichting van Leadtek wat de verschillen zijn tussen een Quadro en een Geforce:
-Anti-aliased points and lines for wire frame display
-OpenGL logic operations
-Up to eight clip regions (GeForce supports one)
-Hardware accelerated clip planes
-Optimization on Memory usage for multiple graphics windows
-Support for two-sided lighting
-Hardware overlay planes
-Support for quad-buffered stereo for shutter glasses
-Unified driver Architecture
-Application Optimization
Wl wat meer dan alleen die extra DVI-poort, ELiA.net!

Why should you choose a Quadro instead of a GeForce card?

edit2 @ ELiA.net!: je moet een GeForce-kaart flashen en bovendien twe SMD-weerstanden verplaatsen (wel eens gedaan?). Je moet wel heel graag een Quadro willen n geen geld hebben, voordat je daar aan begint. Zij die geen geld hebben voor zo'n 3D-kaart, hebben ook geen geld voor de software waarvoor deze bedoelt is. Verklaart een beetje waarom je eerste link (mij bekend trouwens) uit Rusland afkomstig is. Feli trouwens met je 4 punten!
Het meerendeel van die features wordt toch echt door de driver bewerkstelligt. Een driver die niet wil installeren op een normale geforce (duh), tenzij je 'm voor de gek houdt door bijv. een weerstandje om te solderen op de PCB.

Natuurlijk zit de kaart wel iets anders in elkaar, zo heeft hij veel meer geheugen en zullen de verschillende pipelines anders gebudgeteerd zijn. Waar games nu voornamelijk vragen om pixel pipelines zal de nadruk op zo'n quadro vooral liggen op de vertex pipelines.

Maar die features die jij noemt zijn voornamelijk software gerelateerd, en dat is tevens vaak ook waar je voor betaalt (naast customer support), want alleen dat extra geheugen en betere monitor-aansturing zorgt er niet voor dat ie zo ongelooflijk veel duurder is dan een geforce.
en dan meteen maar een extra airconditioning kopen om de temperatuur in je kamer behaaglijk te houden :D
Voor 4500 euro heb jij een hele airco-controlled kamer!
Het meeste van die site is in het Russisch dat is irritant :(.
het zou leuk zijn als ze erbij vertelde wat een quadro kaart is... |:(
Gewoon, een professionele videokaart voor bijvoorbeeld CAD of 3D spul.
Dus niet om te gamen? Jmmr :+
mss een domme reactie van mij hoor.

Maar ik werk dagelijks met autocad en beheer daarbij ook gelijk alle pc's binnen ons bedrijf.
Tot op de dag van vandaag is er nog geen elk voordeel die een quadro kaart kan bieden t.o.v. een vergelijkbaar gforce model (zelfde serie dus)

We hebben meerdere stations die qua hardware zelfde zijn en alleen in de kaart verschillen tussen quadro en geforce en dat maakt voor een programma als autocad totaal niet uit.
Voor programma's die zwaar leunen op OpenGL maakt het wel degelijk verschil.

Dit verschil zit hem dan ook vooral in het weergeven van de preview zoals 3d studio max dat doet.
Als je een complex model hebt en je laat die zelfde preview draaien met een geforce kaart dan wacht je je een ongeluk, terwijl dit met een quadro meestal realtime word weergegeven.

Dus met je reactie over autocad ben ik het niet eens.
Je kan er zeker wel op gamen, maar hij is hier niet voor bedoeld, ik weet niet hoe deze kaart zou presteren maar in prijs/fps verhouding zal veel lager liggen dan bij game-videokaarten.
Voor games zal deze kaart teleurstellende
prestaties vertonen idd.

Net zoals de tranen me in de ogen zouden schieten
als ik AutoCAD of Solidworks of X-Steel zou ga draaien op
een 7800 GTX

Want die zijn dan ook niet vooruit te branden.

Deze programma's draaien op OpenGL en
spuwen een stuk meer polygoontjes uit dan een gemiddelde
game!. 8-)
En dan met name het renderen van 3D beelden. Architecten, industrieel productontwerpers en andere CAD-gebruikers vinden het fijn als hun project niet na uren eindelijk gerenderd is. Daarnaast geloof ik dat de animatie- en tekenfilmbranche dit soort kaarten ook graag gebruikt.
Nee hoor, het daadwerkelijk renderen wordt gewoon in software gedaan, en grote professionele bedrijven gebruiken daar een renderfarm voor (dus distributed). Deze kaarten zijn louter bedoeld voor het renderen van de viewports terwijl je aan het werk bent, dat moet snel gebeuren zodat het vloeiend beweegt en je nauwkeurig kunt werken.
Een professionele videokaart (volgens mij) meer gericht op beeldkwaliteit in 2d dan op snelheid in 3d, maar correct me if I'm wrong

edit:
Gamen op een kaart van tegen de 8000 euro?? Ik zou me workstation nog niet eens aan durven zetten :+
Klopt, is meer voor kwaliteit dan voor snelheid.
Nee dit gaat niet zo zeer over beeldkwaliteit.
Hier is prestatie ook belangrijk.
Alleen is dit niet gericht op DirectX en game's

Het is nl. niet de bedoeling dat je werknemer achter de PC
zit duimen te draaien totdat dat ding klaar is met zijn
berekening.

[ALGEMEEN]:
Even een voorbeeld om te laten zien dat de kaart zijn geld waard zou zijn.:
Als een werknemer 50 eurie per uur kost, en deze moet ieder uur, 5min. op een bewerking w8ten.

5/60 * 50 = 4,17 eurie. (afgerond)
8 uur per dag dus dat is 4,17*8 = 33,36
5 dagen per week word 5*33,36 = 166,80
13 maal 4 weken per jaar --> 13*4*166,80 = ca. 8670 eurie.

En die achtduizend dollar aanschaf prijs lijk me een beetje overdreven.
De (duurste) FX4400 is zo rond de 2500,--
Dus als de G71 zo rond de 5000,-- zou liggen lijkt me waarschijnlijker. (dit alles in euries.)
Als het de ingame qualiteit dan ook omhoog schoeft zou het toch weer interresant worden. :)
zoals ik het lees zal het ongv. in dezelfde categorie thuishoren als Wildcat kaarten... :)
"zal"?

quadro kaarten bestaan al jaren hoor!
ik ben verbaasd dat zoveel tweakers ze niet kennen.
Beetje buiten de prijsklasse van de gemiddelde tweaker neem ik aan.
Een kaart bedoeld voor CAD/CAM/DCC/visualisatie werk.

Er is overigens prima op te gamen, maar de nadruk licht op precizie icm snelheid in CAD/CAM applicaties, plus profi features als Gen/Frame lock etc.

Dus niet alleen de nadruk op kwaliteit, een quadro met de maxtreme drivers trekt elke geforce er uit in 3dsMax.

En aan 1Gb op je game kaart heb je nu toch nog niks aan, itt tot profi situaties.
.... professionele Quadro-kaarten ....
wat versta je niet aan deze woorden?
Heeft zo'n Quadro ook SLI ondersteuning? :9~

;)
Dat kost je enkel al 16k aan videokaarten... tel daar nog 2x Opterons 1433 per stuk. Dan nog 4GB geheugen levert je enkel al bijna een 20.000 euro lagere bankrekening op... ben je toch echt goed gek als je zoiets koopt? :P
Of je hebt een duister zwart gat in de markt gevonden waardoor jij het ineens niet zo gek vind om zulke aankopen te doen.

Warp 6 into blackhole "big money"
Het is daar niet zo duister hoor. 30" Apple cinema displays verlichten de withete itanium supercomputers die daar hun renderwerk met z'n honderden tegelijk voltooien.
De lonen van de mensen die daar mee werken zijn vaak factoren meer dan wat zo'n kaart kost dus voor een bedrijf is het peanuts.
Huh, waarom zou je gek zijn als je zoiets koopt?. Als jij aan een miljoenen productie werkt en een filmkritieke animatie scene inelkaar zet is zo'n setup nodig.
Het is niet voor jou bedoeld, maar voor professionele grafici. En ja die hebben dat er voor over.
Nee toch niet hoor.
Deze ultra-high end kaarten komen enkel in een beperkt aantal workstation van auto, vliegtuig,.... bouwers terecht.
De grote meerderheid van grafici gebruik mainstream of high-end kaarten als de FX3450 etc.
Veel architecten en bouwkundigen gebruiken zelfs gewone consumentenkaarten.
Ikzelf heb een FX3400 en dat beestje levert meer dan voldoende OpenGL vermogen voor prefab constructies aka Freedom Tower.
Vergeet niet dat in de meeste gevallen autocad gebasseerde oplossingen gebruikt worden in de bouw en industrie en niet Catia, UGS, Pro-E,.... Dat is slechts een selecte markt.
Op een bord van Gigabyte met 4x PCIe16x sloten :P, lekker 4gb aan grafisch geweld }>.
De combinatie van 1GB geheugen met de huidige 110nm G70-chip op een pcb zou een te hoog voltage vereisen.
Te hoog voltage ? Het gaat teveel vermogen vragen veronderstel ik ?

Wanneer gaat men het verschil tussen stroom en spanning eens leren ? :?
Uhm, in dit geval heeft het met elkaar te maken, want: P=U*I leert ons de middelbare school natuurkunde. In dit geval (een voeding van vid kaart) kan niet zomaar stroomsterkte verhogen aangezien er een vastgestelde sterkte is, dus als er meer vermogen nodig is, moet de spanning omhoog. Dus klopt het bericht, jij zit juist mis, omdat stroom = stroomsterkte = I en die blijft constant.
fout. De spanning (U, in V) is de vastgestelde waarde. Je voeding levert ook vaste voltages aan je moederbord, dus die veranderen niet als je ineens een andere videokaart gebruikt. Het is de stroomsterkte (I, in A) die het vermogen (P, in W) verandert,
8000 euro per kaart waar bakken ze die dingen in? croma goud ofzo
Ik denk eerder in Artic Silver }>
Op mijn werk hebben we momenteel een opstelling van 5 beamers die 3D (echt 3D met een brilletje) modellen laten draaien op een gigantisch scherm. Onze Wilcat Realizm 200 kan dat net niet aan. 8000 Euro is echt peanuts in vergelijking met zo'n opstelling. Daarvoor zijn dat soort kaarten bedoeld. Niet voor quake op een 24' monitor bij een tweakert thuis. Maarreh op 5 bij 3 na kantoortijd.....
[offtopic]
hm klink cool :-)
maar hoe werkt dat dan, die 3d? gepolariseerd licht van de beamers ofzo? En waarom heb je dan 5 beamers nodig?

[ontopic]
tja tis natuurlijk zo duur omdat er bijna geen afname is. Gevallen waarbij je echt zo'n ding nodig hebt komen niet veel voor.
Misschien tijd voor een Wildcat Realizm 800 dan ;).
8000 euro voor een kaart die minder dan 1/1000ste daarvan kost om te produceren |:(
|:(

Zo een kaart kost wel wat meer hoor. Het zou mij niks verbazen als puur het produceren al meer dan 800 euro kost (wafers maken op kleine schaal -> duur, verder 1gig snel geheugen -> duur, etc). Maargoed, productie... Misschien wil nVidia het geld wat ze in de ontwikkeling hebben gestoken ook terugverdienen?

Tuurlijk is het prijzig, maar voor mensen die niet nadenken ook volledig overbodig :)
Het geld van die kaart zit em dan ook niet in de produktie maar wel in de specifieke applicatieondersteuning, de speciale drivers en de customer support. Een beetje informeren mag wel voor je wat blaat.
Je moet bijvoorbeeld de ontwikkelingskosten van de drivers ook niet vergeten h.
Er worden slecht een beperkte hoeveelheid van deze kaarten gebouwd.
Voor iedere professionele 3D aplicatie worden de drivers gecertificeerd.
Kost bakken geld voor een select publiek.
Om te verduidelijken waarom de kaarten zo duur zijn:
The main reason these cards is more expensive is that once they release it, they will not change a single item in the BOM (Bill of Materials). The reason is certification, these cards are optimised for accuracy, and professional applications will certify that they work correctly and to the required level of accuracy against a card and maybe one or two different driver versions.

The upshoot of this is that an Integrator can sell a certified solution for 2 years for a particular application, they will not need to retest/recertify every 6 months as the card they use becomes obsolete. These professional cards tend to have much longer life-spans than their gaming variants, and will still be availiable 2 years after release - unchanged.
Ik denk dat Wildcat wel een concurerende kaart op de markt kan zetten als zij ook door kunnen gaan tot de 8000 dollar.

Wildcat Realizm 800 is op dit moment zo rond de 2500 euro met 640mb GDDR3 :).
Mensen die eens zouden willen proberen wat dat is een Quadro kunnen ook eens kijken op het forum van guru3d. Want er zijn manieren / softmods om bijvoorbeeld je 7800 als Quadro te laten herkennen, en dus de Quadro-drivers te laten gebruiken.
Ben al de drivers aal het neer halen. :P

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True