Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 36 reacties
Bron: Dark Crow, submitter: silentsnow

Op de Koreaanse website Dark Crow zijn verschillende foto's en specificaties van nVidia's Quadro FX 4000-videokaart verschenen. Deze kaart die gericht is op de professionele gebruiker maakt gebruik van een 128-bit-pipeline en beschikt over 256MB GDDR3-geheugen. De beelden kunnen met DirectX 9 of OpenGL 2.0 opgebouwd worden en met behulp van twee DVI-connectoren naar de monitoren gestuurd worden. In de doos vindt men twee DVI-naar-VGA-convertors voor wie niet over een monitor met digitale ingang beschikt. De kaart is geschikt voor een AGP 8x-slot op een ATX-moederbord.

nVidia Quadro FX 4000 (klein)
nVidia Quadro FX 4000 (klein)nVidio Quadro FX 4000 (klein)
Moderatie-faq Wijzig weergave

Reacties (36)

Het aparte is dat deze kaart volgende de nieuwspost OpenGL 2.0 zou ondersteunen. De Geforce 6800 ondersteund namelijk maar OpenGL 1.5. Zie ook: http://www.nvidia.com/page/pg_20040406350192.html .

Aangezien de gebruikte gpu's identiek zijn vraag ik me toch af hoe dit zo 1-2-3 mogelijk is :D.

edit:
Inderdaad DoO_Darkrush_NL.
Het lijkt me ook sterk dat OpenGL 2.0 ondersteund zou worden: de definitieve specificatie is er nog niet. De laatste officiele versie is 1.5.
alle kaarten since de nvidia 4 onderteund OpenGL 2.0.
alleen Nvidia vindt dat het niet nodig is om er reclame over te maken.

ati doet het al since de Radeon 9000 en die is op veel opzichten het zelfde als een Nvidia 4.
er staat op de doos OpenGL 2.0 compatible.
OpenGL 2.0 werkt op alle hardware zowel in hardware also software mode.
http://www.opengl.org/about/arb/notes/meeting_note_2004-03-02.html#ogl next
steeds maar nieuwe producten op de markt brengen, en de prijzen gaan niet of nauwlijks omlaag van de oudere producten..... |:(

wilde ook eerst een 5950 ULTRA kopen, maar voor die prijs heb je zelf ook een 6800 ULTRA |:(
Deze kaart is niet gebaseerd op de nv40 core.
Het is een getweakte nv35 core.
Vandaar dat er ook nog FX in de naam staat.

De Quadro series gebaseerd op de nv40 core moeten nog geintroduceerd worden.

Daarnaast is deze kaart maar 7% sneller in de benchmarks dan de Quadro FX3000.

Dus voor alle duidelijkheid, deze kaart is dus niet de grote broer van de 6800's, maar van de 5900's.
Ik dacht dat ze van de FX-benaming waren afgestapt? Vreemd dat ze het toch weer doen.....
In de workstationmarkt hebben ze geen "blunders" geslagen met hun FXserie: ze konden er nl. de concurrentie mee de baas en ze hebben met de naam "FX" dus een positieve reputatie in dit segment.
Daarom is het logisch dat ze deze behouden: Intel procs heten ook nog steeds pentium en Xeon...

Wat de verschillen tss deze kaarten en de GF 6800 betreft, zullen er wel degelijk verschillen zijn. Het is niet omdat er tss de GF4s en de Quadros gebaseerd op de GF4 bijna geen verschil zat, dat dit nu nog steeds zo is. Zo waren er, zoals Hiro Shima zegt, bij de FXen ook al verschillen aan de core.
Het gaat hier om een Quadro. Die hebben weinig met de Geforce te maken.
Hoezo weinig? Het is dezelfde kaart. Andere namestring, drivers en misschien een brugje op de chip hier en daar ff anders. Maar in principe is het gewoon een 6800 en dus was de vraag helemaal niet gek.
Kan je dat onderbouwen Fewture?
Want voor zo ver mij bekent is sinds de FX serie, de core van de Quadro en de GeForce kaarten behoorlijk verschillend, de Quadro core is ook best een stukje groter
Er waren wel bepaalde Geforce 4 Ti kaarten waar gewoon een jumper opzat waarmee je hem op de Quaddro-stand kon zetten.
Alleen bij de consumenten kaarten geld nu een andere naam, in deze serie blijven ze deze naamgevind gebruiken.
Ik ga er vanuit dat deze gebaseerd zijn op de nieuwe fx serie. En ik vind het dus raar dat hier de koeling nog eniszins beschijden is. Wel positief, maar dat kan dan toch ook op de andere kaarten. Of is deze gewoon wat lager geclockt en meer gespecialiseerd waardoor die lompe koeling niet nodig is.
Net zoals bij alle andere foto's van de Geforce 8600 lijkt de koeling vrij plaat maar is in RL even dik als de andere (1/2 PCI sloten).

Volgens mij is de Quadto namelijk niet langzamer dan zijn Game broertje :) Die zijn ook te (driver) modden naar een Quadro kaart.
Volgens mij is de Quadto namelijk niet langzamer dan zijn Game broertje Die zijn ook te (driver) modden naar een Quadro kaart.
Dus niet. Tot de Quadro 4 kon dat, hoewel een gemodde GeForce qua prestaties absoluut niet te vergelijken is met een echte Quadro. De Quadro FX en GeForce FX zijn qua architectuur zodanig verschillend dat het onmogelijk is om van een GeForce (FX) een Quadro FX te "maken"
Gebaseerd op de nieuwe FX serie? Er is geen nieuwe fx serie..?
Dat is zo'n enorme misvatting he die lompe koeling.

Veel zeggen dat ATI een veel betere koeling heeft omdat men maar 1 slot nodig heeft.

Dit is echter een misvatting. ATI KAN gewoonweg geen twee sloten gebruiken voor zijn koeling omdat ze dat image nou eenmaal hebben. Eigenlijk hebben ze wel een grotere koeling nodig want met de stock koeling word de 9800XT al loeiheet maar wanneer ze een grotere koeling erop zouden zetten zou de helft van de markt al kwaad zeggen oohw er zit een lompe koeling op :(.
Maar met die NIET lompe koeling kun je niet overclocken bijvoorbeeld dan moet je eerst een andere koeler kopen.
Terwijl je met die LOMPE stock koeler zonder problemen flink kan clocken.

Overigens is het nonsens om een kaart af te wijzen ivm dat hij 2 sloten in neemt omdat het dom zou zijn het pci slot naast je vid kaart te gebruiken aangezien je AGP slot en dat PCI slot een gedeeld IRQ hebben en je dan problemen zou krijgen.

****

Troll Flamebait, stakkers ik zeg iets wat niet ten goede kan komen van hun o zo geliefde ATI. Begin een ATI fanclub man en ga op straat folders uitdelen. I wank on my Radeon nou goed.

Het gaat hier gewoon puur om een technische en marketing technische questie. Nu vindt ik modereren op zo'n manier dan wel heel ongepast. Geef dan op z'n minst een reacte. Want dit is wel heel zielig.
Man, dat logo op die kaart ziet er zo gefotosoept uit... maar ik neem aan dat deze foto's echt zijn :)
Die indruk had ik nou ook, de lichtreflekties komen niet erg natuurlijk over, beetje mat...
Als je naar schaduwen kijkt dan klopt het ook al niet volgens mij, er lijkt van onderen licht te vallen op het stickertje, maar aan de onderkant heeft de kaart ook schaduw, net als die (sorry weet niet) staafjes op de kaart.
De Quadro is toch een professionele kaart?
Deze kaart die gericht is op de professionele gebruiker maakt gebruik
@ Thanatos:

Een professionele gebruiker kan het echt neit schelen hoe z'n pc er binnenin uitziet, als ie maar vlotjes werkt.

Je spreekt jezelf een beetje tegen door te zeggen dat een "professionele gebruiker" zich laat overhalen door wat "eye-candy" ;)
Misschien moeten ze de kaart dan ook professioneel laten ogen. Dus niet zo'n puberale koeler, niet twee molexen, niet zo'n voor-oorlogs oerformaat.
Dit is een klein trendy kaartje vergeleken bij onze IR-3 systemen van vijf jaar geleden;
Je kunt hem wel in je eentje optillen...
Als je een realistische vergelijking wil moet je de quadro naast een ati-firegl of 3dlabs wildcat zetten, allebei ook geen kleine kaartjes...
Als professioneel gebruiker zou ik denken; alleen de cijfers over de snelheid en kwaliteit gelden! De koeling, connectors, grootte etc.

Maargoed, ik ben dan ook geen professioneel gebruiker. Misschien dat de echte professioneel gebruiker eerder een klein trendy lijkend kaartje koopt waarvan bekend is dat de kwaliteit minder is.
Op die site zie ik toch geen foto's, en wat belangrijker is: jammer dat je hem toen je het zag niet even in de Submit gegooid hebt ;)
de koeling is dezelfde als de Asus GF6800
en ja het is een kaart voor professionele videobewerking etc.
videobewerking? Dan neem je beter een matroxje ofzo hoor.
Deze kaart mikt op high-end CAD en DCC. Gaat ook een dikke 3000 kosten denk ik.

@n4m3I355
De gewone FX3000 kost iets van een 18001900 euro. Ik had ze even verward met de FX3000G(mogelijkheid om meerder kaarten te verbinden) die een 2500 euro kost.
En dat valt in dezelfde prijsklasse als respectievelijk de 3Dlabs Wildcat 4 7110 7210.

Zeker en vast wel high-end. De Wildcat kaarten komen er beter uit wat betreft OpenGL. Maar ze kunnen haast niets met DX. En als je ziet dat een bedrijf als Autodesk/discreet naar DX trekt (er zitten in 3DS 6 effecten waar DX9 hardware voor wordt aanbevolen) kan je toch stellen dat je daar beter af bent met deze kaart dan met een Wildcat. De Wildcat VP is wat betreft DX sneller dan de Wildcat VP, maar het is geen echt goede all-rounder. Het voordeel van de Wildcat VP is het zeer grote geheugen (512mb). De Wildcat 4 7110 heeft met zijn 256mb ram daar geen echt voordeel. Maar wat bertreft OpenGL performance komt die er zeker boven uit.
eerder de low-end...
de vorige kostte +- 1500 euro dus deze zal niet meer kosten en komt ook niet in de buurt van T&I of 3DLabs.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True