Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 39 reacties
Bron: DigiTimes

De DigiTimes schrijft dat nVidia twee nieuwe videochips voor de workstationmarkt heeft geÔntroduceerd, de Quadro FX 1000 en 2000. Beide chips zijn gebaseerd op het GeForce FX ontwerp. Evenals de GeForce FX maakt de Quadro FX gebruik van DDR-II geheugen en zijn er features aanwezig zoals 12-bit sub-pixel nauwkeurigheid, 128-bit floating point nauwkeurigheid en 16x anti-aliasing. Fysiek zijn er ook verschillen tussen de Quadro FX en GeForce FX core. De eerstgenoemde heeft ruimte voor 2048 shader instructies, tweemaal zoveel als de GeForce FX. Om ervoor te zorgen dat de kaarten genoeg stroom krijgen is er een 4-pins molex aansluiting aanwezig.

Volgens cijfers van nVidia zal de Quadro FX 1000 ongeveer anderhalf maal zo snel zijn als hun huidige topmodel, de Quadro4 980 XGL. De Quadro FX 2000 zal twee maal zo snel zijn als de Quadro4 980 XGL. Beide kaarten zijn momenteel in volumeproductie en zullen begin februari op de markt komen:

Like all Quadro products, the new Quadro FX chips feature certification support for CAD, DCC and visualization applications, Nvidia said. In addition, the Quadro FX products adopt the Nvidia Unified Driver Architecture (UDA), nView multi-display and OpenGL standards.

The new Quadro FX 1000 and 2000 are currently in volume production and will be available worldwide from OEMs and channel distributors in February, according to Nvidia.
GeForce FX perspic
Moderatie-faq Wijzig weergave

Reacties (39)

Zoals ATI, probeert NVidia nu ook op alle markt segmenten te concurreren met hun topmodellen.

Ik hoop dat wij hier snel baat bij krijgen door eventuele prijsverlagingen.
Zoals ATI, probeert NVidia nu ook op alle markt segmenten te concurreren met hun topmodellen.

Ik hoop dat wij hier snel baat bij krijgen door eventuele prijsverlagingen.
Prijsverlagingen krijg je alleen als je de productie goedkoper maakt of de generatiecyclus verlengt.

Als je de productiekosten laag kan houden en je de overige kosten die nodig zijn om het product klaar te maken voor de verkoop ook kan verkleinen, dan kan de uiteindelijke prijs die de consument betaald ook flink omlaag.

Het vervelende is echter dat de productiecyclus van Ati nogal kort is vergeleken de productiecyclus van nVidia. Vroeger was het net het omgekeerde en was nVidia heer en meester in het uitbrengen nieuwe modellen. Nu is dat echter allemaal anders en zorgt Ati voor regelmatige nieuwe producten.

Kijk maar naar de R350 en de R400. De tussen releasedata van de NV30, de NV35 en NV40 zit meer tijd dan tussen de modellen van Ati. Kortom, de productiecyclus van Ati is sneller dan die van nVidia.

Die productiecyclus van Ati is juist een van de redenen dan de prijs niet omlaag zal gaan. Hoe langer je een product blijft produceren, des de beter worden de yields en wellicht kan je de techniek die je gebruikt om het product te maken verbeteren.

Het tegengestelde is echter ook waar. Vaker een nieuw product betekend simpelweg dat je de productie niet zo snel zal vergemakkelijken. Kortom, een hogere prijs.
"Prijsverlagingen krijg je alleen als je de productie goedkoper maakt of de generatiecyclus verlengt."

Sorry, maar dit klopt gewoon niet. Het simpele feit dat er concurrentie is leidt al tot lagere prijzen. Het gaat hier niet over de kostprijs, maar gewoon om een keuze die het bedrijf maakt om meer te verkopen tegen lagere marges.
Fysiek zijn er ook verschillen tussen de Quadro FX en GeForce FX core.
Zou dit betekenen dat een FX niet om te modden is naar een quadro? Als er echte fysieke core verschillen zijn kan dat haast niet anders. Ben benieuwd.

EDIT
copy/pasten is heus wel moeilijk! ;)
Het klopt dat de eerste Quadro's niets meer waren dan normale Geforce kaarten met een andere BIOS, maar dat is allang niet meer zo.

De vorige Quadro serie (Quadro4) was ook al niet meer om te bouwen en het lijkt me sterk als dat met deze nieuwe Quadro FX wel kan.

Want in de tekst staat ook nog deze regel: De eerstgenoemde heeft ruimte voor 2048 shader instructies, tweemaal zoveel als de GeForce FX. en dat geeft dus ook al aan wat er precies verschillend is.

Het kan natuurlijk zijn dat de Geforce FX die 2048 shader instructies wel heeft maar dat de helft daarvan is uitgeschakelt, maar dan nog, als het PCB echt compleet verschillend is moet je wel erg veel werk verichten om erachter te komen of het uberhaupt wel kan.

Het is dus geen kwestie meer van ff een andere BIOS meer zoals bij de eerste Quadro's dat was.

Ik denk niet dat het mogelijk is, maar ja, dat zal de tijd leren.
Je kan een Geforce4 wel degelijk ombouwen naar een softQuadro4. Hier is de link:
http://nvworld.ru/docs/sq4e.html

De prestaties lopen niet helemaal gelijk met een echte Quadro4, in sommige situaties presteert ie iets minder en wat grappig is, in andere situaties presteert net iets beter.

Ik heb plannen om mijn Geforce4 nog ooit om te zetten, maar de procedure is nogal complex en lang voor mij, dus doe ik het pas wanneer mijn 3d omgeving tť complex worden voor mijn huidig kaartje.
Bij de R9500 en R9700 zijn er ook verschillen, maar hij kan toch gemod worden misscien dat je de verschillen kan unlocken of zo
bij de radeons was het een questie van het activeren van uitgeschakelde memory pipelines...
het lijkt me sterk dat ze, in deze hevige streid met ATI, 1024 shaders gaan uitschakelen, alleen om een Quadro te kunnen maken
Of het is een marketing stunt. Op het eerste zicht lijkt de GF FX iets sneller dan de R9700Pro. Als Ati met de R350 of R450 chip komt kan nvidia die overige 1024 shaders gaan inschakelen en zo weer meedraaien zonder nieuwe core.

Dit is een veronderstelling hť. Ik ben er helemaal niet zeker van.
Als ze 2 fysiek verschillende cores hebben ontwikkeld, hoeveel geld heeft dat dan wel niet gekost? Een GPU core, en zeker een zoals de Geforce FX, is hardstikke duur. Het is dan toch goedkoper om een aparte instructieset + PCB om de core heen te ontwikkelen, ipv 2 cores? Of heeft nVidia geld teveel :)
Misschien is het toch wel zo dat de intructies in de GF FX uitgeschakeld zijn, het lijkt mij ook erg onlogisch om een hele aparte core te bakken, daar wordt de Quadro duur van. Duurder dan als ze extra instructies in de gewone core zetten.

Het is in iedergeval wel goed dat het niet modbaar is, zo hebben ze tenminste een echte aparte kaart. Ik vind het altijd belachelijk dat je 2x zoveel geld vraagt voor iets wat eigenlijk bijna exact gelijk is aan iets dat 2x goedkoper is.
Of het is net zoals de Ati Radeon 9500 -> 9500Pro/9700 mod, dat het slechts een kwestie is van een dingetje erop solderen of als je een weekje wacht is er een stukje software voor :+
Er staat dat de nieuwe "ruimte heeft voor 2048 shader instructies, tweemaal zoveel als de GeForce FX", en volgens mij mod je dat niet met een potlood streepje of een extra brug.
Om ervoor te zorgen dat de kaarten genoeg stroom krijgen is er een 4-pins molex aansluiting aanwezig.

Lol, moet ik nog meer molex connectors gaan maken :) (Mijn baybus heeft mijn laatste molexjes verbruikt dus...) Waarom hebben die voedingen gewoon niet standaard een hele sh*tzooi aan connectors ?? Heb je tenminste nooit een tekort...
Tsja, waarom hebben niet alle voedingen 1000 watt, heb je tenminste nooit tekort?

Het is duurder om meer stekkers aan zo'n ding te maken, en meestal is het niet nodig. Voor een standaard PC heeft een standaard voeding genoeg aansluitingen.

Daarnaast kan het ook vervelend zijn als je een mooie kleine kast hebt, en het puilt binnen uit van de overbodige stukken draad. Slecht voor de airflow en vervelend monteren.
Tsja, waarom hebben niet alle voedingen 1000 watt, heb je tenminste nooit tekort?
Er zitten op dit moment een heleboel nadelen aan voedingen die meer dan 550 Watt leveren. Een voeding van 1000 Watt is ten eerste heel duur. Dat lijkt me een van de belangrijkste punten. Ten tweede, het gaat niet zo zeer om de kwantiteit (hoeveel Watt de voeding kan leveren), maar meer om de kwaliteit (hoe stabiel de voeding is).

Een goede voeding moet onder zware load een stabiel voltage kunnen leveren. Met voedingen die 550 Watt aan zouden moeten kunnen is het heel moeilijk om een stabiel voltage te leveren. Met een 350 Watt voeding is dit veel gemakkelijker. Onder een zware CPU load zal bijvoorbeeld de 12V lijn erg zwaar belast worden. Het is juist dan belangrijk dat de voeding een stabiel voltage levert zodat de CPU niet kapot gaat door een te hoog voltage.


Ik las op de website van nvidia dat de Quadro FX een relolutie van 3840x2400 aankan! with support for resolutions up to 3840x2400 QUXGA. Dat lijkt mij wel een interessant gegeven :)
Ik las op de website van nvidia dat de Quadro FX een relolutie van 3840x2400 aankan! with support for resolutions up to 3840x2400 QUXGA. Dat lijkt mij wel een interessant gegeven
Beetje jammer dat mijn oude philips monitor een max. resolutie van 800x600 aankan |:(
Beetje jammer dat mijn oude philips monitor een max. resolutie van 800x600 aankan |:(
Het gaat hier om een videokaart die is ontworpen voor een speciaal doeleind. Namelijk voor professioneel gebruik. De Quadro FX is daarmee een duurdere kaart dan de gewone GeForceFX zal zijn, net zoals dat vroeger het geval was.

De consument die deze videokaart koopt zal hoogstwaarschijnlijk geen monitor hebben die een maximale resolutie heeft van 800x600. Zoals je zelfs al zei, je moet wel een hele oude monitor hebben als deze niet hoger dan 800x600 aankan.

Deze videokaart zal een stevig prijskaartje krijgen. Hij zal duurder zijn dan de GeForce FX en wellicht in dezelfde prijsklasse zitten als de FireGL van Ati. Het lijkt mij duidelijk dat je zo'n videokaart alleen aanschaft als je overige apparatuur in ieder geval tot op een bepaalde hoogte de capaciteiten van deze videokaart kan benutten.
Ik snap de nadelen: Mijn eerste zin was cynisch gereageerd op:
Waarom hebben die voedingen gewoon niet standaard een hele sh*tzooi aan connectors ?? Heb je tenminste nooit een tekort...
Misschien ook een nieuwe voeding? Ik weet niet hoeveel Watt je mag trekken uit je agp slot, maar dat zal ook niet zo weinig zijn. En maar klagen dat de eneco te duur is :P
40W is het maximale dat een AGP 3.0 slot kan leveren, het is dus duidelijk dat deze chip aardig wat vermogen zal slurpen.
40W is het maximale dat een AGP 3.0 slot kan leveren, het is dus duidelijk dat deze chip aardig wat vermogen zal slurpen.
Dat er een 4-pins molex op de kaart aanwezig is hoeft nog niet te betekenen dat de kaart veel energie slurpt. Ik zeg niet dat het niet zo is, maar je kan hieruit niet concluderen dat deze videokaart meer dan 40Watt aan energie nodig heeft om goed te functioneren.

Het kan bijvooebeeld zijn dat de 4-pins molex aanwezig is om voor een stabielere energietoevoer te zorgen. Terwijl in de stroomtoevoer van het AGP slot nogal wat fluctuateerd kan het handig zijn om een soort buffertoevoer tot beschikking te hebben om eventuele tekorten op te vullen. Hierdoor is er minder kans dat er bijvoorbeeld schade ontstaat of dat de kaart te weinig stroom krijgt.

Een andere mogelijkheid is dat de kaart in sommige situaties meer stroom nodig heeft dan het AGP slot kan leveren. Met bijvoorbeeld autoradios is het vaak zo dat de maximaal 30 Watt per speaker kunnen leveren en een maximale burst van 50 Watt. Dat kan ook hier het geval zijn. Als er bijvoorbeeld een bijzonder zware handeling moet worden verricht kan het zijn dat de kaart net even wat meer energie nodig heeft.
of monteer een zonnepaneel of windmolen op je pc...
ben je daar ook van verlost! :+ :+
Je kan een molex verdeelstekker kopen, heb je nergens last van behalve een overbelaste voeding misschien :)

Zo'n verdeelstekker maakt van 1 molex twee molex aansluitingen en met die dingen kan je dus zoveel molex stekkers "maken" als je wilt.

Alleen moet je dan uitkijken dat je je voeding niet overbelast, want er zitten niet voor niets een bepaald aantal aan een voeding. Zo hebben voedingen met bijvoorbeeld 430W meer molex stekkers dan een 300W model.
omdat niet iedereen blij is met een sh*tload aan connectortjes. daar zijn splitters voor uitgevonden
En nog steeds zo'n belachelijk grote koelers en fans zeker, net als bij de Geforce FX

Kom nu, dit moet echt anders kunnen!
uh-huh uh-huh....

100 miljoen+ transistors, 0.13 micron procede....

extra powerplug voor stroom...

ding vreet onderhand even veel stroom als je P4 of XP, en dan wil je dat er minder koeling op komt?

nja, kan natuurlijk. Passief koelen... en dan om de dag een nieuwe kaart halen omdat de oude is opgebrand :Y) |:(
Wat dacht je van een stille koeler ipv de herrie die alle FX varianten blijkbaar gaan produceren?

Als ATI dat kan, dan zou Nvidia het toch ook moeten kunnen?
gamedesigners zitten helemaal te kwijlen om de FX features, Je kan er zo veel real time mee visualiseren.
Met software lijkt me dat juist niet mogelijk omdat die core juist anders is.

Solderen...misschien. Hij komt daar echter niet op het niveau van een "echte" quadro. Hij mist toch wat(extra shader instructies).

EDIT
Is dus een reactie op Silvermaster
je kunt nog altijd van die setjes kopen bij conrad met verloopjes en dergelijke
moet je wel een zware voeding hebben me al die leuke dingetjes er op anders krijgt die het weer warm :+
Lekker hoor, een nieuwspost over de Quadro FX en dan een plaatje waar in koeien van letters "Geforce FX" op staat :*)
Ik vraag me af of deze kaarten dan ook even veel directx 9 compliant zijn, of zijn geoptimaliseerd op OpenGL, in ieder geval lijkt het me wel intressant aangezien ik veel in 3D doe om zo'n ding te hebben en er dan nog gewoon mee kunnen gamen (zeker als hij al aantoont dat hij 1,5 tot 2x zo snel is) maar hier kun je ook weer vraagtekens bij zetten.. 1,5x zo snel met je temperatuur in je kast op kookpunt te zetten, of 1,5 keer zo snel in OpenGl, of in DirectX of in het algemeen? Beetje vage nieuwspost, imho
is dat neuiet een wat kleine koeler vergeleken met een geforce fx
zeker niet.
De geforce FX koeler maakt gebruik van heatpipes, waarmee de hitte van de core en het geheugen wordt getransporteerd naar de daadwerkelijke heatsink waar hij wordt gekoeld.
Door de structuur wordt het een flink gevaarte, maar de daadwerkelijke heatsink is ongeveer net zo groot.
De Geforce FX heeft trouwens 2 heatsinks, eentje op de onderkant en eentje die via de heatpipes wordt "gevoed".
Hier kan je ze alletwee goed zien

http://www.nullnetwork.com/nv/FX/images/front_over.jpg

Bovenop dus die voor het geheugen op de achterkant. En aan de achterkant van de kaart onder de d-sub 15 stekker zie je de heatsink voor de gpu en de rest van het geheugen.
Hier nog een piccie waar je de gpu heatsink wat beter ziet.

http://www.nvchips-fr.com/images/news/nvidia/geforcefx_fxflow_s.jpg

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True