Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 154 reacties
Bron: nVidia, submitter: Wouter Tinus

nVidia GeForce FX logo Op site van nVidia is zojuist de GeForce FX aangekondigd, de chip die al ruim anderhalf jaar bekend staat als NV30 vanwege de vele geruchten erover. De uiteindelijke productnaam GeForce FX komt enigzins als een verrassing. Eerder werd geroepen dat men van het woord "GeForce" af wilde, en kwamen codenamen als "Eclipse", "Omen" en "Nitro" voorbij als mogelijke opvolgers. Bovendien kan GeForce FX natuurlijk makkelijk verward worden met GeForce MX, maar daarom worden de kaarten weer voorzien van een volgnummer. Wat voor getallen precies gebruikt zullen worden is nog niet duidelijk, maar GeForce FX 5800 zou in ieder geval n van de modellen zijn.

De letters FX hebben een dubbele betekenis: ten eerste wordt het in het Engels hetzelfde uitgesproken als "effects" (net als bijvoorbeeld in CineFX), maar de andere betekenis is iets minder voor de hand liggend. De GeForce FX core gebruikt namelijk technologie die door 3dfx is bedacht voor de Mojo. Als 3dfx had overleefd dan zou Mojo de chip geweest zijn die de strijd aan had moeten gaan met NV30. Daarom vond men het blijkbaar wel gepast om de letters FX in de naam te gebruiken, als eerbetoon aan het inmiddels gestorven 3dfx - wiens gedachtengoed en personeel werden overgenomen door voormalig aartsvijand nVidia.

nVidia GeForce FX core (200 pix) Er is ontzettend hard gewerkt aan deze release, en er moesten veel offers gemaakt worden. De ontwikkeling alleen al kostte ruim 400 miljoen dollar, de cyclus van zes maanden waar nVidia zo trots op is werd ervoor gemist, en het bedrijf moest zelfs toekijken hoe ATi de performancekroon overnam met de Radeon 9700 Pro. nVidia was echter overtuigd van het feit dat het de moeite waard was om de 0,13 micron technologie te perfectioneren. Of het dat ook echt is geweest is op dit moment natuurlijk de grote vraag, en het antwoord daarop lijkt een volmondig "ja" te zijn.

Dankzij het 0,13 micron procd, koperen bedrading en het gebruik van een BGA- in plaats van een PGA-verpakking kan de 125 miljoen transistors en acht pipelines tellende core flink hoog geklokt worden. De samples draaien op 500MHz, en meer is zeker mogelijk. Ter vergelijking: de GeForce4 Ti4600 draait op 330MHz met de helft van de pipelines, en Radeon 9700 Pro draait met evenveel pipelines op 325MHz. Ook het DDR-II geheugen van de GeForce FX draait op 500MHz, waardoor een datarate van 1GHz gerealiseerd wordt. De T&L-performance is bovendien zwaar verbeterd. De GeForce4 Ti4600 Ultra doet 136 miljoen vertices per seconde, en de GeForce FX maakt daar 200 miljoen triangles van. En triangle bestaat per definitie uit drie vertices, maar omdat een vertex bij meerdere triangles kan horen is de exacte vooruitgang niet helemaal duidelijk; gesproken wordt over een factor drie.

Nieuwe features kent de GeForce FX natuurlijk ook. De chip is net als de Radeon 9700 Pro volledig compatible met DirectX 9.0 en 9.1 (omdat 9.1 geen extra eisen aan de hardware zal stellen), maar kent toch een aantal verbeterpunten. Zo ondersteunt de GeForce FX langere en complexere shaders. Daarnaast steunt hij 128 bit precisie en uitvoer, terwijl de Radeon 9700 Pro 'maar' tot 96 bit precisie en 32 bit uitvoer gaat. Natuurlijk speelt nVidia's Cg een grote rol in het ontwikkelen van spellen die de kracht van de GeForce FX kunnen gebruiken. De syntax van Cg wordt overigens als standaard high-level shader taal opgenomen in DirectX 9.0, zodat ook andere bedrijven compilers en dergelijke ervoor kunnen bouwen. Ook OpenGL 1.4 wordt volledig ondersteund.

nVidia GeForce FX screenshot

Naast alles wat DirectX 9.x te bieden heeft zijn er ook een aantal andere nieuwe snufjes aanwezig. De IntelliSample technologie is er daar n van. Dit is een onderdeel van de derde generatie LightSpeed Memory Architecture en bestaat uit ondere andere uit lossless 4:1 compressie van zowel Z-buffer als kleuren. Samen met de vertrouwde crossbar controller en adaptive texture filtering zouden zou deze technologie de prestaties van met name FSAA merkbaar verbeteren. Zonder LMA III en de hardwarematige compressie zou 48GB/s nodig zijn voor de prestaties waar de GeForce FX nu 14,9GB/s voor gebruikt.

Verder ondersteunt de GeForce FX core hardwarematige schaduwen, matrix palette skinning en keyframe animation. Aan boord vinden we een tweetal 400MHz RAMDAC's die ieder resoluties tot 2048 bij 1536 met 85Hz refreshrate ondersteunen. Ook een tv-out chip met een resolutie van 1024 bij 768 pixels zit standaard ingebakken. De (multi-display) uitvoer kan volledig ingesteld worden met behulp van nView 2.0, en als de scherpte van het RAMDAC niet voldoende is kun je deze zelf tweaken met behulp van Digital Vibrance Control 3.0. Natuurlijk is ook het decoderen van DVD en HDTV geen enkel probleem voor de GeForce FX. Kaarten voorzien van de chip zullen gebruik maken van AGP8x, en kunnen gewoon gebruik maken van de Detonator drivers. Ze zijn dus meteen compatible met Windows 95 tot en met XP, Linux en MacOS.

Benchmarks zijn er helaas nog niet echt. nVidia beweert dat framerates twee tot drie keer zo hoog zullen zijn als mogelijk is met de GeForce4, maar dat zal uiteindelijk afhankelijk zijn van het soort spel dat ermee gespeeld wordt en wat voor systeem er voor het testen wordt gebruikt. Hieronder een grafiek van nVidia waarin NV25 en NV30 het tegen elkaar opnemen en 1280x1024 met 32 bit kleur en FSAA 4x ingeschakeld, op een onbekende configuratie:

nVidia GeForce FX benchmarks

Tot nu toe lijkt nVidia dus een winnaar in handen te hebben, maar het wachten is nu op de uiteindelijke specificaties van de kaarten en de termijn waarop deze in de winkels verkrijgbaar zullen zijn. Een aantal grote OEM's kunnen al leveringen verwachten, maar massaproductie wordt pas eind dit jaar verwacht en dus zouden winkels pas in januari of februari de gewone klant kunnen bedienen van een GeForce FX. Ook de prijs zal nog een beetje een verrassing worden. 360 dollar werd eerder vandaag genoemd, maar nu spreekt men alweer over 400 dollar voor de standaardversie en 500 dollar voor een mogelijke "ultra" uitvoering. Het laatste punt waar we natuurlijk allemaal nog even op wachten voor we conclusies trekken zijn de echte onafhankelijke benchmarks.

nVidia GeForce FX reference design
nVidia GeForce FX reference design, let op de externe powerplug
nVidia GeForce FX met koelsysteem

Het koelsysteem op dit exemplaar kost je een PCI slot. Onbekend is of dit soort constructies ook op de productie-exemplaren te vinden zijn.

Meer informatie over de GeForce FX is te vinden bij:

Lees meer over

Gerelateerde content

Alle gerelateerde content (37)
Moderatie-faq Wijzig weergave

Reacties (154)

1 2 3 ... 7
Eerder werd geroepen dat men van het woord "GeForce" af wilde
Eigenlijk werd er alleen maar aangegeven dat de kaart waarschijnlijk geen GeForce 5 zou heten, nou zo heet ie dus ook niet :P

'Iedereen' nam vervolgens aan dat ie dus geen GeForce zou heten.
Het is geen wonder dat ze nog de naam GeForce willen behouden, want die is zelfs bekender dan nVidia zelf. Als ze een ander naam hadden gegeven betekent dat ze heel veel geld voor marketing moeten uitgeven om naambekendheid te krijgen.

Hoewel ik FX eigenlijk maar niks vind, want:
1) zo weet men niet welk generatie GPU het is. Normaal is hoger nieuwer. Hierna GX?
2) we hebben gehad (van Intel) BX, TX, LX en genoeg andere die ik nu niet op kan komen of niet ken.
3) lijkt te veel op MX en die zijn Low-budget dingen.

Op dit na lijkt me verder koele kaart, zeker met die nieuwe luchtkoeler. :9
GeForce is zeker bekend dus logisch idd.

Maruh:
1) FX2 ? :+
2) mmm ja, maar FX staat al best lang voor effects
3) ja, echt heel verwarrend :P. Sta je met 2 dozen: 1 kost 100,- en 1 kost 400,- DAMN welke was ook al weer die snelle }>
;)
[murphy]
lijkt me niet al te moeilijk, die van 400.-- ....
[/murphy]


toch ?
FX
Slaat ook wel op 3dFX
Maar meer ook op de Hollywood FX
Die FX gaat het om de 3D Special effects

Met de link naar:
met deze hardware kan je zogenaamd FX renderen volgens Hollywood detail en complexiteit in realtime.

Op die fiets willen ze hem aan de man brengen
FX is daar 'n hele bekende algemene buzz kreet
OKE ik ben ook altijd voor de Nr.2 Hup AMD, Gaan met linux en hiep hoera voor ATI.
Maar de waarheid blijft dat zo lang ik dus pro ATI ben, ATI waarschijnlijk de nummer 2 is.

OK ik zeg niet dat de nummer 2 nooit eens een tournooi kan winnen. AMD heeft het ook gedaan en linux heeft ook z'n vaste klanten.

Echter de NR's 1 hebben allemaal 1 ding gemeen, namelijk dat ze de grootste klantekring hebben.

Het is niet altijd waar maar meestal wint de speler met de grootste zak met geld en dat is in dit gevecht nVidia.

ATI wint dit gevecht niet door de snelste of mooiste chips te bakken, maar door het grootste markt aandeel te vergaren.

Maar goed dit artiekel gaat niet over ATI, maar over de Geforce FX en hoewel ik eigelijk voor ATI ben moet ik zeggen dat nVidia eigelijk nog nooit teleurgesteld heeft. Ja ze stellen hun producten vaak iets te mooi voor en ja ze zijn soms iets te laat en ja ze zijn te duur. Maar dat doen en zijn ze allemaal !!!!!

Feit is dat nVidia al jaren een zeer sterk product weg zet, goede driver ondersteuning heeft (ja zitten ook wel eens bugjes in) en als enige concurent zichzelf heeft.

En het belangrijkste is ....... Als ze met iets nieuw komen is dat altijd de moeite waart (en te duur).

Niet zo als bij matrox veel trom geroffel zonder product.

Stiekum hoop ik ook dat ATI nog een konijn uit z'n mouw kan toveren ..... ik vrees het echter niet.
ATI heeft nog wel een konijn achter de hand. De R350. En aangezien de Geforce FX pas in februari echt goed verkocht kan worden, heeft ATI nog de tijd om die te lanceren. Het schijnt namelijk dat ATI deze binnen niet al te lange tijd zal aankondigen. En dat deze in februari, maart in de winkel zal liggen.

Echter het is natuurlijk niet zeker of ATI hiermee de Geforce FX zal verslaan. Maar ja het is ook nog niet zeker dat de laatste de Radeon 9700 met een grote marge zal verslaan.

Maar er gaan een paar geruchten over de R350, DDRII, DirectX9.1, etc.

Als laatste is het ook nog de vraag of de Geforce FX wel erg efficient zal zijn. Hij heeft namelijk 2 TMU's per pipeline. Echter ATI heeft besloten er maar 1 te gebruiken vanwege het feit dat de geheugen bandbreedte het niet toe liet om er meer te gebruiken. Aangezien de Geforce FX een nog lagere bandbreedte heeft (zonder optimalisaties), kan dit misschien nog wel een redelijk probleem gaan opleveren in reallife benchmarks.

Maar: Time will tell.
Nvidia heeft nu dus wel een hele nieuwe chip Ati zit nog steeds voor te borduren op 0,15 en die moeten toch ook een keer overschakelen willen ze met nvidia mee blijven komen !!
Het koelsysteem op dit exemplaar kost je een PCI slot. Onbekend is of dit soort constructies ook op de productie-exemplaren te vinden zijn.


Abit heeft al GF4 kaarten met een dergelijke koeling dus ik verwacht dat abit in iedergeval al wel een dergelijke kaart zal uitbrengen, of andere videokaartenbakkers zullen volgen is nog maar de vraag. :)
Ja idd daar dacht ik ook meteen aan toen ik het plaatje zag.

maar je bedoeld dus OTES
OTES - Outside Thermal Exhaust System
bron: http://www.xbitlabs.com/video/abit-otes/
nVidia was echter overtuigd van het feit dat het de moeite waard was om de 0,13 micron technologie te perfectioneren.
Hulde!!! Het werd eens tijd dat een ICT (hard-/software) bedrijf zich niet laat uitnodigen tot een te vroege release vol met bugs omwille van "de eerste" te zijn.

Ik vind dit echt lovenswaardig en tekenend voor de reputatie van nVidia wat betreft kwaliteit.
Nou sorry hoor, maar deze uitspraak gaat me net ff te ver. Als het 1 ding is waar Nvidia groot is in geworden is snelheid , kwaliteit was (is?) van ondergeschikt belang. Tv-out en beeld- kwaliteit is jarenlang stukken minder geweest dan bij bijn ATi en Matrox.

Verder weet ik ook nog dat met de TNT2 er op mijn BX-bord met PII minder spellen fatsoenlijk draaiden dan met mijn Matrox. Hoezo goede drivers ?

Pas met de GF4 series lijkt Nvidia serieus de beeld-kwaliteit te willen aanpakken, wat wel lovenswaardig is maar ook een beetje laat.....
in het begin ging het nvidia juist om beeldkwaliteit toen het 3dfx om snelheid ging(tnt1 met 32bit)
toen zijn ook zij over gegaan op voornamelijk snelheid waarbij ze veel beloofden(tnt 1 die ongeveer de kloksnelheid zou hebben van de uiteindelijke tnt2, tnt2 die een stuk langzamer liep dan gehoopt, geforce 1/2 zouden flink veel winst leveren, geforce 2 ultra, geforce 3) en in deze periode ging juist 3dfx zich na de voodoo 3 richten op beeldkwaliteit waarna ze over de kop gingen.
nu gaat juist nvidia zich weer meer richten op beeldkwaliteit(geforce 3 al, nog meer geforce 4 en fx) en men zou dat juist toe moeten juichen maar men zeurt alleen maar op nvidia dat men te laat zich op kwaliteit is gaan richten(een gulden middenweg lever meestal niet zon goed produkt omdat er dan altijd mensen zijn die wat te zeuren hebben)

verder heb ik met mn tnt 1 idd weleens driver probs gehad maar er waren altijd wel voldoende versies die het wel goed deden, je moest ze gewoon ff proberen. nvidia levert gewoon veel driver updates voor computer-liefhebbers en natuurlijk zitten daar ook wat mindere versies tussen maar het zijn vrijwel allemaal gelekte drivers, dan moet je ook niet gaan zeuren als het niet goed werkt.

vaak lees je ook dat men zeurt dat de tv-out van nvidia niet goed genoeg is, of dat de dualhead optie niet dezelfde instellingen heeft als die van matrox, maar nvidia is gewoon een fabrikant die innovatief wil zijn en die gewoon de snelste gamerskaart wil kunnen leveren, generatie na generatie. dat de beeldkwaliteit niet altijd op 1 heeft gestaan moge duidelijk zijn maar feit blijft gewoon dat nvidia gewoon kwalitatief goede producten levert en constant door werkt om ons mooiere graphics te leveren, en als ik aan mn mod werk ben ik blij dat oa nvidia zo hard door werkt :)
Zeuren doe ik niet, geef alleen de feiten. En heb nooit gelekte drivers gebruikt, gewoon de orginele.

Geforce 3 al beter? Heb hier een kouwe maandag een Hercules GF3 Ti 200 gehad. Een van de slechste beeld-kwaliteit die ik gezien heb..... Moet je zeker goed zoeken naar die ene die toevallig wel goede filters gebruikt...

Nvidia levert kwantitief snelle kaarten, kwaliteit hang ik liever aan Matrox en Ati.

edit:
Kwaliteit met de TNT 1 :? |:( |:(
Op wat voor buis is dat getest ? Een van de meest brakke 2D allertijden ..


De letters waren akelig bleek en brokkelig naast mijn G200 /G400 . Waar baseer jij kwaliteit op ?
Afgezien daarvan weten we ook nog helemaal niet of dat ding relatief bugvrij is.

Het kan makkelijk de meeste buggy kaart van Nvidia ooit zijn.

Lof uitingen zijn pas op zijn plaats als in de praktijk blijkt dat het ding ook echt goed is. Op dit moment zijn ze echter complete flauwekul.
De GeForce4 Ti4600 Ultra doet 136 miljoen vertices per seconde, en de GeForce FX maakt daar 200 miljoen triangles van. En triangle bestaat per definitie uit drie vertices, maar omdat een vertex bij meerdere triangles kan horen is de exacte vooruitgang niet helemaal duidelijk; gesproken wordt over een factor drie.
Een vertex zit gemiddeld in 2 triangels. Bij 3 vertices per triangel heeft de GeForce 4 dus 136 * 3 /2 = 200 MVertices/s precies zoveel als de GeForce FX
edit:
nevermind.. zie nu opeens ook wat andere replies paar draadjes terug (hmm.. niveau instelling iets dat ik ze eerst niet zag?), die precies hetzelfde blaten... excuses... maar die flame/troll/blaat over FX vs. MX blijft :Y)


ehm

als ik goed reken.. en lees.. is de max van een GF4 136m vertices.

als dan in 1 triangle gemiddeld 2 vertices zitten... moet je vermenigvuldigen met 2/3 en niet met 3/2 (3 vertices per triangle... dan kan je zowiezo al 136/3 triangles doen ok? maar door winst op optimalisatie... want je gaat geen vertices dubbel doen.. kuch... keer 2...).

dus.. een gf4 doet dan ongeveer 90 2/3 miljoen triangles per seconde (negentig twee derde).

dat is RUIM minder dan de helft van eh.. de papieren specs van de GeForce FX.

nu een reaktie op algemene tendens:

Waar haal je het vandaan dat GeForce FX teveel op GeForce MX zou lijken?

Spreek het eens uit: GeForce "effects" versus GeForce "em-ex" ... eh... spot the difference?

echt, af en toe snap ik de mensen hier niet hoor *flame/troll/whatever*
Klopt niet helemaal:

136 Mvertices: zijn dus 136 / 3 * 2 = 90 Mtriangles
200 Mtriangles: zijn dus 200 * 3 / 2 = 300 Mvertices

heel duidelijk verschil dus.

je verwarde vertices en triangles met elkaar...

edit:

hmz, voglende pagina stond ie al...
En triangle bestaat per definitie uit drie vertices, maar omdat een vertex bij meerdere triangles kan horen is de exacte vooruitgang niet helemaal duidelijk; gesproken wordt over een factor drie.
In een gesloten model van triangles is de verhouding Triangles:Vertices 2:3 (denk aan 4 triangles aan elkaar geeft 6 Vertices en 12 voor een kubus geeft 18 vertices(12 voor de kubus+1 op elk vlak). Dus als dat hiermee omrekent kom je op 200*3/2 is 300 vertices per seconde dat is dus 300/136=2.2 keer zo snel als een TI4600 op gebied van T&L.
"Triangles:Vertices 2:3 (denk aan 4 triangles aan elkaar geeft 6 Vertices en 12 voor een kubus geeft 18 vertices(12 voor de kubus+1 op elk vlak). Dus als dat hiermee omrekent kom je op 200*3/2 is 300 vertices per seconde dat is dus 300/136=2.2 keer zo snel als een TI4600 op gebied van T&L.

Rustig man :), we zijn niet allemaal einstein.
Passende nick, PuzzleSolver. :P
Ik hoop dat deze koeling aanslaat en vaker wordt gebruik, volgens ome Tom iig wel: http://www.tomshardware.com/graphic/02q4/021118/geforcefx-03.html
edit:
Link gefixed


Overigens gebruikt de Abit GeForce 4 Ti 4200 OTES deze koelingsmethode ook: http://www.tweakers.net/nieuws/23521/
Het enige verschil wat ik tussen de OTES en het referencedesign van nVidia heb kunnen zien, is dat de nVidia een aparte toe- en afvoer heeft, zou dit helpen?
edit:
Deze koeler zou ik lawaai maken, de nVidia niet :)


Ben ook benieuwt hoever deze kan worden overgeklokt natuurlijk }>
Veelbelovende specs, maar ik voorspel dat ie hoogstens marginaal sneller dan de Radeon zal zijn (daarom hebben we zo lang moeten wachten op de FX, de Radeon was een onverwachte complicatie, waardoor de heren ontwerpers weer terug naar de tekentafel moesten om de concurrentie aan te gaan) , en dan gaat het prijsvershil bij deze toch al dure kaarten tellen.
De specs stonden al HEEL lang zo goed als vast. Ze hadden meer problemen met 0.13 micron technologie.
De aanpassingen die ze gedaan hebben waren vrij marginaal. En als we toch gaan schatten ikdenk dat in hogere kwaliteit, fsaa etc de GFFX 30% sneller is dan de R300 :D

edit: HotHardware:

Initial indications from NVIDIA are that the GeForce FX is showing about a 40% performance advantage, over the Radeon 9700 Pro, in Doom 3.

Nu zegt nvidia dat wel en is dat niet meteen feit, dingen roepen die niet waar zijn schieten ze ook niet mee op.
40% is iig wel veel en geeft ook aan dat de gffx vanaf begin af aan al loeisnel was, want in een paar maanden tijd tweak je als bedrijf er echt geen 30% extra uit ofzo..
(tuurlijk is dit toch nog veel gespeculeer maar ja das wel mooi toch :) )
Ze hadden zeker ook al van het begin af aan die idioot grote koeler er op gepland staan?

Durf te wedden dat dat pas is gekomen toen ze merkten dat ie niet sneller was dan de 9700 PRo.
Overklokken en zo'n kanjer van een koeler er op zetten is in zo'n laat stadium dan de makkelijkste methode toch weer sneller te worden.

Als je een 9700 Pro met zo'n kanjer van een koeler uitrust en een PCI slot weggooit dan kan ie ook nog een stuk hoger geklokt worden. (Als je bedenkt dat 400 al mogelijk is zonder een pci slot te gebruiken, wat wordt het dan met die extra ruimte?. Hoe lang zou het duren voor iemand zo'n ding op de markt brengt?)

en benieuwd naar de prestaties van het model met een normalere koeler. Die zal wel net minder presteren dan de 9700 Pro.
hou het even op het onderwerp en niet richting de flames, dank u (ja mod wat jullie willen dit moest ik ff kwijt :P)
cynische reacties altijd ;/

ik zei ook niet dat er wat officieel bekend was overigens, wel dat de specs die vroeg genoemd werden overeen kwamen met wat het uiteindelijk geworden is. meestal zijn geruchten gebaseerd op hints e.d van de developers..
Met deze koeloplossing kan men nog redelijk wat verder dan 500mhz zegt men al. plus dat dit model niks zegt (nog) over wat er in de winkel komt te liggen. Dit soor tkoeling heb ik wel eerder gezien bij vroege foto'tjes e.d, wil nog miet zeggen dat de uiteindelijke kaart zon koeling moet hebben.
waar staat dan dat ze die cooler niet ook allang van plan waren te gebruiken ? Ze zeggen zelf dat de aanpassingen t.o.v de geplande specs niet zo groot waren..en ik kan me nog wel herinneren dat de specs van de nv30 niet veel anders waren vergeleken met VOOR r300 release en erna.
Dat staat nergens, maar denk jij nou werkelijk dat dit hun uitgangspunt was? (Dan geloof je zeker ook nog in Sinterklaas?)

En groot zijn de aanpassingen inderdaad niet. Overklokken is maar een hele kleine aanpassing tov de rest van de kaart.

Aangezien de specs niet officieel bekend waren kan jij ook niet beoordelen of die wel of niet bij de R300 introductie veranderd zijn.
ja hoor ik kan me niet voorstellen dat die cooling ook op de final versie zit.... Wat heeft dat hele 0.13 procede dan voor zin?
He nee niet echt

0,13 zorgt voor kleinere spanning dus kleinere stroompjes hogere weerstand korte baantjes dus hogere Clock mogelijk en dan ook nog es zuiniger en meer transistoren per mm^2

En ja de nV30 heeft meer van die vermogen zuigers en wel 125M vs 107M

Dus zijn zuinigheid is gebruikt om de uitgebreidere features te implementeren waardoor het zuinige nogal gecompenseerd wordt. nu blijft wel de clock schaling over en de Features door die extra transistoren.

Maar zal dus toch het nodige aan AMP's trekken.
neenee ... 0.13 micron heeft juist tot gevolg dat er MEER warmte wordt geproduceerd. Dus een betere koeling ...

Maar het houd ook in meer transitoren op het bordje en dus meer FPS ! :*)
Eh nee niet direct.. kleiner betekent ook minder volts door de chip. Dus in eerste instantie wordt ie koeler. Je kan wel weer hoger klokken, wat weer meer warmte betekent.. Feit dat er zo'n mega koeler op zit, wijst erop dat ie flink heet wordt en het geheugen ook.
Ze hebben dus goed hun best moeten doen om hem zo hoog te krijgen als dit. De yields zullen dan ook niet al te best zijn.
De extra powerplug was me ook al opgevallen...

Wat een beest van een kaart (zeker als deze gelijk een extra slot kost).

Een reference design met DVI-I, analoog en S-VHS uitgang is leuk, maar doe mij maar liever eentje met 2x DVI-I uitgang (ipv de analoge) en dan een convertertje DVI-I -> analoog
Een converter komt de beeldkwaliteit niet ten goede, en die wilde nVidia juist verbeteren met deze generatie.
Een converter komt de beeldkwaliteit niet ten goede, en die wilde nVidia juist verbeteren met deze generatie.
Volgens mij is die converter niet veel meer dan een verloopstekker (heb er zelf ook een bij mijn Ti4200). Dus weinig qualiteitsverlies lijkt me.
Moet je dan ook niet wat omzetten op de kaart ofzo? DVI is toch digitaal en VGA is toch echt analoog. Dus met alleen een verloopstekker kom je niet ver.
Volgens mij is de DVI aansluiting in principe zowel analoog als digitaal (dus sommige pinnen geven analoog signaal, sommige digitaal), een verloopstekker verbindt dus alle analoge aansluitingen.

Dit lijkt mij tenminste de meest voor de hand liggende oplossing, anders kun je niet zo simpel een verloopstekker maken.
Toch niet, gewoon verloopstekker erin en een analoge monitor eraan. Ik heb twee dezelfde schermen en ik merk echt geen verschil hoor.
Laat Nvidia nou maar eens voor een goede DVD-weergave zorgen, want dat is ze tot op heden niet gelukt. De eerste de beste analoge videorecorder geeft een beter beeld dan een DVD fullscreen afgespeeld via een willekeurige Nvidia-kaart.
Goede DVD-weergave vind ik niet belangrijk, DVD's draai ik wel op m'n DVD speler. Laat nVIDIA maar zorgen voor goede 3D prestaties en dat lukt ze heel goed!
1 2 3 ... 7

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True