Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 132 reacties
Bron: 3DGPU, submitter: MartijnC|IA

nVidia heeft de eerste officiŽle foto's van de uiteindelijke GeForce FX vrijgegeven. De kaart is opvallend ontworpen en gaat een AGP- ťn een PCI-slot innemen. Vermoedelijk is de fan die op de core van de GeForce FX zit overigens erg luidruchtig. Ook worden er twijfels uitgesproken over de constructie van de luchtinlaat en -uitlaat, waar geen filter voor gemonteerd is. Het langverwachte bordje ziet er als volgt uit:

nVidia GeForce FXnVidia GeForce FX
Klik voor mega-versie

Op het forum van 3DCenter is een thread verschenen waarin benchmarks staan van de GeForce FX. De hieronder genoemde cijfers zouden verkregen zijn op een systeem met een AMD Athlon XP 2600+, 512MB DDR-geheugen en een moederbord met nForce2 chipset. In standard mode draaide Unreal Tournament op 1024x768, 32-bits, terwijl bij quality mode 2x FSAA en 4:1 FA aanstond. Vooralsnog moeten de cijfers, hoe interessant ze ook zijn, in verband met hun herkomst met een korreltje zout genomen worden. Bij de demo Botmatch is de processor overduidelijk de beperkende factor. Bij de Flyby-demo zien we echter grotere verschillen: op standaard kwaliteit ontlopen de 9700 Pro en de GeForce FX elkaar niet veel, maar in quality mode neemt de FX een vrij ruime voorsprong op de 9700 Pro:

UT2003 2166 Botmatch
Radeon 9700 Pro - Standard mode 71
Radeon 9700 Pro - Quality mode 65
GeForce4 Ti4600 - Standard mode 71
GeForce4 Ti4600 - Quality mode 65
GeForce FX Ultra - Standard mode 68
GeForce FX Ultra - Quality mode 65

UT2003 2166 Flyby
Radeon 9700 Pro - Standard mode 201
Radeon 9700 Pro - Quality mode 110
GeForce4 Ti4600 - Standard mode 170
GeForce4 Ti4600 - Quality mode 65
GeForce FX Ultra - Standard mode 196
GeForce FX Ultra - Quality mode 143

Update: op de website van het Duitse PC Games Hardware zijn tot nu toe een tweetal foto's verschenen van de GeForce FX, die ze daar nu aan het testen zijn. De benchmarks die hierboven genoemd zijn komen van de persoon die hier nu mee bezig is. De volgende foto is er ook te vinden, waarop zeer duidelijk te zien dat er een molexaansluiting op het kaartje te vinden is. Ook kun je goed zien waar het geheugen zit en hoe het gekoeld is:

nVidia GeForce FX foto
Klik voor mega-versie

Moderatie-faq Wijzig weergave

Reacties (132)

1 2 3 ... 8
waarom loopt iedereen hier zoveel te zieken over die kaart, zijn jullie de meeste dan zo stom of lui om te lezen?

wie zegt dat deze kaart langzamer of evensnel is als de radeon, die heeft geen gelijk, aangezien deze benchmarks niet echt optimaal zijn voor beide kaarten, ik kan me niet voorstellen dat iemand die het geld voor zo'n grafische kaart over heeft een zwak systeem heeft, noch een kleine monitor dus die zal beslist NIET op 1024*768 spelen, maar eerder in een variant als 1600*1200 en dan zou je pas een eerlijke vergelijking hebben tussen die 2 kaarten, en het liefst ook geen amd gebruiken maar een p4 ivm de bandbreedte.

de kaart neemt 2 brackets aan de achterkant in, de normale van je agp slot en die van het eerste pci slot naast je agp slot. Als iemand hiervoor loopt te zeuren dat hij/zij dat pci slot mist.... dan kan ik eigenlijk maar een ding zeggen hoe dom of stom ben jij eigenlijk wel niet bezig, aangezien een beetje tweaker toch altijd al rekening ermee houd om het eerste pci slot vrij te houden voor : 1- airflow en 2- irq/dma resources aangezien de meeste moederborden 6 pci sloten hebben tegenwoordig en steeds meer hebben al standaard een nic (100Mbit of al 1Gbit) onboard is het ook niet echt nodig om er nog een bij te douwen, bij een beetje normale opstelling heb je je gfx kaart in je agp slot, om storing te voorkomen doe je je geluidskaart in het laatste slot, en met nog een eventueele nic erin zet je die boven je geluidskaaart, en dan hou je nog 3 pci sloten over voor een dv kaart of tv kaartje sommige hebben liever er nog een nic in om te trunken (terwijl ik persoonlijk dan voor een duurdere nic zal gaan met 2 connectors)

er wordt allemaal geblaat over een tering herrie alleen niemand hier heeft die kaart gehoord of ook nog maar aangeraakt, hier valt dus nog niet over te praten, en als het waar is dat deze fan de snelheid reguleert op temp dan zul je hem niet echt waarnemen, aangezien zo'n kaart nou niet super heet wordt als je hem niet belast, dus als je in je windows een beetje zit te surfen of schrijven of wat dan ook wat geen grafisch wondermiddel gebruikt zal de kaart minder heet worden dus fan langzamer draaien en meestal luister je toch nog naar muziek of wat dan ook, en als je dan gaat spelen bijvoorbeeld lijkt het mij sterk dat je je geluid zacht zet dat je de computer noise kan horen :?? dus onder de meeste onstandigheden zul je de eventuele "herrie" niet waarnemen.
wie zegt dat deze kaart langzamer of evensnel is als de radeon, die heeft geen gelijk
de resultaten spreken voor zich.
heb je er wel eens aan gedacht dat iemand met niet het geld voor een top systeem wel eens kan denken om slim te zijn en zijn geld te besteden aan een top notch video kaart zodat hij toch spellen lekker kan spelen?
zal me ook niets verbazen als winkel personeel dit aan onwetende klanten gaan voorspiegelen.
het is toch moeilijk te verkopen aan de meeste mensen dat ze een state of the art video kaart kunnen kopen die op het 'gemiddelde' systeem niet beter presteerd dan een oudere versie...

trouwens, eerst maar eens wachten op een doom3 test run voordat we nu al gaan zeggen dat deze kaart zoveel beter presteerd.

wat betreft die pci sloten,
ik heb ze allemaal vol zitten en toch geen problemen met irq's en al helemaal geen airflow problemen, maargoed, zoals jij zegt ben ik dus nu erg dom + stom..., ik zal wel geen echte tweaker zijn.
sinds wanneer is het verstandig om een pci slot voor je airflow te gebruiken?
of is dit ultieme tweakerswijsheid?
wat zit iedereen toch te mukken oer dat extra pci slot, dat kan je toch haast niet gebruiken wat die is gedeeld en als je alle pci sloten vol stompt en ook die bevenste gedeelde(onderste is ook vaak gedeelt) krijg je bijna altijd niet alle pci kaarten aan de gang omdat ze elkaars geheugen adressen gaan gebruiken.
Fuckin' Xpensive zei je, nou dat zijn bijna alle nieuwe kaarten, dit valt nog mee in vergelijking die die klote GF3 uitkwam want de was toe de tijd als ik me niet vergis rond de 2000 gulden, en wat krijg je dan, nu zitten we te zeiken over dat het duur is maar over een jaar zie je precies hetzelfde met de GF5, en dan is de GF4 en FX weer goedkoop, hoe je het ook bekijkt, je word gewoon gefuckt waar je bijstaat, en alle apies kijken...eigenlijk zouden alle tweakers bijelkaar moeten komen, en een eigen kaart maken, voor een mooi prijsje, haha leuke fantasie :z laat maar.
Ik neem aan dat er nog wel wat indrukwekkender benchmarks van de Fx komen.....Als dit alles is vind ik alle heisa eromheen van de afgelopen tijd ietwat overdreven
Ach, de resolutie zal ook bepalend zijn. Bovenstaan de getalletjes zijn op 1024 X 768 verkregen. Ik heb begrepen dat de FX het juist op hogere resoluties erg goed moet doen.

Neemt niet weg dat ik persoonlijk 1024 X 768 op een 17" meer dan zat vind en dus die bijna 300 Euro meerprijs van de FX er nooit uit kan halen. Of nVidia moet dat driverspelletje van de GF4 weer herhalen. Daar konden ze de concurrentie steeds voor blijven door met nieuwe drivers de performance soms met meer dan 10% op te schroeven. Er even van uit gaande dat ATi al behoorlijk optimale drivers heeft voor de RV300-serie, want als ATi dat ook nog kan of de FX kwa prijs/performance nu niet bepaald een hoogvlieger.
Er zullen ongetwijfeld benchmarks komen die ook weer de nieuwste snufjes van de GFX ondersteunen die de Radeon niet heeft. Andersom is ook mogelijk.

Ik kijk dan vooral uit naar 3D-Mark03, die zal hopelijk vanalles een beetje benchmarken, en niet eentje meer dan de andere.
Er zijn en komen ook geen demo's die gebruik maken van de GeForceFX elementen welke niet in de Radeon zouden zitten ingebakken. Logisch want DirectX 9 daar is alles op gebaseerd en dat vormt de limiet.
Met DirectX kan je ook gebruik maken van features die niet op andere kaarten zitten. Dus als de FX features heeft die de 9700 niet heeft dan kunnen ze die wel degelijk gebruiken.

Het idee was dat DirectX altijd op software terug kon vallen maar in de praktijk werkt dat niet altijd even zo mooi helaas.

Ook het feit dat veel nieuwe features in de vorm van programmeerbare stukken code voor de GPU bestaan, maakt het met DirectX mogelijk om nieuwe features te gebruiken.
DirectX drukt idd wel een zware stempel op de ontwikkelingen maar gelukkig zijn er nog voldoende mogelijkheden om meer uit een kaart te krijgen.
Goh, ik krijg bijna de indruk dat er mensen zijn die deze kaart alleen zouden kopen voor de benchmarks..........

En gek genoeg zijn er nog nauwelijks games uit die nu eens ALLES uit deze kaart halen. Tegen de tijd dat die er zijn, is deze kaart al weer oud
Als ik het goed zie is dat 2e PCI slot alleen maar voor de cooling tunnel. En als ik het design zo zie zal niet de fan maar de turbulentie van de lucht de herrie veroorzaken. Ik vind het er niet eens mooi uitzien. Maar dat is persoonlijk.
Iedere Fan zet lucht inbeweging en maakt dus "herrie", de ťťn wat meer dan de andere.

Ik vindt het alleen raar dat de Lucht inlaat (koel) vlak naast de uitlaat zit (warm).
Zuigt de inlaat dan niet de op gewarmde lucht weer naar binnen?
het is niet de luchtbeweging wat de herrie veroorzaakt, maar de turbulentie, en het rammelen van de lagers wat versterkt word door resonatie van de kast.

Hoe harder een fan draait hoe meer herrie.

Dat de inlaat dicht bij de uitlaat zit is idd heel beroerd. Zeker als je je kast in een buro hebt staan met beperkte ruimte achter je kast krijg je
'kortsluiting' in je airflow.

Dat hadden ze zo kunnen proberen met een Abit OTIS kaartje. Als ze nou alleen een in- of uitgang achterop gedaan hadden zou veel beter zijn.
NVidia zelf zegt in de launch van de G FX dat de fan juist helemaal niet veel geluid produceert, maar opvallend stil is.

Dat kun je niet zomaar zeggen als je het niet kunt waarmaken.
Niet als je het niet staaft met harde cijfers. "stil" is relatief (wat jij stil vindt hoef ik nog niet te vinden)
Natuurlijk zeggen ze dattie 'stil'is , ik lees toch wel in de eerste reviews dat het veel lawaai maakt zoals een stofzuiger. 70-75 watt is ook niet niks.
De warme lucht wordt weliswaar weer afgevoerd maar zal zeker niet tengoede komen mbt de temps in je kast.
A further problem is the noise level. The fan produces an incredible racket on par with a vacuum cleaner - there's simply no other way to describe it. You can hear the card even if you're in another room of the house
http://www.tomshardware.com/graphic/20030127/geforce_fx-05.html
Geluid:
http://www.tomshardware.com/graphic/20030127/images/geforcefx-3dmark-h q.mp3 3d performance-mode
http://www.tomshardware.com/graphic/20030127/images/geforcefx-boot-hq. mp3 opstarten
Nounou... Groot ding zeg... Niet dat hij meer ruimte in gaat nemen dan de huidige videokaarten, aangezien je het slot onder de videokaart ook al niet kon gebruiken vanwege de koeler...

Zie ik nou ook een molex-aansluiting op die kaart?

Als ik die benches moet geloven gaat nVidia het nog moeilijk krijgen om de snelste kaart te behouden... Ding is nauwelijks sneller dan een 9700 pro :{
9700 (256Bit DDR) is ook maar nauwelijks sneller dan de 9500 (128Bit DDR) met de software hack, en overgeklokt naar dezelfde snelheid.

Dus met als die bandbreedte extra presteerd hij, de 9700, eigenlijk heel erg slecht...

Blijkbaar gaat het bij Nvidia nu niet meer om alleen maar meer snelheid maar om beeld (render) kwaliteit (cinema kwaliteit).
Ah. de klok en de klepel. De hack waar jij het over hebt (een 9500 128MB non pro => 9700) werkt als volgt:

1) de kaart heeft al 256 bit geheugen
2) 4 van de 8 pipelines zijn op simpele wijze uitgezet
3) die 4 pipelines worden weer aangezet (via software of hardware)

Resultaat: een 9700! (met 256 bit geheugen!)
Als je dan ook nog wat overklokt, heb je een 9700 Pro.

Dit alles kan, omdat ATI te 'lui' is geweest om een aparte pcb te ontwerpen voor de 9500, en het ding dus (mits ie 128MB ram heeft) uit de doos 256 bit geheugen heeft!

Als je wil zien hoe een 9700 presteert zonder z'n hippe 256 bit geheugen, kijk eens naar de 9500 PRO.

/ontopic:

Jammer dat we niet meer resultaten te zien krijgen. Ik vind 2x AA op 1024 nou niet echt 'quality', dat kan m'n gf4 4200 ook op z'n sloffen. Ik vermoed dat de FX pas echt kont gaat schoppen op hoge resoluties met fsaa of met *veel* fsaa (hij kan 16x :) ).

Theoretisch is ie een heel stuk sneller dan de 9700: op ~dezelfde snelheid en met evenveel pipes (9500 vs. 4200) wint de GF4 core. Als je dan het aantal pipes verdubbeld (bij beide) en de kloksnelheid van 1 v/d 2 flink hoger maakt (500 vs 325), kan de FX niet anders dan een stuk sneller zijn.

Mijn schatting: in situaties waar de fillrate de beperking is (highres+fsaa) is de FX ~50% sneller dan de 9700 PRO.
Antwoord op Milo, niet FX gerelateerd...

Ati, is niet "lui" maar de 9500s zijn defecte 9700s (met minder gelukte HyperZ blok) vandaar dat de succes rate van de hack (zonder schaakbord) 30% is.
Je hebt dan veel al problemen met 24bit Z-buffer, en je moet dan terug schakelen naar 16Bit Z-buffer om visuele effecten te verhelpen.
re: tikimotel

mijn opmerking over hun 'lui'heid had betrekking op hun pcb. Dat zorgt er namelijk voor dat een 9500 non pro met 128 MB een 256 bits bus heeft.

Jouw opmerking gaat over de core, dat die hetzelfde is (alleen dan soms defect) is vrij logisch, aangezien een andere core een heel stuk meer werk is dan een ander pcb.

Als het echt zo is dat terugschakelen naar een 16-bits z-buffer altijd helpt, ga ik er maar eens 1 bestellen, dat wist ik nog niet. Ä180 voor een 9700 blijft enorm goed price/performance.

/offtopic
En die molex is nodig omdat men niet alle stroom uit het AGP slot kan trekken.

Btw, een ATI heeft een andere stekker (floppy voeding) en dus ook een externe voeding nodig, netals de Voodoo5 6000 van een paar jaar terug.

Je hebt minimaal een 350Watt voeding nodig voor een GeforceFX en voor een Ati 9700 minimaal 300Watt.
Is niet waar. Er is een nieuw design en is er dus geen tussenruimte nodig. De koele lucht wordt van buiten de kast gehaald (en geretourneerd)
Dat zeg ik... Hij heeft dus 2 sloten nodig... 1voor de kaart, en 1 voor de koeler...
en gaat twee PCI-slots innemen
Volgens mij maar 1 (en een agp uiteraard). Extra tussenruimte is niet nodig vanwege het nieuwe koelerdesign
Dat klopt als een bus, maar de meeste tweakers laten een PCI slot tussen hun AGP en PCI kaart open. Dat is namelijk beter voor airflow, warmte e.d. Vandaar waarschijnlijk die 2 ;)
:P dan val ik niet onder "de meeste tweakers"... ik heb daar mijn USB slot zitten :D en daarnaast zit m'n netwerkkaartje die half hoog is...

maar ehm ik geloof dat radeon sneller is als ik deze benchmarks mag geloven.. en ze worden goedkoper, las ik net en het koelsysteem neem niet een extra slot in beslag...
nog ff en je GPU heeft betere koeling nodig dan je CPU...
verders is het natuurlijk te hopen dat die koeling niet veel herrie maakt...
volgens mij was het beter geweest als er gestaan had:

"en gaat twee slotplaten innemen" ;)
Leuk hoor zo'n fan, en dan gaat ie ongeveer 1,5 jaar mee. En dan maakt ie een klere herrie, en dan heb jij een probleem, omdat nergens zo'n mooie fan te koop is :(.

Doe mij maar een goeie koeling als zalman er op :P, dat werkt stukken beter, en dan nog is actief :9~.
Lijkt me dat er tegen die tijd meer kaarten zijn die dit cooling-principe gebruiken. En dus zullen er ook vast wel losse coolers voor te kopen zijn.
Dit is een ontwerp van Nvidia zelf, het kan dus ook zijn dat andere fabrikanten zoals msi en asus een
andere koeloplossing vinden. of een koeler ontwerpen die minder herrie maakt.
dus als ik het goed leest , hoeft hij NIET in de agp ?? omdat er staat : "De kaart is opvallend ontworpen en gaat twee PCI-slots "... snap het ff niet... kan iemand mij zeggen of dat nu echt zo is ?
Hij gaat wel in een agp slot, maar neemt 2 sloten in beslag (agp en pci dus)
volgens mij neemt ie 1 AGP en 2 PCI in:
als je de foto bekijkt neemt het koelelement de ruimte in rond het hele slot, als je dan kijkt in je pc zie je dat dan in het pci slot eronder nooit een kaart past (pcb zal tegen koelelement zitten)
1 AGP en 2 PCI? nee joh kijk maar eens goed op de foto, 1 AGP en 1 PCI...

het zou wel erg ver gaan als het er totaal 3 zouden worden :+
ik zeg net: hij neemt te veel ruimte in zodat er onder het ingenomen pci slot waarschijnlijk geen kaart kan zitten, meeste kaarten zijn niet zo mooi gesoldeerd en hebben dus uitsteeksels, welke tegen de koeler gaan zitten
1 PCI en 1 AGP slot
Het is dus een foutje van de schrijver
Ik denk dat we deze benchmarks maar weer met een korreltje zout moeten nemen...

De benchmarks van de botmatch vind ik erg raar: ik dacht toch dat de radeon9700 in UT2003 een stuk beter presteert dan een ti4600. En dat de FX minder scoort dan de ti4600 snap ik al helemaal niet :?
Zoals in de tekst aangegeven staat is bij Botmatch de cpu de beperkende factor. In feite is dat dus helemaal geen interessante benchmark, maar aangezien er momenteel weinig keuze is qua benchmarks heb ik em er toch bij gezet (understatement :P).

In Flyby zie je wel dat de FX 30% voorsprong neemt op de 9700 Pro, in quality mode. Dat is natuurlijk nog maar een voorproefje, want quality mode is hier nog helemaal niet zo veeleisend. Ben persoonlijk benieuwd naar benches met 4x FSAA en hogere resoluties. Ik denk dat je dan het verschil met de 9700 Pro heel goed gaat zien.
Ik denk dat ze expres de 4x FSAA niet aanzetten en waarom... Omdat het wel eens zo kan zijn dat de Radeon9700 het wint of gelijk komt met de GeforceFX. 4xFSAA vereist erg veel bandbreedte en de R9700 heeft dat gewoon meer als de GFX.

Hierdoor zullen er nu ook nog meer 2x FSAA benchmarks komen, omdat dit waarschijnlijk een positiever beeld over de GFX geeft. Het is immers zo dat op dit moment Nvidia toestemming moet geven hoe er getest mag worden en op dit moment mag dit niet hoger dan 2xFSAA.
Deze kaart lijkt verdacht veel op die Abit kaarten,...Ti4600 dacht ik... Zou Abit dit nou gejat hebben van NVidia of andersom ?
Dat zijn de kaarten die gebaseerd zijn op het reference design van nVidia. Daar hoef je praktisch niks aan te veranderen (alleen dan het logo van het bedrijf ergens neer kwakken) en kun je zo in de handel mieteren. Over een enkele weken kun je de eigen versies verwachten van Hercules en consorte. Dan komen ook de GFX 5800 en GFX 5800 Ultra uit, en die zullen dan ook weer in een andere vorm gegoten worden; deluxe enzo :P

http://www.tweakers.net/nieuws/25234
Ehmmm... naar mijn idee had Hercules toch enige tijd geleden eeuwige trouw beloofd aan ATI, of is dat niet zo??? (correct me if I'm wrong) Dus in dat geval zal je lang moeten w88 op een 5800/5800 Ultra van Hercules.....
1 2 3 ... 8

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True