Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 107 reacties
Bron: Tec Channel, submitter: Cookie

Sparkle was er met de GeForce4 kaarten vroeger bij dan andere fabrikanten, schrijft Tec Channel, en het bedrijf heeft het Duitse Alternate laten weten eind januari de eerste GeForceFX kaarten in te kunnen vliegen. Het is echter niet per se gezegd dat ze dan ook op de schappen liggen voor verkoop. Misschien dat nVidia nog moeilijk kan doen over de officiŽle verkoopdatum. De verkoopprijzen komen ergens tussen de 500 en 600 euro te liggen, volgens Alternate.

Elders in de branche wordt gezegd dat er meteen twee varianten uitkomen van nVidia's nieuweling, die de namen GeForceFX 5800 en GeForceFX 5800 Ultra zouden dragen. Wellicht krijgen alleen de Ultra's de GPU met 500MHz kloksnelheid, en het op 1GHz effectief geklokte DDR-II geheugen. Onduidelijk is of het prijsverschil mede veroorzaakt wordt door het al dan niet aanwezig zijn van een FX Flow Heatpipe met geforceerde luchtkoeling, zoals die hieronder te zien is op een prototype van nVidia.

nVidia GeForce FX met koelsysteem
Moderatie-faq Wijzig weergave

Reacties (107)

1 2 3 ... 6
Even wat gegoogled:
http://www.theinquirer.net/?article=6330

Pikant detail: volgens nVidia is de bandbreedte 64GB/s. Dat terwijl 16 x 2 x 500 tocht echt 16000 MB/s = 16 GB/s is. Ben benieuwd et welke techniek ze die 64 GB/s willen bereiken, 400% is niet bepaald gering
Ze gaan een lossless compressie toepassen met een verhouding van 4:1 en 4x16 = 64 :)
das natuurlijk makkelijker gezegd dan gedaan. En hoe garanderen ze dat het altijd precies een 4:1 compressie is? ingewikkelde textures lijken mij moeilijker te compressen als simpele textures en dat zou betekenen dat de membandbreedte terug loopt. Terwijl je bij spellen met ingewikkelde textures juist een hoge membandbreedte nodig hebt.
Pikant detail is dat volgens Nvidia de effectieve bandbreedte 48BG/s ipv 64.

Verder weet iedereen dat dat onzin is aangezien je geen 400% winst krijgt van lossless compressie.
Maar echt, het staat leuk in de previews nietwaar?

Verder is ook op tweakers al ter sprake gekomen dat ATI ook lossless compressie gebruikt en dus ook veel hogere effectieve bandbreedte kan claimen.
Nou ik vindt het prijsverschil tegen over de Ati 9700 wel erg hoog oplopen en helemaal als je bedenkt dat als de Nvidia uit komt de Ati +/- 200 euro goedkoper is.
Zullen we de introductieprijzen eens vergelijken ? De Radeon 9700 Pro had een introductieprijs van $400. Omgerekend zou dat in Europa meer dan Ä500 zijn. Dus verschil in prijs is er niet. Bedenk wel dat deze tussen de 500 en 600 euro nog een schatting of gerucht is.
De Euro en de US Dollar, liggen op ongeveer gelijke koers. En toen de Radeon 9700 Pro op de markt kwam, was er al heel vlot ( binnen 2 weken ) 1 te koop voor rond de 400 Euro. En dat werd al als bijna absurd bestempeld. En de prijs van rond de 500-600 is niet uit de lucht gegrepen, dus in "Oud Holland geld" gaat ie gewoon tussen de 1100 en de 1300 piek kosten. Bijna net zo veel als een professionele Open-GL kaart dus.

Moet eerst dan nog es zien, of die 100-200 Euro meerprijs voor de GeForce FX zijn geld wel waard is t.o.v. de ATi.

Nog maar ff wachten op de benchmarks dan ..........
En waarom zou dat zo zijn?
De r9700 heeft met +-20GB/s een hogere BB dan de gfFX ULTRA welke 16GB/s heeft.
Het geblaat van die kleurencompressie is geen effectieve 48GB/s BB, maar een indicatie hoeveel BB er nodig zou zijn zonder enige vorm van compressie en optimalizaties, maw een nogal nutteloos gegeven wetende dat ati ook optimalizaties en compressietechnieken heeft in hun hardware die minstens evengoed zijn als die van nVidia.
Tegen de tijd dat de gfFX op de markt is hebben we de hoger geklokte r350 die absoluut niet trager zal zijn dan de gfFX.
Zo te zien aan de reacties zitten er een paar jaloerse Nvidioten tussen die snakken naar de Ati 9700 Pro killer. Zitten al de Radeon 9700 af te kraken en te vergelijken met een paper-lauched produkt.

Geldig koopargument ;? De ATi is te koop.....
Ik zou het toch geen paperlaunch willen noemen. Tenslotte zijn de eerste producten al te zien, en zullen naar alle waarschijnlijkheid binnen 2 maanden uitgeleverd worden naar de resellers.

Voorals nog is dit kwa presatie nog wel een paperlaunch, want de door nVidia verstrekte cijfers, moeten zichzelf eerst nog in een prestatie vertalen.
te zien, maar je moet nogwel even 3/4 maanden wachten voordat je em kan kopen.

Zijn er trouwens echte benchmarks te krijgen waarin de snelheidswinst boven een radeon 9700 echt te zien is? Dacht 't niet. |:(

D'r zitten me hier toch een stel }:O }:O niet normaal meer.. hoe kun je nou een kaart waar nog geen echte benchmarks van zijn vergelijken met een kaart die al 2 maanden uit is?
Je kan dat ook niet vergelijken, maar je mag toch speculeren? Toegegeven, er zijn hier wel heel veel mensen die nu al zeggen dat de nieuwe nVidia 'supersnel' is en dat ATI het nakijken heeft.

Zelf geloof ik er nog niet in, eerst zien dan geloven, zo was ik toen de ATI 9700 uit kwam, en zo ben ik nu met de GeForce FX en zo zal ik altijd blijven bij het uitbrengen van welk product dan ook...
Ik kan me nog een tijd herinneren dat een videokaart nog +- 100 piek kostte.

Moet je nu eens zien, een kaart met luchtsluis voor de koeling te koop voor maar 500 a 600 euro. En die kaarten volgen elkaar zo snel op, dat ik maar weer eens nogmaals een rondje oversla.
Groot gelijk! Voor die prijs koop je tegenwoordig bijna een hele PC...

En tegen de tijd dat er 1 spel is dat deze kaart echt 100% gebruikt is hij nog 100§ waard :)
Maar ook veel te langzaam. Spellen die de GF3 volledig gebruiken zullen daar ook veel te langzaam op draaien.
Die Geforce FX 5800 Ultra is eigenlijk gewoon een complete pc van 5 jaar geleden qua kunnen
Ik kan me nog een tijd herinneren dat een videokaart nog +- 100 piek kostte.
Welke dan? Mijn eerste Monster3D (Voodoo (1)) kostte ook al 400 gulden.
Ik was geen early adaptor,want in het begin waren ze nog duurder.
Daar nog een videokaartje (4 mb) van fl 100 bij, zat je op 500 gulden.
OK, dat is wat anders dan 500 Euro, maar met 100 gulden was je er niet in de begindagen van 3d-kaarten....

/edit: met typen de shift loslaten als je een 3 bedoelt ;-)
Ben ik nou gek of geen je zelf he6t antwoord al?
Er is ook nog zo iets als geld ontwaarding !!
toen koste je 1 mb ram 1000 piek, en je cpu 1500, de totaalprijs is dus hetzelfde gebleven, alleen de individuele onderdelen zijn anders geprijst.. cpu's en ram zwaar naar beneden, gpu's omhoog
Ja gewoonweg absurd, ik ga lekker een Geforce 4 Ti4200XP van Point of View halen, "maar" §200... :z
Ja, of een PoV XP Turbo 128 mb voor 163 euro :)
foutje van de verkoper > :)
hehe ik heb zo;n point of view voor 162,50
En toen was je al blij dat een berg er uitzag als een piramide. :)
Oh, wanneer?

Vroeger legde je ook > 1000 piek neer voor een Millenium (1) of een Diamond Viper/Stealth....
Ik kan me nog een tijd herinneren dat een videokaart nog +- 100 piek kostte.

Moet je nu eens zien, een kaart met luchtsluis voor de koeling te koop voor maar 500 a 600 euro. En die kaarten volgen elkaar zo snel op, dat ik maar weer eens nogmaals een rondje oversla.
Heb hier nog een tijdschrift uit Januari '98 met een test van 12 vidkaarten. Laten we eens kijken naar de prijzen die in die test genoemd staan... Alles in guldens uiteraard, ik ga het hier niet in Euro's lopen omrekenen :P

Allemaal PCI kaarten trouwens, AGP bestond nog niet echt ;).

Ati 3D Rage Pro 4MB : 439
Ati 3D Rage Pro 8MB : 589
Diamond Voodoo Interactive 4MB : 610
Diamond Rendition V2100 : 299
Diamond Riva 128 4MB: 499
Elsa Riva 128 4MB: 480
Hercules Voodoo Rush 6MB : 916
Matrox Nec PCX2 4MB: 292
Matrox MGA 1164 SG 4MB : 379
Number Nine Ticked To Ride 4MB : 680
Number Nine Ticked To Ride 8MB : 893
Orchid Voodoo Interactive : 469
STB Riva 128 4MB : 551
Videologic Tseng ET6100/NEC PCX2 : 659

De kaarten waar jij het over zult hebben zijn dan zeker kaarten zonder 3D functionaliteit. Maar die zijn niet echt meer te vergelijken met de huidige vidkaarten imho, tegenwoordig heeft iedere vidkaart 3D functionaliteiten. Dus dan moet je bij die ouwe vidkaart van 100 Euro nog op z'n minst de prijs van een Voodoo Interactive optellen.
Ja, een nVidia TNT 16 Mb kaart uit 2000 zul je bedoelen. No flame intended.

ff serieus, ik heb nog NOOIT een kaart gekocht van 100 Euro, laat staan van 100 gulden.........

That's the price you have to pay for THE BIG CHEBANG...........
Er is meer geschiedenis dan dat hoor.. bv. toen de 3d kaarten nog niet bestonden..

Ik kocht toen mijn Tsjeng Labs ET4000 W32i voor iets van Fl. 90 (was een koopje, 2e hands).

Absolute topkaart destijds, met maar liefst 8Mb geheugen, dat was echt absurd veel.
Dat was voordat 3d kaarten bestonden. Je kon toen een Matrox Millenium ofzo kopen voor 400 gulden en dat was wel het duurste. Spelletjes draaiden toen even snel op een kaartje van 50 piek. Zo duur was mijn S3 virge. De voodoo 1 die ik er een jaartje later naast prikte was 369,- heb het net nog even nagekeken, prijs staat er nog op.

3D-kaarten zijn altijd uur geweest dus.
Flauwekul. Een Voodoo2 (dus 3D videokaart) kostte al bij introductie over de 600 piek.
Maak daar maar 900 van.
Koop rond deze tijd een PoV ti4200 XP 128MB voor ongeveer Ä200 en wacht totdat de GeForceFX ook rond die prijs zit en dan pas upgraden, spaart je veel geld! Tot die tijd kan je makkelijk met een GeForce 4 vooruit en hoef je geen zorgen te maken.
tja maar dan besteed je uiteindelijk toch even veel geld. Jeverspreid je uitgave alleen maar. Als je dan toch uiteindelijk zoveel geld neer gaat leggen geniet ik het liefst zolang mogelijk van de beste kaart. Dus zou ik dan eerder die $$$ kaart gelijk kopen
De eerste testversies zullen eind deze maand, begin volgende maand komen. De massaproductie zal in december beginnen en de eerste retail-verkopen in februari volgend jaar...
Hoe kan nVidia nou gaan klagen over de verkoop datum van deze kaartjes? De chip is gelanceerd, dus waarom dan niet zo snel mogelijk kaartjes maken met dit ding?
nVidia klaagt niet. Ze willen voorkomen dat de ene fabrikant zijn produkt eerder op de schappen ligt als de andere fabrikant.

Er zijn altijd mensen met veel geld die de allereerste GF FX willen kopen. Als er dan enkel een Sparkle in de winkel ligt, dan kopen die mensen een Sparkle ten nadele van andere fabrikanten die pas later klaar zijn met hun kaartje. Dat is natuurlijk niet de schuld van een fabrikant zoals Sparkle. Misschien hebben zij hun produktielijn eerder klaar en hebben ze een snelle distributeur. (tenzij ze hun GPU tjes en DDR2 geheugen eerder geleverd hebben gekregen dan de andere fabrikanten). Blijkbaar wil nVidia een vinger in de pap houden en zorgen voor een gelijke algehele lancering. Dat is natuurlijk ook beter voor de campagne die nVidia wil voeren. Als nVidia de klant een lanceerdatum belooft en er ligt in sommige winkels maar 1 kaartje van 1 merk is dat nogal amateurenclub.

Uit het oogpunt van de klant zou je nVidia ook gelijk kunnen geven als je spreekt over kwaliteit of prijs. Misschien is een GF XF bord van MSI beter in elkaar gezet als een bord van Sparkle en dan is het wel zo prettig als je zelf wat meer keuze hebt. Ook uit het oogpunt van prijs is het misschien beter. Als je kunt kiezen uit een POV, een Asus, een Abit, een MSI en een Sparkle (etc.) die mogelijk praktisch hetzelfde zijn, kun je de goedkoopste pakken ofwel de bundel die het best bij jou past.
"Uit het oogpunt van de klant zou je nVidia ook gelijk kunnen geven als je spreekt over kwaliteit of prijs. Misschien is een GF XF bord van MSI beter in elkaar gezet als een bord van Sparkle en dan is het wel zo prettig als je zelf wat meer keuze hebt."

Aaaaah, wil mamma nVidia voor haar lieve kinderen de klantjes zorgen? Natuurlijk niet.

Als ze niet willen dat kaarten met hun chip op de markt verschijnen, moeten ze die chip maar niet verkopen. Ik snap niet waar ze al die voorwaarden vandaan halen. Zij verkopen die chip aan videokaartfabrikanten met ingang van een bepaalde datum en verder is het niet hun probleem lijkt mij zo. Het is daarna aan de klant om te bepalen of hij blind 25% extra wil bepalen om de allereerste kaart te kopen, of dat hij liever eventjes wil wachten totdat er wat te vergelijken valt.

\[edit:]
Ik sluit mij aan bij de mening dat het een erg lelijk en lomp ding is, vooral als je het vergelijkt met GF4s die er vaak erg fraai uitzien. Een Athlon heeft nog niet eens zo'n gezwel nodig om te koelen.
Ben ik nu de enige die vind dat al die chippies en condensator (look alikes?) het net doen lijken alsof die kaart stamt uit de tijd van dat er nog buizen gebruikt werden ? :) het ziet er allemaal zo plomp en groot uit....
Ik weet dat het daar niet om gaat, en het zit toch binnen in je kast, etc., maar ik ben het wel met je eens. Pl**r*s wat is dit ding gruwelijk lelijk zeg. Ik kan alleen maar hopen dat kaart fabrikanten met modellen komen die er een beetje uitzien. Ik bedoel, wie EUR 600 neerlegt, wil toch iets moois in zijn handen krijgen. Het oog wil ook wat, zo is het toch?
Nou, het is wel duidelijk als je zo'n kaart koopt dat je performance wilt, en bij performance komt warmte, en dat dit nu gewoon de effectiefste manier is om de warmte af te voeren, daar is verder ook niks aan te doen. Ik vind het trouwens wel cool zo. Maar het blijft natuurlijk een kwestie van smaak. Hiermee kun je tenminste showen. Dat heeft vrijwel niemand tot nu toe. Maar ik moet zeggen zonder koeling vind ik de kaart echt supermooi, dat groene met zilver. Maar ja dan komt er zo'n koeling op.

Die eerste pci slot ben je toch altijd kwijt, omdat MB producenten er nog altijd niet op komen om de agp hoger te zetten en kasten makers een stuk hoger nog een uitsparing voor de kaart maken.
Ik vind het ook.. Het koper enz is wel mooi, maar dan die plastieken kap erover is echt lomp, ouderwets. Ze hadden er beter een mooie plexi uitvoering van gemaakt.
achja plexi is ook doorzichtig plastic

pc zit toch dicht gaat mij om performance
zo'n afzuigkap die direct naar buiten blaast is een goed idee (ik heb daarvoor nu zo'n los afzuig fan boven een pci slot zitten)

als ik deze kan kopen heb ik dus pci slotje vrij
Niet veel langzamer zeg je.
Nee hoor nou oke dan we ze toch lekker vergelijken.

De Radeon 9700 Pro kan en heeft:
325 miljoen polygonen per seconde
256 vertex shader instructies
256 pixel shader instructies
96bit floating-point engine
2600 megapixels per seconde

De GeForce FX kan en heeft:
375 miljoen polygonen per seconde
1024 vertex shader instructies
65536 pixel shader instructies
128bit floating-point engine
4000 megapixels per seconde

Nee maar niet krachtiger he.
Wacht jij nou eerst maar es op een benchmark. dit zegt erg weinig zoals al vaker is gebleken in het verleden.

En dan nog, de geforceFX loopt 6 maanden voor. Gek he dattie sneller is?! |:(

Maar toch kan ik niet wachten op het antwoord van ATi :9
Tja, en dat moet die FX dan allemaal persen door een 128 bits busje. En dat terwijl 256 bits geheugentoegang mogelijk is (9700 Pro)

Kijk die Matrox Parhelia leek op papier ook geweldig. Toen deze eindelijk in de winkel lag, bleef er niets over van die prestaties. Vandaar de wijze post van SleepOrz: "wacht eerst de benchmarks maar af" Want misschien is de combinatie van super-ddr-II geheugen en supersjip Fx helemaal niet zo snel als deze op papier lijkt. De Fx heeft niet alleen maar voordelen!
Grappig en al maar §600 eruo legt niet iedereen neer denk ik voor een Video kaart... :S ik bedoel maar kan je toch leukere dingen voor kopen of desneeods een goedkopere videokaart dan hou je nog poen over voor b.v een Xbox game of 4 :P

maar ik las daarnet 2 PCI sloten sirieus ?
Want PCI haalt toch nooit de breedband snelheid van AGP ?
maar ik las daarnet 2 PCI sloten sirieus ?
Want PCI haalt toch nooit de breedband snelheid van AGP ?
Beter lezen... ze bedoelen dat de kaart qua omvang zoveel ruimte in beslag neemt dat er PCI-sloten geblokkeerd raken. Niet dat de kaart zelf gebruik maakt van PCI-sloten...
Hij gebruikt agp maar met de koeler ernaast heeft hij de breedte van 2 pci slots waardoor je het pci slot naast de kaart niet kunt gebruiken
eeh PCI-x is sneller als AGP
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True