Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 145 reacties
Bron: X-Bit Labs

nVidia Logo (graphics^n)Bij X-Bit Labs is verse informatie verschenen over de opvolgers van de GeForce3. Wat voor velen niet als een verrassing zal komen: de NV25 zal de GeForce4 Ti gaan heten, en de NV17 zal door het leven gaan als de GeForce4 MX. De GeForce4 MX krijgt vergelijkbare features als GeForce4 Ti en krijgt dus ook DirectX 8.1 ondersteuning. Veel bijzonder nieuwe features worden niet geïntroduceerd met de nieuwe GeForce4 chips, maar een extra TnL unit, hardware DVD decoding en twee 350MHz RAMDAC’s voor TwinView zijn natuurlijk wel altijd welkom .

Er zullen totaal 5 verschillende soorten GeForce4 kaarten verschijnen:

  • GeForce4 Ti 1000. Volgens X-Bit Labs krijgt deze kaart de beschikking over een AGP 8x interface, een core frequentie van ongeveer 300MHz en 128MB geheugen wat maar liefst op 350MHz DDR (700MHz effectief) loopt.
  • GeForce4 Ti 500. Deze kaart is een langzamere versie van de GeForce4 Ti 1000 en krijgt een core snelheid van ongeveer 275MHz en de 128MB geheugen zal op 300MHz DDR (600MHz effectief) lopen. Daarnaast krijgt deze kaart een gewone AGP 4x interface.
  • GeForce4 MX 460. Deze kaart zal ongetwijfeld aantrekkelijker zijn voor mensen die op de centen letten bij de aanschaf van een videokaart. De GeForce4 MX wordt gebaseerd op de NV17 core en krijgt een DirectX 8 compatible TnL unit. De core zal op 300MHz lopen en gezelschap krijgen van 64MB DDR geheugen met een snelheid van 550MHz effectief.
  • GeForce4 MX 440. Dezelfde kaart als hierboven, alleen langzamer. De core gaat op 275MHz zijn werk doen en het geheugen zal op 400MHz effectief gaan lopen.
  • GeForce4 MX 420. Een echte low-end kaart. Deze kaarten krijgen slechts 64MB SDR SDRAM wat op een snelheid van 166MHz loopt. De core zal slechts 2 rendering pipelines krijgen en lopen op 250MHz.

In hoeverre deze informatie klopt is natuurlijk voorlopig nog de vraag, maar X-Bit Labs meent dat de chips in de tweede helft van januari 2002 zullen worden aangekondigd, dus we zullen het snel genoeg te weten komen .

Met dank aan cyberkiller007.com voor de tip.

Moderatie-faq Wijzig weergave

Reacties (145)

1 2 3 ... 7
Hmmz, er wordt niks gezegd over PixelShader 1,4 support, zou de GeFroce 4 dan nog steeds maar t/m PixelShader 1,3 ondersteunen? Ik denk dat dat niet zo'n slimme zet is aangezien dit de grote voorsprong van de Radeon 8500 is.

De echte nieuwe features zijn dus voledige dx8,1 support? (Hoe kan dat zonder PixelShader 1,4?) 128MB RAM = useless (zodra we dit nodig gaan hebben is de GeForce 5 ALLANG op de markt)
8xAGP...interessant? vind ik niet, moet eerst me mobo het ondersteunen en ik vond AGP4x tov 2x eigenlijk ookal niet zo'n super upgrade (scheelt weinig in 3dmark)

Die extra TnL unit is wel grappig maar eigenlijk zit de speed van de GeForce3 al wel goed. Als je alle spellen al op 1600x1200 kan spelen, wat heb je dan aan een NOG hogere frame rate, ik denk dat je je dan beter op visual quality en FUNKY features kan gaan richten.

Naja, er is nog te weinig informatie over de GeForce 4 om echte conlusie's te gaan trekken, ik hoop persoonlijk dat ze ook ff features denken en niet alleen aan brute strength.
Hmmz, er wordt niks gezegd over PixelShader 1,4 support, zou de GeFroce 4 dan nog steeds maar t/m PixelShader 1,3 ondersteunen? Ik denk dat dat niet zo'n slimme zet is aangezien dit de grote voorsprong van de Radeon 8500 is.
lijkt me stug aangezien wordt gezegd dat de GF4 DirectX 8.1 volledig ondersteund, dus heeft ie ook pixelshader 1.4, aangezien DX8.1 tot 1.4 gaat :)
De echte nieuwe features zijn dus voledige dx8,1 support? (Hoe kan dat zonder PixelShader 1,4?) 128MB RAM = useless (zodra we dit nodig gaan hebben is de GeForce 5 ALLANG op de markt)
Er zijn mensen die weinig zin (lees geld) hebben om elk jaar een nieuwe videokaart aan te schaffen. 640 kb geheugen was ooit ook genoeg voor iedereen :-)
128MB RAM = useless (zodra we dit nodig gaan hebben is de GeForce 5 ALLANG op de markt)
Fout!
Die heeft 256MB en 512MB Onbourd :P
Denk ik wel...
8xAGP...interessant? vind ik niet, moet eerst me mobo het ondersteunen en ik vond AGP4x tov 2x eigenlijk ookal niet zo'n super upgrade (scheelt weinig in 3dmark
Ja vind dat ze ook wel
Mogen wel iets anders verzinnen.
En ja 8X AGP zou eind 2002 op de mobo's zitten
Die extra TnL unit is wel grappig maar eigenlijk zit de speed van de GeForce3 al wel goed. Als je alle spellen al op 1600x1200 kan spelen, wat heb je dan aan een NOG hogere frame rate, ik denk dat je je dan beter op visual quality en FUNKY features kan gaan richten.
Ik heb eens gelezen dat DOOM3 met een Geforce3 en een XP proc ..in 1600x1280 ongeveer 30frames per sec haald.
Naja, er is nog te weinig informatie over de GeForce 4 om echte conlusie's te gaan trekken, ik hoop persoonlijk dat ze ook ff features denken en niet alleen aan brute strength.
JUIST *d
Wanneer is het nu eens afgelopen met die kortzichtige argumenten zoals: "Een GF3 haalt ook al 200 fps in Kweek3 wat heb ik hieraan" of " aan 128 MB heb je niks ".

Djeez. Alsof de huidige game-engines de Heilige Graal zijn van softwareontwikkeling. Er staat de komende jaren een forse increase in polygonen en een overgang naar 64 bit te wachten. Doom3 en Unreal 2 engines kunnen echt wel wat extra power gebruiken en zullen pas echt volledig from scratch voor DirectX8 geschreven zijn. De T&L units worden nu pas langzaam op de proef gesteld.

Buiten dat heb je nog altijd FSAA die ook met dergelijke snelheden die eraan komen langzaam standaard kan worden aangezet.

Van 3D power krijg je de komende jaren echt niet genoeg. Totdat we Toy Story II GFX thuis op onze monitors zien is er nog veel vooruitgang mogelijk en is elke vernieuwing op de weg daarnaartoe welkom.

Wat willen jullie nu? Dat er eerst software op de markt is die de hardware volledig ondersteund en ten volle gebruikt?
Wat willen jullie nu? Dat er eerst software op de markt is die de hardware volledig ondersteund en ten volle gebruikt?
Als dat gebeurd kunnen ze fijn met ze allen gaan zeiken dat de spellen slecht geprogrammeerd zijn omdat het op de nieuwste hardware niet lekker loopt ;)
nu nog prijzen }>
zijn er al plannen voor 8X AGP op mobo's??
Direct X 8.1 ondersteuning had de Radeon 8500 toch ook al?? :?
Met zoveel geheugen is de AGP-bus totaal niet spannend omdat alle framebuffers en textures in het geheugen van de videokaart geladen worden. Pas als de spellen zoveel textures gaan gebruiken dat die 128MB vol loopt en hij dus de AGP-bus moet gaan benutten om systeemgeheugen aan te spreken is een snellere bus interessant, en dan nog is 8x VEEEEL te traag om als vervanging voor het geheugen op de videokaart te dienen.

Maw: AGP 8x boeit niet.
AGP 8x boeit wel, 2 AGP sleuven op een mobo lijken me errug interessant namelijk. Qua snelheidswinst tov AGP 4x zal het vast meevallen, maar qua features is het een echte vooruitgang...
Een nieuwe feature van AGP 8x is dat je twee apparaten erop kunt aansluiten in tegenstelling tot andere AGP specificaties die alleen bedoeld zijn voor een apparaat. Met AGP 8x kun je dus in principe twee AGP 8x kaarten installeren ipv. een AGP en PCI kaart.
2.1GB/sec eigelijk :p

en idd, 2 AGP-sloten is toffer voor wie 2 schermpjes wil hebben met 2 kaarten dan AGP + PCI
Wat heeft AGP 8x nou te maken met 2 AGP sloten ?
Is qua architectuur bijna niet te doen btw.

En AGP 8x zorgt gewoon voor 266Mb/s (denk ik) bandbreedte voor de vid. kaart.
266 MB/sec? lijkt me niet, AGP 4x is al 1133 MB/sec
Vergis je daar niet in. Veel spellen maken gebruik van procedural textures, wat dus niets anders inhoudt dat voor ieder frame je CPU een nieuwe texture berekend. Deze textures zullen dus wel degelijk ieder frame via de AGP bus naar je videokaart moeten worden geupload.

Tevens is AGP 8x geoptimaliseerd voor streaming van data, wat het mogelijk gaat maken om video als texture te gaan gebruiken. Misschien nu nog niet gebruikt in spellen, maar het zal me niet verbazen als deze feature voor procedural textures handig is.
video streamen gaat met agp4x in principe al rap zat, gelukkig :)
Niet alleen de Radeon maar ook de GeForce 3 serie beschikte over DirectX 8 ondersteuning, niet veel nieuws dus. Over het 8x AGP gebeuren heb ik verder nog niet veel gehoord, al zal het statistisch gezien niet veel nieuws opleveren omdat het verschil tussen de voorgaande 2x en 4x ook nihil is.
Als deze chips halverwege januari aangekondigd worden zal het dus nog ff duren voordat ze er zijn, daarna gaat de GeForce 3 er ff uit in een strijd om de goedkoopste. Dat zal voor vele een aantrekkelijke koop zijn, ik ben niet op de hoogte van wat Ati gaat doen maar dit zou rake klappen kunnen gaan uitdelen aan de voorlopige winnaar.
Er is wel degelijk verschil, de Radeon 2 support DirectX 8.1 volledig.
De GeForce 3 support alleen maar DirectX 8.0.

Klein detail maar wel een groot verschil....
Inderdaad!
Ik vind persoonlijk een GeForce2 Ti op dit moment nog te duur!
Duur? als je goed zoekt heb je em al voor f300,-. Dat vind ik niet duur, hoor.
Ik heb gisteren een GeForce3 Ti200 van Creative met TV-out voor 500,- piekies gehaalt....
Dan moet je een MX-je voor een prikkie kunnen kopen !!
[ot]
Wat heeft een gf3ti200 nou met een gf4mx te maken?
Mr Dope hierboven had het over de prijs... ik zag een goedkope andere geforce en wilde op die manier een prijs-vergelijk maken, een mx-je kan je heel goedkoop kopen als je even op zoek gaat....
Wat is nu precies het verschil tussen de MX en de TI? (NV25 en NV17) behalve snelheid en geheugen?
Ik weet niet meer dan wat er in de nieuwsposting hierboven staat, maar het denk ik een veilige gok om te veronerstellen dat ie minder pipelines zal hebbe, langzamere TnL. Iets in die richting.
Maar ik wil het precies weten. Als ik het zo bekijk is de MX460 de interessantste. Maar als de nv25 echt anders is en beter, gaat mijn voorkeur toch naar de ti500 uit.
als ik het zo lees heeft de Ti 2 TnL units, terwijl de MX er maar 1 heeft. En de Ti ondersteunt DirectX 8.1, terwijl de MX gewoon 8.0 ondersteunt.

En dan kom je op de volgende vraag: wat is in hemelsnaam het verschil tussen de gf4 mx en de gf3 mx :? (zal wel gewoon iets sneller zijn)
Die naam alleen al.. GeForce4 Ti 1000 ( !!!!!!! ) :9
JE kunt wel merken dat de marketingsafdeling van nVidia weer goed bezig is :P

\[vobis-mode]
Een GeForce4 Ti500 is natuurlijk beter dan een GeForce3 Ti500 en de Ti1000 is weer ongeveer 2× zo snel.
[/vobis mode]

;) :P
JE kunt wel merken dat de marketingsafdeling van nVidia weer goed bezig is
Inderdaad. Onwaarschijnlijk veel jongetjes hier met een stramme larf na het lezen van dit bericht. "Stoer, alweer achterlopen en roelen" zijn alweer voorbij gekomen.

Massaal gaan de "tweakers-met-rijke-pappa" weer duizend of meer piek spenderen om maar weer de stoerste videokaart te kopen die weer 15% sneller is in het altijd roelende 3Dmark2001.
Tof, nodig je al je vrienden uit om gezellig een avondje 3Dmark te gaan kijken ;)

Nvidia roelt ja... op marketinggebied ;(.
Vraag creeren is natuurlijk geniaal van nVidia. Op het moment dat er weer nieuwe drivers zijn 'gelekt', gaan we als kleine jongetjes stiekum een nieuwe driver proberen alsof een kleine elite groep dit alleen zou kunnen. Das de kracht van het 'lekken', het gevoel krijgen alsof jij de enige bent die de drivers mag proberen. Iedere keer weer een paar puntjes meer in een 3D-bench geeft je weer een warm gevoel, terwijl je bij een spel er eigenlijk helemaal niets van merkt. Nou ja, voor je gevoel gaat het spel wel beter uiteraard en daar maken de Intel, nVidia en vele anderen jongens massaal gebruik van. Iedere keer weer nieuwe features die nooit volledig tot hun recht komen omdat het volgende product alweer op de plank ligt en de software ontwikkeling net niet snel genoeg ging om alle geweldige brute pipelines en bandbreedtes oid te benutten.
Maar goed de markt wil graag voor de gek gehouden worden en wordt op z'n wenken bediend.
Bij deze wens ik iedereen die er recht op heeft en in kerst gelooft een goed kerstfeest en voor iedereen een prettig nieuwjaar met een gave gForce4.
mwa tis niet zo dat het slechte kaarten zijn ofzo en dat ze alleen maar verkopen op naam/specs!

ze zijn de beste in hun klasse en daar betaal je ook voor
Daan weet je tenminste zeker dat het zin heeft om te upgraden ;)

Ik persoonlijk vind dat nVidia en ATI (nat. ook Kyro etc) eens om de tafel moeten gaan zitten met de software-schrijvers. Hieruit zou een API moeten komen welke voorlopig niet aangepast hoeft te worden, dus met denken aan de toekomst. Hierin zouden specificaties opgenomen moeten worden die dingen zoals realtime-radiosity lighting beschrijven. Wat ik bedoel te zeggen is dat er een standaard API (denk aan OpenGL) welke al voorziet in features die nu nog niet in hardware realiseerbaar zijn (vanwege groot bandbreedte gebruik, zware GPU/CPU belasting oid). Dit geeft software developers dan de kans om vooruit te werken terwijl hardware bedrijven de features gespecificeerd zo snel mogelijk op de markt proberen te krijgen.
Bij deze wens ik iedereen die er recht op heeft en in kerst gelooft een goed kerstfeest en voor iedereen een prettig nieuwjaar met een gave gForce4.
.

Heu, voorlopig is de GF4 er nog niet hoor. Er valt wellicht wat te zeggen voor de marketingstrategie van Nvidia en consorten, maar volgens mij heeft dit soort cynisme ook weinig zin...
Of juist niet natuurlijk... Als je bijv bekijkt dat er op het moment geproduceerd word voor te verdienen: (logisch)

Spellen worden wel mooier maar ze worden ook steeds minder geoptimaliseerd voor snelheid. Je kan hetzelfde effect krijgen met een ander stukje code.. Dit andere stukje kan weer een paar kloktikken schelen. Doe dit op meerdere plaatsen en een spel loopt stukken sneller. Maar zo wordt het weer te duur. Dus wat word er gedaan: De kosten worden bij de consument gezet door de consument steeds nieuwere hardware te laten kopen wat mischien eigenljk niet nodig is.. Er zijn natuurlijk ook uitzonderingen neem nu bijvoorbeeld die nieuwe belichingsmethode: Heete zoiets als fong of pong shading.. voor elke lichtstraal een aparte berekening ivm reflecties. Geniaal gewoon
Het voordeel van een nieuwe dure GF4 kaart is natuurlijk wel dat GF3 kaarten lekker in prijs zullen dalen. Dus stukken minder geld voor een beetje verlies in performance. Dat hebben we ook gezien met GF2 kaarten bij de introductie van GF3.
Als je het goed bekijkt, is het juist beter dat de hardware voorloopt op de software dan andersom.
Je zou maar een spel hebben die niet vooruit te branden is met een Geforce4 :'(
De Geforce4 Ti1000 wordt vast verkocht voor € 1000,00 :P
128 mb op 700 mhz?? is wel heel lekker... maar wat zal de prijs daarvan worden? :(

ik denk dat die Geforce 4 mx 460 het meest aantrekkelijkst zal worden...

nouja we zullen zien.. ik ben iig tevreden met mijn gf2 pro 32 mb...

wrom moet je 200 fps hebben? als 100 voldoende is?
700 Mhz lijkt me voor 1 chip onwaarschijnlijk... Zal wel met dubbele bandbreedte te maken hebben...
Zoals in het artikel staat:
350 MHz geheugen, dat gebruik maakt van DDR-techniek om tot 700 MHz effectief te komen.

Wat mij overigens aan het denken zet...350 MHz geheugen komt ongeveer overeen met 2,85 nanoseconde toegangsnelheid. Bestaat dit überhaupt al? Krijg je dan geen ontzettend grote problemen met je timing ivm lengten van 'bedrading' ?
nou, je kan die 200fps naar beneden gooien naar de 100fps met 2x zoveel details?

Tis maar een idee hoor, want als FPS niet uitmaakte, dan hadden we nooit 3d kaarten nodig gehad aangezien doom en wolvenstein ook al snel zat draaiden 10 jaar geleden :Z
Foutje, 2x zoveel details is 4x langzamer aangezien het zowel in hoogte als breedte 2x zo veel wordt. 1280x960 is 4x langzamer als 640x480.

En doom en wolfenstein waren inderdaad snel zat ... op 320x200. Bovendien leek het 3D maar was het niet, alle objecten waren 2D. Schiet maar eens iemand neer en loop er omheen terwijl je er naar blijft kijken, het lijkt dan of het met je meedraait.
Nou ja zo hou je de cirkel rond, want dit geeft de software branche de kans om met steeds zwaardere spellen te komen.

En je hebt wel een beetje gelijk, maar ja het gaat om geld dus.....

Ik hoop wel dat de 2D view bij de Geforce 4 verbeterd is, dat was en is de reden dat ik geen geforce koop. Verder vind ik dat de naam ook niet echt vernieuwend is. Ze hebben nu al 4 series daarmee gemaakt misschien is het tijd voor een nieuwe naam.
Hangt ook af van de fabrikanten van de kaarten. Leadtek bijvoorbeeld heeft een filter gebruikt die betere beeldkwaliteit oplevert dan een matrox met hun geforce 3.
k wil eerst de prijzen es zien, want die zullen ook niet mals zijn. :(
Benieuwd wat er van waar is, specs van video kaarten worden vaak op het laatste moment naar beneden bij gesteld.
En waarom er 128 MB geheugen nodig is. 64 MB met texture compression is in alle spellen meer als voldoende.
Voor alle spellen van NU, ja. Vroeger vond ene Bill Gates 640k Ram ook voldoende...

128MB is strax niet meer voldoende. Als de kleurdieptes van 32-bits naar 64-bits gaan (de spellenmakers willen wel), heb je 128MB nodig om dezelfde prestaties te halen als nu op 32-bits met 64MB. Uiteraard is dat afhankelijk van meer factoren, zoals geheugenbandbreedte, maar 128MB wordt noodzaak voor de mooiste spellen van de nabije toekomst.
Ehm, hoeveel spelletjes gebruiken NU al 64 MB texture compressie? Grootste gros speelt nogal tijd Quake en Unreal, geloof niet dat die die 64 MB aanspreken (lijkt me stug, engine is al jaartjes oud).
Wordt dan wel 's tijd dat Quake en Unreal ook 's met een nieuwere engine komt. Is wel erg stil bij ID-software. :Z

Kan iemand mij uitleggen wat in hemelsnaam een 64 bits kleur is? 32 bit (truecolor) ondersteunt miljoenen kleuren. Ehm, 64 bit miljarden? Lijkt me toch wel dat voor games miljoenen kleuren voldoende zijn (plaatjes die game vormen - zgn. maps - zijn nog niet eens allemaal jpg zelfs al is het een jpg dan zijn ze 100% zeker niet op maximale resolutie ofwel gecomprimeerd). Daarnaast grappenmakers, als je monitor op 32 bits kleuren staat (ik kan eg nie hoger hoor!) 'zie' je die 64 bits kleurdiepte toch nie.
Als je 64 bits kleuren hebt, kan je de kleuren nauwkeuriger berekenen. Dan worden ze later teruggeschakeld naar 32 bit. Op die manier worden de kleuren dus echter.
Als je 90 berekeingen doet over 1 pixel wordt er tussendoor steeds afgerond en van de oorspronkelijke nauwkeurigheid blijft er daarna bij wijze van maar 14bit origneel over. Dan is 64bit nodig om deze afrondingsverliezen op te vangen en nog steeds een goede kleur te behouden.
Tegen de tijd dat die spellen uit zijn, zit nVidia al aan de Geforce 5 of 6.
Ik zie ook wel in dat er spellen komen die aan 64 MB niet genoeg hebben, maar voordat die er zijn kan je ze toch niet meer "goed" op je geforce 4 draaien.
Maar 350 DDR SDRAM is al erg duur en daar ook nog is 128 MB van maakt deze kaartje dan wel heel erg duur.
Ik dacht dat de Doom3 engine van ID 64bit kleuren zou ondersteunen? Die komt eind 2002 uit als het goed is...
Oh ja? 32bit naar 64bit is:
2^64/2^32= VEEL meer dan 2 keer zo veel... (om precies te zijn het aantal kleuren van 32bits x zo veel..., 4294967296 keer zo veel dus, dit is dus in getallen, in geheugenruimte zal dit minder zijn maar nog steeds meer dan 2 keer zo veel!)

Aangezien de kleuren later teruggeschakeld worden naar 32 bits is deze post dus niet echt nuttig, maar goed..
Inderdaag,
het verschil tussen 32 en 64 bit zal je nu nog niet zien.
Maar het zal wel komen.
Ik zie het meer als:
Vroeger werd de mens niet groter als 1.60 :?
Terwijl nu 1,80 toch wel al klein is ;)

Zo groeit alles mee, en zullen wij dadelijk meer kleuren kunnen onderscheiden.
En wat dacht je van de 4...nee ik bedoel 5e Dimensie :?
we hebben er nu 4
TIJD
L,B en H

Laten we eens kijken wat er nog allemaal gaat gebeuren.

p.s. Vind het ook raar klikken als er word gezegd dat ze nieuwe transitoren hebben gemaakt van ik weet niet hoeveel duizendste nano meter.
Met een Pincet zeker :?
;)
Ik snap alleen niet het nut van 64 bit kleuren. Iedereen zal een nieuw scherm aan moeten schaffen en ik denk niet dat iedereen daar zin in heeft (zeker ik niet heb net een scherm voor 900 gulden gekocht.) Dus de kans dat dit echt ondersteund gaat worden in de komende jaren lijkt me vrij klein. Dit zal zeker gaan over een termijn van drie jaar.
Daarbij zie je het verschil tussen 16bit en 32bit? Ik niet echt als ik een spel aan het spelen ben... dan word 32bit en 64bit nog veel moeilijker te zien...
analoog schermpje draait zelfs 128bit kleur als de RAMDAC van de videokaart gewoon een RGB-signaal stuurt, geen probleem, niks nieuw scherm nodig
ik moet zeggen dat ik de 3dfx dagen mis

toen kon je met je kaartje 2 jaar doen en nog gerust soepeltjes de zwaarste games draaien, 3dfx hield echt rekening met de consument in tegenstelling tot nvidia, die elk half jaar een nieuwe reeks kaarten uitbrengt.

nvidia brengen videokaarten uit die nooit echt baanbrekend/enorm snel zijn, met als voordeel voor hun dat de consument dan snel weer aan een upgrade toe is, natuurlijk een slimme marktstrategie maar ze dwingen met deze manier van verkopen mijn respect absoluut niet af
Spreek je jezelf nou niet tegen?
Eerst zeg je dat het nu zo hard gaat, en daarna weer dat er geen grote snelheidsverschillen zijn tussen de nieuwe generaties :?
tegewoordig lukt het de software makers gewoon beter om dinge te maken die je hardware wel eens doen slikken, was vroeger minder het geval

trouwens, als je games aan 100fps draaien op acceptabel detail, stop met kankeren over traag, zet wat meer detail op en speel trug op 60fps, ik bedoel maar, de software van vroeger is kwa graphische kwaliteit gewoon ook een pak minder dan nu
huh? Geforce4 zou toch DX9 compatible zijn :?

En in de moederboard roadmaps is AGP8 nog niet in zicht.
ik denk niet dat deze informatie echt betrouwbaar is.

edit: En waar blijft de nv30? dat zou toch de GF4 moeten zijn?
nv30 is een hypothetische geforce 5

GF4 is nv25
GF3 is nv20
GF2 is nv15
GF1 is nv10
en de nv17 (die gf4mx heet) zit dus tussen gf2 en gf3 in. beetje vreemd.
inderdaad: nv17m (de mobile) is zo'n beetje een GF3 met 2 pixelpipelines

dus zeeer vreemd om zoiets GF4 MX te noemen

majah, we zulle nog zien zeker ?
Zou er ook een geforce 4 MX in PCI versie uitkomen?
Hehe, nou misschien ;)

PCI levert naar 133MB/s, dus...
...misschien met een 66MHz variant die 266MB/s doorlaat. Want AGP8x laat 2.1GB/s door. Voor zover ik weet is de GeForce2MX200 de enige moderne videokaart die PCI is. Op de Voodoo5 na dan.
Radeon VE, bestaat die ook niet in PCI ?
1 2 3 ... 7

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True