Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 69 reacties
Bron: ZDNet

Bazen bij nVidia hebben aangekondigd dat het bedrijf nog meer nieuwe producten zal brengen dit jaar, naast en na de pas geïntroduceerde GeForce4 serie, valt te lezen op ZDNet. Eén van de volgende ontwikkelingen zal een product zijn met DirectX 9 ondersteuning. De GeForce4 ondersteunt momenteel DirectX 8.1 en is niet compatibel met DirectX 9. DirectX 9 verkeert momenteel in bètafase, maar de nieuwe multimedia-API van Microsoft wordt nog dit jaar verwacht. Marketingman Steve Vivoli van nVidia garandeerde dat men als eerste een DirectX 9 kaart op de markt zal brengen. Dat wordt dan wellicht dit najaar: Jen-Hsun Huang, nVidia topman, zei onlangs dat nVidia er naar streeft iedere 6 maanden nieuwe GPU's uit te brengen.

nVidia LogoOp kortere termijn zijn er nog meer nieuwigheidjes onderweg van nVidia. Binnen dertig dagen is er nieuws over een nieuwe uitvoering van de nForce-chipset te verwachten, evenals van de voor professionele toepassing bedoelde Quadro chip, een logisch gevolg van de komst van de GeForce4 serie. Men kijkt bij nVidia ook naar andere markten dan die van de desktop-pc's:

Zoals bekend ging de introductie van de GeForce4 gepaard met de presentatie van een mobiele tegenhanger, de NV17M of GeForce4 Go. Meer is echter ook mogelijk, want volgens Vivoli wordt er ook gekeken naar ingebedde markten. Misschien zien we dus binnenkort nVidia-technologie verschijnen in pda's. Dat zou niet zou raar zijn, want het bedrijf is sterk gericht op het ontwikkelen van betere anti-aliasingtechnieken, in het bijzonder voor lcd-schermen. Ook op een pda of een ander mobiel product zouden die van pas komen.
Moderatie-faq Wijzig weergave

Reacties (69)

ik denk dat de GeForce4 een flop wordt omdat iedereen gaat wachten op een kaart met DX9 support...

De kaarten komen ook veel te snel na elkaar om steeds een nieuwe te kunnen kopen. Dit is voor de consument natuurlijk wel goed, omdat de nieuwe kaarten dan sneller goedkoper worden. Maar bijna niemand met een GeFooce3 Ti500 gaat nu een GeForce4 kopen hoor :)
Tuuuuuuuurlijk. Iedereen die NU een nieuwe videokaart wilt gaat nog minstens zes maanden wachten op een product wat gebaseerd is rond een API die in alpha/beta status verkeerd en waarvan verre van bekend is wanneer die uitkomt.

Ik ga binnen nu en twee maanden een nieuwe gaming rig aanschaffen en daar zal zeker een Geforce 4 Ti gebaseerde kaart in komen te zitten. Wel het goedkoopste model natuurlijk, want zelfs die presteert beter dan de gehele Geforce 3 lijn. :)~
Daarbij weet meer dan de helft van de mensen op aard niet wat DX9 of 8.1 is, dat weten maar enkelingen. Ook weet je nog lang niet zeker wat DX9 kan dan 8.1 niet kan en hoezeer je dit zal missen als je het niet hebt.
Mensen willen gewoon graag het beste, keuze: Geforce 3 of 4 is voor veel mensen snel gemaakt. Zeker als je nu nog met een 2 zit (er vanuit gegaan dat je er de balle verstand van hebt).
Jimmy Pop

In ieder geval weten de meeste gamers wel waar directX voor is, want bij installatie van 'n nieuwe game wordt vaak de runtime re-distributie bij meegeleverd zodat je indien nodig DirectX kan updaten bij de game installatie, naar de versie die die nieuwe game nodig heeft.

Want bij veel Win32 games hoort 'n minimum directX versie bij voor het te kunnen runnen.

Staat vaak ook op de Game retail box met kader voor hardware eisen.
Maar zoals ik al zei zullen veel van die gamers die achterloos DirectX installeren alleen weten dat b.v. versie 9 beter is dan 8.1, in welke opzichten weten ze dan niet. Ze weten alleen dat het wel beter moet zijn en of hun 3D kaart dit wel/niet volledig ondersteund zal ook niemand wat uitmaken, sterker nog, de helft van de mensen zou niet weten wat voor 3D kaart hij/zij bezit.
Als je een oudere kaart hebt koop je natuurlijk nu een GeForce4 :) Maar als je al een GeForce3 hebt?...

Ik ben ook GeForce > GeForce2 > GeForce3 gegaan zodra ze uitkwamen... mar nu wacht ik toch op de volgende versie.

Ze mogen eigenlijk wel eens een nieuwe naam kiezen... GeForce gaat al zolang mee :) RocketForce maybe? :P
Of voor StarWars freaks: TheForce :)


Die kaarten volgen elkaar idd wel erg snel op. Zelfs als je best wel wat geld hebt, ga je ze niet allemaal kopen. Zelf denk ik eraan dat als je er steeds één overslaat je nog steeds altijd een high-end videokaart in je PC hebt hangen.

* 786562 Se7enth_son
TiForce ! of Ti-Force. Beetje combinatie van Ti en Geforce
eh... Mensen, er zijn nog andere videokaarten dan de geforce xyz hoor. Binnenkort kom bv. de RV250, die 1,5 keer zo snel zou zijn als de R200. (althans, volgens geruchten uiteraard).

Ik bedoel:

Als je een oudere kaart hebt koop je natuurlijk nu een GeForce4

Nee, IK zou dan ook eens goed nadenken over een 8500, die al te koop is en veel prestaties voor het geld levert. Probeer iets minder narrow-minded te zijn svp.
Jammer dat die Radeon gevallen zulke vreselijke driversupport hebben, vriend van me nix dan problemen, andere gebruikers ook alleen gezeik, check de rage3d forums maar eens.

-DmD-
Wel het goedkoopste model natuurlijk, want zelfs die presteert beter dan de gehele Geforce 3 lijn

ahum tuurlijk wat jij wil!!!
De goedkoopste presteerd echt wel onder een ti500 hoor..... maar als jij dat wil geloven prima lees eerst eens wat reviews ofzo misschien dat reageren dan een optie word.
Ciao
wie koopt er nou een videokaart op basis van een spel ? dat is waanzin ... koop dan gewoon een spelconsole ofzo

is er echt iemand die een miskoop heeft omdat hij een geforce kaart heeft gekocht die niet geschikt zou zijn voor een spel wat binnenkort uitkomt ?

Na Doom2 komt 3 en na 3 komt 4 en ook dan komt er wwwweeerrrr een vervolg...
Exact hetzelfde werd gezegd over de TNT2, de GeForce, de GeForce2, de GeForce3, etc. Dus accepteer nou maar gewoon dat de markt voor dit soort hardware zo groot is dat als je de snelste bent of het nieuwste, hoe kort dat ook zal duren of hoe snel er ook iets beters komt: een grote groep mensen koopt het toch wel.
In de computerwereld moet je niet wachten vind ik. Als je iets nodig hebt kopen!!! want dan kun je aktijd wel blijven wachten. de ontwikkelingen gaan immers zo snel.
Tegen de tijd dat DX9 eris zijn we al op DX10 aan het wachten natuurlijk. Bovendien blijkt in reviews dat de GF4 gewoon onwijs snel is voor zijn geld. Over 3 maanden kunnen we de goedkoopste ti van nVidia kopen (ti4200) terwijl hij de GF3 ti500 én Radeon 8500 overruled. Ik denk dat die dan ook heel veel verkocht gaat worden, nVidia geeft winkels (helaas) nog ff de tijd om hun ti500's te dumpen
Kan 't me niet precies zo meer herinneren, maar ik geloof dat Max Payne op 1600x1200 x 32bit 2x AA maar iets van 37FPS deed

vind ik toch niet zo heel erg geweldig voor voor de EUR 500,- dat ie waarschijnlijk hier gaat kostten.

Ik ben benieuwd hoe snel doom III zal draaien op 1280x1024x32 met 2x AA... vast niet zo geweldig snel (in ieder geval geen 50fps denk ik).

Sorry hoor, maar ik geloof dus niet in Geforce 4 (of 3).
Juist niet want de kaarten zijn veeeeeel goedkope dan de GF3's dus men is geneigd om een GF4 te halen omdat deze beter presteerd en goedkoper is !!!

:D
Nvidia houdt zich kennelijk nog steeds aan haar schema. Elke 6 maanden een nieuwe kaart. (Spring & Fall products)
Spring product is altijd een kaart met nieuwe technieken. (TNT, GeForce, GeForce3) En dus zometeen rond de zomer de GeForce5.

Fall products zijn altijd verbeteringen t.o.v. de Spring products (TNT2, GeForce2, En nu de GeForce4)
En daarvan komen er ook altijd budget versien uit.
(Vanta,M64, en de MX series)

Normaal gesproken probeert vidia hun Spring producten zoveel mogelijk compatible te maken met de DirectX versies die rond de release van die kaart uitkomen. Alleen wisselt de tijd tussen twee directX versies nog al eens. Dus kan het eens gebeuren dat Nvidia daardoor geen "woord" kan houden.
FOUT!

even alles op een rijtje

S: TNT
F: TNT 2
S: GF1
F: GF2 (tot hier alle ok, maar nu :)
S: GF2U (nieuw??)
F: GF3 (wel nieuw)
S: GF3 Ti (en hier is echt niets nieuws aan)
F: GF4 (verbeterde GF3)

Oftewel: Sinds de GF2U krijg je om het jaar een verbeterde versie van de chip, en een half jaar na die verbeterde versie een overclocked model.
Waar een mens zich al niet druk over kan maken. Het is leuk die hype rond de commercie, maar je moet er natuurlijk wel nuchter onder blijven. Zolang je maar 30fps haalt, desnoods in een resolutie lager, al is zelfs dat niet eens heilig voor mij. Neem bijvoorbeeld Max Payne, wat in benchmark land toch als een topper te boek staat. Dat speelde ik destijds op 16bit 1024x768 met een 16mb MXtje, heb nu een 64mb Geforce3 ti en kan niet zeggen dat ik het verschil echt merk.
Ik speel vaak UT en je ziet duidelijk 'n beeld kwaliteits verschil tussen 32bits en 16bits kleurrendering.

640x480 houd in dat de details in de verte slecht zijn.

bij 1024x768x32 zijn objecten in de verte beter als friend or Foo te herkennen.

Nu ben ik verplicht voor redelijke FPS
640x480x16 of hooguit 800x600x16 te spelen met m'n TB1400 DDR en Gf2MX

Maar mijn TB1200 PC100 Radeon OEM vivo 64DDR
draaid met hogere FPS op 1600x1200x32 dan zie je duidelijk het verschil als je naast mekaar aan het multyplayen bent in UT, tussen zo'n gecastreerde Gf2MX of 'n high-end kaart van toen de radeon in de Gf2 tijdperk.
Ik vind dit schandalig, ik heb 1 maand terug een geforce 3 ti200 gekocht, ik koop deze kaart met name voor unreal 2, eerder was aangekondigt dat juist de GF3 helemaal op direct x 9 zou worden afgestemt, nu blijkt dit maar half waar te zijn kennelijk? Ik vind het belachelijk dat ik nu 700 gulden in een kaart geinvesteerd heb waar men kennelijk niet eens fatsoenlijk op ontwikkelt, ook het verhaal dat er speciaal overleg plaats vind tussen de makers van de unreal 2 engine en Nvidia vind ik steeds ongeloofwaardiger worden, neem de benchmarks op de unreal 2 engine van laatst, een in prijs vergelijkbare radeon kaart haalt bijna 35% hogere framerate, ik vind dat je dan als NVidia toch behoorlijke steekjes laat vallen.
een tijdje na de gewone gf3 launch was al bekend dat er 6 maanden later een TI versie zou komen. das nu ongeveer een jaar geleden, je kon toen dus al weten dat de GF4 nu uit kwam. zoals je ziet is de TI200 gewoon een door ontwikkelde gf3 chip die ong uitkwam met dx8 en 8.1 nou kan je niet verwachten dat ze dx9 hetzelfde laten als 8.1 zodat de gf3 het ondersteund he. vooruitgang heet zoiets, anders zaten we nu nog in XT tijdperk. Dat de GF3 ti 200 unreal ][ niet goed zal kunnen draaien lijkt me logisch. toen q3 bijv uitkwam was er een TNT maanden ervoor gereleased en die draaide het ook niet goed. gewoon logisch nadenken dus.
Ik vind het nogal onzin dat er al nieuwe versie kaarten wordt uitgebracht terwijl er nog geen spel is wat gebruik maakt van de geforce 3, natuurlijk kon ik dat weten maar zo werkt nvidia wel lekker in de hand dat iedereen de volgende keer heeeeeeeel lang wacht om iets nieuwers te kopen. Ik ga toch echt al een tijdje mee in de games/hardware wereld, maar dat er na bijna 1 jaar nog steeds nauwelijks games voor GF3 zijn vind ik op zich belachelijk.
PC game ontwikkelaars steken ook aardig wat energie in om 'n breedt publiek te benaderen,wat bij game consoles niet nodig is ivm fix hardware voor in verhouding lange periode tot de PC game markt platform..

Dus de allernieuwste games op dit moment worden meestal gemaakt voor 'n breedt publiek en stellen 'n minimum platform 'n reccomended en optioneel 'n maximum.

Opties Low, medium, High, ultra High.

De game engine werkt bijvoorbeeld met LOD levels dus bij low FPS schakeld die de LOD level terug of 16bits small textures ipv grote 32bits textures geen bump mapping die wordt dan disablen en tijdens initalisatie van de game engine worden de 3D device ffeatures ge-enumuleerd wordoor DX8.x features dus disable worden en er alleen met DX7 features gewerkt wordt

Veel nieuwe games ondersteunen dus vanaf Gf2 DX7 tot G3/4 DX8.X De Game designer bepaald de targed platform

Dus het is mogelijk dat UnreaL lI met alle zware en feature afhankelijke opties uit, redelijk loopt op 'n G2 GTS maar dan wel wat minder gelikt.

Dus hardware eisen:

*Minimum:
PIII 600 DX7 Device Geforce2, Radeon etc

*Recommended:
P4 1500 DX8.1 Device Geforce3 of Geforce4Ti of R200 R250 etc.

Als bijvoorbeeld maar 10% van de gamers aan 'n DX8.x kaart zitten lopen ze 'n 90% DX7 gamers mis als ze die niet zouden ondersteunen en kan het ook geen Succes hit worden omdat het target publiek veel kleiner is Als je de minimum eisen te hoog zet.
Wat wil jij dan? Dat je een jaar moet wachten eer je spellen fatsoenlijk lopen?

Er wordt zo ontwikkeld, dat een spel op een groot deel van de computers redelijk goed draait. De programmeurs willen nl graag dat veel mensen hun spellen kunnen spelen (en de paar zoals ik het dus ook KOPEN) en programmeren niet alleen zodat jij met je GF3 veel plezier hebt.

Spellen die wel voor het nieuwste worden gemaakt (Aquanox) floppen meestal. En niet alleen omdat men vaak enkel op de graphics let bij het programmeren.
Incorrect. De geforce 3 zou directX 8 spellen ondersteunen.
En dat doet ie ook.
G3 ondersteund tot en met DX8,0
G4Ti ondersteund tot en met DX8.1 tot en met PS 1.3
Net als de 8500 tot DX8.1maar tot en met PS 1.4 maar de Gf4 doet wat ie kan wel 'n stuk sneller.

NB.: PS = Pixel Shaders
dan had je maar wat meer bladen enz moeten lezen, dan had je dit geweten. trouwens je geforce3 Ti200 is te traag om unreal 2 goed weer te geven ;)
Elke tweaker wist zeker 3 maanden terug dat nVidia in januari met GeForce 4 zou komen. Jij koos om niet te wachten. Kun je wel pissig worden, maar ik denk niet dat GeForce 3 zoveel slechter is dan GeForce 4.
Er is wel degelijk sprake van een nauwe samenwerking tussen Nvidia en Epic. Volgens dit artikel is de "Unreal Performance Test 2002" juist beschikbaar gesteld zodat er optimale drivers ontwikkeld kunnen worden voor de nieuwe Unreal-engine.
Aangezien deze engine al lange tijd in ontwikkeling is, is het onwaarschijnlijk, dat Unreal2 DX9 zal ondersteunen. Tegen de tijd dat games DX9 wel zullen ondersteunen ben je toch al aan een nieuwe videokaart toe.

Overigens hadden die Radeon-drivers nog wat artifacts. Dat is nu overigens opgelost, maar dat ging wel ten koste van de framerate. Voor nieuwere benchmarks (incl. GF4) zou je hier eens moeten kijken.
Die 64bit is niet zozeer voor gamen maar voor professionele APPS. mbt tot beeldbewerking, 3d ontwerpen etc.

Maar ATI is toch al bijna klaar met zijn nieuwe videokaart die DX9 ondertsteunt? hoe wil NVidia dan als 1e een DX9 kaart op de makrt brengen ze zeggen zelf dat het pas Q3 is van dit jaar, denk dat ATI Q2 al hun kaart uitbrengt
Maar ATI is toch al bijna klaar met zijn nieuwe videokaart die DX9 ondertsteunt? hoe wil NVidia dan als 1e een DX9 kaart op de makrt brengen ze zeggen zelf dat het pas Q3 is van dit jaar, denk dat ATI Q2 al hun kaart uitbrengt
dx9 is nog in alpha/beta fase dus als ATI al een chip heeft die alles perfect ondersteund wat in de uiteindelijke versie komt vind ik dat erg knap ;)
bovendien lijkt mij dat er nog veel toegevoegd gaat worden. bovendien moeten we nog maar afwachten wanneer de R300 nou eindelijk komt
Microsoft(DirectX) Ati (DX9 kaart) werken nauwer met mekaar samen dan MS met nVidia.

Die laasten hadden 'n akkefietje op 'n DX conference. geloof ik

* 786562 SG
toch zou ik dat niet al te serieus nemen hoor..
MS en nvidia zijn altijd al 2 handen op 1 buik geweest heb ik 't idee... MS laat dan heus nvidia niet vallen, ze zullen wellicht Ati meer betrekken bij de DX ontwikkeling dan ze voorheen deden, maar dat zegt toch niet zoveel over nvidia dan ?
Die laasten hadden 'n akkefietje op 'n DX conference. geloof ik
Klopt... :) Ook al eens, volgens mij, tijdens de ontwikkeling van de X-box
directx slecht?
zonder kun je wel geen games draaien,
zelf grafische programma's hebben directx nodig
d'r zijn ook alternatieven.. OpenGL.. is 't gelijk bijna cross-platform..
OpenGL is de tegen hanger van Direct3D

dus geen tegen hanger van DirectX.

OpenGL games kunnen voor de andere functionaliteit andere DirectX componenten gebruiken dus
DirectPlay
Directsound
Direct3DSound
DirectInput

Eventueel DirectDraw als render targed surface voor openGL

Wil je dus cross platform onafhankelijk zijn zul je hiervoor ook alternatieven moeten hebben 'n thirdparty libarry ofzo
Als alternatief voor DirectSound etc is er ook OpenAL tussen haken...
't is maar dat je het weet :)
lol zonder wel geen games :D
Ik denk Dat die Geforce 4 Niet goed zal lopen want als je zo'n kaart koopt koop je een kaart die al verouderd is. :r
Want Ati heeft nu al Directx 8.1 (daarom heb ik deze kaart ook en niet de ti500). :*)
En de Geforce 4 zal ook wel weer aardig wat kosten.
Ik hoop ook dat Ati een AGP 8x in de R300 maakt.
Dan heb je ook iets aan de nieuwe KT333A chipset.
Want die is ook niet echt interessant (amd maakt voorlopig geen 333mhz bus cpu's)
En anders zou je zo'n plankje aleen kopen voor het 333mhz mem (wat je dan niet volegig kunt benutten)
En natuulijk de V-link.
Dus wat Ati en Nvidia er van maken.
Maar op dit momet denk ik dat Ati er bere voor staat. *-)
Wat moet je met AGP 8 maal!!!!!!!!!!!!!!!!!!!!!!!!!!!

Je moet al heel wat processor kracht hebben om boven AGP 2 maal uit te komen.
Bij AGP 4 maal heb je dus nog een keer zoveel processor kracht nodig.
Het 'probleem' is eerder dat het onboard geheugen van de videokaart groot genoeg is en de AGP bus dus niet nodig is. Bovendien is het systeemgeheugen veel te traag voor AGP 8x

Wat heb je er wel aan?
* marketing. Dezelfde reden waarom sommige Sis315-kaarten 128 mb ram hebben.
* Je kunt met AGP 8x 2 AGP slots op een mamaplankje zetten en dus weer hetzelfde systeem als met de V2-SLI kaartje invoeren.
Volgens mij staat Ati helemaal niet sterker dan nVidia, integendeel zelfs. Een aantal maanden had Ati voor het eerst een kaart die misschien net wel of net niet de kroon van nVidia kon overnemen. Maar net nu het een beetje doordringt dat de Radeon8500 een lekker kaartje is en de driverproblemen voor een groot deel zijn opgelost slaat nVidia terug met een hele serie kaarten, 128Mb geweld, low-budget oplossingen, twinview en bovenal brute snelheid.
Volgens mij is de opkomst van Ati meteen in de kop gedrukt door nVidia. Hopelijk word die R300 een stevige chip. Ik heb trouwens ook een Radeon8500.
Ik acht het onwaarschijnlijk dat nvidia de eerste zal zijn, de r300 van ati komt eraan, waarvan is belooft dat hij directx 9 compitabel zou zijn, en nu dus ook echt compitabel, en niet zo brak zoals de eerste radeon (ik bedoelde de oude radeon, dus niet de 8500) directx 8 ondersteunde, doordat bv pixelshaders al weer was verandert.
Door die kleine ruzie tussen nvidia en microsoft van een aantal maanden geleden, mocht ati de vergaderingen omtrent directx 9 leiden, en zullen er dus geen onhandige veranderingen tov ati op het allerlaatst in de ontwikkeling van directx 9 gebeuren.
Het ligt er dus aan wat de r300 gaat doen (sowieso erg benieuwt naar die kaart), als deze niet compitabel is zal nvidia waarschijnlijk de primeur hebben...
en niet zo brak zoals de eerste radeon directx 8 ondersteunde, doordat bv pixelshaders al weer was verandert.

De r200 ondersteunt PS 1.1 (net als GF3) en BOVENDIEN 1.2-1.4. DX is UITGEBREID omdat hij MEER kon dan de GF3.

Qua features is de R200 momenteel de beste, en dat is na de gf4 waarschijnlijk nog steeds zo.
UHm een heel simpel dingetje..
wat lullen jullie nou nogsteeds over microsoft die nvidia niet zo aardig vind etc.. i mean, dat was waaaaayyy back! Denk eens na mensen, wat voor GPU zit er in de X-box? Echt geen 8500 ;)
Duz MS werkt heus nog wel keihard met Nvidia en ik geloof er ook in dat nvidia eerder een dx9 kaart heeft dan ati...
Elke relatie heeft zijn up & down.

Stel je eens voor dat Graphzilla Microsoft wat wil opdringen dan gaan die er ook tegen in en op zoek naar 'n meer gewillige partner.

dus Xbox was 'n de UP periode DX9 zit in 'n Down periode.
directx 9 ondersteunt 64 bit
dit zou de mogelijk geven om te gamen in 64 bit kleuren (als de games dit ondersteunen)
't is interessanter om met texels te blenden e.d. in 64 bits dan om de frame uiteindelijk met 64 bits nauwkeurigheid weer te gaan geven.. beetje useless is dat.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True