Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 41 reacties
Bron: Hardware.info

Hardware.info meldt dat ze van een medewerker van MadOnion tijdens de officiële introductie van de GeForce4 hebben vernomen dat we geen 3DMark 2002 meer kunnen verwachten. Op zich hoeft dit geen enorm probleem te zijn, aangezien we eerder konden lezen dat het bedrijf binnenkort een Second Edition van 3DMark 2001 op de markt zal brengen. De volgende 3DMark zal dus versie 2003 zijn, die we rond de herfst van dit jaar kunnen verwachten - ongeveer gelijk met DirectX 9. Verder wisten medewerkers van MadOnion nu al te melden dat de zojuist geïntroduceerde GeForce4 niet volledig compatible zal zijn met Microsoft's DirectX 9. Hardware.info:

Madonion logo (witte achtergrond) Dit geeft in principe aan dat een gloednieuwe GeForce 4 Ti videokaart dus eigenlijk eind van dit jaar alweer ouderwets is. [...] nVidia gaf tijdens een ander gesprek echter op haar beurt weer aan dat men ons kon verzekeren dat zij de allereerste op de markt zouden zijn met een Direct 9 compatible videokaart, eerder dan alle concurrenten. Een ferme uitspraak, waarbij geen slag om de arm genomen werd.

We moeten alleen niet vergeten dat nVidia de gewoonte heeft elke 6 maanden een nieuwe GPU te introduceren... Met dank aan Banpei voor de tip.

Moderatie-faq Wijzig weergave

Reacties (41)

nVidia heeft nog nooit na 6 maanden een niewu GPU geleverd, alleen een overgklokte oude met sneller ram. Dus ik hoop voor nVidia dat ze daar nu verandering brengen anders kunnen ze wel eens in de "problemen"komen.

Op zich zou het mogelijk zijn daar de GF4 helemaal niet zoveel anders is dan een GF3, dat zou betekenen dat de GF5 pas weer een echte nieuwe generatie is.

nVidia doet een verme uitspraak, en ik vraag me af of ze die waar kunnen maken. De R200 is namelijk de basis geweest voor DX9, dus ik denk dat ATi iets meer weet over het hoe en wat van DX 9 dan nVidia. ATi heeft zelf laten doorschemeren dat de R300 volledig DX 9 zou moeten zijn, en die staat gepland voor q2, dus dat zal wel vsn de zomer worden :). Dan vrees ik met grote vrezen voor nVidia dat ze het niet waar kunnen maken. Maar het wordt weer een roerig 3D jaar. Nu ATi helemaal in het wereldje zit en ze ook vaker kaarten willen gaan uitbrengen denk ik dat het een leuk jaar wordt.

Tis alleen te hopen dat de Kyro II wat meer gaat brengen dan alleen simpele HW T&L en misschien zelfs een kaart van BitBoys, maar dat zeggen we al jaren :D

Tis een beetje Off-topic maar geeft wel ongeveer aan waarom er geen 3Dmark2002 komt. DX9 is uit zn alpha status als ik iemand mag geloven van het Rage3D board. Ze zijn er ook al even mee bezig.

Laten we niet vergeten dat ze 3Dmark willen verkopen en dat daarom helemaal niet rendabel is om voor 1 DX versie 2 programma's uit te brengen want dat zou alleen de graphics veranderen, en niet de basis die er aan ten grondslag ligt
In feite is de ti reeks van de GeForce 3 een nieuwe GPU in een half jaar, er werden immers dingen ondersteunt die in de oude GeForce 3 niet werden ondersteunt, te zien aan de geupdate nFiniteX engine. Ik vermoed dat er een nieuwe GeForce 4 reeks komt vlák voor de radeon R300 die DirectX 9 ondersteunt :) Je hebt wel gelijk dat ATI waarschijnlijk een betere samenwerking met DirectX9 gaat krijgen. En inderdaad een 3DMark uitbrengen zondere nieuwe DirectX versie is zinloos, laat ze nog maar wat langer werken voor de nieuwe 3D Mark :)
ALLE features die in de GF3Ti zitten zitten OOK in de gewone GF3, maar werkte niet omdat de drivers ze uitgeschakeld hadden. Alle nieuwe geadverteerde features doen het nu ook gewoon in de gewone GF3, dus nix nieuwe GPU, gewoon overklokt
Tis alleen te hopen dat de Kyro II wat meer gaat brengen dan alleen simpele HW T&L en misschien zelfs een kaart van BitBoys, maar dat zeggen we al jaren
Vergeet Matrox niet. Het gonst van de geruchten over een upcoming chip, codenaam Parhelia, die geheel of gedeeltelijk DX9 zal zijn en Matrox weer stevig in de 3d wereld zal zetten.

Met Matrox is het eerst zien, dan geloven, maar ik mag hopen dat het waar is. Mijn G400 kan het zo langzamerhand niet meer bijbenen :).
Met Matrox is het eerst zien, dan geloven, maar ik mag hopen dat het waar is. Mijn G400 kan het zo langzamerhand niet meer bijbenen
Inderdaad, matrox roept altijd erg veel voor ze een chip op de markt gooien. Op papier zijn het de mooiste, snelste en beste chips die er bestaan. Op het moment dat ze uitkomen vallen ze echt altijd tegen. Matrox heeft een goede naam op 2D gebied maar op 3D gebied absoluut niet. Vandaar dat ze een tijd geleden ook uit de 3D (gaming) markt gestapt zijn en zich alleen op de low-mid markt gericht hebben (qua 3D snelheid).

Juist vanwege die beslissing vraag ik me af of er ook maar iets waar is van die geruchten. En als ze waar zijn, of ze dan eens eindelijk waar kunnen maken wat ze beloven.
Inderdaad, matrox roept altijd erg veel voor ze een chip op de markt gooien.
Integendeel. Matrox zegt geen woord. Er is echter wel een nogal productieve geruchtenmachine om ze heen.
Op papier zijn het de mooiste, snelste en beste chips die er bestaan. Op het moment dat ze uitkomen vallen ze echt altijd tegen.
De G400 MAX was in D3D een keiharde concurrent voor de TNT2. Matrox heeft het verprutst door hun OpenGL niet voor elkaar te krijgen, maar een tegenvaller? Beslist niet. Verder terug: de Millennium II heeft algemeen de reputatie van de beste kaart voor bij een Voodoo 2. Dat de G450 en G550 voor gaming niet boeiden: tjah, de 3d core is niet vernieuwd sinds de G400.
Vandaar dat ze een tijd geleden ook uit de 3D (gaming) markt gestapt zijn en zich alleen op de low-mid markt gericht hebben (qua 3D snelheid).
Uit de 3d markt gestapt? Matrox heeft een nog altijd actuele 3d gaming website en een 3d gaming newsletter. Ze hebben op dit moment geen competetieve kaart, maar eruit gestapt zijn ze beslist niet.
Juist vanwege die beslissing vraag ik me af of er ook maar iets waar is van die geruchten.
Die beslissing is dus helemaal niet genomen. Misschien door de gebruikers, maar niet door Matrox.


Zoals ik al zei: ik zie het ook niet zonder scepsis tegemoet, maar wat jij zegt klopt in ieder geval niet.

De tijd zal het leren...
Maar de G400 serie geeft nog steeds scherper beeld dan alle GFs en veel radeons. Ik houdt de mijne tot er 3d linuxdrivers zijn voor de 8500.

* 786562 minion
Inderdaad... de beeldkwaliteit van sommige kaarten tegenwoordig valt flink tegen!
Ik heb een tijd geleden een oude PC met een 3Dfx Banshee kaartje vervangen door een nieuwere met GeForce 2 MX. Op hetzelfde scherm, op dezelfde resolutie met dezelfde refreshrate gaf de Banshee een véél scherper beeld (en dat voor een oud kaartje dat ongeveer evenveel kostte toen). Dit kan je o.a. merken aan de gestippelde selectierechthoeken in Windows Verkenner (gewoon slepen met de muis). Op een slechte kaart zullen de bovenste en onderste randen eerder grijs lijken ipv een reeks wit/zwarte stippen omdat het beeldsignaal "uitgesmeerd" wordt (soort van horizontale blur).
Iemand ooit de moeite genomen om de aftiteling van elke 3DMark-demo te lezen. Ik ook niet ;) Dat wil zeggen: Niet in zijn geheel. Maar ik heb wel gezien dat MadOnion heel veel producenten bedankt voor hun inzet, o.a. intel AMD, nVidia, ATi, VIA etc...
Daarom lijkt het me erg sterk dat men een nieuwe benchmark laat afhangen van een nieuw prdukt van één van die producenten.

Logischer is om pas een nieuwe bench uit te brengen als de mogelijkheden weer gegroeid zijn: Dus als er een nieuwe DirectX is. Pas dan is er weer een API die gebruik maakt van nieuwe hardware-features (die op hun beurt alleen ge-introduceerd worden als de volgende generatie van DirectX ze zal ondersteunen, dus de GPU-bakkers werken samen met Micrsoft).

Voordat er een nieuwe versie van DirectX is, is er nou eenmaal niet méér te testen van een nieuwe videochip dan wat er van de voorganger van die chip te testen was. De nieuwe chip zal dan vast wel wat sneller zijn, maar het wordt pas echt indrukwekkend al die nieuwe chip ook nieuwe features kan laten zien (zoals de nature-bench van 3DM2k1).

Dit komt omdat alle spellen rechtstreeks communiceren met DirectX, en DirectX communiceert weer met de GPU (simpel gesteld). Dus als de GPU een nieuwe feature heeft, en een spel zou het kunnen gebruiken, zie je er nog steeds niets van als DirectX het niet ondersteunt. Daarom is bij bijna alle spellen ook DirectX bijgeleverd op de CD.

Er is nog een andere veelgebruikte API naast DirectX en dat is OpenGL. Maar omdat 3DMark alleen gebruik maakt van DirectX, is dat in dit verband niet interessant.

Conclusie: Bij elke nieuwe DirectX komt er pas weer een nieuwe 3DMark. Waarom krijgt elke 3DMark dan een jaartal mee in plaats van het nummer van de DirectX-versie die het ondersteunt?
Zeg nou zelf: Als ik het heb over 3Dmark9, is het voortaan toch veel duidelijker welke DirectX je ervoor nodig hebt?
Dit nieuws was toch al een tijdje bekend. Het is ook wel logisch het is toch ook niet bij te houden voor Madonion om elke keer als nvidia een nieuwe chip uitbrengt met een nieuw benchmark programma te komen. Het is net als met spellen, de nieuwste spellen ondersteunen ook niet de nieuwste GPU's dat is onbegonnen werk
Verder wisten medewerkers van MadOnion nu al te melden dat de zojuist geïntroduceerde GeForce4 niet volledig compatible zal zijn met Microsoft's DirectX 9
Ik geloof dat het zelfs zo was dat DirectX 9 gebaseerd gaat worden op de mogelijkheden (op papier) van de nieuwe Radeon (de 3e versie dus). En eens niet op die van nVidia.

Het is dus net andersom van wat jij zegt. Ze brengen niet een nieuwe 3DMark uit als er een nieuwe GeForce komt, maar als er een nieuwe DirectX komt. :)

En DirectX word weer gebaseerd op wat de makers van grafische kaarten verzinnen voor hun nieuwe generatie kaarten.
lijkt me opzich ook wel logisch. madonion werkt wel samen met gpu-fabrikanten maar dit betekent niet dat ze automatisch alleen voor nvidia optimaliseren. vind dit ook wel heel netjes. als iedereen alles op nvidia baseert krijgen andere geen kans
Dit is toch geen verassing? Er komt altijd een nieuwe 3dmark uit als er een nieuwe directx uitkomt...
Het was wel te verwachten dat er geen '2002' zou komen...Als er maar een vroegen '2003' komt :)

Verder vind ik nVidia ook een beetje gevaarlijk bezig. De GF4 is nog nieteens 100% DX8,1 compatible...of naja, geen pixelshader 1,4 support. Wat de R200 al wel heeft. Een volledig DX9 compatible kaart zou dus een nieuwe GF4Ti moeten zijn die nog niet aangekondigt is OF de GF5. Maar het lijkt me stug dat die met de herfst of uberhaubt VOOR de R300 uit is.

De r300 staat voor Q2 gepland, dit zullen ze uiteraard niet halen, maar ik denk toch dat dit te eerst DX9 kaart wordt.
Ik meen me te herinneren dat er werd gezegd dat de Ti4600 pas later uitgebracht zou worden dan de Ti4400. Wie weet was het de bedoeling om deze Ti4600 DirectX9.0 support te geven. En omdat ze nu toch de Ti4600 hebben uitgebracht zonder DirectX9.0, hebben ze misschien een andere kaart met wel DirectX9 in de maak. Als dat zo is, en dat zou natuurlijk heel goed kunnen, heeft nVidia dit heel goed geheim gehouden, en zal Ati opkijken. Een soort GeForce4Ti met DirectX9.0.
Hieronder mijn (nogal subjectieve) analyse:


GeForce 1: leuk geprobeerd, maar feitelijk te zwak. Om écht indruk te maken. De TnL unit kan niets wat de CPU niet sneller kan.
GeForce 2: indrukwekkend. Deze kaart is wat GeForce 1 had moeten zijn.
GeForce 3: interessante nieuwe features, maar niet krachtig genoeg om overeind te blijven als deze features écht worden belast (Doom 3).
GeForce 4: vrijwel dezelfde featureset als de GF3 maar aanzienlijk krachtiger. Wederom is dit wat zijn voorganger had moeten zijn.

In mijn ogen kan nVidia haar eigen 6 maanden schema helemaal niet bijbenen. Door interim kaarten te releasen houden ze de schijn hoog (en spekken ze hun beurs) maar hun feitelijke vernieuwings-tempo is 1 kaart per jaar, net zoals alle concurrenten...
alvast sorry voor de plagiaat achtige praktijken :) maar naar bovenstaande vergelijking te zien kon ik het niet laten om Windows op de zelfde manier te behandelen
[kan het niet laten-mode]

Win95: leuk geprobeerd, maar feitelijk te zwak, om écht indruk te maken. Vliegende BSODs
Win98: Is hetgeen waar windows95 op had moeten lijken echter nog steeds vrij zwak
Win2k: interessante nieuwe features, maar niet krachtig genoeg om overeind te blijven als deze features écht worden belast.
WinXP: vrijwel dezelfde featureset als de W2K maar aanzienlijk krachtiger. Wederom is dit wat zijn voorgangers hadden moeten zijn.
[/kan het niet laten-mode]
Ik geloof dat pixelshader 1.4 zoveel kracht van de kaart kost dat je zowat geen prestatie overhoudt.
Stond in de Computer!Totaal.
Verder denk ik dat de Geforce 4 op driver gebied nog niet aan z'n top zit (dat zelfde geldt voor Radeon 8500)
En verder is het inderdaad wel slim van MadOnion en ATI om te wachten op DirectX 9.0. Daar had ik ook op gewacht als ik Nvidia was geweest, maar goed ze zijn daar ook niet achtelijk dus hebben er vast wel redenen voor of al kaarten achter de hand.
je moet ook gewoon slim kopen: niet het snelste en nieuwste (en dus het duurste) willen hebben. Neem een kaart die wat "achter" loopt. Dan ben je prijs-technisch gezien het beste uit, je hebt een lekkere kaart, en "achter" loop je na een week toch al weer...

En face it...al dat grafische geweld is nu toch nergens voor nodig. Software maakt toch nog geen gebruik van de nieuwste snufjes. Dus dat maakt ook niet uit...
Of je koopt de stoerste kaart op de markt (niet per definitie de duurste en dan denk ik inderdaad aan Ati), speelt het eerste halfjaar op de hoogste snelheid, dan een halfjaar op hoge snelheid met mooie beeldjes (wanneer alle technieken zijn toegepast), dan een jaar lekker spelen, laatste jaar steeds meer balen van je kaart zodat je uitgehongerd bent naar een volgende en bij de volgende aanschaf met volle teugen kan genieten.
Vind het wel weer typisch van Nvidia, wat ze nu dus eigenlijk al zeggen is dat ze in de herfst alweer een nieuwe GPU de markt op zullen gooien. Verwachten die lui nou echt dat mensen om de 6 maanden nieuwe videokaarten van 400 euro gaan halen.

Denk je even te wachten op een GF4Ti, is dat kreng dalijk alweer ouderwets. :(
Tja, waarom zou je dat willen? Je hoeft alleen die kaart te kopen als je elke keer het nieuwste van het nieuwste wilt hebben. En dan moet je gewoon niet zeuren. :)

Als je slim bent upgrade jij je hardware pas op het moment dat je huidige hardware niet meer mee kan komen. En als je dat zou doen dan zou je zien dat je makkelijk vooruit kan met een GF2. :)
Dat hangt er maar vanaf welke spellen je speelt en hoeveel detail je wilt zien. Als je op een 19 inch monitor in de resolutie 1280x1024 Max Payne wilt spelen met de hoogste detailinstelling (en dan is het echt heel mooi) en nog niet eens in 32 bits kleur, dan heb je toch echt een geforce 3 nodig. Bij de nieuwe generatie spellen is het juist fijn om de hoogste instellingen te kunnen gebruiken omdat die games zo prachtig gemaakt zijn. (met een tb 1200 proc en 256 mb geheugen bv)
Mja van mij hoeft dat niet. Ik vind detail belangrijker dan hoge resoluties. Ik heb een Radeon 8500 en een XP 1800+ en speel alles op 1024x786x32, met 2x FSAA. Hoger hoeft van mij niet, Zo ben ik in elk geval verzekerd van alle detail, met altijd een hoge framerate.
zulk gezeur zul je altijd blijven hebben om de simpele reden dat de ene 40 fps soepel genoeg vind en anderen 100 "net aan" vinden ;)
voor mijn part komt nvidia elke dag met een nieuwe chip, vooruitgang is OK ;)
In je verhaaltje staan erg veel "je" en "jij"'s...

Het zijn allemaal keuzes die je maakt, als je perse 1280x1024 wil draaien... Sja, dan moet je investeren.
Nou dat is dus echt niet waar he ik heb een Gforce 2ti en ik kan dus echt wel in de nieuwste spellen (wolf) op 1280x1024 spelen zonder haperen.
spec. xp1800 en 2x256ddr
What else is new?
Zo gaat het altijd in de computerwereld ;)
Op naar de GF5..Er zit meestal idd maar iets van een half jaartje tussen die kaarten..En opzich biedt de GF4 ook niet echt heel veel spectaculairs ten opzichte van de GF3
Elke 6 maanden een nieuwe GeForce.... En ik ben nu nog aan het sparen voor een GF2 :+
De r300 staat voor Q2 gepland, dit zullen ze uiteraard niet halen, maar ik denk toch dat dit te eerst DX9 kaart wordt.
Juist ja, straks kan Ati, mits ze het slim aan gaan pakken, een flink marktaandeel veroveren, door hun voorsprong op Nvidia.
Want wat staat nu beter 'GeForce4 of 'Radeon3; de Eerste DirectX 9 kaart' ;) .
Het enige nadeel wat aan de Radeon kleeft is de driver support, maargoed 1 keer kijken in de meuktracker, en dat nadeel is er niet meer :) .
Juist ja, straks kan Ati, mits ze het slim aan gaan pakken, een flink marktaandeel veroveren, door hun voorsprong op Nvidia.

Op hardcore-gamer kaarten kan Ati idd veel terrein veroveren, maar op de budget markt, denk ik dat de GF4MX zal winnen. Kijk maar naar grote OEM, die proppen bijna altijd een MX kaartje in de systemen. nVidia heeft dus de budgetmarkt.

Want wat staat nu beter 'GeForce4 of 'Radeon3; de Eerste DirectX 9 kaart'.

Dat ligt eraan of je een Ati of een nVidia freak bent. Maar de vraag is of de R300 wel Radeon3 gaat heten. En misschien komt nVidia ook met een nieuwe naam. Want met een beetje een aantrekkelijk naam kom je ver.

Het enige nadeel wat aan de Radeon kleeft is de driver support, maargoed 1 keer kijken in de meuktracker, en dat nadeel is er niet meer.

En dat ze twee verschillende versies van de 8500 verkopen, vind ik een beetje fout. Een hoop zijn erin getrapt. Dat probleem heb je met de GeForce niet.

Op dit item kan niet meer gereageerd worden.



© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True