Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 58 reacties
Bron: Blue's News

John Carmack is wellicht een van de meest bekende OpenGL programmeurs ter wereld. Hij is verantwoordelijk voor de ontwikkeling van de 3D engines bij id Software. Zijn uitspraken over 3D grafische kaarten zijn dan ook van grote waarde, zowel voor de tweaker, die in de run is voor een nieuwe grafische kaart als voor de makers van grafische chips zoals nVidia en ATi. Op Blue's New's valt zijn mening te lezen over het implementeren van de nieuwste 3D engine van id Software, die gebruikt gaat worden in de nieuwe Doom III, op de nVidia GeForce 4 en ATi 8500 grafische kaarten.

128MB ATi Radeon 8500 met doos (klein) John Carmack beschouwt de nVidia OpenGL drivers als de 'golden reference'. Dat wil zeggen, de nVidia drivers zijn compleet en vrijwel zonder fouten. Sinds ongeveer een maand is John bezig om support voor de ATi 8500 kaart in de nieuwe Doom III engine in te bouwen. Hierbij is John op een aantal problemen met de drivers gestoten, die door ATi snel werden verbeterd. De ATi 8500 drivers heben meer mogelijkheden dan nVidia, maar daar geeft John weinig om omdat deze niet in Doom III worden gebruikt. Het programmeren van vertexen is een stuk moeilijker op de ATi 8500 dan op de GeForce4, maar daar staat tegenover dat ATi's implementatie voor het gebruik van vertex objects en vertex programs een stuk beter is dan die van nVidia. Laatstgenoemde kan geen vertex objects en vertex programs in multipass algortimes combineren met standaard OpenGL passes, iets dat voor de ATi 8500 drivers geen probleem is.

GeForce4 MX logo (kleiner) Over de naam van de NV17, GeForce4 MX, is John niet echt tevreden. Daar de GeForce4 MX gebaseerd is op de NV15 architectuur, zal de performance lager zijn dan een GeForce3 of ATi 8500. John vindt de keuze van de naam, GeForce4 MX, dan ook erg misleidend. Toch is de GeForce4 MX geen slechte keuze voor gamers met een kleine beurs daar de meeste spellen maken geen gebruik van meer dan vier textures en vertex programming:

Nvidia has really made a mess of the naming conventions here. I always thought it was bad enough that GF2 was just a speed bumped GF1, while GF3 had significant architectural improvements over GF2. I expected GF4 to be the speed bumped GF3, but calling the NV17 GF4-MX really sucks.

Onze dank gaat uit naar BDisOKE voor het opsturen van de link.

Lees meer over

Gerelateerde content

Alle gerelateerde content (33)
Moderatie-faq Wijzig weergave

Reacties (58)

Voor de programeurs is dit misschien helemaal niet nieuw. Voor de fabrikanten was het ook wel duidelijk....
Maar voor ons nog niet. Wat ik me eigenlijk afvraag is wat wij eigenlijk moeten met deze info, het is natuurlijk leuk dat Ati goede punten heeft tegenover de GeForce (dat schijnen we graag te horen iig) maar dat is voor ons van weinig belang, want de makers van game's zorgen wel dat het goed voor ons aankomt, wij hoeven alleen de snelheid nog op te voeren, dat is per kaart anders en dat is wat ons echt intereseert. Dacht ik zo.
Het kan toch zeer nuttig zijn om te weten welke kaart of fabrikant het best geschikt is voor welke games, zeker als het over ťťn specifieke game gaat die je veel speelt of denkt te gaan spelen.

Zo waren/zijn 3DFX kaarten zeer goed voor Unreal en Unreal Tournament aangezien die game's het beste presteerden met de Gilde engine en aangezien die engine alleen door 3DFX werd gebruikt, waren de 3DFX kaarten de beste keus als je veel Unreal of Unreal Tournament speelt.

Dat kan straks ook best gebeuren met games als Doom III en Unreal II.
Maar het gaat er in ons geval toch echt om hoe snel / mooi de beelden hier op ons scherm worden. Hoe hard die programeurs hebben moeten ploeteren en welke moeite ze voor welke kaart wel en weer niet hebben moeten nemen maakt toch niet uit?
Als we maar resultaat zien ;).
Nvidia has really made a mess of the naming conventions here. I always thought it was bad enough that GF2 was just a speed bumped GF1, while GF3 had significant architectural improvements over GF2. I expected GF4 to be the speed bumped GF3, but calling the NV17 GF4-MX really sucks.
Is dit niet precies hetzelfde als AMD op dit moment ook doet met hun XP cpu's?
Praktijk wijst uit dat de (gemiddelde) klant liever een Geforce 4 koopt (ook al staat hier MX achter) dan een geforce 3.
Dit lijkt totaal niet op wat AMD met de XP doet.

nVidia
Gf4MX hier verwacht je DX8.1 featureset met iets minder performance dus vergelijkbaar met 'n instap G3.

Maar het is niet eens G4 maar G2 feaure set DX7 met wat LMA2 optimalisatie.

Elke Game met 8,1 Vertex en Pixel shader gebruik verslik zich hierin en moet op Gf2 mode draaien.
Daar sta je dan met je nieuwste DX8.1 game.

AMD Athlon XP 1800+ die presteerd rond of iets meer dan 'n P4 1800+ Whillamette en ongeveer gelijk als 'n P4 1,8A

De Thunderbird's werden toen onder schat door de massa en 'n TB1400 die performde als 'n P4 1,8-2.0 moest onderaan de P4-1,5 verkocht worden.

Dus De XP-rating trekt recht wat ontiegelijk scheef is.
Performance = IPC x CPU-Clock

De Gf4MX is gewoon 'n Gf2MX die wat getuned is.
wat duidelijk misleidend is, hier zullen geheid volkstammen met hun grote discostampers in trappen.

Ze hadden GF4MX440 beter Gf2MX740 ofzo kunnen noemen dat laat enigzien zien dat het wat sneller is maar niet overdrijven met achitektuur wat die niet geimplementeerd heeft in hardware DX8.1 featureset.

Ook leuk voor OEM systeem bouwers lijkt hun configuratie krachtiger dan het is, alleen zie je het niet terug in de performance.
Dit lijkt totaal niet op wat AMD met de XP doet.
nvidia verandert produkt naam om een produkt beter te laten verkopen...

amd verandert produkt naam om een produkt beter te laten verkopen...

en het verschil zat precies waar zei je ?

of de naam change terecht dan wel niet terecht is heeft er niks mee van doen... het zijn allebei name changes om marketing technische redenen. (overigens is IMHO de name change van AMD net zo zeer 'a mess' als die van nVidia)
Nou, niet echt nee :)

Je bewering zou pas opgaan als AMD Duron's zou verkopen als Athlon MX o.i.d.

Als je het dan toch met de CPU markt wilt vergelijken vind ik de GF4MX truuk neer lijken op de 486-tijd. Hierin had je toendertijd een 4-tal variaties ( DX. SX, DLC, SLC ) met allemaal 486 ervoor. En de performanceverschillen waren ook hier enorm tussen de verschillende varianten. Niet verwonderlijk als je bedenkt dat de goedkoopste varianten niet anders waren dan aangepaste 386 CPU's met een aangepaste instructieset.

Het is gewon jammer dat NVidia de NV 17 als GF4MX op de markt brengt, terwijl imo deze eigelijk GF3MX zou moeten heten.
Niet verwonderlijk als je bedenkt dat de goedkoopste varianten niet anders waren dan aangepaste 386 CPU's met een aangepaste instructieset.
486s zijn aangepaste 386s met een aangepaste instructieset.
Eh, Geforce 4MX gebaseerd op de NV10? dit was toch de TNT2 kaart? wow, das inderdaad een hele achteruitgang
Eh, Geforce 4MX gebaseerd op de NV10? dit was toch de TNT2 kaart? wow, das inderdaad een hele achteruitgang
Nee, de NV10 is beter bekend als de Geforce256, dus de allereerste GF1. Dat is niet zo'n achteruitgang als de TNT2, maar het is idd een achteruitgang.

Overigens vergelijkt Carmack de NV17 niet met de NV10, maar met de NV15, de GF2. (De GF2 vindt hij niets meer en minder dan een opgevoerde GF1, terwijl hij de GF3 echt veel beter vond qua architectuur vergeleken met de GF2). Maar Carmack vergelijkt de NV17 dus met de GF2, niet met de GF1.
Inderdaad, de GeForce4 MX is gebaseerd op de NV15 architectuur. Dit heb ik ondertussen in de nieuwspost verbeterd.
Dit is zon beetje de voglorde van uitbrengen, er waren wat kleine dingetjes voor maar vanaf de Riva TNT, speelde Nvidia echt mee (als naam) in de spelletjes wereld
...
Riva
Riva ZX
Riva 128
Riva TNT
TNT2
GF 256
GF 2
(GF 2 MX)
GF 3
GF 4 / GF 4 MX
...
Riva
Riva ZX
Riva 128
Riva TNT
TNT2
TNT2 Ultra
TNT2 M64
GF 256
GF 256 DDR
GF 2
GF 2 Ultra
GF 2 MX
GF 3
GF 3 Ti 200/500 & GF 2 Ti
GF 4 & GF 4 MX

[edit]
je had alle cores al inderdaat ;) ff aangevuld met mem configs en clock settings
Lijkt me toffer als ze een GF5 baseren op een Riva 128 }>
NV10 was de eerste geforce
NV4 is de TNT2, NV5 TNT2 Ultra (dacht ik, NV10 is overigens wel ZEKER Geforce (1))
Lijkt zo dat de ATi betere hardware heeft en gemakkelijker te programmeren is omdat de oudere code kan hergebruikt worden maar dat ze zoals algemeen geweten slechte driver support heeft.
nVidia daarentegen heeft perfecte drivers maar hun hardware is beetje minder en de programmering is lastiger doordat alles vernieuwd moet worden.
Komt er dus eigelijk op neer dat het een gelijkspel is :)
beter lezen, de ATI is moeilijker te programeren volgens Carmack
I can set up scenes and parameters where either card can win, but I think that
current Nvidia cards are still a somewhat safer bet for consistent performance
and quality.
Dat is toch wel info waar we wat aan hebben. Carmack is op dit gebied toch een authoriteit.

en ff off-topic...
As usual, there will be better cards available from both Nvidia and ATI by the
time we ship the game.
Speculatievoer voor de DoomIII releasedate...?.... :)
enige wat je imho daar van af kan leiden is dat het nog wel een tijdje duurt voor de game af is

maja dat was al wel bekend..
Hierbij is John op een aantal problemen met de drivers gestoten, die door ATi snel werden verbeterd
Eens temeer een teken dat de ATI driver-afdeling best wel zijn best doet. Natuurlijk is dat ook niet gek, want wie is nou niet gek op Carmack's feedback, die laat hun Radeon 8500 toveren.
Een van de interessantere stukjes vond ik dit:
A high polygon count scene that was more representative of real game graphics
under heavy load gave a surprising result. I was expecting ATI to clobber
Nvidia here due to the much lower triangle count and MUCH lower state change
functional overhead from the single pass interaction rendering, but they came
out slower. ATI has identified an issue that is likely causing the unexpected
performance, but it may not be something that can be worked around on current
hardware.
Als dit klopt en ik heb geen reden om dit niet aan te nemen, dan zou er dus een ontwerpfout in de Radeon 8500 zitten. Not good...
wanneer komen die ti4600 kaarten uit??? ..want ik wil nu wel eens een leuk kaartje hebben...anders ga ik voor die ati8500 als het nog te lang gaat duren...want ze halen allebij erg goede prestaties.
De ti4600 is ca. 30% sneller dan de R8500 hoor :) Hij is ook een stuk duurder hij is er over week of 2 denk ik
Je kunt ook even wachte op de ti 4200, nog steeds sneller dan de ti500 en de 8500 en ook goedkoper dan deze kaarten
Club3D gebruikt slechte RFI filters en slechter getimed memory, dat je het ff weet he! :)
Alle ATi kaarten komen zo rechtstreeks bij ATi uit de fabriek vandaan hoor. Enige andere is die van GiGabyte, voor de rest zijn de kaarten gewoon van ATi zelf, niet reference design, maar echt gewoon van ATi
Heb toevallig de Club3D ATI Radeon 8500 net getest. Was even brak met de standaard drivers, maar met de nieuwere 6032 drivers ging alles smooth. In 3Dmark2001 kwam het op 7300 uit ongeveer (LE versie). Ik kan niet wachten op nieuwere drivers :)
Zou best wel es propaganda kunnen zijn,
er word duidelijk de suggestie gewekt dat je DoomIII best kunt spelen op een GF4 of 8500,
onderonsje om ons vooral maar niet te laten wachten met een nieuwe vid kaart?
De tijd zal het leren maar de kans is denk ik toch groot dat je dan uiteindelijk op een resolutie uitkomt van 800x600 en dan de nieuwe unreal nog....
Kan toch best lullig zijn als je 2 jaar of langer met je kaartje moet doen.
dit is echt geen marketingtruuk, Carmack kraakt de Gf4MX compleet af in dezelfde post namelijk. zal nVidia leuk vinden... en wie leest die .plans van em anyway? 0.0001% vand e internetcommunity?
Een groot deel van de Quake/idSoftware fanaten lezen deze .plan, en dat is meteen ook een groot deel van de potentiele kopers van de nieuwste videokaarten tegen de nog tamelijk hoge prijzen.
Ik denk echter dat als je een kaart wil kopen die echt goed is voor Doom dat je best gewoon effe wacht tot de release en dan kijkt wat de beste kaart is.
Ook vind ik het vreemd dat er in de samenvatting eerst staat dat hij sinds een maand begonnen is aan Ati 8500 support, en later staat er :
...De ATi 8500 drivers heben meer mogelijkheden dan nVidia, maar daar geeft John weinig om omdat deze niet in Doom III worden gebruikt...

Ik heb ook het oorspronkelijke artikel gisteren gelezen en ik kan me niet herineren dat hij niets van de ATI mogelijkheden zou gebruiken...
IDD, propaganda. Zie je het al voor je ? Al lachend laten de diehard Quake/idSoftware fanaten de GF4 MX links liggen want die stelt toch geen drol voor en trekken hun portemonee open voor de GF4 ti 4600 ... Dat zal Nvidia echt erg vinden. Het gewone publiek koopt de GF4 MX toch wel, hij heeft een goede prijs, er staat GF4 en er zit 64 MB op, wat wil je als onwetende consument nog meer ?
"onderonsje om ons vooral maar niet te laten wachten met een nieuwe vid kaart? "

uit het .plan:
"As usual, there will be better cards available from both Nvidia and ATI by the time we ship the game. "

hij spoort dus helemaal niet aan om niet te wachten met kopen van een nieuwe videokaart.
Wordt het niet zo lang zamer hand tijd voor Hot Swapable VGA kaarten. Ene spel ATI Radeon 8500 en de andere keer een GF4 omdat ze de ene keer wel echt 5 FPS scheeld in een spelletje :+
wat misschien leuker zou zijn is bv een algemene plaat (de videokaart zelf) waar je zelf het geheugen op kan plaatsen en dan ook in de toekomst een snellere GPU kan prikken.
Je kiest dan nu voor je GF 4 chipset en later kan je daar altijd nog een GF5 of sneller DDR geheugen op planten. (het basisbordje zou dan wel van goede komaf moeten zijn om zeker 3 generaties mee te kunnen gaan)


Zou echt ideaal zijn...

maar ja in a perfect world...
Ja zeg! Dat dacht ik laatst ook. Dat het net een kleine videomobo zou worden. Effe nieuwe ddr of rambus erin haha zou cool zijn.
Wat dacht je van twee AGP bussen? Moet tegenwoordig toch wel kunnen?
Gewoon twee kaarten van 500§ en twee monitoren.
Past dan ook wel op een dual mobo. ;)

* 786562 wouter
De 2 is in de maand! :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True