Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 81 reacties
Bron: The Inquirer

De marketingafdeling van Asus heeft vandaag een dikke blunder gemaakt door een pressrelease ruim een week te vroeg de deur uit te doen, het gaat om de officiŽle aankondiging van een serie nieuwe videokaarten gebaseerd op NV25 en NV17. The Inquirer was zo vriendelijk om te tekst alvast online te zetten. Het basisontwerp van de GeForce4 is voorzien van de features zoals al in onder andere deze nieuwspost zijn besproken; AccuView antialiasing, Lightspeed Memory Architecture II en nView multidisplay technologie. nFiniteFX II zit alleen in de Ti kaarten ingebakken, de MX serie moet het met een enkele vertex unit doen. De verschillende kaarten zien er als volgt uit en zouden al in februari in de winkels liggen:

Asus logo blauw (klein) Taipei, Taiwan, February 6, 2002 World-leading technology solution manufacturer, ASUSTeK Computer Inc., today announced the most comprehensive graphics card lineup based on the advanced NVIDIA GeForce4 GPU (graphical processor units) family. ASUS combines NVIDIA?s latest GeForce4 technology with innovative engineering to deliver most powerful graphics cards for a variety of segments.
NaamChipGeheugen
V8460 Ultra330MHz GeForce4 Ti 4600128MB 660MHz DDR
V8440300MHz GeForce4 Ti 4400128MB 500MHz DDR
V8170 Pro300MHz GeForce4 MX Pro64MB 500MHz DDR
V8170 DDR270MHz GeForce4 MX DDR64MB 400MHz DDR
V8170 SE250MHz GeForce4 MX SDR64MB 166MHz SDRAM
Moderatie-faq Wijzig weergave

Reacties (81)

de GPU snelheid ligt een heel stuk hoger
als je de Ti500 (230) en de standaard GF4 ,V8440 (300) is toch een 30% verbetering + de vernieuwde LMA II (die hopelijk iets zal uitmaken) het zal wel iets uitmaken :)

hopelijk is geknutseld aan hun Polygons per seconde
met 1 light ging het nog , maar met 8 is het een serieuze vertraging (de 27.xx brengt daar wel verbetering in :7 )

maar de snelheid in geheugen is niet echt verbeterd :?

hmm , dan moet die LMA II wel echt goed zijn als ze dat kunnen veroorloven. Nouja wachten op de benchmarks eh,...

//reactie op siliconerror//
ik denk dat de prijzen evenhoog als de 128Mb versies van GF3 zullen liggen, misschien ietsjes hoger maar toch niet echt veel (denk ik eh :*)).
Hun poly's per second worden nog niet volledig benut (misschien door games als Unreal2, Dark Sector en later). Dus daar ligt het probleem niet, echter des te meer in het feit dat het renderen (mooi en redelijk echt laten lijken) van licht behoorlijk wat MHz'jes ;) trekt.. Polygonen zijn zeker wiskundig gezien een koekje vergeleken met het bereken van een lichtbaan. Nu zijn er een aantal versimpelingen van dit principe zoals ray-tracing en radiosity-rendering, maar meestal wordt voor de goedkoopste en snelste oplossing gekozen welke om het simpel te zeggen vanaf het object naar het licht een lijn getrokken wordt. Of deze het licht raakt bepaald of er licht op valt en afstand hoeveelheid licht. Om dat probleem wiskundig op te lossen zijn behoorlijk wat complexe berekeningen (en dus nog complexere schaklingen nodig) die veel tijd vergen. Poly's zijn daarom ook makkelijker op te voeren dan ligt, maar daar schuilt meteen probleem 2: des te meer polygonen eds te meer lijnen naar het licht...

Misschien dat idd in de GF4 opgelost is maar ik denk echter dat ze de hoeveelheid lichten niet aangepakt hebben, omdat dit ook de verhouding met het proffesionele segment zou verstoren (immer Nvidia biedt voor die markt de Quadro 2 & DCC aan, welke wel in deze voorzieningen voorziet)
ik snap niet helemaal wat je bedoelt met lijnen naar het licht. Echter de technieken die jij voorstelt (raytracing, radiosity) zijn op dit moment no way realtime te berekenen. Vaak gebeurt dit in een preprocess stap met als resultaat een verzameling lightmaps die aan de pixelshaders gevoerd kunnen worden. De berekeningen die wel realtime mogelijk zijn zijn helemaal niet zo complex als jij ze voordoet. Standaard vertex diffuse lighting vergt maar een klein aantal multiplies per vertex, iets dat voor een gpu een eitje is.
Het is zelfs goed mogelijk per pixel lighting te berekenen. Zie bijvoorbeeld het lightingmodel van Doom3. De berekeningen die hiervoor worden uitgevoerd vinden geheel plaats in de pixelshaders (of register combiners). De snelheid hiervan is dus grootendeels afhankelijk van de fillrate van de vga.
Klopt wat je zegt als je gebruik maakt van 'niet-dynamische' lighting. Hierbij worden textures over een object gelegd om zo de intensiteit van het licht te bepalen echter deze lightmaps worden meestal al in de fabriek voor je gerenderd. De lighting effecten in quake 1 waren ook al in de radiosity manier uitgevoerd. Echter dit deed een goede level-editor voor de maker. De bepaalde bij een licht wat de lightmap voor de omgeving zou worden, en deze techniek wordt nog steds vaak toegepast,.. vaker dan echte ligting omdat dit veel minder rekenkracht veroorzaakt.

Ik heb het over Hardware-lighting zoals aanwezig op de GF-GPU. Het is namelijk geen enkel probleem om een redelijke hoeveelheid lightmaps te gebruiken. Dat wordt nu al gedaan. Maar om echte dynamische lichten te maken (REAL-TIME) heb je behoorlijk wat power nodig.
waarschijnlijk heb je mijn stukje niet goed gelezen :)met de preprocess (= pre het realtime renderen) stap doel ik op precies hetzelfde als wat jij bedoelt met de de quake level editor die lightmaps voor je voorrekent. En zoals ik ook als zei is dit een erg tijdrovend process, vooral voor radiosity (mijn progressive radiosity generator doetdagen over een klein aantal faces).

en wat ik ook al zei is dat REALTIME lighting helemaal niet zo zwaar is als dat jij beweert. Ik kan op mijn GeforceII 15 MILJOEN vertices per seconden outputten die allemaal belicht zijn via 1 pointlight source... echt no problem
Hieruit begrijp ik het volgende:

In Quake1 had je (voor die tijd) schitterende lichteffecten, maar als je voor een lichtbron langs liep, zag je aan de andere kant niet je eigen schaduw. Die textures zijn dus al in de fabriek lichter of donkerder gemaakt al naar gelang de lichtbron die ze 'beschijnt'.

Met de nieuwe effecten moet je dus wel je eigen schaduw kunnen zien, omdat 'realtime' berekent wordt dat er een object tussen de lichtbron en de texture zit.

Overigens kan ik me wel herinneren een soort van schaduw te zien in UT, maar volgens mij is dat dan niets anders dan een donkere vlek onder de speler die schaduw moet uitbeelden, maar wat in feite gewoon een transparante texture is die op de vloer gelegd wordt.

Begin ik nou het licht te zien (... :) ...), of bazel ik maar wat?
Je hebt het gezien, en zelfs aan en uit gedaan ;)

[edit] Reaktie op NKM [/edit]
Helaas wordt de hoeveelheid werk 2* zo groot als je een 2e licht punt in de scene plaatst. Alle poly's worden dan vanaf 2 kanten belicht. Ik snap helemaal wat je met je stukje uit quake bedoelde, maar in mijn reaktie is duidelijk op te maken dat ik doelde op dynamische lichten ( !=lightmaps) en daar hdden we het uiteindelijk over

btw. vertices zijn niet het zelfde als poly's
ok.. we weten beiden dat lightmaps voor static lighting only zijn.. ok :)

en ja, vertices zijn niet hetzelfde als polys maar de standaard directx8 lighting is per vertex lighting
en natuurlijk wordt het werk 2x zo veel als je nog een light toevoegd maar dan nog is het een peuleschilletje voor de geforce, dat ding is er gewoon voor gebouwd.
ik werk bij loosegoose en wij zijn bezig met een visualisatieengine die 100.000- 200.000 per-vertex belichte faces per FRAME kan uitvoeren. Dan ga jij me niet vertellen dat die berekeningen complex zijn. Zoals ik al zei zijn het een paar muls en een paar add's per vertex (max).
heb je die doom3 filmpjes wel eens gezien? das minmaal je schermresolutie aan aantal pixels= minimaal (bv.)1024x768 lichtberekeningen (voor 1 licht) per frame...
Ik lees dit:

V8460 Ultra 330MHz GeForce4 Ti 4600 128MB 660MHz DDR
V8440 300MHz GeForce4 Ti 4400 128MB 500MHz DDR
En een paar dagen geleden las ik hier www.tweakers.net/nieuws/20302 dit:

All 128 MBytes cards are not useful much as there are no applications which would require such a size for acceleration of texturing.
En dit:

Installation of such sizeable memory on slow cards is useless at all considering that the prices are much higher. Only if cards with 128 MBytes memory will be close in price to those with a smaller memory size the former can be more attractive.

Heeft het bij een Geforce 4 wťl zin om er 128 op te zetten, dit naar aanleiding van bovenstaande?
Veel hardware- en softwarefabrikanten zijn het er al over eens dat ze de kleurdiepte gaan verhogen in hun grafische acceleratoren. Dit om de kwaliteit van de graphics te verbeteren
Sommige proffesionele videokaarten doen dit reeds.

Hoe groter de kleurdiepte van een object, hoe beter de beeldkwaliteit nadat je verschillende berekeningen zoals bijvoorbeeld belichting en bump mapping hebt losgelaten op dat bepaalde object.

Denk aan de Euro: als je van guldens naar Euro gaat en weer terug met 2 OF 4 cijfers achter de komma en weer terug.
2 cijfers:
100,00 NLG / 2,20 = 45,45 Euro
45,45 EURO * 2,20 = 99,99 NLG
4 cijfers:
100,0000 NLG / 2,2037 = 45,3782 Euro
45,3782 EURO * 2,2037 = 99,9999 NLG (= +/- 100,00 NLG )
Dit zijn uiteraard slechts 2 bewerkingen. Als je er 3 of 4 doet worden de verschillen pas echt groot.

Je hebt om een hogere nauwkeurigheid te bereiken een veel snellere GPU nodig EN veel meer geheugen.

Volgens mij gaat de volgende versie van Doom ook gebruik maken van groeter kleurdiepte voor de textures en is de Geforce 4 hier met zijn (haar?) 128 Mb reeds op voorbereid.

128 mb is op een SNELLE grafische kaart dus geen overkill op het moment dat de nieuwste games/apps dit ondersteunen.
Ik vrees ervoor dat de massa nu terug komt op hun uitspraken. Als een gerenommeerd merk als ASUS zelfs met 128MB op een kaart de markt vol gaat proppen, waar blijven dan die argumenten over het feit dat 128 overkill is. Misschien ziet ASUS wel iets op langere termijn dat de short-term tweaker niet ziet...
Het lijkt me sterk dat ASUS met een dergelijke marketing hype meedoet...
Dat is helemaal niet zo sterk. Bij de GeForce1 kon je van Asus ook een 64MB variant krijgen, en zoals destijds is aangetoond was dat ook weinig meer dan merketing. Maar dat wil niet zeggen dat 128MB geen nut heeft bij een GeForce 4, ik denk dat je wel boven de 64MB kan komen als je de juiste games speelt in een hoge resolutie en anti-aliasing.
Ik meen dat je aan 8 MB altijd al genoeg had voor resoluties van 1600x1200x32bit (komt op 7,3 MB uit). Veel hogere resoluties zijn nog niet echt main-stream, en al zeker niet van belang voor geforce 4 kaarten (zolang de 2d-kwaliteit bij die resoluties nog niet zo goed is).

Anti-aliasing neemt voor zover ik weet geen enorme extra hoeveelheid geheugen in.

De voornaamste reden die altijd gegeven werd/wordt is dat er daardoor meer/grotere textures in het geheugen te laden zijn, dus meer snelheid (minder data over de agp bus tijdens het spelen omdat een groot deel van de textures al in het geheugen staat?) en betere kwaliteit.

Vraag ik me alleen wel af of er nu op de grootte van textures moet worden verbeterd, of dat er nog veel werk te doen is aan physics en dergelijken (dus het meer gpu-slurpende werk :))
Voor 1600*1200*32 heb je ~22MB aan geheugen nodig tenzij je triple-buffering uitschakeld (wat overigens de beeldkwaliteit niet echt ten goede komt)

je hebt dan nog ongeveer 44MB over voor textures. Met compressie is dit ongeveer het dubbele omdat je niet alle textures kan compressen. Daarin kan je heel wat textures kwijt. Echter ga je aan hogere resolutie denken neem het geheugen gebruik snel toe. Bij 1920*1440*32 (triple buffering) heb je al 32MB nodig terwijl je voor 1280*1024*32 slechts 15MB nodig hebt. Let wel alle bovenstaande berekeningen zijn uitgevoerd met triple buffering in het achterhoofd. Hierbij komt normaal ook nog eens een Z-buffer en een aantal andere zaakjes.

* 786562 Atmosphere
Erg krom om een vergelijking te gaan trekken met houdige low budget kaarten dei 128mb geheugen heeft.

Allicht dat het dan geen nut heeft. Kon je zelf toch ook wel bedenken :?

Maar op geforce4 kun je wel games gaan krijgen die er gebruik van maken. maar dit is kip en ei probleem. Als de kaarten er niet zijn emt 128 mb komen de spelen er ook niet. Echter ervaring leert dat software makers elke keer spelen uitbrengen die te zwaar zijn voor de huidige hardware, dus ik ga toch een geforce4 128 mb halen wanneer dei in de 330Mhz beschikbaar is.
Blunder of 'leak'techniek net als de drivers?
Publiek is doorgaans extra geinteresseerd in nieuwtjes die nog niet officieel zijn.
Het 'kan' dus een geslaagd publiciteitsstuntje zijn.
Ik denk het niet, want als je als fabrikant te snel product specificaties uitbrengt, loop je de kans dat mensen op die nieuwe producten gaan wachten waardoor je als fabrikant met voorraden blijft zitten, en dat is niet goed voor het financieele gebeuren van zo'n fabrikant.

Apple heeft dat ook heel erg, als ze te snel een nieuwe G4 aankondigen, zitten ze met heel veel G4's die ze niet meer verkopen omdat iedereen wacht op de nieuwe modellen.

Ik denk dus dat dit echt een gevalletje van "oeps" is.
Ja, maar we hebben het hier maar over een week :D
Ik vind het sowieso al wat vroeg om het cijfertje met 1 op te hogen...

De Geforce3 Ti500 is in de pricewatch nog steeds 474 euro.

Het hele Geforce4 komt een beetje over als een grote marketing stunt... kunnen ze de prijzen nog hoger opdrijven dan ze al zijn :(

Trouwens, de naam Geforce heeft het nu ook al wel gehad (net als Pentium btw).
Trouwens, de naam Geforce heeft het nu ook al wel gehad (net als Pentium btw).
Juist niet, de naam Geforce en Pentium zijn zo bekend geworden dat het er vaak voor zorgt dat mensen juist een kaart of pc kopen waar een Geforce of een Pentium in zit. Dat is nou eenmaal marketing. Coca-Cola gaat toch ook niet de naam veranderen?
Ja maar waarom Smiths in lay's veranderen, Smitha had ook zijn naam
En JIF in CIF
en Andy gaat samen met... CIF ?

Maargoed, dat is iets heel anders,

Ik bedoel, van schoonmaakmiddelen of chips maakt het niet heel veel uit welk merk je heb, daar hoef je geen verstand van te hebben.
Een computerleek die ergens in een boekje leest "Intel Pentium" of "Geforce" en er staat iets bij dat het goed is, zal dat onthouden. En als diegene dan een computer gaat kopen zal die waarschijnlijk vragen om een Pentium met een Geforce.

Ik kan het niet heel goed uitleggen, maar ik denk dat jullie snappen wat ik bedoel...
Nee het zit bij huishoudmerken toch iets anders die hadden/hebben vaak een regionaal merk (zoals Smiths en Jif) maar in de rest van de wereld(Amerika) hebben ze juist een andere naam, dat levert twee problemen op namelijk je moet dus twee verschillende reclames maken en je hebt verwarring bij mensen als ze het verkeerde merk zien op bv TV of op vakanties, hier loop je dus ook al een grote kans op naamsbekendheid mis, kortom het is duur en ineffectief.

bij Computer onderdelen heb je dit juist niet, namelijk de gebruikte merknaam is internationaal en dus heel waardevol omdat juist iedereen het kent, en het is goedkoop qua reclame, dat gooi je dus niet zomaar overboord omdat je vindt dat het "leuk" is
Omdat Lays (onderdeel van Pepsi-co) Smiths heeft overgenomen. En ze in elk land dezelfde naam willen hebben.

Of heet de Geforce in Belgie Omo Ultra?
Hercules 3D Prophet III Ti500 TV-out § 382,-(euro)

Toch wel een verschil met de zwaar overprijsde asus kaarten...
Het gaat niet om de naam, maar om de prestatie!
wat ik mij afvraag is waarom ASUS de naam v8170 aan de gf4 geeft terwijl de gf3 de waarde v8200 mee heeft gekregen en dat de ultra versie van ASUS (gf 4) wel weer hoger ligt dan de v8200.

Zou dit te maken hebben met de prestaties?
het is even raadsel achtig van asus dat ze nooit een v4xxx en v5xxx hebben uitgebracht. Het ging in 1 keer van de v3800 (TNT2) naar de v6600 (Geforce).
Dat heeft inderdaad te maken met de prestaties. En met de prijs:

NV15: geForce2
NV17: geForce4mx
NV20: geForce3
NV25: geForce4

Het is dus een totaal andere chip, in theorie zelfs ouder dan de geForce3.
Die geForce4mx heet alleen zo om marketingtechnische redenen. Eigenlijk moet je hem zien als een geForce3mx
Met al die modelnamen word het voor de gemiddelde consument nog onduidelijker wat nu wel of niet beter presteerd.. zo weet de gemiddelde klant niet dat een GF2MX 400 met 64MB minder presteerd dan een 32MB GF2... Dit zal door de invoering van nieuwe modellen alleen maar toenemen. Wat duidelijkere modelnamen had mijn inziens geen overbodige luxe geweest
dat heet marketing, en is precies wat ze ermee willen bereilen.
Het bewijs dat de GF4 MX de mindere is van de GF3 : V81xx voor GF4MX vs V8200 voor GF3
Maarja, de NV17 is eigenlijk ook maar de GF3MX die te laat was om als GF3 door het leven te gaan en er zou voor de meeste mensen geen reden zijn om meteen voor de GF3 te gaan als er al een GF3MX zou zijn.
Ik vraag me af hoe snel de GF2 serie nu gestopt wordt, zodat de NV17 snel zijn weg zal vinden naar de OEM's
Aan de specs te zien zijn alleen de NV25 based plankies interressant voor de tweakers onder ons. De NV17 zal hooguit een GF2 kunnen vervangen.

Wat jammer is voor Asus is dat ze door de verbeterde dual monitor support (en waarschijnlijk ook tv out) zal Asus een kleinere voorsprong hebben op de rest met de Deluxe (die hier ook niet vermeld wordt, afwachten dus of die wel komt)
Zouden ze nu serieus veel sneller zijn dan een Geforce 3 kaartje?
Ik denk dat er nog geen game te vinden is op korte termijn die er gebruik van zal maken....
Die games worden nu ongeveer gemaakt. Maarja, eer dat zo'n game klaar is, zijn we ongeveer al bij de Geforce5/6
Aquanox was op hoge resolutie niet echt speelbaar, met een GF3.

ASUS graphics cards based on GeForce4 technology will be shipping in quantities late February 2002. For more details check the company website located at http://www.asus.com

GeForce4Ti4400 of GeForce4Ti4600?
Uit een eerder bericht konden we opmaken dat eerst de Ti4400 wordt uitgebracht, en een tijd later de Ti4600. Taktisch, maar wel irritant.
Er klopt geen kont van...

de specs van deze kaarten komen NIET overeen met de Reference cards van Nvidia... mbt Clock/MEM speeds
Zolang er niets op de nVidia website staat klopt er van geen enkel bericht ene kont. Bel ze maar op en ze ontkennen keihard dat de GeForce4 bestaat. Ik vind dit bericht betrouwbaarder dan die geruchten van een paar dagen geleden zonder bron.
Een fabrikant hoeft zich ook helemaal niet te houden aan het reference design.
Als Asus na een tijdje testen merkt dat je de core met goede koeling makkelijk een stuk hoger te klokken is weerhoud niets ze ervan om dat inderdaad te doen op een retail model. Idem met het geheugen.

Al die versies met tv-ingangen en dergelijke extra's zijn ook anders dan het reference design.
De Ti 4600 zou toch 700MHz DDR krijgen, das nog lekkerder dan 660 MHz, als zou ik daar ook niet ontevreden mee zijn. Hopelijk gaan de GF3 prijzen omlaag, ik hoef eerst geen 128MB kaar voor over de honderden euro's waar ik eigenlijk niks an heb.

Hopen dat ze een 64MB 660MHz DDR uit gaan brengen, das veel antrekkelijker. 64MB 660MHz DDr geheugen lijkt me niet goedkoop, zeker niet als je er ook nog weinig an hebt.
De Ti 4600 zou toch 700MHz DDR krijgen, das nog lekkerder dan 660 MHz, als zou ik daar ook niet ontevreden mee zijn. Hopelijk gaan de GF3 prijzen omlaag, ik hoef eerst geen 128MB kaar voor over de honderden euro's waar ik eigenlijk niks an heb.

Idd, zat ik ook net naar te kijken. En de core zou op 325MHz moeten lopen, en deze loopt op 330MHz. Zoveel maakt dat niet uit, maar als bv Creative ff met een hele snelle komt (bv 350/700), kan dat leuk worden.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True