Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 67 reacties
Bron: X-Bit Labs

Volgens X-Bit Labs zal nVidia nog dit jaar twee belangrijke nieuwe chips op de markt zetten, alsmede een flink aantal afgeleiden daarvan. De 'refresh' van GeForce FX (NV35) zou al in de zomer moeten verschijnen, wat op zich ook overeenkomt met de berichten over de mogelijk korte levensduur van de eerste generatie. De vernieuwde core zou 130 miljoen transistors hebben, 5 miljoen meer dan er op dit moment gebruikt worden. Tegen het einde van het jaar zou echter ook daar de opvolger daarvan alweer op de markt moeten komen. De 0,13 micron NV40-core is weer een verdere doorontwikkeling van de GeForce FX-architectuur, die volgens de geruchten uit 150 miljoen transistors zou bestaan.

nVidia GeForce FX logo Hoewel dit allemaal wel erg snel lijkt te gaan moeten we niet vergeten hoe lang het duurde voor de GeForce FX met enigzins acceptabele yields geproduceerd kon worden. In de tussentijd hebben ze de chipdesigners natuurlijk niet stil laten zitten. Bovendien heeft nVidia altijd volgehouden dat ze door willen gaan met het halen van een halfjaarlijks release-schema. Doordat de Xbox-GPU er tussendoor kwam is deze planning ooit grondig in de war geschopt, maar dat speelt op dit moment geen rol meer. Bovendien heeft het bedrijf de laatste jaar een aantal flinke deuken in zijn imago opgelopen, en die wil het management natuurlijk zo snel mogelijk weer gladstrijken, het liefst nog voor ATi met R350 en R400 komt.

Het grote geld zit echter niet in de high-end markt, maar juist bij de middenmoters. nVidia zal daarom op CeBIT drie uitvoeringen van NV31 lanceren. Deze 0,13 micron chips zijn in feite gestripte GeForce FX VPU's met 80 miljoen transistors en vier pipelines in plaats van acht. Onderling verschillen ze alleen in kloksnelheid; deze varieert van 250 tot 350MHz. De snelheid van het geheugen moet nog bepaald worden, maar de schattingen liggen tussen de 500 en 650MHz DDR. Als NV30 in de zomer wordt opgevolgd door NV35 zou NV31 plaats moeten maken voor NV34, die nog meer variatie kent:

The number of NV34 versions is going to be huge: from three to six maybe (four is the current estimation). NVIDIA may even allow some of its partners to clock the graphics cards according to their vision of the market and clientsí requirements. It is said that the chip contains 45 million of transistors and features 4 rendering pipes. The VPU will run at 300 to 375MHz, according to preliminary information. I wonder if there are going to be any NV34 derivatives specially developed for integration into NVIDIA's next-generation nForce IGPs since 45 million of transistors is too lot for a graphics core integrated into a North Bridge.

GeForce FX (400 pix)

Tevens wordt er nog gerept over NV33 en NV36 die op de planning zouden staan voor het komende jaar. Mogelijk gaat het om gereÔncarneerde Ultra-versies, maar de bron is eigenlijk te vaag om daar iets zinnigs over te kunnen zeggen.

Lees meer over

Gerelateerde content

Alle gerelateerde content (46)
Moderatie-faq Wijzig weergave

Reacties (67)

[qoute]Het grote geld zit echter niet in de high-end markt, maar juist bij de middenmoters.[/qoute]

Klopt maar de high-end markt is wel erg belangrijk voor je imago.
Vergelijk dit inderdaad maar met de formule-1-racerij. Goed prestaties op het circuit zijn goed voor het imago van het merk, wat gunstig is voor de verkoop van de 'gewone' auto's.
Als Reactie op Zhadum....

Hier in Rotterdam is het niet veel beter, ik zat zelf ook te zoeken naar een Radeon 9500 of Radeon 9700. Geen spoor! Ik heb Dixons gechecked, Mediamarkt (DE GROTE van Europa) en nog wat kleinere zaakjes.

Ati z'n reputatie is een stuk beter geworden bij de Tweakers (en computerkenners) onder ons, maar veel mensen hoor je nog altijd alleen GeForce dit dat yadda yadda roepen. Zodra dat verdwenen is zullen zaken zoals Dixons hopelijk meer aandacht aan Ati besteden.

Nog even als reactie op Het grote geld zit echter niet in de high-end markt uit het artikel...

Een bedrijf z'n imago word wel beoordeelt op zijn high-end top of the notch producten... en het imago is in dit geval hetgene wat het bedrijf maakt of breekt.
Maxilla op de hoogstraat :)
Ga dan naar Completer (eerste verwijzing in de pricewatch)
die zit in rotjeknor


Heb daar m'n 9700 Pro gehaald.
nVidia zal daarom op CeBIT drie uitvoeringen van NV31 lanceren[...]The number of NV34 versions is going to be huge: from three to six maybe (four is the current estimation).
Dat doen ze dus tegen de grote achterstand.Ati heeft namelijk ook een grote range producten met voor ieder wat wils. En dus ook een grote tabel prijzen van 100 tot 400 euro met van alles er tussen. Als nVidia dan komt met twee kaartjes van 400 en 500 euro zit er een te groot gat van 200e euro tussen de FX en GF4TI4800. En dat is dan voor ATI. Alleen ik zie dan wel superkleine verschillen tussen die FX'en. Als ze beginnen bij het niveau van een ti4800 en eindigen bij dat van een FX 5800 ultra zitten daar ongeveer 4000 ouderwetse 3D marks tussen. Dan krijg je dus verschillen van 1000 3D marks. Dat is behoorlijkl klein. Dan kun je beter 100 euro meer uitgeven voor b.v. je cpu (en je koopt de goedkoopste FX) en je haalt meer 3D prestatie.

Ik denk dat er het volgende onstaat het komende halfjaar:

-Geforce FX langzaam model vs. Radeon 9500Pro
-Geforce FX medium model vs. Radeon 9700
-Geforce FX snelste nv 31 model vs. Radeon 9700pro

Dat is een lastige verdeling. En als de NV30 al bijna niet op kan tegen de radeon 9700pro dan komt de nv31 dus ook niet zo ver lijkt me. En het verschil tussen de radeon 9700 en geforce4 4800 is best klein. En ik zou niet weten hoe ze de FX daar tussenproppen. (tenzij ze de ti4800 gaan afschaffen)
Volgens X-Bit Labs zal nVidia nog dit jaar twee belangrijke nieuwe chips op de markt zetten...het liefst nog voor ATi met R350 en R400 kom
hierbij ga ik echt in mn handjes wrijfen..Alhoewel mijn voorkeur bij ATI ligt (vraag maar niet hoe dat komt.. kehb trouwens 3d kaarten met beide chipsets gehad) maakt het mij niet uit wie de koppositie heeft. Nu zien we dat de duimschroeven zijn aangedraaid en er snel mooie kaartjes verschijnen.

Met daarop prijsverlagingen voor de vorige generatie kaarten (die maar een half jaar oud zijn :D).
Maar toch hoop ik niet dat de strijd te hevig word dat 1 van de 2 het onderspit delft... laat ze maar gelijkwaardig worden.
Met daarop prijsverlagingen voor de vorige generatie kaarten (die maar een half jaar oud zijn ).
Prijsverlagingen heb je altijd met de introductie van een nieuwe generatie videokaarten. Het is niet zo dat de prijs van een high-end budget videokaart nu hoger is dan over een jaar. Kijk maar naar de GeForce 2 Ultra. Deze kaart had een prijskaartje van $499 wat ongeveer gelijk is aan de prijs van de GeForce FX of de Radeon 9700 Pro tijdens de introductie.
Maar toch hoop ik niet dat de strijd te hevig word dat 1 van de 2 het onderspit delft... laat ze maar gelijkwaardig worden.
Als bedrijven zich ineens op andere markten moeten begeven om te overleven kan dat gevaar opleveren. nVidia moet nu zien te bufferen zodat ze niet alleen afhankelijk is van de high-end en budget videokaarten. Ati heeft er juist een buffer bij, namelijk de high-end videokaarten. Maar ook Ati moet oppassen dat ze niet teveel aandeel verliest in andere markten. Dit verschuiven van markt naar markt kost een bedrijf handen vol geld en het is niet altijd een goede investering.

Ati zal de komende tijd de high-end markt beheersen terwijl nVidia zich meer zal richten op de budget markt. Op dit moment heeft Ati de snelste kaart, en dat zal met de introductie van de GeForce FX niet lang anders zijn. nVidia zal zich dus meer moeten gaan richten op de budget markt en wellicht de chipset sector terwijl de NV35 en de NV40 worden klaargemaakt.

Ik verwacht overigens dat we de NV40 pas volgend jaar zien en wellicht de NV35 gelijktijdig met de R400. In dat geval kan er weer een leuke race onstaan welke voor een deel zal bepalen wie er de komende maanden de high-end markt zal domineren. nVidia heeft met de GeForce 4 een flinke achterstand opgelopen terwijl Ati juist hard door heeft zitten werken.

Natuurlijk is marketing ook een factor die meebepaald in het succes van een kaart, maar de gemiddelde consument die een high-end videokaart koopt kijkt eerder naar de technische details. Daarom denk ik dat nVidia zich het beste kan concentreren op de budget-markt.
Ach, ik denk dat de gf4 opzich wel succesvol was (vooral de ti4200 tov de 8500), de fx komt iig (onder druk van de concurrentie) goedkoper ($399) op de markt dan de 9700 een tijdje terug (alleen zal de prijs snel moeten dalen wil me de competitie tegen de 9700(pro) aan willen gaan, en hoewel ik de FX niet vind preteren zoals verwacht is hij (als je ff niet naar de mindere prestaties in AA kijkt, iets wat ik overigens zelf nooit gebruik) toch wel weer sneller dan de 9700 pro (zeker als je naar de shader prestaties kijkt, leuk voor doom 3 en unreal 2)

Ik ben eigenlijk voronamelijk benieuwd naar die nv31 en wat men exact tegenover de 9500 wil zetten

Mijn eerste indruk is iig dat die 128 bits geheugenbus op de fx iig niet zon erg slimme zet was als het gaat om AA performance

Ik blijf iig bij nvidia zolang ati nog slechte drivers voor linux uitbrengt (en dan met name slecht wat betreft de zeer matige snelheid, iets waar nvidia in linux nooit last van heeft gehad))
NVIDIA haalt in ieder geval al veel inkomsten uit hun XBOX-project (denk ik toch) en uit de GF4-serie en natuurlijk de nForce2-mobo's. Dus ik denk dat er veel nodig is om NVIDIA eronder te krijgen.
Ook ATI, dat een veel groter bedrijf is dan NVIDIA haalt veel geld uit zijn contacten met de "groten" zoals Compaq enz... Hoe vaak vond je geen 'ATI Rage Pro' in een budgetpc van enkele jaren terug...

Dus ik concludeer dat ze praktisch nooit hun boeken zullen moeten toedoen, aangezien ze ook op andere markten actief zijn. Trouwens, beide bedrijven weten hoe het gelopen is met 3DFX en ze zullen er alles aan doen om niet in dezelfde situatie terecht te komen.
Dit was enigzins te verwachten.. Best dom van nVidia, de hele wereld eerst warm maken voor de GeForce FX om vervolgens snel een sprongetje te maken.

Zou de R400 van ATi genoeg weerstand kunnen bieden aan de NV35 en NV40?

LOL @ aantal | flinke | deuken trouwens :D
Zo'n post krijgt inzichtvol?

Denk nou eens echt na!
De FX is gewoon een mislukking. Het ding is 6 maand vertraagd en bovendien is het ontwerp mislukt, want een .13 GPU zou helemaal niet zo idioot heet mogen worden. Er zit duidelijk geen rek in tov van het .15 R300 design.

Het enige dat Nvidia nu KAN doen is duidelijk maken dat ze grote haast gaan maken met de NV35 en de NV40.
Ze hebben geen andere keus dan dat te verkondigen. (of ze het ook kunnen is weer wat anders, maar dat staat compleet los van de noodzaak nu dit soort aankondigingen de wereld in te brengen)

Aangezien de NV35 door moet borduren op een in wezen mislukt design wordt dat zeker geen makkelijk karwei voor Nvidia. (ATI heeft het in vergelijking met de R350 dan veel makkelijker)

De NV40 is de echte kans voor NVidia om weer terug te komen. Zowel ATI als Nvidia beginnen dan weer met een schone lei.
Die NV40 krijgt dan gewoon directe concurrentie van de R400. Wat betreft performance mag je verwachten dat die twee elkaar weer dicht zullen benaderen
Zo'n post krijgt inzichtvol?
Heb ik iets gezegd dat tegenstrijdig is met jouw post dan :?

Dat is net wat ik zeg, dat de FX een mislukking is... Eerst de wereld warm maken voor de FX om dan te verkondigen dat hij min of meer wordt overgeslagen.

En zoals verwacht wordt hij weer naar overbodig gemod..
Ik vindt dat je over niet genoeg feiten beschikt om hier een uitspraak over te doen.

Zoals in een erdere reply zo goed als voorbeeld gegeven:

De P4 was in het begin ook brak......
Na een tijdje kwam de specifieke support in applicaties en ging dat ding ineens als een trein....
Gamedevelopers zullen Nvidia echt niet negeren! Kost ze iets te erlies aan winst denk ik!
Het is wel raar, ik woon in Breda en wilde laatst voor een kennis een grafisch kaart kopen. Mijn Smaak ging naar 9500pro.... Ik dacht die ga ik effe halen...Mooi niet dus.

Ik ben naar Dixons, Mycom, Dynabyte en nog een aantal zaken langsgeweest en geen 1 had Ati grafisch kaarten, alleen Geforce...

Dus Nvidia doet eigenlijk nog steeds goed en het duurt wel een tijdje voordat Ati naast Nvidia komt... In ieder geval nog steeds niet in Breda O+
Dat heb je nou eenmaal als je een goede naam voor een product dat vroeger (en nog steeds) het van het was gekozen hebt. Iedereen kent GeForce, iedereen wil GeForce. En winkels spelen hier netjes op in.

Kan volgens mij nog wel ff duren voor ati en nvidia op het zelfde niveau staan, qua naamsbekendheid/verkoop, en niet alleen in Breda :)

Het zou me trouwens niet verbazen mocht nVidia voor de volgende kaarten ook de naam GeForce overnemen... Hoewel hij volgens mij al redelijk uitgemolken is. Maar wie ben ik om dat tegen nVidia te zeggen..

GeForce SIX, GeForce FX≤, ik zie ze al voor me
GeForce.... nee, die wil ik niet

doe mij maar G-Spot, veel leuker :9~
Ik ben naar Dixons, Mycom, Dynabyte en nog een aantal zaken langsgeweest en geen 1 had Ati grafisch kaarten, alleen Geforce...
lol, echte pczaken hebben ze zeker niet in breda? (nofi). Het is inderdaad vrij logisch dat dat soort zaken met name nVidia (geForce) hebben. Zij verkopen heel veel kant en klare systemen en de naam geforce doet het daarin gewoon goed omdat de mensen die naam kennen.

Hier ligt imo een taak voor Ati, om hun (in mijn ogen toch nog steeds) voorsprong uit te buiten en Radeon bij het grote publiek aan de man te brengen. Nvidia's marketingmachine heeft in het verleden goed gewerkt en daar plukken ze nog steeds vruchten van, alleen zullen ze snel met een goed nieuw product (FX is na alle bombarie vooraf een flinke teleurstelling gebleken) moeten komen om hun goede naam te behouden, immers, geforce 4 chips worden afaik al niet meer gebakken. Als die op raken moet nvidia wel iets goeds voor het grote publiek hebben (wat ook nog betaalbaar is).

edit:

Dat is toch eigenlijk wel raar dat radeons niet bij de grotere electronica zaken te krijgen zijn. Zou dat een europees iets zijn? in de VS liggen de geforcen en radeons gebroederlijk naast elkaar in de scahppen bij de grote elektronicaboeren (als Best Buy en Radio Shack)
Idd, nu noem je een goed punt. Het is idd zo dat de meeste grote bedrijven alleen maar de bekendste merken verkopen (nVidia, Intel), en dat dan de minder bekende, of beter gezegd, de niet-oude-bekenden niet of nauwelijks verkocht worden.
Ga je naar een klein winkeltje daarentegen, vind je doorgaans wel veel ATi's en AMD's hoor...
lul allemaal niet zo
amd en ati zijn overal te krijgen en niet alleen bij kleine winkels, en zoals het er naar uit ziet gaan de meeste mensen toch voor een ati omdat nvidia
op videokaart-gebied gewoon zwaar heeft zitten f*cken. het zijn alleen de a-merk pc's zoals
hp,packard bell ,dell enz... die bijna alleen intel en nvidia gebruiken of niet ?????
Hoezo heeft nvidia zitten f*cken(zoals jij het zo mooi uitdrukt)?

Ze zijn een paar fps trager als de ati?
Je ziet op consumenten pc's dat toch niet terug, grote bedrijven (dell/compaq/vobis etc) gaan voor stabiliteit, hier doet nvidia het een stuk beter als ati, drivers zijn gewoon nog steeds beter.
Nee hoor, de OEMS hebben zowel intel, amd en ook ATI en nV in hun bakken zitten. ATI is zowiezo al heel lang vriendjes met de OEMS.
PackardBEll verkoopt in hun topmodel nu een ATi/intel combo en juist in de budgetbakken een AMD/nV combootje..

Enne, ATi drivers zijn goed hoor, de laatste tijd zekers..
Ik ben naar Dixons, Mycom, Dynabyte en nog een aantal zaken langsgeweest en geen 1 had Ati grafisch kaarten, alleen Geforce...
Klein tipje van de sluier: stap eind deze week / begin volgende week nog eens de MyCom binnen en kijk nog eens goed ;)
MyCom krijgt Radeon

Saphire Radeons, very nice.

Ik hoop dat ze ook de Radeon 9700PRO Ultimate edition krijgen, die is passief gekoeld :*)
Das vaag. Ik woon in Wijchen en dat is niet zo geweldig groot. Maar bij de Dixons bij ons hebben ze zeker ATI. En ook nog een Kyro II staan voor liefhebbers.

Ik denk dat er 3 GeForces staan (GF4MX, Ti4200 en GF2MX)
2 ATI (Hercules 3D Prophet 8500LE en een 9500 Pro 64 Mb)
1 Kyro (Hercules 4500 ding volgens mij)

Heb je wel een vage week uitgekozen denk ik. Ga volgende week nog maar s kijken. En check anders wat echte PC shops in Breda. Ze zijn er vast wel.
Doordat de Xbox-GPU er tussendoor kwam is deze planning ooit grondig in de war geschopt

Onzin?
Er zal toch wel een speciale afdeling zijn die de Xbox stuff doet.. ?
Het is algemeen bekend dat GeForce4 grote vertraging heeft opgelopen omdat de GeForce3-architectuur omgebouwd en geupgrade moest worden naar de Xbox-GPU. Er zijn twee designteams, normaal werkt de een groep aan de volgende chip en de andere groep aan de opvolger daarvan. Destijds werkte echter ťťn team aan de GeForce3, en het andere aan de Xbox.

Met GeForce4 misten ze daarna voor het eerst een halfjaarlijkse cyclus. Er zat grofweg een jaar tussen GeForce3 en GeForce4, en ik tel de stap van GeForce3 naar GeForce3 Ti500 niet als een echte productupdate (hoewel nVidia marketing het natuurlijk wel zo bracht). Uit interviews is ook gebleken dat ze het Xbox-project (dat niet alleen uit een GPU maar ook nog uit een chipset bestond) hebben onderschat.
Ja, maar van die Xbox-chipset hebben hebben ze later toch de nForce (1 & 2) afgeleid. Zeg maar de ontwikkeling van een moederbordchipset deels betaald door Microsoft. Dat is toch ook winst zou ik zeggen.
Volgens mij heb ik rond eind 1999 een GeForce SDR gekocht, dus:

1999: GeForce
2000: GeForce2
2001: GeForce3
2002: GeForce4
2003: GeForceFX

Al die halfjaarlijkse releases zijn er volgens mij dus nooit geweest, alleen volgens de marketing.
Nee, de papieren lanceringen waren telkens om het half jaar denk ik.
Ook de Geforce DDR wordt waarschijnlijk als nieuwe generatie gerekend, aangezien die toch dubbele prestaties van een Geforce SDR haalt.
En zo heb je nog wat overgangskaarten, zoals de GF Ti's in de 2 en 3-serie, die worden waarschijnlijk ook als een soort nieuwe generatie gezien tov de 2GTS/ULTRA en de gewone GF 3.
Durona: Dat snap ik, maar DAT is juist mijn hele punt. De persoon waarop ik een reactie schreef zei dat hij de GF3 Ti500 lancering niet als generatie rekende en ik wilde juist laten zien dat 50% van al hun "nieuwe" produkten dat eigenlijk niet zijn :)
Ik weet ook wel dat eerdere "halve" releases allemaal weinig vernieuwend waren, maar bijvoorbeeld van GeForce2 GTS naar GeForce2 Ultra was er een flinke prestatiewinst, ook al was de technologie niet veranderd. De reden dat ik de stap van GeForce3 naar GeForce3 Ti500 niet als een nieuw product reken is dat er qua prestaties ook nauwelijks verschil was. Dat was gewoon een nieuwe naam voor een oude kaart.
Dat is toch echt de normale cyclus:

Begin van het jaar:
Nieuwe core etc.

2e helft van het jaar:
de top range modellen van de core.
Ja natuurlijk. Maar daarvoor moet je wel mensen hebben, die moet je opleiden en introduceren in het bedrijf, of bij bestaande afdelingen wegtrekken (en evt. Xbox-kennis bijbrengen). Hoe dan ook, je zal altijd je planning overhoop moeten gooien.

edit:

tiepfautju eruit
ik hoop dat nVidia nog 2 chips uitbrengt dit jaar en hoop ook dat ze VEEL beter zijn dan de GF FX want dat was een flinke teleurstelling... maar ik vrees dat ze Ati niet op korte termijn gaan inhalen..

het is namelijk niet alleen de snelheid het is meer dan dat...

1. trager dan de "oude Ati"
2. slechtere beeld kwaliteit in 2D & 3D
3. duurder te maken dan de Ati kaarten
4. nVidia DX 9.0 en ati DX 9.1 (in de R350 die immers al op de stoep staat)

die punten zullen ze dus vet moeten verbeteren en wel HEEEEEEEL erg snel als ze nog 2 cores willen uitbrengen dit jaar...

* 786562 Legolas_1973
Even over dat laatste puntje van je, dat is best wel niet waar. Het enige verschil tussen DirectX versie 9.0 en 9.1 is namelijk de ondersteuning voor pixel- en vertexshader 3.0. Deze shaders zijn echter zo ontzettend zwaar en complex dat Microsoft, nVidia, ATi en anderen het er over eens zijn geworden dat deze 3.0 shaders niet in de hardware hoeven te worden ondersteund.

Ze komen alvast in DirectX te zitten zodat ontwikkelaars er een beetje mee kunnen experimenteren, maar de huidige verwachting is dat zelfs over een jaar de VPU's nog niet krachtig of complex genoeg zijn om deze shaders ook echt hardwarematig en realtime uit te kunnen voeren. Daarom hebben ze dus besloten dat ieder kaart die DirectX 9.0 compliant is zich ook meteen DirectX 9.1 compliant mag noemen.
ik hoop dat nVidia nog 2 chips uitbrengt dit jaar en hoop ook dat ze VEEL beter zijn dan de GF FX want dat was een flinke teleurstelling... maar ik vrees dat ze Ati niet op korte termijn gaan inhalen..
Waarin was de GeForce FX een teleurstelling? In het aantal frames per seconde in spellen, in het aantal features of puur qua uiterlijke kenmerken zoals geluid, hitte, design en prijs? Zelf vind ik de GeForce FX ook eigenlijk een teleurstelling. Toch denk ik dat de GeForce FX niet mag worden afgedankt door zijn wat mindere vermogen. Met marketing kom je vrij ver, wellicht dat een deel van de slechte reputatie van de GeForce FX goed gemaakt kan worden door redelijke verkoopsresultaten. Laten we eerlijk zijn; er zijn altijd consumenten die het snelste van het snelste willen. In dat geval is de GeForce FX DE oplossing op dit moment.
1. trager dan de "oude Ati"
Tot op heden is de R300 de enige core van Ati die duidelijk sneller is dan de nieuwste nVdia core. De NV30 zal wel weer sneller zijn dan de R300, maar dat zal Ati weer goed maken door de R350 uit te brengen. Wat daarnaa gaat gebeuren is tot dusver onduidelijk. Je kan op dit moment dus nog niks concreets zeggen over de prestaties van de NV35, NV40, R350 en de R400.
2. slechtere beeld kwaliteit in 2D & 3D
De beeldkwaliteit van de GeForce kaarten licht voor het grootste deel aan de gebruikte filters. Koop je een GeForce van een wat goedkoper merk, dan zal je waarschijnlijk een kaart krijgen die minder 2D en 3D kwaliteit geeft dan een kaart met goede filters. Het argument dan de 2D en 3D kwaliteit van de GeForce kaarten slechter is dan die van de Radeon hangt dus af van welk merk GeForce je koopt.
3. duurder te maken dan de Ati kaarten
De huidige kaarten van nVidia zijn in principe even duur als de kaarten van Ati. Althans, als je de kaarten vergelijkt die vergelijkbare prestaties leveren. nVidia lijkt het leuk te vinden om de nieuwste kaarten een prijskaartje van $499 te geven terwijl de Radeon 9700 Pro voor $399 (?) over de toonbank ging. Het blijft afwachten hoeveel de volgende kaarten van beide fabrikanten gaan kosten. Pas dan kan je zeggen dat de nieuwere kaarten van nVidia duurder/goedkoper zijn dan die van Ati.
Volgens mij vergeten sommige mensen dat als je van productie proces overstapt dus van .15 naar .13 dat dat enorme veranderingen met zich meebrengt. Nvdia heeft daar nu ervaring mee en ATI nog totaal niet. Waarschijnlijk kan Nvdia nu gemakkelijker verder gaan met deze techniek doorontwikkelen en zal ATI enorm moeten zwoegen om dit kleine gat te dichten.

Dit wil natuurlijk niet zeggen dat .13 beter is dan .15 maar heeft op de lange termijn zeker voordelen.
Denk ook mede hierom dat nvidia eneens zo snel met de nv35 en nv40 kan komen.
Nvdia heeft daar nu ervaring mee en ATI nog totaal niet.
Het gaat niet alleen om het bedrijf dat ervaring moet hebben met 0.13 micron tech. Zowel ATi als nVidia laten hun hi-end-cores bij TSMC produceren. TSMC is degene die het proces onder controle moet krijgen, en ATi moet er voor zorgen dat het design goed is.

En aangezien TSMC nu steeds minder problemen kent op het gebied van 0.13micron, zal ATi daar van mee kunnen profiteren.

Nu ATi in zee is gegaan met Cadence om te werken aan een 0.09 micron-chip (R500), verkleinen ze de kans op een misbaksel a la FX.

nVidia is altijd de eerste met nieuwe technieken, maar dat draagt ook een groot risico met zich mee. In het geval van het gebruik van 0.13-tech voor NV30 was het grote risico dat ze voor een groot deel afhankelijk waren van de capaciteiten van TSMC.

Als TSMC niet op problemen stuitte met de integratie van low-k dielectrics, dan hadden we nu een NV30 gezien die daardoor minder energie verbruikt, daardoor dus minder warm wordt, op hogere snelheden had kunnen lopen en dus geen FlowFX nodig had. Maar ja, dat is het risico van de koploper.

ATi speelt op safe, en gebruikt de value-chip om zelf ervaring op te doen met 0.13, terwijl het vlaggeschip via een beproefd, goedkoper en betrouwbaar proces wordt gemaakt.

Ontopic: ik twijfel er niet aan dat nVidia met NV35 wel een topkaart zal kunnen afleveren die over de R350 heen walst. Maar het plezier zal niet voor lange duur zijn aangezien R400 er aan komt en die volgens insiders gebruik maakt van een echt revolutionair nieuwe architectuur (waar overigens NV40 ook gebruik van zal gaan maken). Als NV35 in juli uit komt, dan zal volgens de planning van ATi, RV400 rond juli/augustus geintroduceerd worden.

En dit heb ik al eerder gezegd, maar ik vind dit soort aankondigingen niet echt getuigen van betrokkenheid richting hun vaste klanten. Het is in mijn ogen gewoon een laatste marketing(red)middel in de hoop dat de teleurgestelde nVidiot nu toch nog gaat wachten op de NV35 ipv voor de R300 of R350 te gaan.
dat zou kunnen idd, maar aan de andere kant, als nvidia nu tegen enorme problemen oploopt, kan ATI (via het nodige afkijken zeg maar) hier veel van leren, waardoor hun overstap mischien wel een stuk makkelijker wordt

en nvidia roept wel dat ze snel met de NV35 en de NV40 gaan komen, maar eerst zien dan geloven, na het "bijna" debacle met de FX denk ik dat ze daar toch ook stuk voorzichtiger mee omgaan
Dit geintje kan wel eens heel naar uitpakken voor NVIDIA, bij dit soort bedrijven draait het om veel geld, HEEL VEEL geld, en als dan de kaart die "het helemaal moet maken" halverwege flopt, en uit productie wordt genomen dan kost dat geld, heel veel geld. Het zal ze denk ik niet de kop kosten want ze zijn een groot bedrijf. Maar een grote tegenslag is het wel. En de vraag blijft of ze de achterstand tov ATI ooit in zullen halen.
Tuurlijk zullen ze de achterstand inhalen. De R&D van de FX is niet voor nix geweest: ze zullen het ontwerp nog verder gebruiken in hun volgende serie, alleen aangepast om warmteontwikkeling te verminderen, etc...
Als ze nu hun geheugenbus naar 128bit zouden brengen, dan zou ik weer blind vertrouwen hebben in NVIDIA (ipv de floppende DDR-II).
Als ze nu hun geheugenbus naar 128bit zouden brengen, dan zou ik weer blind vertrouwen hebben in NVIDIA (ipv de floppende DDR-II).
Je hebt ATi's en nVidia's technologies door mekaar gehaald.
nVidia's FX heeft een geheugenbus van 128bit, vandaar dat ze DDR-II moesten gebruiken.
Op die manier moet de hogere kloksnelheid van het geheugen compenseren voor de tragere geheugenbus.
Maar DDR-II is gewoon veel te duur ...

ATi's R300-reeks daarentegen heeft een geheugenbus van 256bit, daardoor kunnen ze besparen op geheugen, en hebben ze nog altijd een snellere datadoorvoer.

Het lijkt mij niet zo makkelijk om zomaar van 128 naar 256bits te gaan?
Dit geintje kan wel eens heel naar uitpakken voor NVIDIA, bij dit soort bedrijven draait het om veel geld, HEEL VEEL geld,

Microsoft maakt meer stuk dan je lief is.. :P

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True