Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 64 reacties
Bron: Tom's Hardware

nVidia logoOp het forum van Tom's Hardware zijn de mogelijke specificaties verschenen van de NV50, de codenaam voor de opvolger van de GeForce 6800-familie. De chip zal gebakken worden met behulp van een 90nm procédé en zal bestaat uit 375 ~ 400 miljoen transistors, een flinke toename ten opzichte van de 222 miljoen transistors tellende GeForce 6800 Ultra-core die gebakken is met een 130nm procédé. De core zal verder een kloksnelheid krijgen tussen de 550 en 600MHz en het DDR3-geheugen zal gaan lopen op 1600MHz. Dit zal goed zijn voor 51,2GB/sec aan geheugenbandbreedte en een fillrate van 12,8 gigatexels per seconde. De NV50 is verder uitgerust met de vierde versie van nVidia's LightSpeed Memory Architecture en is compatibel met DirectX 9.0d. In het derde kwartaal van 2005 zou de kaart op de markt moeten verschijnen, hoewel er ook geruchten zijn dat de NV50-core geannuleerd zou zijn.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (64)

Sorry hoor maar wat is de nieuwswaarde nu echt?

Bron is een post op 18/2/05 op het forum van THG.

Kijk je verder dan zie je dat de poster pas sinds diezelfde dag 3 kwartier eerder lid is geworden van het forum.

Bovendien schrijft hij in zijn post dat hij het ook maar weer ergens op een ander forum gelezen heeft!!
remember it can be just a rumor or dunno, so take it with a little grain of slat :)))
(i took it from a forum)
Even 'Unified Shader Model' verduidelijken:

Het gaat hierbij om de instructieset! Dus elke instructie voor pixel shaders zal beschikbaar zijn voor vertex shaders, en vice versa. Dit bepaalt niet hoe je het implementeert. Als we de bronnen mogen geloven dan zal ATI ook in hardware alles unificeren, en zal NVIDIA zoals tot nog toe gebruikelijk de pixel en vertex eenheden gescheiden houden (maar wel een geunificeerde instructieset ondersteunen).

Qua prestatie en andere kwaliteiten is het vrijwel onvoorspelbaar wat beter zal zijn. Het is mogelijk dat ATI's architectuur in de problemen komt omdat alles 'opeen' zit en er toch nog genoeg data in en uit moet geraken. Het is evenzeer mogelijk dat NVIDIA aan het kortste eind trekt als het balanceren van pixel en vertex eenheden niet zo efficient is.

In ieder geval, lig er niet wakker van. De vermelde specificaties lijken nul komma nul procent betrouwbaar. Men haalt wel meer zo'n trucken uit in de hoop dat een NVIDIA-medewerker een bevestigend of ontkennend antwoord geeft.
De chip zal gebakken worden met behulp van een 90nm procédé en zal bestaat uit 375 ~ 400 miljoen transistors, een flinke toename ten opzichte van de 222 miljoen transistors tellende GeForce 6800 Ultra-core die gebakken is met een 130nm procédé. De core zal verder een kloksnelheid krijgen tussen de 550 en 600MHz en het DDR3-geheugen zal gaan lopen op 1600MHz. Dit zal goed zijn voor 51,2GB/sec aan geheugenbandbreedte en een fillrate van 12,8 gigatexels per seconde. De NV50 is verder uitgerust met de vierde versie van nVidia's LightSpeed Memory Architecture en is compatible met DirectX 9.0d.
Klinkt hartstikke interessant. Lekker PR blabla talk dit. Zo van: de Radeon X850 XT PE heeft slechts een coresnelheid van 540 MHz en een geheugensnelheid van 1080 MHz, hij heeft miner gigapipelines en megatexels en superdingen, veel minder GB per seconde aan geheugenbandbreedte en zoveel minder transistors en hij is gebouwd op 130 nm en dit en dat, dus de NV50 wordt hartstikke snel. :?

(Ik maak niet met een speciale reden de vergelijking met een ATi-kaart, ik wil alleen even aangeven dat dit soort berichten vaak niks zeggen over de prestaties van een chipset.)
Het zegt mss niets over de prestaties, maar het is dan ook niet nVidia die dit bericht met veel bombarie naar buiten brengt ofzo van "kijk dit is ons nieuwe supermodel". Het is ws geleakt of zelfs onzin als ik Walter hieronder mag geloven en dit is dus geen warmloperdje van nVidia zelf ofzo. Je kunt nVidia dus niets verweiten over reclamen over hun nieuwe aankomende topmodel.
Het wordt nog beter als je de ATi R520 'specs' hoort:

24 "Pipelines"
32 Texture Units
96 Arithmetic Logic Units (ALU)
192 Shader Operations per Cycle
700MHz Core
134.4 Billion Shader Operations per Second (at 700MHz)
256-bit 512MB 1.8GHz GDDR3 Memory
57.6 GB/sec Bandwidth (at 1.8GHz)
300-350 Million Transistors
90nm Manufacturing
Shader Model 3.0
ATI HyperMemory
ATI Multi Rendering Technology (AMR)
Launch: Q2 2005
Performance: Over 3x Radeon X800 XT !!! (for single R520)
16x stochastic FSAA
FP32 blending, texturing
Programmable Primitive Processor/Tesselator

But hey, a company has a right to dream 8-)
Lijkt me geen goede zet van nVidia om tegen eind 2005 nog met een nieuwe gpu te komen, in plaats daarvan zouden ze beter een NV40 met 24 of 32 pipes lanceren, die het dan kan opnemen tegen de R520 van ATI, en begin 2006 - net zoals ATI - met een nieuw architectuur komen. (Unified Shader Architecture, waarvan wss ook Longhorn gebruik zal maken)

Doen ze dit niet, lijkt me dan dat ATI eerder met een Unified Shader Architecture komt, en op het moment dat Longhorn op de markt is, heeft enkel ATI een grafische kaart op de markt waarvan specifieke functies gebruikt kunnen worden voor het OS. (natuurlijk enkel wanneer Longhorn een Unified Shader Architecture eist voor die specifieke functies, maar dat lijkt wel waarschijnlijk)
Je moet je natuurlijk wel realiseren dat het management van nVidia een heleboel dingen weet die wij niet weten.

Wie weet kan nVidia zowel de NV50 eind dit jaar EN een DirectX10 compattible NV60(?) begin 2006 neerzetten.
Wie weet weten ze dat ATI grote problemen heeft met hun volgende chip, en weten ze dat ze het iets rustiger aan kunnen doen.
Wie weet kan de NV50 wel stikum DirectX10, en kan dat later met een driverupdate aan worden gezet.
Wie weet weten ze dat Longhorn (of ieg de nieuwe graphics skin) nog verder wordt uitgesteld.
Of zijn deze geruchten misschien wel express door nVidia de wereld in geholpen om ATI op het verkeerde spoor te zetten.

Time will tell :)
Je moet je natuurlijk wel realiseren dat het management van nVidia een heleboel dingen weet die wij niet weten.
Ja vooral over hun eigen produkten.
Wie weet kan nVidia zowel de NV50 eind dit jaar EN een DirectX10 compattible NV60(?) begin 2006 neerzetten.
Met meerdere team's goed mogelijk maar dat zou te kort achtermekaar zijn om dat economisch te verantwoorden. nV50 zou dan nog nieuw zijn en dan meteen vervangen is niet echt rendable.
Wie weet weten ze dat ATI grote problemen heeft met hun volgende chip, en weten ze dat ze het iets rustiger aan kunnen doen.
Ze weten pas iets over de nader als dat officieel of gelekt naar buiten komt. En gezien nVidia compleet door R300 verast is lijkt dat mij sterk.
Wie weet kan de NV50 wel stikum DirectX10, en kan dat later met een driverupdate aan worden gezet.
die extra transitoren kunnen voor DX10 zijn of een sloot meer pipelines of ene combi daarvan.
Wie weet weten ze dat Longhorn (of ieg de nieuwe graphics skin) nog verder wordt uitgesteld.
dit lijkt mij waarschijnlijker als je kijkt hoe vaak en lang XP64 vertraagd is.
Of zijn deze geruchten misschien wel express door nVidia de wereld in geholpen om ATI op het verkeerde spoor te zetten.
Nou nee dat zou de concurrentie nog meer pushen en dan kan je beter die geruchten waar maken anders gaat de concurentie nV voorbij ivm overdreven geruchten.
Time will tell
zoals anderen reeds gezegd hebben:
ik neem echt aan dat Nvidia en ATi etc meer weten van de markt dan jij doet.
en Nvidia zal deze GPU niet gaan maken tenzei ze er een reden voor hebben en denken dat er geld mee te halen valt.

en zoals anderen reeds gepost hebben.
deze chip zou een tussen model kunnen zijn om toe te leven naar DX10 etc.
ze dachten misschien dat een nv40 op steroids (meer pipes) net niet genoeg zou zijn om te concureren met het volgende model van ATI, en dus maakt nvidia snel even deze nv50 om dan de echte volgende slag te slaan met de opvolger daarvan.

want ik neem echt aan dat nvidia niet vol zit met idioten (ook afgezien van de FX die van hun standpunt een flink verkeerde inschating was)
ze zullen wel een flink stuk meer weten dan wij allemaal en hun reden hebben een nv50 te gaan maken.
en maybe is het zoals ThaMind ergens zegt: en is de nv50 hier genoemd niet de echte nv50
De nv40 is een chip met 16 pipelines, dus meer kunnen er niet ingeschakeld worden.
Dus om een videokaart te maken met 24 of 32 pipelines, hebben ze een nieuwe core nodig, de nv50 mischien?
Ik zou me niet zo'n zorgen maak om de concurentie van Ati op dit moment. Die kunnen hun huidige assortiment al niet leveren door productie problemen.

Laat Nvidia maar lekker kachelen, die hebben op dit moment de kaarten in handen. Mischien op papier niet de allersnelste gpu's van het moment maar in ieder geval kun je ze wel voor een "redelijke" prijs in de winkels vinden, wat zeg ik uberhaupt in de winkels vinden.

En "zo maar even het aantal pipelines uitbreiden" naar 24 of 32? Denk je dat dat makkelijk is? Moet je zien hoe lang het duurt voor ze een dual core cpu uit brengen terwijl het in grote lijnen gewoon twee "samen geklonterde" bestaande core's zijn.
Deze core is in ieder geval niet compatibel met de mooiere versie van Longhorn die DirectX 10 nodig zou hebben.
Eer dat Longhorn uitkomt, is deze kaart al lang gepasseerd :P ze hebben die nu al zo veel uitgesteld ...
van het andere nieuwsbericht van tweakers.
De NV50-chip zou aan het einde van 2005 op de markt moeten komen. Er zouden niet veel nieuwe mogelijkheden aan de GPU toegevoegd worden, de nadruk lag vooral op het optimaliseren van de chip, zodat deze bijvoorbeeld minder transistors en dus minder energie nodig had.
misschien klopt dit annuleringsbericht dus niet, dit klopt in iedergeval niet met dit bericht.

maar door deze specificaties lijkt het me eerder dat dit bericht niet klopt. DirectX 10 ondersteuning is ook wel handig, net wat MeMory zegt.
nVidia heeft zelf al lang (stond geloof ik óók op T.net) bekend gemaakt dat het niet waar is dat de NV50 geschrapt was. Dat was een gerucht en die bleek al snel niet waar te zijn.
DirectX 9.0d? Begrijp ik het nou niet of kunnen ze die kaarten beter compatibel maken met DirectX 10. Anders is die kaart al veroudert wanneer de nieuwe Windows uitkomt...
Zie mijn eerste post.
nVidia zou beter de NV50 laten vallen, en zich richten op een Unified Shader Architecture tegen dat Longhorn op de markt komt, want ATI zal zeker & vast een Unified Shader Architecture gpu hebben tegen dan.

De NV40 is snel genoeg om het op te nemen tegen de R520. (mits ze er natuurlijk enkele pipes - 24/32 - bijdoen)
Die unified shaders zijn volgens mij geen verplichting voor DX 10. Het heeft namelijk niets met beeldqualiteid te maken.

Die unified shaders willen alleen zeggen dat. De piplines in de chip de rol van Vertex of Pixel pipline kunnen vervullen.

Dus als je 32 piplines hebt en een spel wil veel vertex bewerkingen doen worden bv 24 piplines ingezet voor vertex bewerkingen en de overige 8 voor pixel shader bewerkingen of andersom.

Het is gewoon een manier om je chip efficienter te gebruiken.

Maak ik kan je post verkeerd opgevat hebben :)
Deze chip komt in het 3e kwartaal van dit jaar, het is tenslotte ondertussen alweer 2005. Longhorn komt EIND 2006 uit, als het tenminste niet gaat vertragen (wat het ws toch al wel zal doen, zoals oa ook WinXP 64 en al het gestrip wat er al in Longhorn is gedaan om hem op tijd klaar te laten zijn). Daar zit dus meer dan een jaar tussen. Tegen die tijd dat Longhorn uitkomt is er ws al de NV60, met DirectX 10 en dus ook je USA. Geen enkel probleem dus voor nVidia, behalve dat Ati het mss eerder heeft dan nVidia. nVidia heeft echter nu SM3.0 eerder dan Ati en die lijkt daar ook niet bizar veel voordeel bij te hebben dat ze er eerder mee zijn, ik denk dat dat ook het geval zal zijn voor USA, zeker als het vooral op een OS aankomt.
*Alle* grafische kaarten zijn een jaar nadat ze uitkomen verouderd. DirectX 10 en Longhorn hebben daar verder niets mee te maken.
Maak ik kan je post verkeerd opgevat hebben
Het is idd geen verplichting, maar als Longhorn op de markt komt, en enkel ATI een Unified Shader Architecture heeft (en nVidia pas later volgt), kan ATI reclame maken met "wij ondersteunen x & y voor Longhorn, nVidia niet"

Nu nog met een nieuwe gpu komen lijkt me totaal onlogisch, NV40 is snel genoeg om het op de nemen tegen de R520, dus ipv een nieuwe gpu te maken zouden ze zich beter richten op een Unified Shader Architecture, en als "tussendoortje" een NV40 met 24/32 pipes launchen.
Toch heb ik geen zin om >500(?) euro uit te geven voor een kaart die na een jaar al verouderd is. Ik wacht wel even.
Tenzij ze een firmware update kunnen leveren die de kaart DirectX10 compitble maakt.
Als ze extra pipes toevoegen komt dit de yields niet echt ten goede... niet alle pipes komen vaak even goed uit de verf...

Zou je ook graag met voorbeelden van de scaling op hogere snelheden willen zien komen, als jij stelt dat een deze architectuur het nog makkelijk op kan nemen tegen de R520

* 786562 Atmosphere
De Unified Shade Architecture stelt een flexibelere pipeline voor waardoor ook zaken als 2nd pass rendering makkelijker en sneller kunnen.. Ook onstaat er ruimte voor bv (in hardware uitgevoerde) applicatiespecifieke optimalisatie en nieuwe methodes voor antialiasing.
''ATi R520 begin mei gaat introduceren, dus laat ons zeggen juni leverbaar'' dat geloof je toch zeker zelf niet. Het 90nm proces tezamen met extra pipelines zal de yields echt niet verbeteren. De X850XT of XT PE is nog steeds niet echt goed leverbaar. De ATI shop is zelf gestopt ze te verkopen om zo nog alleen aan 3d parties te leveren. Als ze in mei gaan produceren, mag je blij zijn ze eind dit jaar te kunnen kopen.
Daar heb je wel een punt. Het is natuurlijk grappig dat de X850xt en pe gecancelled is door BBA. En dan maar beweren dat de yields veel beter zijn dan bij de X800 serie. Je moet niet vragen hoe slecht die wel niet waren.

In het vorige nieuwsitem http://www.tweakers.net/nieuws/36268 kon countess nochtans bevestigen dat de yields veel beter waren. De dag erna werden de kaarten al gecancelled door BBA :D
De BBA X850XT PE is niet gecanceled in de zin van helemaal geschrapt. De grote OEMs als Dell krijgen hem nog steeds.

Het enige dat veranderd is, is dat ATi nu de voorrang geeft aan thirdparty fabrikanten. Zij krijgen de XT PE cores nu als eerste. Dit heeft grotendeels te maken met het feit dat ATi goed wil maken dat zij min of meer het ondergeschoven kindje waren met de 800XT PE.

Veel AIBs waren volgens mij pissig omdat ATi als videochipgigant zelf een deel van de markt (vooral in Amerika) wist weg te happen doordat ze zelf onder eigen merk (BBA) kaarten verkochten.

Er zijn genoeg winkels waar je nu de X850XT PE kan kopen van bv Sapphire (¤470), Gigabyte, HIS, Powercolor of Club3D. En dit zullen er alleen meer worden, zeker nu ook de R481 (AGP X850) er aan komt. Dus zo dramatisch is het allemaal niet zoals sommigen het hier willen doen overkomen.

Dan over de mogelijke NV50 specs.. waarschijnlijk gewoon in elkaar gezet door een nVidia-fanaat als reactie op de 'zogenaamde' R520 specs die ook met een flinke korrel zou genomen dienen te worden (maar daar komen we binnenkort achter wat er van waar is).

Sommige dingen kloppen ook gewoon niet. 32 vertexshaders en 32 pixel pipelines? Dat duidt op unified pipelines. Unified lijkt uitgesloten aangezienl dhr David Kirk in recente interviews nog heeft aangegeven dat ze liever voor aparte pixelshader en vertexshader engines gaan, want over een unified architecture wist hij immers te zeggen: "Jack of all traders, but master of none". nVidia zou met een unified architecture weer helemaal het roer omgooien. De FX ging de unified kant op, de GF6 ging op de ATi toer met massive parallel architecture, en dan zouden ze nu ineens weer omschakelen naar unified? Maar goed, alles is natuurlijk mogelijk...

Overigens... een misverstand over de aankomende ATi kaart die ik hier een aantal keren voorbij heb zien komen... R520 is niet unified. R500 (Xbox2) wel. R520 is een tussenvorm, en heeft waarschijnlijk wel hybrid vertexshaders die zijn overgenomen uit het R500 ontwerp, maar alles wijst er op dat R520 een R420/R480 is met shader model 3.0+.
Lijkt me geen goede zet van nVidia om tegen eind 2005 nog met een nieuwe gpu te komen, in plaats daarvan zouden ze beter een NV40 met 24 of 32 pipes lanceren, die het dan kan opnemen tegen de R520 van ATI, en begin 2006 - net zoals ATI - met een nieuw architectuur komen. (Unified Shader Architecture, waarvan wss ook Longhorn gebruik zal maken)

Houd er wel rekening mee dat als ze eind 2005 een kaart lanceren het nogsteeds wel een paar maanden duurt voordat ze ook echt te krijgen zijn. Kijk naar de x800/6800 serie daarbij moest je eerst nog een tijd wachten totdat ze uberhoubt te krijgen waren en echt maanden voordat ze goed te krijgen waren.
Ik zou dit bericht eens in een ander licht willen zetten. aca geeft bv aan dat de specs van de R520 veel beter zijn dan de NV50 nu doen lijken. Hacku3 geeft aan dat ze Unified Shader Architecture moeten toevoegen omdat het anders te laat is voor Longhorn en Ati daar een goede zet zal doen die het met de R520 wél ondersteund. Walter de Rochebrun geeft dan weer aan dat het verhaal onzin is vanwege de bron. Dit alles bij elkaar doet mij dan aan het volgende denken:

nVidia gaat de NV50 meer als tussenversie zien, zoals in het NV50 annuleringsgerucht al wordt voorspeld door de heren van Beyond3D, deze denken alleen dat dit om een NV48 zal gaan, ik denk dat nVidia deze maar NV50 heeft genoemd. De NV50 zou oorspronkelijk ook pas eind 2005 of begin 2006 uitkomen terwijl deze nu al voor het 3e kwartaal wordt verwacht. nVidia zit namelijk met een dilemma. Ze kunnen een nieuwe chip lanceren die alleen niet alle Longhorn features kan draaien (Unified Shader Architecture) óf ze wachten langer met die chip en voegen het toe, maar dan ontstaat er een gat (zoals die van Beyond3D al schetste) en met Ati momenteel de snelste chip met de x850 betekend dat verlies van marktaandeel. Dit 'de-knoop-doorhakken' bij nVidia kan dan weer gezorgd hebben voor een gerucht van iemand van binnenuit dat de NV50 geannuleerd werd, terwijl die dus uiteindelijk wel blijkt te komen. Dat deze alleen als tussenversie komt is ook duidelijk aan de specs, want het zal dan ws een opgefriste en uitgebreidere NV40 worden. Waarschijnlijk voegen ze 8 of 16 pipelines toe wat meteen de enorme hoeveelheid extra transistors verklaard. Dankzij 90nm en flink wat optimalisaties uit het afgelopen jaar (en dus de research enzo) zullen ze hogere coresnelheid kunnen halen. Het DDR3 geheugen is niet veel bijzonders qua 'nieuws' omdat al langer bekend is dat Samsung ed aan het testen waren met 1400mhz test samples, dat tegen die tijd 1600mhz chips er zijn lijkt dan ook wel te verwachten. Die extra bandbreedte is dan ook meteen verklaard, bij de NV40 zit die namelijk op 35+ gb/s, dit echter wel met geheugen op 1,1ghz (verschil: 500mhz) die 500mhz zal wel voor flink wat extra bandbreedte zorgen. De 4e versie van nVidia's LightSpeed Memory Architecture zorgd ook nog eens voor extra bandbreedte en deze zal wel al grotendeels af zijn voor de eigenlijke, orgineel geplande NV50 specs, die dus nu doorgeschoven worden omdat NV50 meer als opvuller gaat dienen. Bij Beyond3D hadden ze ook dát al voorspeld, omdat men ws al afgewerkte nieuwe technieken en research zou gaan gebruiken voor de tussenchip. Uiteindelijk komt nVidia daarna dus pas met een echte opvolger van de NV40 en die moet de strijd aangaan met de R520 core van Ati en deze zal dan ook wél aan de snelheden komen van de R520 wat de waarschijnlijke tussenopvolger "NV50" nu zeker niet doet als ik Aca mag geloven.

Klinkt wat mij betreft helemaal niet verkeerd en de stukjes vallen bijna allemaal in elkaar, hoewel het slechts gissen blijft. De klokfreq. increase van 400mhz naar 550 of zelfs 600mhz lijkt met, ook met 90nm, toch erg moeilijk te halen. Maar dat is dan ook het enige waaraan ik zelf twijfel. Ik zeg niet dat ik gelijk heb, ik wil alleen het nieuwsbericht in een ander/nieuw perspectief proberen te zetten en ik sta open voor ieders mening hierop uiteraard :).

Edit: was niet bedoeld als reactie op ben666 |:(
zoals ik het begreep is deze Nv50 meer een tussenvorm zoals de R520 is (die is nl znog niet volledig USA).

de Echte (doorgeschoven) Nv50 is de tegenhanger van de échte R500 die inmiddels R600 heet.
Wat heeft iedereen toch met die unified shader? Wie zegt dat dat beter is? Omdat Ati het zegt? Omdat MS het wil?

Nvidia zal geen unified shader gebruiken. En dat is een bewuste keuze. Laatst zeiden ze hetvolgende erover:

"“It’s not clear to me that an architecture for a good, efficient, and fast vertex shader is the same as the architecture for a good and fast pixel shader. A pixel shader would need far, far more texture math performance and read bandwidth than an optimized vertex shader. So, if you used that pixel shader to do vertex shading, most of the hardware would be idle, most of the time. Which is better – a lean and mean optimized vertex shader and a lean and mean optimized pixel shader or two less-efficient hybrid shaders? There is an old saying: ‘Jack of all trades, master of none’,” "

Het is een keuze die nvidia maakt, time will tell of het de goede is.
400M ipv 222M transistors... Is deze jongen dual core? :+

...even serieus, waar gaan die 178.000.000 extra transistoren aan op?
Dual core heeft geen zin op een videokaart, aangezien je dan net zo goed het aantal pipelines kan vergroten (zoals ze ook doen). De huidige top videokaarten hebben 16 pipelines en de volgende 24 of zelfs 32 pipelines. Je zou kunnen stellen dat een dual-core P4 bv 2 pipelines heeft (iedere core 1 pipe), bij een cpu kun je echter niet meerdere pipelines gaan gebruiken omdat cpu's in z'n geheel moeilijk parallel werken (intern werken stukken van de cpu weer wel parallel dankzij de omzetting naar RISC maar dat gaat hierbuiten) itt gpu's die dit maar al te graag doen. Die extra transistoren gaan dus ook op aan extra 8 of mss zelfs de dubbele hoeveelheid pipelines als de huidige high-end chips en alle nieuwe rendertechnieken. Daarbij is algemeen bekend dat nVidia zo'n 25% van hun transistors kwijt is de 32bit FP rendering, itt tot Ati die maar 24bit FP rendering ondersteund. Dat verschil tussen 24 en 32 kost nVidia per core zo'n 25% extra transistors, vandaar dat Ati chips meestal een stuk minder transistors hebben (rond de 150miljoen met de x800 serie itt 222 miljoen voor de 6800). Zogauw Ati met de R520 core komt, en dus FP32 rendering zal ondersteunen, zal het aantal transistors flink oplopen waarschijnlijk.

Edit: Vormstreber; een smilie kan je op veel manieren oppakken :9
Tuurlijk wist ik wel dat je niet kunt spreken van een dual-core bij GPU's (zie smilie).
Eigenlijk best ziek die specificaties. :9
Al heb ik niet het idee dat deze ook werkelijk uitkomt, denk eerder dat ze nog een stap verder gaan.
Je bedoelt de FX 5x00 serie? De 6800 serie was de afgelopen, vrij succesvolle, serie. De FX serie was trouwens helemaal niet zo'n slechte hoor, hij overtrof zelfs in sommige gevallen de verwachte prestaties. Probleem was alleen dat nVidia z'n eigen gang ging en niet DirectX volgde. DirectX games (veruit de meeste) liepen dus belabberd op FX zonder aanpassing en ging vaak terug naar FP16 of zelfs FP12 renderen. Wanneer games waren geoptimaliseerd voor de FX serie (de betere, grotere games) kon de FX serie echter weer héél goed meekomen en waren de prestaties allesbehalve slecht. Game ontwikkelaars wilde alleen weinig (vooral de kleinere ontwikkelaars) geld steken in een appart renderpad speciaal voor de nVidia kaarten omdat nVidia domweg DirectX niet wilde volgen (waren alleen compatible, niet compliable). De meeste games liepen daarom slecht en werden teruggeschroefd qua beeldkwaliteit enzo om toch nog op een acceptabel fps te draaien en daarom waren veel mensen ontevreden over de FX serie.
Om het nog even ingewikkeld te maken is er natuurlijk ook nog de Geforce PCX 5x00 serie :Y)
De FX serie was toch de 5000 serie van nVidia ?
Bedoel jij dan niet de FX5800 want de 6800 die ze nu uit hebben gebracht valt volgens mij niet geheel tegen qua prestaties echter de fx5800 toen des tijds (net zoals de rest van de 5000 serie) valt/viel wel tegen.

Ik doel daar mee idd op directx prestaties in opengl kan die een heel stuk beter mee komen ja. Zoals ThaMind dus zegt, maar ja standaarden (ook al zijn ze van microsoft) zijn er om nageleeft teworden en als je daar net een andere draai aan geeft heeft het dus geen nut om een standaard te lijken ondersteunen.
Ziek is het goeie woord aangezien ik hier dagelijks met een Ti4200 en 9700 Pro game en dat zonder problemen, alles draait prima :) Kun je na gaan hoe doelloos deze straks ¤800 kostende kaarten zijn |:(
Tja, als men niet verder ging dan zou iedereen nog met een Ti4200 gamen en zou de beeldkwaliteit van spellen er niet op vooruit zijn gegaan.

Want jouw Ti4200 kan misschien nog alle spellen aan maar wel met lagere beeldkwaliteit en minder effecten want het is "slechts" een DX8.1 kaart. Hetzelfde gaat op voor jouw 9700Pro. Een leuk kaartje, lekker snel maar ik denk niet dat jij met de laatste games aan FSAA/AF moet denken in combinatie met een hoge resolutie en een acceptabele framerate.

Ik koop echter ook nooit de snelste nieuwste kaart want die hebben een slechte prijs/kwaliteitsverhouding. Ik wil alleen maar zeggen dat als je iedereen zijn hardware goed genoeg vindt dat dan de vooruitgang stilstaat.

* 786562 amour021
Tja, als men niet verder ging dan zou iedereen nog met een Ti4200 gamen en zou de beeldkwaliteit van spellen er niet op vooruit zijn gegaan.
Kwaliteit gaat niet alleen om grafische kwaliteit, sterker nog, liever een spel wat er goed uit ziet én goed speelbaar is, dan een spel wat er perfect uit ziet en voor geen meter speelbaar is.
// Reactie op Proxy
Kwaliteit gaat niet alleen om grafische kwaliteit ...
Ik quote:
en zou de beeldkwaliteit van spellen er niet op vooruit zijn gegaan
Hij noemt alleen beeldkwaliteit, over speel kwaliteit van de games zegt hij niks, en heeft daarnaast weinig te maken met de video kaart dus ... :?
Jouw Ti4200 heeft geen DirectX 9 ondersteuning :P

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True