Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Gerucht plaatst GeForce 7900-videokaart in maart

Volgens nieuwe geruchten zal nVidia ergens tijdens de eerste paar dagen van CeBit twee nieuwe high-end videochips introduceren: de GeForce 7900 GT en de 7900 GTX. Partners als Asus, MSI, eVGA en XFX zouden dan ook direct hun kaarten klaar hebben. Niet alleen op de beursvloer, maar ook meteen in de schappen van de winkels. Dankzij de nieuwe 90nm G71-core zou nieuwe generatie videochips kloksnelheden tussen de 700 en 750MHz halen. De huidige topkaarten van het bedrijf - gebaseerd op de 110nm G70-core - worden standaard op 430MHz verkocht, met een 'Ultra' (512MB) versie op 550MHz. Behalve de snellere klok is het nieuwe ontwerp volgens de geruchten ook voorzien van extra pipelines, 32 in plaats van 24 om precies te zijn. Verder zou het geheugen op tussen de 1,6 en 1,8GHz geklokt zijn. Op dit moment draait het geheugen van de 256MB-versie standaard op 1,2GHz, terwijl de versie met 512MB 1,7GHz-chips meekrijgt.

De GeForce 7900 GTX zal het moeten opnemen tegen de Radeon X1900 XTX, gebaseerd op de - zeer binnenkort verwachte - R580-core. ATi heeft zijn 90nm-kruit al verschoten met de huidige X1800-serie, en er is dan ook geen grote sprong in kloksnelheid meer te verwachten vanuit het rode kamp. Desondanks heeft het bedrijf de rekenkracht flink weten te vergroten door de chip groter te maken, zodat er meer pipelines op passen. Een vergelijking maken op basis van de vermeende specificaties is echter erg moeilijk vanwege de sterk verschillende ontwerpen van de twee rivalen. De betekenis van een pipeline is de laatste jaren namelijk ernstig vervaagd: een traditionele pipeline bestaat uit drie belangrijke onderdelen - een TMU om textures mee te plakken, een pixel shader unit om dynamische code uit te voeren en een ROP die het uiteindelijke resultaat verwerkt. ATi en nVidia zijn het er inmiddels over eens dat het niet optimaal is om deze drie onderdelen in precies dezelfde aantallen op een chip te hebben, maar ze verschillen van mening over wat dan wél de beste verhouding is: nVidia lijkt te gaan voor 2:2:1, terwijl ATi voor een extremere 1:3:1 kiest:

 7800 GTX7900 GTX*X1900 XTX*X1800 XT
Klok550MHz700-750MHz650MHz625MHz
TMU's24321616
Pixel shaders24324816
ROP's16161616
*) Gebaseerd op geruchten
ATi Radeon X1900 foto (LQ)

Door

88 Linkedin Google+

Bron: Hexus

Reacties (88)

Wijzig sortering
Zou erg goed nieuws zijn :D iig weer de sterkste kaart in Nvidia's bezit. wel jammer dak net 2 dagen me GTX binne heb
Erg knap dat je deze opmerking nu al kan maken. Waarom zou de 7900 sneller zijn dan de X1900? Omdat de kloksnelheid hoger ligt? Omdat de drivers beter zijn? Omdat ie meer pixelpipelines heeft?

Jammer dat deze opmerkingen gemaakt worden want je moet nog maar eens afwachten of de 7900 sneller is dan de X1900. Ik zeg hier niet dat de X1900 sneller gaat zijn, ik zeg dat je daar over nog niets kan zeggen. Wat in ieder geval wel lijkt te gaan gebeuren is dat de X1900 eerder uit is en langer getest is door ATi.

Reactie op Nplayer
Waarom zou de 7900 sneller zijn dan de X1900? Omdat de kloksnelheid hoger ligt? Omdat de drivers beter zijn? Omdat ie meer pixelpipelines heeft?
Op basis van de architectuur. Als je wat meer ingelezen bent in de materie kun je dit op basis van de architectuur en de prestaties van de huidige topmodellen (ATi X1800XT en nVidia 7800GTX512) beredeneren.

Het "enige" verschil tussen R520 (X1800) en R580 (X1900) is dat de R580 3x zo veel pixelprocessors heeft (en dus 3x zo veel pixelopteraties (per pixel berekeningen) per clock kan processen). R580 kan echter nog steeds "slechts" 16 volledige pixels per clock processen (16 pipes, 16 TMU's)... de vraag is hoe goed (huidige) game-architecturen daar gebruik van zullen maken, want de uiteindelijke prestaties van R580 nu zullen daar van af hangen.
De X1900 is vooruitstrevend, maar de kracht van de architectuur ligt in per pixel bewerkingen, niet in rauwe pixel pushing power. De X1900 zal dus vooral in pixelshader intensieve situaties winsten tonen, maar in niet-shaderintensieve omstandigheden niet veel sneller zijn dan de huidige X1800.

De G71 (7900GTX) is gebouwd op rauwe pixel pushing power en kan 32 volledige pixels per clock renderen (32 pipelines), maar kan minder pixelopertaties per clock aan dan de R580 (32 vs 48 pixelprocessors). Dus in vergelijk met R580 rendert G71 maximaal 2x zo veel pixels per clock (32 vs 16) maar kan tegelijk 33% minder pixeloperaties per clock aan (32 vs 48).
Daarnaast krijgt de G71 echter in tegenstelling tot de R580 een 150~200mhz speedbump ten opzichte van zijn voorganger, de GTX512. Dit houdt de G71 t.o.v. de GTX512 een 25%-36% hogere corespeed heeft. Daarnaast heeft ie 33% meer pipelines (dus ook 33% meer TMU's). Theoretisch kan de G71 dus zo'n 50% (of zelfs meer) sneller zijn dan de GTX512, eventuele andere architectuuraanpassingen buiten beschouwing gelaten.
Er zijn daarnaast geruchten dat de 7900GTX 24 i.p.v. 16 rops krijgt. In dat geval zou ook de maximale gelijktijdige pixeloutput naar het geheugen 50% stijgen t.o.v. GTX512.

nVidia's 7900 is er op gebouwd in alle situaties grote performancewinsten te laten zien in vergelijk met zijn voorganger. De X1900 zal zoals gezegd vermoedelijk alleen in shaderintensieve situaties grote winsen laten zien t.o.v. de X1800, omdat er naast een verdrievoudiging van de pixelshaders niets anders wijzigt aan de architectuur (en vrijwel niets aan de kloksnelheden)... X1900 is dus specifiek afhankelijk van shaderintensieve games om zijn echte kracht te kunnen tonen.

Neem daarbij mee dat ATi heeft aangegeven dat de X1800XTX tot 25% sneller is dan de GTX512, en je kunt wel "raden" dat de 7900GTX met bovenstaand in het achterhoofd gemiddeld genomen sneller zal zijn dan de X1900XTX.
Als je wilt inschatten hoe snel een videokaart zal worden zul je ten eerste moeten realiseren welke onderdelen wel en niet van invloed zijn op de prestaties.

Een MTU is in die discussie totaal niet interessant. Je hebt er per pipeline eentje nodig omdat je nou eenmaal je textures moet uitlezen, maar meer per pipeline geeft je geen performance winst.

ROPs zijn ook totaal niet interessant. Een rop zit alleen maar de uiteindelijke berekende pixel naar je framebuffer te schrijven. Met de huidige aantallen ROPs is het al prima mogelijk dat met een resolutie van 2048 bij 100fps te doen. Meer ROPs betekent dat je een nog hogere resolutie kunt halen of nog hogere framerates bij die resolutie. Maar voor lagere resoluties is het totaal nutteloos. (tenzij een maximum van 300fps bij 1280 niet voldoende is, en je dat perse naar 400fps wilt halen)

Het punt is dat de MTUs en ROPs nu al ruim voldoende power hebben en geen bottelnecks vormen. Je moet je dus focuessen op de zaken die wel bottlenecks vormen.

En dan heb je het dus bv over pixel shaders, geheugen bandbreedte.

Vertex power kan ook een issue zijn. Maar in COD2 en F.E.A.R. speelt het totaal geen rol.
(dat blijkt bv uit de rel sterke prestatie van een x1600 in die spellen: http://www.extremetech.com/article2/0,1697,1896689,00.asp)
De vraag is dan weer of dat een goed beeld geeft van de rest van de nieuwe (en toekomstige) spellen.

Helaas zijn er weinig mensen die uitzoeken waar de bottelnecks in spellen zich bevinden. Daardoor is het op het moment zo goed als onmogelijk om te voorspellen welke kaart het snelste zal zijn.

Duidelijk is dat ATI zich sterk richt op pixel shaders, terwijl Nvidia vrij conservatief is. Daarmee neemt ATI wat meer risico dan Nvidia.

Uiteindelijk denk ik zelf dat de kaarten zeer concurrerend blijven. Zowel ATI als Nvidia hebben goede contacten met de spel ontwikkelaars en zullen dus hun architectuur daarop afgestemd hebben. Verder hebben ze met dezelfde technische en economische beperkingen te maken. Dan kom je meestal via verschillende wegen tot dezelfde maximale prestaties.
Kijk bv ook naar de 1800 en de 7800. Qua architectuur heel verschillend, maar qua prestaties zeer vergelijkbaar.
Ik zie het toch anders als je jouw geruchten gegevens analiseerd. zal G71 algemeen 'n boost in performance laten zien over de algehele linie. Niet extreem maar toch merkbaar. In huidige en ouwe games ook nieuwe .

ATI als de R580 maar ietje hoger geklokt zal zijn en iets sneller geheugen zal de winst over algehele game linie gering zijn. Daar in tegen bij zeer shader intensieve games kan je weer hele grote verschillen zien.
De toekomst wat zullen nextgen games gebruiken 3:1 verhouding of nog meer gebruiken.

R580 kan dus in meest ideale theoretische senario 300%. Helaas zal ergen wel 'n bottleneck zijn en er 1,5 tot 2x beter kunnen presteren.

Ik kijk dan naar F.E.A.R.
BF2
COD2
Q4
De huidige heavy weight games.

Als 7800 serie ruim voldoet voor de huidig en ouwe games zou ik toch meer waarde hechten in toekomst gericht heid. dus wat gaan de Dev's doen en hoe hard gaat nV lobbien achter de shermen.

Om Dev van het 3+:1 pad af te jagen.

Ik ben dus zeer benieuwd naar de resultaten van de laaste games die uit zijn.

Doordat nV conservatief is en de winst nu haald in huidige benchmarks en ook oude games. waarbij ATI enkele uitzonderlijke winst haal maar over de linie achterblijft.
Op basis van high-end technologie ging de Parhelia ook ATI en nVidia overklassen. Zowel in games als in high-end 3D workstation toepassingen als in 2D workstation toepassingen.
Kennelijk is alleen dat laatste gelukt.
Features en specificaties dienen dus zeker eerst gestaafd te worden.
net als Nplayer niet kan zeggen wat hij zegt kan jij niet zeggen dat die eerder uit is, tot nu toe zijn alles geruchten
De sterkste op papier, game-benchmarks zeggen veel meer.
Vrij duidelijk denk ik hé: R580 iets meer shaderkracht, en de G71 aanzienlijk meer textureverwerkingscapaciteit.

Gaan we verschillen krijgen van game tot game, en afhankelijk van je favo game zal je je keuze moeten maken.
het probleem is dat dat ook niet zeker is, niemand zegt dat een TMU van nVidia sneller/trager is dan een TMU van Ati (of Shader of ROP)
Het probleem is ook dat mensen niet weten welke factoren daadwerkelijk van belang zijn voor de prestaties in spellen.

TMUs en ROPs zijn dat in dit geval gewoon NIET.

Je hebt per pipeline noodzakelijkerwijze één MTU nodig, maar meer MTUs per pipeline levert je geen winst op.
Meer ROPs is alleen van belang als je een resolutie van 2048 met 100fps niet voldoende vind.
Dat de shaders de grote bottleneck zijn, wist ik, maar had wel gedacht dat de TMU's een grotere rol speelden.
En wie van de twee heeft de krachtigste shaders? Of is dat onmogelijk te zeggen of is dat om flaming vragen?

Ik heb in men achterhoofd NVIDIA zitten, maar dat is totaal ongefundeerd, is gewoon blijven hangen denk ik van iets dat ik ooit heb opgepikt.
Het aantal shader units is bij ATI groter.

Voor zover ik weet zit er niet echt verschil tussen de kracht van een enkele shader unit van ATI of Nvidia per clockcycle.

Dus wat dat betreft is ATI voor de pixel shaders het krachtigste. (ik neem tenminste aan dat je vroeg naar pixel shaders)

Of je meer shaderunits per pipeline hebt, of meer pipelines met minder shader units is uiteindelijk niet zo interessant.
Als je X aantal pixels te verwerken met Y aantal shader bewerkingen, dan maakt het niet veel uit of je nu een klein aantal pixels pakt en daar meteen veel shader bewerkingen op uitvoert, of dat je meer pixels pakt en daar per clock minder bewerkingen op uitvoert. Uiteindelijk moet je toch op alle pixels evenveel bewerkingen uitvoeren.
Dus mensen, en dus ook nvidia, weten niet welke factoren van belang zijn voor de prestaties in spellen, maar je weet het zelf allemaal wel?
Toch vreemd dat nvidia er niets vanaf weet, ik dacht dat ze toch wel net iets meer inzicht hebben in wat in de industrie leeft en ook meer contacten en PR deals hebben met spelontwikkelaars die hun gekozen koers bevestigen enzo.
Maar goed, tegen iemand die het wel allemaal weet is niks te beginnen natuurlijk.
Start gewoon je eigen gpu fabriek zou ik zeggen met al dat inzcht van jou. Nvidia ligt er zo uit dan.
*zucht*
met "mensen" bedoel ik uiteraard de mensen op dit forum die dingen roepen over zaken waar ze te weinig verstand van hebben.

Waarom moet je toch steeds weer proberen een ATI vs Nvidia flamewar op te starten? Het was gewoon een nette discussie waarin mensen hun meningen geargumenteerden. Waarom probeer je dat te verstoren? Daar heeft niemand baat bij!
Shaders 32 <--> 48: kan idd close zijn
TMU's 32 <--> 16: mag je toch vrij zeker zeggen dat nVidia het voordeel heeft...
TMU's zorgen eigenlijk alleen voor fillrate kan je bijna zeggen

het verschil tussen 200 en 300FPS in quake3 op 2048x1600 zeg maar dus.
shaders zijn nu waar de bottlenek komt te liggen in nieuwe games nu de engine's hun aandacht verplaatsen van polygonen naar shaders effecten.
in nieuwe games gaat die extra TMU's dus alleen maar lopen idlen omdat de pixel shaders het niet meer bij kunnen houden.
Is het mogelijk deze opmerking ook om te draaien? Ik concludeer namelijk dat ati zijn textureverwerking efficienter doet dan nVidia en nVidia zijn shaders beter geregeld heeft aangezien ze er minder units voor nodig hebben.
[droommodus] Als dat zo is zou mbv. bundelen van krachten pas echt een goeie kaart gemaakt kunnen worden.[/droommodus]
Het probleem is dan dat nvatidia ( :P ) dan een monopolie zou krijgen en dan is er geen concurrentie, en dan word het bedrijf lui en meer van dat slechts... Want de paar gpu makende bedrijven zouden dan geen enkele kans hebben (al hebben ze dat nu al amper }> )
psst, het is onmogelijk om op die markt een monopolie te krijgen ;)
Misschien dat Asus of zo hier een mooie functie in kan vervullen???

* 786562 k1n8fisher
Dan zal de gemiddelde casual gamer 2 verschillende kaarten nodig hebben :?
Nee, alleen de high-end gamer met geld en FPS mania teveel. Ik verwacht dat de normale consument voor dubbel zoveel geld wel een dusdanig betere kaart kan kopen van ATI dat ie Nvidia games net zo goed speelt als een kaart van Nvidia voor de halve prijs(of andersom). Denk eraan, 2 kaarten kopen = half budget voor beide!
mochten de geruchten waar zijn is dat een enorme schop onder ATI's aars.. ik weet niet hoe betrouwbaar HEXUS is als het op geruchten aan komt, maar als we het zo zien, word dit toch wel een snelle kaart, als je bekijkt dat de 7800 de 1800 makkelijk bij houd, dan zal de 7900, die bijna 50% sneller is geclocked dan de 7800, de 1900 vast ook bij kunnen houden, sterker nog denk ik dat hij hem wel zal verslaan..

ik vraag me af of men verder gaat met DX9.. om een soort van Dx10 te zien lijkt me wel aardig... ik weet niet hoe ver Microsft is met Avalon (weet niet of dat het is) en WGF1.0 (de nieuwe DX volgens mij) maar ik neem aan dat dat bij Vista beta 2 wel klaar is... en die komt Q2/2006 toch?

misschien is dit wel de laatste schop van Nvidia op DX 9 niveau...
dat ze hierna verder gaan met de G80, en WFG 1.0 support..
maar dat is ook maar speculatie. dit is nog maar een gerucht, maar ziet er veelbelovend (en kontschoppend) uit. yay voor Nvidia.. word tijd dat ik ook een PCI-E bordje haal volgens mij

* 786562 kid1988
mochten de geruchten waar zijn is dat een enorme schop onder ATI's aars..
ik verwacht eigenlijk dat ATI sneller gaat zijn waar het echt telt : in de nieuwe games.
of je nu 200 of 300FPS haald in q3 maakt me niet echt uit maar 50 of 75 in een nieuwe game is toch wel een flink verschil. en met de 50% grotere hoeveelheid pixelshaders van ATI (ten opzichte van nvidia) kan ATI daar best wel eens voor gaan zorgen.
Vista Beta 2 is idd al klaar, maar er zat (nog) geen Avalon in.
De X1800XT versloeg de 7800GTX, maar werd verslagen door de GTX512. Die was dan wel weer 200 euro duurder...
De X1800XT versloeg de 7800 GTX???? Niet helemaal waar! ze hielden elkaar ongeveer in evenwicht!
De GTX512 echter veegt, idd, wel de vloer aan met de X1800XT!

Of de extreme verhoging van het aantal Pixelshaders van ATi genoeg is om de de hogere TMU's van nVidia te beconcurreren moeten we verder ook maar afwachten.
In de huidige generatie zijn ze ook niet gelijk en is er ook moeilijk te zeggen wat er gunstiger is!
Dank aan Tweakers voor het posten van dit gerucht. Ik stel mijn aanvraag voor een GTX512 MB nog even uit! :Y)
Op die manier kan je wel blijven wachten, er komt altijd weer nieuwere hardware uit.
Dat is zo, maar als je het geld bij elkaar spaart, en je staat op het punt van uitgeven.

Dan lees je dit, en denk je, die 3 maanden kan ik nog wel wachten.
Het moge duidelijk zijn dat een videokaart die voor iemand 'het nog wel goed' voor iemand anders 'een redelijk oud misbaksel' is.

Niet iedereen wil perse op 180x1024 kunnen spelen (persoonlijk lijkt me dit een hele rare resolutie waardoor alles ernstig uitgerekt zal zijn, maar wie ben ik :P )
En wat als na 3 maand de Geforce 8800 aangekondigd wordt, met DirectX 10 ondersteuning? Dan zou je weer moeten wachten... En de tweede generatie DirectX 10 kaarten zal waarschijnlijk heel wat meer 'mature' zijn tegenover de eerste, dus dan moet je minstens wachten tot 2007...

...en niemand weet wat voor revolutionairs dan volgt.
Nee, je moet niet wachten. Je kan die keuze maken. Als je nu een kaart hebt die 'het nog wel goed doet' en naar een nieuwe aan het kijken bent, dan beslis je misschien nog even te wachten. Als je echter een oud misbaksel hebt dat niet veel meer kan en er komt net een nieuwe game uit die je per se wilt spelen (met blingbling aan) dan koop je wel nu een nieuwe.

Zo zit ik met mijn GF4-Ti4200 al een maand of 3 te kijken naar een upgrade, maar het spel waarvoor ik dat (voornamelijk, niet alleen) ga doen is uitgesteld, dus wacht ik nog even. :)
@ Marruk
Voor een TFT-scherm is dit wel de juiste verhouding.

Maar ik mis inderdaad vaak in spellen de keuze voor de resolutie: 1280 × 960, welk voor een CRT-monitor weer de goede verhouding heeft.
edit:
Vette tekst viel iets te veel op
Een GF4-Ti4200 vind ik toch wel een redelijk oud misbaksel naar de huidige maatstaven hoor.. ;)

Ik heb zelf een 6800GT nu, en die gaat er waarschijnlijk uit zodra games als UT2007 uitkomen, want met minder dan 180x1024 en alles high neem ik geen genoegen meer.. :Y)
Yep. Ik stel die ook nog even uit. Maar niet om dan de 7900 te kopen, maar om de 7800 dan voor een wat "normalere" prijs te pakken. :)
Goeie beslissing. De 7900GTX kan misschien wel de laatste kaart zijn van de 7 serie. Want wanneer DX10 uit is dan komt de 8 serie.
Hopelijk gaat de prijs van de 7800 serie dan een stuk in prijs omlaag, dan word het nog interessant voor de minder kapitaal krachtige consument (lees: arme student) zoals ik!
Wacht liever op de Geforce 7600. Die is, net als de Geforce 6600 versus 6800, op een kleinere chip gebakken en dus goedkoper te produceren.

High-end modellen worden nooit erg veel goedkoper (of je moet al vele jaren wachten en op eBay zoeken) simpelweg omdat ze met dure componenten gemaakt zijn. Mid-end modellen gebruiken doorontwikkelde processen en nét dat beetje trager geheugen dat maar de helft kost.
Nouja, ik heb toch maar mooi een 6800 voor 130 euro gescoord 3 maanden terug.
Damn je kunt net zo goed wachten met een nieuwe graka! Ik heb al een hele tijd de neiging om een nieuwe te bestellen maar ze blijven zich maar doorontwikkelen en worden dus ook steeds goedkoper. Ik denk dat ik mn RX600XT gewoon maar "opmaak". :)
Wat kunnen we nog meer verwachten in een volgende reeks van Nvidia (de 8xxx serie) /ATi (de 2xxx serie) ? Het lijkt alsof er niet veel rek meer in zit in de GPU's...
De volgende grote stap qua architectuur (die nog dit jaar gemaakt wordt) is DirectX 10 met zijn unified shaders. Dat wil zeggen dat het onderscheid tussen shaders- op pixel en vertex (~polygoon)-niveau vervaagt, waardoor je weer wat leuke effecten kan doen en de rekenkracht van de chip ook flexibeler ingezet kan worden. Verder zullen videochips steeds meer trekjes van processors gaan krijgen: virtualisatie, multithreading, virtueel geheugen, etc. En natuurlijk gaan ze door met kleinere transistors zodat er meer pipelines en hogere kloksnelheden mogelijk zijn. Als laatste kun je nog denken aan extra functionialiteit, zodat het meer een gamekaart wordt dan een videokaart. Geluid en physics zijn de meest voor de hand liggende zaken om toe te voegen. De komende vijf jaar kunnen ze nog wel vooruit in ieder geval ;).
HA! Weet je wat voor gat de 6800Ultra en de X800XT getrokken hebben met hen voorgangers? En de 7800GTX, X1800XT met dien hierboven genoemde voorgangers weer?
Waar jij je waarneming van een stagnerende prestatietoename vandaan haalt weet ik niet, maar iedereen die hardware leuk vind kan niets meer dan vol gespannen wachten op de volgende nieuwe serie.
Vraagt niemand zich het prijskaartje af?
Ik vind de 700 euro voor de 512 gtx al tamelijk belachelijk, wat moet dit dan wel niet worden?
Voor mij is eig 550/600 euro(!) voor nieuwste high-end het maximaal aanvaardbare...
De 512MB GTX wordt goedkoper??
Die is dan echt niet meer te krijgen.
Wie zegt dat? Lijkt me niet dat ze meteen de vorige generatie van de markt halen, dat doen ze nooit.. Je kan nu de 7800 series er al een tijdje is toch ook nog gewoon een 6800 series kaart krijgen?
De 512MB is nooit serieus op de markt geweest, dus die kun je dan zowiezo afschrijven.

Tegen die tijd is de GTX al een lange tijd op de markt, dus de productie daarvan zal op dat moment ook stopgezet worden. (ook al omdat de nieuwe gpu's goedkoper zijn om te maken)
Voor zover er voorraden zijn bij de winkels zullen er dan nog GTX-en te vinden zijn. Maar die voorraden zijn nogal beperkt. Ga zoeken naar een normale GTX en het zal je versteld doen staan hoe weinig er daadwerkelijk op voorraad verkrijgbaar zijn.
probeer maar eens een AGP 6800 Ultra te pakken te krijgen .... die zijn er echt niet or ...

(een gelukkige bezitter van het beesje }> ;) )
De Geforce 7800 GTX 512 MB is zo duur omdat die zo exclusief is. Even ter vergelijking, Intel en AMD vragen ook tot 1000 ¤ voor hun topmodel.

NVIDIA heeft vast en zeker door dat het prijskaartje naar beneden moet bij de volgende generatie (voor de Lotto-winnaars is er nog altijd SLI). En dat kan door een efficiëntere architectuur op een kleiner proces (90 nm), en (tegen dan) massaproductie van snelle geheugenchips. Productie van de Geforce 7800 GTX 512 MB ligt dan al lang stil.

Zeker als ATI wat sterker uit de hoek gaat komen zal voor de volgende generatie er weer een mooie prijzenconcurrentie zijn. Voor de topmodellen moet je geen wonderen verwachten natuurlijk, maar de 'GT' modellen leveren al ruime tijd prima prestaties aan een scherpe prijs.
Ze kunnen hem beter niet te duur maken, anders koop ik twee ATi Radeon X1800XL's voor ¤ 553,90. Dan heb ik 32 TMU's, pixel shaders en ROP's, en een geheugen- bandbreedte van 64GB/s, voor 50 euro minder!
Doei doei, 7900GTX....
Kan ik die 50 euro nog besteden aan een Asus A8N32-MVP bordje voor 120 euro, waarmee ik voor een prikkie een high-end bord koop met excellente overklok capaciteiten.
alleen is dat lang niet zo efficient als een 'nieuwe' 7900GTX, het is niet zo dat je de prestaties van die 2 kaarten zo bij mekaar op kan tellen...

verder zit je aan de maximum resolutie van 1600X1200 gebonden, ideaal!
700 euro vind ik goedkoop als je ziet wat je kijgt. Een technisch meer ingewikkelde CPU (=GPU), een mem controller en supersnel geheugen op een PCB. En dan heb je de top van top.
Ter vergelijking, voor 700 euro kan je geeneens de topcpu + moederbord + 1.1ns geheugen krijgen.
Het leuke is dat een CPU meer kan dan alleen spelletjes draaien, Ik heb liever de CPU van 700 euro dan de grafische kaart van 700 euro.
En waarom je nou een moederbord meerekent? Die kosten komen toch ook bij een videokaart? videokaart zonder mobo heb je weinig aan ;)
Het gaat hier vooral over games, maar een gpu kan ook video decoden/encoden, physics berekeningen doen, enz.
Wat kan je met een cpu?

Met een cpu van 700 euro en een kaart van 250 euro kan je niet veel gamen, met een kaart van 700 euro en een cpu van 250 wel.

Maar das naast de kwestie, wat jij doet met je geld is jouw zaak en interesseert me geen bal. Al koop je voor 700 euro vingerverf.
Het punt is net dat vanuit een technologisch standpunt, een GPU een stuk geavanceerder is dan een simpele cpu. En dat het logisch zou zijn dat die ook veel duurder zijn.

Waarom een moederbord? Omdat de grafische kaart ook een PCB heeft.
De ontwikkelingen op het gebied van de videokaart gaan zo hard dat deze jongen zich af vraagt hoever achter de software producenten liggen met de implementatie daarvan.

Dus niet een paar functies die bij sommige spellen optimaal ondersteund worden maar de echte masse van spellen :)

Volgens mij moet daar nu toch een aardige kloof liggen :)
Het is de laatste tijd weinig zinvol meer om over de "functies" van een videokaart te spreken, in ieder geval in de context van 3d-spellen. Met de komst van shaders zijn voorgebakken functies overbodig geworden, want tegenwoordig kunnen spellenmakers zo ongeveer alle effecten die ze maar kunnen bedenken uitvoeren door ze in shaders te omschrijven. De enige vraag is hoe snel een bepaalde kaart ze kan uitvoeren, en dat is natuurlijk een moeilijke, vooral als moet gaan voorspellen hoeveel kracht de mainstream computers over drie jaar zullen hebben. Misschien wel leuk om in deze context eens te bekijken is hoe de hardware van de gemiddelde Steam-gebruiker eruit ziet. Dat is dus waar de huidige spellen nog steeds rekening mee moeten houden.
Zeer interessante tabel!
Zie alleen m'n 7800GT nergens vertegenwoordigd, merkwaardig...
Alleen dan weer jammer dat meerder videokaarten er dubbel in staan.
Partners als Asus, MSI, eVGA en XFX zouden dan ook direct hun kaarten klaar hebben. Niet alleen op de beursvleur, maar ook meteen in de schappen van de winkels.
Daar hebben we anders geen goede ervaringen mee, hopen dat deze keer de kaarten wel goed leverbaar zullen zijn.
De highend kaartjes mss?! Maar dat is ook logisch omdat die in minder grote getallen in korte tijd te produceren zijn.

Nvidia doet het juist erg goed met launches, dat kan niet van elke graka producent gezegd worden :Z
ATI heeft anders hun nieuwe kaarten al in massa productie.
en de GTX512 is niet te koop.
nvidia zegt zelf dat het een "limited release" is
vertaald uit marketing speak betekend dat : "we kunnen er gewoon niet veel maken"

bron :
http://www.anandtech.com/...s/showdoc.aspx?i=2669&p=9
nvidia heeft tenminste gemeld dat het limited was ATI blijft rot leverbaar is waarschijnlijk pas lekker te leveren zodra de G71 er al weer is :Y)

de 512GTX was meer een ATI eet stof actie :*)
als antwoord op de nvidia eet stoff actie van de 9700pro en de X800PE dan zeker? werd tijd eigenlijk :Y)

maarja zoals gezegt, de kaarten makers zeggen dat ze nu al volop kaarten maken en dat ze dus bij launch direct in de winkel verkrijgbaar zullen zijn.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*