Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 158 reacties

Nvidia heeft maandag de langverwachte Geforce GTX 260 en 280 aangekondigd. De kaarten zijn gebaseerd rond de GT200-chip die bijna tweemaal zoveel shaderprocessors bevat als de vorige generatie.

De GT200 bouwt verder op het ontwerp van de G80 en G92 die respectievelijk gebruikt worden voor de Geforce 8800 GTX en de Geforce 8800 GT. De architectuur van de chip is op verschillende punten aangepast en verbeterd, maar de belangrijkste verandering is het toegenomen aantal shaderprocessors. De chip beschikt nu over 240 rekeneenheden, een toename van 87,5 pocent ten opzichte van de 128 shaderprocessors van de G80/G92. Het aantal texture address units en het aantal texture filtering units is echter niet rechtevenredig toegenomen: namelijk van 64 naar 80, een toename van ‘slechts’ 25 procent.

Geforce 280 GTX-chipNaast deze twee in het oog springende verbeteringen zijn er op tal van vlakken ook kleinere veranderingen doorgevoerd. De chip beschikt nu bijvoorbeeld over twee extra rop's voor een totaal van acht waardoor in totaal 32 pixels per klok geproduceerd kunnen worden. Andere verbeteringen zijn onder andere het verdubbelen van het aantal registers waarover de shaderprocessors kunnen beschikken, de maximale precisie waarop floating point berekeningen uitgevoerd kunnen worden en tweaks ten behoeven van de efficiëntie van de chip. DirectX 10.1-ondersteuning is evenwel nog steeds niet aanwezig.

Al deze extra rekenkracht heeft echter wel geresulteerd in een verdubbeling van het aantal transistors. De GT200 bevat maar liefst 1,4 miljard transistors, die nog gebakken worden met een 65nm-procedé. Hiermee heeft nVidia de dubieuze eer in handen om de grootste chip te hebben ontworpen die ooit is geproduceerd door fabricagepartner TSMC. Desondanks blijkt uit de tests dat de energieconsumptie van de kaart binnen de perken is gebleven wanneer de kaart idle is: zowel de GTX 260 en GTX 280 gebruiken nauwelijks meer dan de GeForce 8800 GT. Onder belasting is het echter een ander verhaal en weet de GTX 280 meer te verbruiken dan de Radeon HD 3870 X2, terwijl de GTX 260 meer verbruikt dan een Geforce 8800 GTX.

Niet geheel verrassend blijkt de GTX 280 in de benchmarks de snelste singlecore-videokaart te zijn, met de GTX 260 op een goede tweede plaats. De Radeon HD 3870 X2 blijkt echter een gewaagd aan de GTX 260 terwijl de GTX 280 regelmatig voorbijgestreefd wordt door nVidia's eigen Geforce 9800 GX2. Desondanks is de adviesprijs voor de GTX 280 een forse 649 dollar terwijl de GTX 260 nog altijd 399 dollar moet opbrengen. AnandTech concludeert dan ook dat er weinig goede redenen zijn om één van beide kaarten aan te schaffen: voor minder geld zijn snellere alternatieven verkrijgbaar, zoals twee Geforce 8800 GT-kaarten in een sli-opstelling.

nVidia GeForce 280 GTX-kaarten in drieweg sli-opstelling

* Meer reviews:

Moderatie-faq Wijzig weergave

Reacties (158)

AnandTech concludeert dan ook dat er weinig goede redenen zijn om één van beide kaarten aan te schaffen: voor minder geld zijn snellere alternatieven verkrijgbaar, zoals twee Geforce 8800 GT-kaarten in een sli-opstelling.
... wel een veelzeggende conclusie om mee te eindigen

Voor de volledigheid wil ik nog even vermelden dat de GTX280 wordt geleverd met een S/P-DIF audioingang, zodat geluid kan toegevoegd worden aan het HDMI-signaal... De GTX260 ontbeert dit...

offtopic:

ik heb zondagavond net een ATI 3450 256 Mb. van Club3d besteld... Wel even iets anders als je deze kaarten vergelijkt... :+

@ Frietjemet: bij de collega's van Hardware.info... even doorklikken naar hun test van de GTX260/280 ;)

[Reactie gewijzigd door Bardirella op 17 juni 2008 08:59]

Waar haal je die info van die s/p-dif aansluiting vandaan, lijkt mij dat jij heel wat meer weet over die kaarten ;)

Ik heb trouwens zelf gehoord dat deze kaarten nog gebottlenecked worden door een quadcore op 5.5ghz, we shall see what the future will bring us _/-\o_
Vergeet even niet het volgende wanneer je de GTX 280 afzet tegen de 9800 GX2.

De laatste is een SLI op een kaart oplossing, en dat werkt niet altijd even lekker.

De GTX 280 heeft die issues NIET, en is net zo snel en ook wel sneller.

Het heeft dus wel degelijk een meerwaarde, de 280 boven de GX2.
het zeer goed te begrijpen van ATI die nichemarkt voor high-end videokaarten links te laten liggen en zich meer op de grote middenmoot richt. Maar is het niet zo dat gamedevelopers optimaliseren en testen op de high-end kaarten zodat tegen de tijd dat het spel in de winkels ligt die high-end kaarten tot de gemiddelde videokaarten behoren.

Misschien is in dat op zicht voor een deels te verklaren waarom sommige games beter op nvidia kaarten draaien.
Da's meer opkoperij, heel veel games hebben dat "the way it's meant to be played" bullshit verhaal als je de game opstart. Je wil niet weten wat dergelijke geintjes kosten en je mag drie keer raden wie er uiteindelijk voor opdraait. Nee, geef mij maar ATI, betaalbare goede kaarten zonder voor dat soort bull extra te mogen dokken...
Dan weet je tenminste dat je games lekker draaien op NVIDIA hardware. Verder, ja, het kost de consument geld, maar ja, dat kost elke vorm van marketing. Ben je ook pissig op ATI omdat jij indirect al hun marketing betaald? En je betaalt ook alle perstrips, alle gratis hardware, alle kosten voor grote stands op beursen, enzovoort. Waarom heb je daar geen problemen mee?
@ snoitkever:
Ja lekker; op de 680i draaide alles heerlijk ;x

Ik heb er bij Ati minder/geen moeite mee omdat die er niet zo mee te koop lopen en verder kosten hun producten gewoon een stuk minder, dus voor mijn gevoel zijn er in hun prijs minder marketingkosten meegenomen. :)


waarom bij nvidia wel, en bij ati niet; wel, hierom:
(zeurderig zusje toontje: " als je mijn chipset niet koopt, mag je ook geen sli draaien" "Hier, een hele nieuwe 9800GTX, voor 350EUR... Kan niets meer dan de 8800GTS 512, maar kost wel 2x zo duur, en verder halveer ik de prijzen van de 8800GTS, om het er een beetje dikker op te leggen, en om mijn klanten lekker veel verlies te laten maken" "Als je mijn producten niet zoooo duur maakt, dan krijg je er van mij geen meer") (en nee, ik heb mijn 8800GTS 2e hands gekocht... )

[Reactie gewijzigd door Hammer op 17 juni 2008 16:20]

Een 9800gtx is al voor 250 euro (met gemak) te krijgen hoor, voordeel boven de 8800gts g92 is dat die kaart door de extra juice abnormaal ver te klokken is, 800> mhz zijn geen uitzonderingen! en bijbehorende performance voor 250 euro }>

de g92gts is een beetje een vreemde eend in de bijt, maar je hoeft hem niet te kopen, dat van die sli heb je helemaal gelijk in, vind ik ook een gemiste kans van nvidia, al kun je met aangepaste drivers op bijvoorbeeld ieder x38 bord sli draaien ;)
Jah, dan weet je zeker dat het lekker draait op je Nvidia hardware..... niet dus.

AC DX10 loopt wel goed op de R600 maar niet op de nVidia's.... maar het was toch een TWIMTBP game?!? :o
Dan laat eens wat onderbouwing zien voor je uitspraak, leuk dat je de term TWINTBP gebruikt, maar dan vraag ik mij af waarom er relatief weinig mensen een hd2900 hebben? waaronder jijzelf met je 8800gts ;)

[Reactie gewijzigd door Frietjemet op 17 juni 2008 13:53]

het zeer goed te begrijpen van ATI die nichemarkt voor high-end videokaarten links te laten liggen en zich meer op de grote middenmoot richt.
Praat toch niet zo die marketingonzin na. De enige reden dat ATI niet mee heeft gedaan in de high-end sector de afgelopen twee jaar is dat ze niet mee konden komen. Denk je nou echt dat ze een lucratieve marktschaal met hoge marges links laten liggen? Vergeet niet het enorme halo-effect dat dergelijke kaarten hebben. Misschien heeft de echte tweaker wel door dat ATI ook goede perf/prijs kaarten heeft, maar mensen die er minder mee bezig zijn horen alleen maar "NVIDIA geweldige performance", en kopen dus een NVIDIA kaart.
Daarnaast doe je net alsof NVIDIA geen goede midrangekaarten heeft, en hoewel de situatie met HD4000 eindelijk omgedraaid wordt kon ATI toch echt niet meekomen met de geweldige perf/prijs-kaarten 8800GT en 9600GT.
Dat trekt ongetwijfeld bij, dat is altijd in het begin. Feit is nou eenmaal dat je voor de crème de la créme de hoofdprijs betaalt. Het lijkt echter wel dat er steeds meer naar SLI of zelfs triple-SLI toe geleefd wordt om echte prestaties neer te zetten; een single high-end kaart is langzamer dan 2 mid-end in SLI.
vraag het me af eigenlijk. ze krijgen maar 105 chips uit een wafer
de vraagprijs zal wel dalen maar daar zit met deze chip al vrij snel een harde limiet aan omdat ze anders de koster er niet uit krijgen.

edit @ dasiro :
65 vs 55. zorg niet voor een verdubbeling van de hoeveelheid chips per wafer.
zelfs op 55nm is dit een gigantische grote chip.

[Reactie gewijzigd door Countess op 16 juni 2008 21:44]

Ach, wat zijn de produktiekosten dan werkelijk? De winkelprijzen zijn volgens mij helemaal niet gerelateerd aan DIE kosten. Het gaat er veel meer om: Wat zou de consument bereid zijn hiervoor te betalen? En als ze te hoog hebben ''ingeschat'', kunnen ze later altijd nog zakken.
t schijnt dat deze productiekosten voor alleen de GPU ergens rond de 125 dollar liggen; hier komen dan de koeler, de research en de promotiekosten bij, dus kostprijs zal ergens tegen de 250 dollar liggen? lijkt mij nog aardig wat hoofdruimte; Als er maar genoeg early-adopters zijn :p

[Reactie gewijzigd door Hammer op 16 juni 2008 21:53]

Je vergeet een duur, groot PCB, een enorme lading GDDR3 chips, assemblagekosten, vervoerskosten, winst voor NVIDIA, winst voor AIBs, winst voor de retailhandelaren.
eens ze geen problemen meer hebben met 55nm zal je de beschikbaarheid omhoog zien vliegen en de prijs omlaag. tegen dan zal AMD er wel zijn met een waardigere tegenstander

edit @ edit v countess:

van 65 naar 55 nm is een verschil van 15% per dimensie.
op een die-size van 576 mm² (24mm x 24mm) zorgt dit voor een verkleining tot 412 mm². Niet alleen wordt er dus minder ruimte per chip ingenomen, de onbruikbare randen aan de zijkant van een wafer worden ook kleiner.

zie afbeelding: http://users.telenet.be/dasiro/temp/300mm%2065=55nm.bmp

zwart zijn 65nm chips van 24 op 24 mm
rood zijn 55nm chips van 20 op 20 mm
op de breedste rij kan je 12 respectievelijk 15 chips plaatsen

[Reactie gewijzigd door dasiro op 17 juni 2008 08:51]

Echt weer iets voor mensen met een luxeprobleem ,en die echt in de buidel willen tasten voor iets betere prestaties. Ik vind het iig een hoop geld, de prijs van deze kaarten.
Eerst ook maar eens zien hoe het is met de duurzaamheid, en de reallifeperformance.

[Reactie gewijzigd door pcgek op 16 juni 2008 20:13]

Denk dat goeie prestaties nog nooit zo goedkoop is geweest. ATI HD3850 512MB voor ~85 :o en de HD4850 zal ongeveer ~170 gaan kosten. Dus er zijn genoeg producten waar je een betere prijs prestatie verhouding krijgt maar minder absolute prestatie.

Edit: En ik was vorig jaar augustus/september blij met een 8800GTS 320 voor 250 euro ;). Dat gebeurt gewoon!

[Reactie gewijzigd door Reinman op 16 juni 2008 23:10]

Maar jouw kaart is G92 de GTS8800 320 is G80 ;)
En ze presteren nagenoeg hetzelfde, de 8800GT is oms zelfs beter !

ps: Maar je hebt precies wel iets teveel betaald.

[Reactie gewijzigd door GoBieN-Be op 16 juni 2008 23:36]

En zo'n prijs voor high-end-kaarten zie je al sinds de GeForce 2, dus niets nieuws onder de zon.
Precies. Ik heb ooit een Hercules Geforce 2 Ultra gekocht voor Fl 1599,-
Als je bedenkt dat we ook nog te maken hebben met inflatie, zijn de kaarten nu zelfs goedkoper!

[Reactie gewijzigd door Janssen op 16 juni 2008 21:52]

8)7

Het kan erger hoor..

En ik maar denken dat ik niet wijs was door een geforce ddr te kopen en een goeie maand later een geforce 2 gts voor Fl 1100,-- die eigenlijks nauwelijk meer presteerde omdat mijn pc toen eigenlijk al de potentie van de geforce ddr niet aankon :X

:+
Eerst ook maar eens zien hoe het is met de duurzaamheid, en de reallifeperformance.
Duurzaamheid? Mensen die deze kaart zijn zal het een zorg zijn dat ie 2 jaar of soms maar een jaar mee gaat, tegen die tijd is er toch al weer een model uit dat al weer véél sneller is.

[Reactie gewijzigd door hellbringer op 16 juni 2008 21:53]

Maar het is gewoon niet de snelste GPU, ja wel single core, maar dan verbuikt hij al net zoveel stroom als de dual cores. Dus om deze dual core te krijgen zal nog wel moeilijk worden.

Als ATI nu met een goede opvolger komt kunnen ze weer high end mee doen.
Ooit een Orchid 3dFx Voodoo uit amerika laten komen voor 760 gulden. (in 1996) De orchid/3dfx voodoo was de eerste 3D accelerated kaart van 3dfx. Het duurde ruim een jaar voor de rest van de meute de voodoo ging ontdekken. Dat was nog in de tijd dat Matrox de koning was met hun 2d videokaarten.
Een groot gemis bij dit bericht: CUDA!
Hardware.info heeft een video-converter op CUDA gedraait, en daarmee gaat video converteren maar eventjes 6 tot 9 keer sneller dan op een QX9650.
Als je weet dat dit zo het eerste progsel is dat deze techniek gebruikt, kan je ook wel bedenken dat deze kaart op die manier toch wel een meerwaarde heeft / gaat hebben!
http://www.hardware.info/...a_GeForce_GTX_280_test/18
Dat heeft ati al jaren....(sinds 2006 meen ik)

http://ati.amd.com/technology/avivo/technology.html


@ mensen hier onder: Graag we even LEZEN!

Get the right video to the right player - quickly
ATI’s new Avivo™ Video Converter is the fast and easy way to transform your videos to play on today’s new breed of portable entertainment devices. The Avivo Video Converter is a “transcoder,” a tool that converts digital video from one file format to another, enabling the same video clip to play on industry standard home DVD/DivX® players, PC’s or portable media devices such as the Apple® iPod®, Sony® portable gaming device, Creative® Zen™ and many others.


@hier onder. ATI heeft ook een CUDA achtig iets, athans, ze hebben ook GPGPU's. Eigenlijk al een stuk langer dan nVidia. (De eerste was een met een X1950XTX core).
http://ati.amd.com/developer/siggraph06/dpvm_e.pdf

[Reactie gewijzigd door Reinman op 17 juni 2008 10:02]

Is avivo niet alleen een video converter? Aangezien CUDA binnenkort ook met programma's als PhotoShop werkt waardoor PhotoShop ook enkele malen sneller zal gaan werken. CUDA is meer een technologie die zorgt dat je je GPU ook als CPU kunt gebruiken. Zo kunnen binnenkort programma's gewoon op de GPU draaien waardoor de CPU minder werk te verrichten heeft(aangezien die ook trager is).

Mocht dit bij avivo ook het geval zijn dan bij deze mijn excuses, maar JoWannes heeft wel gelijk dat dit wel in het bericht gemeld zou mogen worden(al gaan en 8 en 9 serie dit ook ondersteunen).
Nog wel leuke quote van hardwareinfo:
nVidia heeft berekend dat de theoretische rekenkracht van de GT200 zo'n 933 GLOPS bedraagt, ofwel 933 miljard floating point opdrachten per seconde. Ter vergelijk; de Core 2 Extreme QX9650 komt niet verder dan 96 GFLOPS.
en nog een:
Het bedrijf zag al snel dat er één belangrijk nadeel was bij het gebruiken van videokaarten voor andere taken dan 3D-beeld: GPU's laten zich buiten DirectX of OpenGL omgeving maar erg lastig programmeren. Daarvoor heeft men een oplossing uitgewerkt die de naam CUDA draagt. Dit is een API die het mogelijk maakt om een 3D-chip aan te sturen met op C+/C++ gebaseerde programmeertechnieken.
Avivo is een hardware decoder, BadaBOOM is een programma dat via CUDA encoding mogelijk maakt. NVIDIA heeft ook al tijden hardware decoding op hun kaarten zitten.
The Avivo Video Converter is a “transcoder”
Een transcoder is toch wel iets meer dan een simpele decoder. Of het een volwaardige encoder betreft, daar blijf ik buiten.
Ik kan niet direct zoiets als cuda bij ati vinden (ik heb zelf een 1900xt en ik zou graag mn gpu voor videoencoding willen gebruiken)
Die links gaan voornamelijk over hardwarematige decoders of software, nergens iets over het direct gebruiken van je gpu voor "normale" rekentaken.
zoals hieronder vermeldt nogal matig van HwI dat ze er niet bij vermelden dat ATI dat al tijden heeft!

Ik hoop dat ze een degelijk excuus hebben anders kunnen ze wat mij betreft wel opdoeken (ze zijn niet de enige "revieuw" site trouwens!)

Marketing denk ik....
Avivo is een software transcoder die je CPU gebruikt(encoding word dus niet versnelt door de GPU), en de BadaBOOM software gebruikt ook daadwerkelijk de GPU(gebruikt CUDA) om video te encoden. De snelheidswinst is enorm.

Dat is wel degelijk nieuw, en als deze trend gaat doorzetten gaan er echt dingen veranderen op PC gebied.

[Reactie gewijzigd door YoMarK op 17 juni 2008 09:32]

De conclusie van anandtech vind ik een beetje vreemd.

SLI mag dan in sommige games een dikke performanceboost geven, voor all around compatibility is 50 euro meer neertellen voor een goed presterende "solo" kaart helemaal geen slecht idee.
Hmm, ik heb net (maandje terug) twee 8800GT 1GB kaarten gekocht voor net geen 280 euro (samen)... Een GTX280 zal waarschijnlijk ongeveer twee keer zo duur zijn, iets meer dan de 50 euro waar jij het over hebt. En zelfs een 9800GX2 is een heel eind goedkoper te krijgen dan slechts 50 euro verschil...
Bovendien, ik weet niet waar jij je op baseert dat SLI slechts in sommige games een dikke performanceboost geeft, maar volgens mij ben je een beetje in het verleden blijven hangen. SLI presteert tegenwoordig bijna altijd heel goed. Waarschijnlijk zullen mensen denken dat ik mijn eigen aankoop wil goed praten, maar ik zou serieus niet weten wat ik niet op max of bijna max settings kan spelen met deze videokaarten, dus waar het dan niet goed zou presteren zou ik echt niet weten...
Tja, SLI werkt over het algemeen best goed, maar heeft toch meer dan genoeg inherrente nadelen, waarvan voor mij het bezitten van een NVIDIA moederbord toch wel de grootste is. Ik heb de gegevens op mijn harde schijf het liefst niet corrupt ;)

EDIT: Dat klinkt mischien heel flauw, maar gezien alle problemen met NVIDIA's moederborden durf ik het toch echt niet aan. Daarnaast, misschien werkt 95 procent van alle games prima in SLI, als je net een van de 5% games wilt spelen heb je toch mooi een probleem. Dan geef ik liever net iets meer uit en heb ik niet de kopzorgen. Bovendien scheelt het flink in stroomverbruik, geluid en hitteproductie.

[Reactie gewijzigd door Snoitkever op 16 juni 2008 20:44]

Hoezo heb je dan een probleem? Dan haal je de kaarten in software uit sli modus en speel je die 5% met een nog altijd erg lekkere single 8800.
Ja, zonder 8xQCSAA en 16xAF... Met een GTX280 bijvoorbeeld kun je 100% games op de hoogste settings spelen, én je kan er altijd later nog 1 bij stoppen voor een "powerboost" :)
moet ik je in ontgoochelen, hopelijk voor jou zijn de drivers allesbehalve optimaal, want de eerste reviews lekken en die tonen niet zo'n vette cijfers eigenlijk.
@Fallen Angel, jahaaa, maar, als je er dan later nog een bij stopt voor een powerboost, dan komt er vast wel weer zo'n idioot roepen dat SLI niet altijd even lekker loopt en dat je veel beter de GTX96000 had kunnen kopen ;)
Anyway, ik zou ook best graag een GTX280 willen als ie uit komt, maar helaas is mijn inkomen nog altijd niet dermate hoog dat ik alles kan kopen wat mijn hartje begeert. Dus ga ik liever voor de helft van het geld voor een setup die nu eigenlijk net zo goed is voor mij.
SLI mag dan in sommige games een dikke performanceboost geven, voor all around compatibility is 50 euro meer neertellen voor een goed presterende "solo" kaart helemaal geen slecht idee.

Zijn er ook moderne games die slecht presteren in SLI opstellingen? Als dat enkel de oudere games zijn maakt het niks uit, want die zijn met alle eye-candy aan toch wel te spelen op een enkele nv8800 of ati38xx kaart. (ik ga er dan wel vanuit dat je niet hoeft te rebooten om te switchen tussen wel/niet SLI, want dat zou waardeloos zijn).
(ik ga er dan wel vanuit dat je niet hoeft te rebooten om te switchen tussen wel/niet SLI, want dat zou waardeloos zijn).

nee rebooten is niet nodig
Dan heb je SLI á 300 euro x2(of 600 euro x2) en dan kan je dat niet gebruiken. Nee lekker is dat. Ik vind dit soort oplossingen dus niks. Dat sli is op de markt gegooit maar daarna nooit door ontwikkeld om het echt goed te laten werken.
SLI werkt prima.
Alleen de drivers werken nog niet zoals ze horen te werken.

EDIT: geduld is een schone zaak...

[Reactie gewijzigd door XtroYaneY op 17 juni 2008 11:36]

Tja, en voor je stroomrekening en oorkanalen is het waarschijnlijk ook geen slecht idee om het even rustig aan te doen.
Als Nvidia niet naar 55nm kan schalen dan betwijfel ik of ze volgend jaar nog bestaan, deze chip is zo groot dat het eigenlijk niet meer kosten efectief is om ze te maken tenzij ze deze voor heel veel geld verkopen (dat doen ze dus ook) Ik denk dat dit enkel is gedaan om ATI nog even af te houden en dat we over een maand of drie, vier een nieuwe kaart zullen zien die wel op 55 of zelfs 45nm is gebakken.
Dit is denk ik gewoon een kwestie van marketing, en lekker snel verdienen met een ontwerp dat je toch al hebt liggen.

Als het Nvidia niet lukt dit ontwerp naar een kleiner procedee te schalen dan denk ik dat we snel alleen nog maar AMD op de high-end markt zullen zien. Het verbruik van deze monsters ligt gewoon te hoog om dit nog langer vol te houden en de hoeveelheid chips die ze uit een wafer kunnen halen is bedroevend laag zelfs als we er van uitgaan dat alle chips door de keuring komen. Vandaar de hooge prijs maar dat is niet voor de mainstream markt die betalen dat echt niet.

Ik houd dus nog lekker even mijn 8800GT en kijk over een paar maanden wel weer eens naar een nieuwe kaart als Nvidia dit ontwerp verkleind heeft en AMD een nieuwe kaart uitbrengt, want zowel de huidige AMD als de Nvidia kaarten zijn een te kleine verbetering over de vorige generatie om hun geld echt waard te zijn
Als Nvidia niet naar 55nm kan schalen dan betwijfel ik of ze volgend jaar nog bestaan, deze chip is zo groot dat het eigenlijk niet meer kosten efectief is om ze te maken tenzij ze deze voor heel veel geld verkopen (dat doen ze dus ook)
Deze chip is dan ook bedoeld voor hoge prijzen, wat verwacht je anders van een high-end chip? Geloof ook niet direct al te veel van de inquirer geruchten over slechte yields. Dat kunnen de mensen bij The Inq toch niet echt weten, en dan nog, yields verbeteren ongetwijfeld snel als de chip eenmaal in productie is. Vergeet niet dat NVIDIA al heel veel ervaring heeft met 65nm, en dat het een volwassen procedee is bij TSMC.
Ik denk dat dit enkel is gedaan om ATI nog even af te houden en dat we over een maand of drie, vier een nieuwe kaart zullen zien die wel op 55 of zelfs 45nm is gebakken.
Zogenaamde "risk production" van 40nm chips begint pas in het laatste kwartaal van dit jaar bij TSMC (er is geen 45nm procedee daar), en dat is echt veel en veel te vroeg voor bedrijven als NVIDIA of ATI (als je 40% yield al slecht vindt wil je zeker geen risk production gaan doen ;)). ATI deed er bij R635 drie kwart jaar over na de start van risk production, en dat was ongekend snel. Daarnaast waren het low-end chips. Verwacht nog maar geen high-end 40nm chips voor Q3/Q4 2009.
Dit is denk ik gewoon een kwestie van marketing, en lekker snel verdienen met een ontwerp dat je toch al hebt liggen.
GT200 is juist vertraagd, en had eind 2007 al op de markt moeten komen. Waarom de chip vertraagd is weet niemand, maar aangezien NVIDIA in de zomer van 2007 al aangaf voor het eind van het jaar bijna een TFLOP te halen op commerciele producten (GT200 is 933GFLOP) kan het amper anders. Jammer genoeg (voor NVIDIA) heeft het niet zo mogen zijn.

Om te zeggen dat GT200 lekker snel verdienen is slaat echter nergens op en laat zien dat je kennelijk niet heel veel zicht hebt op de enorme hoeveelheid tijd, werk en kosten die in de ontwikkeling van een dergelijke high-end chip gaan zitten.
r600 haalde ook ruim veel meer gflops als een g80, maar dat betekent niet automatisch betere performance!

Ik denk dat nvidia weer een winnaar heeft met de nieuwe serie, als het niet nu is, is het de refresh over een paar maanden die de doorslag geeft, gt280 anyone? ;)
komkom geen doemscenario's, NOG niet. Nvidia was vrig jaar het bedrijf van het jaar ofzo...Die mannen zitten niet stil, hebben nog steeds een kanjer van een naam en wel wat geldreserve ook hoor.
Wat ik niet snap, waarom investeren in een nieuwe kaart die voorbij wordt gestreefd door een (ouder) goedkoper kaartje van hen zelf??

Dan zou ik toch kijken hoe je een kaart op alle fronten kunt verbeteren, in plaats van een paar..
Of lees ik het nu verkeerd?
Omdat de GX2 effectief maar 512MB geheugen heeft en dus een stuk minder "toekomstbestendig" is. Daarnaast krijgt die kaart de nodige klappen op echt hoge resoluties met veel AA, ook door gebrek aan RAM.

Bovendien is het maar de vraag hoe lang de GX2 nog op de markt is. De kaart is vrij duur om te maken. De marges op de GTX280 zijn vast hoger.
OMFG NO IK HEB MAAR 512MB//???/12!111

Alsof je dan per definitie minder toekomstbestendig bent? Kijk even naar de reviews met 1920x1200 en vol AA/AF. Als de kaarten daar goed genoeg scoren, betekent het dat je genoeg hebt aan je geheugen(bus). Stop AUB met die marketingspraatjes... :?
Hoezo marketingpraatjes? Als je de benchmarks bekijkt zie je overal dat het verschil tussen G92-kaarten en GT200-kaarten gigantisch vergroot bij hogere resoluties en AA. Deze benchmarkresultaten bij 2560x1600 met 4xAA en 16xAF zijn toch wel het beste voorbeeld. Op lagere resoluties en met minder AA valt alles nog best mee, maar in dergelijke situaties zie je opeens enorme verschillen ontstaan.

Op een gegeven ogenblik zit de 512MB videogeheugen vol, en dan valt de performance van de GX2 en andere G92 kaarten keihard naar beneden. In de toekomst gaan games alleen nog maar meer (video) geheugen gebruiken, en dus is de GTX280 een betere keuze dan de GX2.
En voor je aankomt met "wie speelt er nu op dat soort resoluties/settings?", dat zijn precies de mensen die een kaart als deze kopen

[Reactie gewijzigd door Snoitkever op 16 juni 2008 22:03]

Jah, moet je even rondkijken hoeveel mensen hun high-end kaart gebruiken op 800x600 je zou verschieten.

Trouwens mijn 8800GT heeft moeite om op 1680x1050 een deftige FPS eruit te persen in COD4
mijn 1900xt doet het anders prima op die resolutie met COD4
gebruik geen AA of FA maar het ruim voldoende om goed speelbaar te zijn.

[Reactie gewijzigd door Countess op 17 juni 2008 13:57]

Ik ken een jongen van een plaatselijke lanparty die zijn 8800gtx sli setje op een 14" schermpje gebruikte, hij had wel constant maximale fps lol }>
Nee je leest het goed en hebt dus totaal geen reden om over te stappen naar deze serie van Nvidia. Wederom een uitbreiding op de al bekende chip, lijkt "de Sims" wel. Bovendien nog steeds geen ondersteuning voor directx10.1, waarschijnlijk omdat Nvidia er achter de schermen wel voor zorgt dat het veel betere dx10.1 door de door hun gesponserde bedrijven niet in gebruik genomen wordt omdat dat ATI behoorlijk helpt, getuige Assassin's Creed. Kortom, nog een reden om geen Nvidia te kopen. Stilstand is achteruitgang. ATI probeert tenminste te vernieuwen.
De serie wordt niet voorbijgestreefd door de oude serie, als je even goed kijkt zie je dat het 2gpu's tegen een gpu zijn, het zijn tevens 256 shaders tegen 240, en die zijn ook nog eens hoger geclockt, daarbij komt het dat er alleen maar custom drivers of beta drivers gebruikt zijn voor de gt200
Ati mag dan wel features hebben, er zijn veel mensen die nog windows xp gebruiken, waaronder ikzelf, en de gamedevelopers gaan geen games ontwikkelen die alleen op dx10.1 lopen omdat ze zichzelf zo in de spaken rijden, die vernieuwing waar je van spreekt is nogal bescheiden omdat het niet gaat om een fundamentele verandering, ati heeft het ook in de r600 weten te stoppen, wat de rv670 werd.

btw ati kan het ook goed hoor dat uitbreiden van de basis, zij begonnen immers met de r600>rv670 maar dat schijnt iedereen te zijn vergeten
de tijd zal leren of deze kaarten hun prijs waard zijn, ikzelf denk van wel, omdat de reviewers met vroege samples zitten, zo was het ook met de intoductie van de g80, nu zit iedereen met gt's en gts's die toch in de basis g80 zijn, ikzelf w8 tot er een eerlijk beeld komt van de performance van deze kaarten, al vliegen de eerste exemplaren al over de toonbank aan sommige winkels te zien :*)

[Reactie gewijzigd door Frietjemet op 16 juni 2008 23:59]

Wat is er dan zoveel beter aan dx10.1 in vergelijking met dx10?

En hoe zou ik dat in spellen terugvinden?
Dat is idd de vraag, er zullen wel wat benchmarks rondslingeren maar helaas worden die er nooit bij vermeld, dus dat zullen weinigen van ons komen te weten :'(

Ikzelf gloof niet in dat enorme verschil btw ;)
@mjtdevries:

http://gathering.tweakers...ssages/1296492#directx101

@frietjemet:

http://techreport.com/discussions.x/14707

Het betreft dus voornamelijk een flinke performance boost, en dat is dus iets waar de consument belang bij heeft. Nvidia wil dus blijkbaar eerst tot in den treure de huidige architectuur uitmelken alvorens over te stappen naar dx10.1, als ze de overstap uberhaupt gaan maken. Wie weet gaan ze gewoon net zolang dwars liggen, enkel en alleen om ATI de wind uit de vleugels te nemen, totdat er een opvolger voor dx10.1 komt! Zou mij niks verbazen iig.
En ze hebben het dan wel over: " een toename van 87,5% tov de 128 shaderprocessors van de g80/92". Maar maken die wel echt het verschil dan? Volgens mij heeft de 9600gt er ook maar 64, tov de 8800gt met 112 shaderprocessors. Ik heb beide kaarten gehad, en het prestatieverschil was maar minimaal.
De 9600GT heeft inderdaad minder shaderprocessors, ook een minder brede geheugenbus maar een hogere clock waardoor het verschil niet enorm groot is. Zou bovendien ook een stuk zuiniger moeten zijn :)

[Reactie gewijzigd door Vyo op 17 juni 2008 01:48]

9600GT heeft minder SPs, maar dezelfde geheugenbus, en aangezien de 8800GT nogal snel gelimiteerd wordt door de geheugenbus is het verschil dus klein.
De vraag in hoeverre de nieuwe GTX wordt gelimiteerd door de geheugenbus is moeilijk te beantwoorden, al denk ik dat NVIDIA voor deze kaart er genoeg onderzoek voor heeft gedaan om bij een redelijke verhouding te komen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True