Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 86 reacties

Naast de twee op 55nm gebakken GT200-kaarten, die in januari verwacht worden, zal Nvidia in het eerste kwartaal van 2009 de eveneens op 55nm geproduceerde GT300-gpu lanceren. Dat zeggen fabrikanten van grafische kaarten.

Met de snelle release van een high-end-kaart op basis van een nieuwe gpu wil Nvidia er zeker van zijn dat het de prestatiekroon stevig in handen krijgt. De GTX280 is de huidige snelste kaart van het bedrijf en hoewel het de krachtigste single-gpu-kaart is, levert AMD momenteel met de Radeon HD 4870 X2 de snelste videokaart ter wereld.

Dat gaat mogelijk al veranderen na de CES-beurs in Las Vegas, als Nvidia de op 55nm gebakken GTX295 en GTX285 presenteert. De GTX295 is gebaseerd op twee GT200-gpu's terwijl de GTX285 een enkele GT200 bevat, meldt Digitimes. De kloksnelheid van de twee kaarten zou 10 tot 15 procent hoger liggen dan die van de GTX260 en GTX280, terwijl de energieconsumptie dankzij het 55nm-procedé verhoudingsgewijs 10 tot 15 procent lager zou liggen. De Duitse site Hardware-Infos claimt inmiddels alle specificaties in handen te hebben en het Chinese IT168 zou zelfs al benchmarks hebben. Uit die tests blijkt dat de GTX295 de vloer met de Radeon HD 4870 X2 aanveegt, maar of het verschil werkelijk zo groot is als IT168 claimt, zal na 8 januari blijken.

GTX280GTX285GTX295
Productieproces65nm55nm55nm
Chip-oppervlak576mm²470mm²470mm²
Gpu-snelheid602MHz648MHz576MHz
Shadersnelheid1296MHz1476MHz1242MHz
Geheugensnelheid1107MHz1242MHz999MHz
Geheugen1024MB 1024MB 2x 896MB
Geheugeninterface512bit512bit2x 448bit
Bandbreedte140,7GBps 159GBps 2x 112GBps
Processorcores240240480
ROP's32322x 28
Texture Filtering Units80802x 72
Gflops93310632x 804
GTX295
Moderatie-faq Wijzig weergave

Reacties (86)

Ja hoor geef maar ruim vantevoren aan dat je de vloer gaat aanvegen met de concurrentie, straks gelooft iedereen het nog. Ik heb dit eerder gehoord bij een andere kaart een tijd geleden, mijn punt is: eerst zien dan geloven.

Voorlopig is het zo dat er veel meer mensen zijn die waarde hechten aan een wat zuinigere pc in plaats van die super high end stuff waarbij je een kernreactor nodig hebt. Het is leuk dat je de prestatiekroon in handen hebt, maar hoe zit het dan met het milieu?

De mensen die netbooks en subnotebooks maken hebben het beter begrepen, zuinig, een nette prijs, prima prestaties en lekker klein ook nog. Zo kan het dus ook nog en AMD/ATi is daar ook naartoe aan het werken (noem een feature als powerplay, die niet altijd goed werkt, maar het is een stap in de juiste richting), maar ik heb niet het idee dat NVidia daar uberhaupt zijn best voor doet. Dit reist de pan uit.

Niet dat het high end segment een groot marktaandeel heeft, maar ik moet het toch even zeggen. En wij maar zeuren over dat gloeilampen binnenkort allemaal met leds vervangen moeten worden.

[Reactie gewijzigd door Blaat op 16 december 2008 17:41]

Pardon? Enigszins offtopic, maar dat AMD het met powerplay beter zou doen dan nvidia is, in ieder geval wat performance kaarten betreft grote onzin. Kijk bv eens naar dit schema:
http://xbitlabs.com/artic...-hd4870-1024_8.html#sect0
Juist, ondanks dat AMD roept dat ze powerplay hebben verbruiken hun kaarten toch meer energie dan de snellere tegenhangers van nvidia! AMD mag dan weer sneller zijn met de 4870x2 maar dat ding zuipt helemaal als een idioot.
Alleen de meer low-mid end kaartjes als de 4670, ja die zijn heerlijk zuinig (onder de 10W voor een 4670, ik overweeg em in een HTPC te stoppen, kan ik nog een beetje gamen ook, maar hij voldoet niet voor een echte gamepc).
Nvidia daarentegen kwam met hybridpower, alleen daar vind je niks over... Waarom? Ik heb geen flauw idee, mensen lijken het toch niet zo interessant te vinden als ze steeds roepen? In de enige goede review die ik er van gevonden heb zakte het verbruik van een 9800GTX terug naar 3 watt in idle met hybridpower geactiveerd (waarbij de IGP dus de taken van de videokaart overneemt). Helaas schijnt het niet helemaal vlekkeloos te werken en is het niet beschikbaar voor intel platformen, maar als ik zie hoe lauw de techniek ontvangen is (het wordt gewoon doodgezwegen) dan kan ik nvidia niet echt iets kwalijk nemen als ze er niet mee doorontwikkelen.
Overigens is het inderdaad ook waar, zoals hierboven al gezegd, dat het in handen hebben van de prestatiekroon veelal gewoon belangrijk is omdat mensen vaak denken dat hun goedkopere/zuinigere kaarten dan ook wel beter zullen zijn. Dat dat een verkeerde redenatie is doet er niks aan af dat het toch zo werkt en het bedrijf met de performance kroon hier domweg meer door verdient.

edit: mocht je xbitlabs niet vertrouwen, zie ook hier bij anandtech:
http://www.anandtech.com/video/showdoc.aspx?i=3408&p=9

[Reactie gewijzigd door Finraziel op 16 december 2008 20:23]

Oei fanboy gespot!

Als je me goed had gelezen had je gezien dat ik zei dat het niet altijd werkte (bij laten we zeggen de hd3850en 70 wel degelijk) maar dat het een stap in de goede richting is. Dus je zit tegen de verkeerde te argumenteren. Nvidia kwam inderdaad met hybridpower, maar dat werkt bijlange na niet met elke combinatie aan hardware, dus wat voor praktisch nut heeft het dan? Zoiets noem ik een Mickey Mouse actie. Bovendien bezit Ati bijna exacte dezelfde technologie door de dedicated kaart in CrossfireX met de IGP te zetten en bij lage belasting de IGP alles te laten doen, en dat wordt net zo goed doogezwegen.

Bovendien sla je menu om de oren met het argument van "ATi doet het ook!!!" en hiermee mis je mijn point helemaal. Ik heb nooit gezegd dat wat Ati deed 100% ok was, sterker nog, die hele 4870X2 is een straalkachel, ze doen alleen een stap in de goede richting.

Toch grappig dat iedereen het altijd presteert je reacties te misinterpreteren.

Wat ik ook alleen maar wilde zeggen was dat de energieverbruiken van de goed presterende kaarten alleen maar omhoog gaan. Ja ik weet het het is altijd al zo geweest, maar het moet eens stoppen vind ik. Zeg nou zelf, een videokaart die het vermogen van 5 gloeilampen wegvreet (in zen eentje) is eigenlijk te zot voor woorden.

[Reactie gewijzigd door Blaat op 17 december 2008 11:20]

Fanboy? Je miste het stuk waar ik zei dat ik zelf een ATI kaart voor mijn htpc overweeg? :? Ik ben alles behalve een fanboy, maar ben me momenteel wel al een tijdje flink aan het verdiepen in de mogelijkheden om zoveel mogelijk prestatie bij zo min mogelijk energie verbruik (idle vooral) te krijgen, en jouw verhaal strookt gewoon niet met wat ik er van denk te weten.
Anyway, misschien als iedereen je altijd misinterpreteert moet je eens bij jezelf te rade gaan? Je zegt letterlijk dat je denkt dat nvidia helemaal zijn best niet doet en ati wel wat gewoon erg vreemd is als de kaarten die een gamer zal overwegen bij ati veel meer energie vreten dan bij nvidia. Om dan te zeggen dat ati het op zijn minst probeert en nvidia er zijn best niet voor doet... blijkbaar doet nvidia het beter zonder er zijn best voor te doen? Resultaat is belangrijker dan intentie vind ik, dus doe mij dan nvidia maar.
Wat betreft crossfirex met igp zijnde bijna dezelfde techniek, kan de videokaart daarmee ook bijna niks aan stroom verbruiken in idle? Als dat zo is dan ben ik zeer geïnteresseerd, maar ik meende dat dat alleen maar ging om het versnellen van de grafische prestaties... Ik zal er eens naar zoeken, misschien komt het omdat het inderdaad wordt doodgezwegen zoals je nu zegt.

edit: Mwa, tenzij AMD's eigen pagina's vreselijk outdated zijn werkt hybrid crossfirex alleen met crappy oude kaarten?
http://ati.amd.com/technology/hybridgraphics/technology.html
Voor een 3470 doen we het niet hoor... Dan is het helemaal vreemd om nvidia te gaan verwijten dat het alleen maar met specifieke hardware werkt, ze hebben in ieder geval snelle kaarten beschikbaar er voor :S

[Reactie gewijzigd door Finraziel op 18 december 2008 02:16]

alleen voldoet een netbook totaal niet aan de wens van gamers etc etc, er is een groot genoeg markt voor dit soort kaarten, daarnaast is het een enorm marketing middel om ook midrange kaarten te verkopen aan de grote massa.
Niets te klagen over de stroomrekening. En bovendien, het kleinere procedee zorgt al voor lager stroomverbruik, en je kunt natuurlijk ook zelf bedenken dat een videokaart in normale stand (normaal gebruik) niet meer stroom gebruikt dan nodig.

StrifeNL zegt het ook al; die kleine dingetjes zijn leuke speeltjes, maar meer dan een uurtje per dag 'internetten' wordt het niet. En zuinig valt ook wel mee (kan om de twee uur weer opnieuw aan de tap).

Die paar wattjes die dit soort monsters extra verbruiken zal de schade niet zijn. Pak van de zomer wat vaker de fiets en je hebt een paar jaar computerverbruik er al uit.
Waar heb jij je laten inlichten? Een uurtje per dag? Maak daar 6 uur van voordat je hem moet opladen, en internetten is ook wat 85% van de bevolking doet op de pc, daarom maken netbooks ook zo'n enorme opmars.

Het marktaandeel gamers met zieke videokaarten is helemaal niet zo groot in verhouding, het lijkt alleen zo omdat er hier op tweakers een heleboel geconcentreerd zitten. ;)
sommige mensen boeit het milieu echt niet hoor :)

en die willen gewoon games snel op hun pc hebben en nice graphics hebben :)

en die willen dus highend kaarten :)

en ja ik ben zo een figuur die niet om het milieu en onzin dingen als co2 warmt de aarde op flauwekul geeft :)
Ik geef ook geen zak om het milieu, maar wel om de rekeningen van GWL, geziek ik ze zelf betaal, overigens merk ik dat mid-range apparatuur langer meegaat dan die high-end monsters, qua games, ja ik speel genoeg games die al wat ouder zijn maar ik toch uit wil spelen, die lijst is zo lang dat ik aan dingen als crysis nog lang niet toekom(ben nog met black bezig)
Mij boeit het milieu ook niet, ik vind het alleen ironische dat de politiek zeurt over het milieu en CO2 terwijl men vrolijk doorgaat met verkwistende apparatuur op de markt te brengen.
ach je verwarmt je kamer er ook mee, in principe verspil je neit eens energie, tenzij je je kamer niet WIL verwarmen op dat moment, je verliest de energie pas als hij je huis verlaat.

en dan nog wat is 500 watt.
kijk eens naar je CV, of naar je auto. verspilt veeeeeel meer,
en die energie wordt niet hergebruikt als warmte in je huis.
nVidia komt zo spoedig al met een nieuwe core, de GT300?
Ik ben benieuwd of de architectuur dan zeer vernieuwend zal zijn, aangezien de development fase dan wel heel erg kort lijkt? :?

Als dat tenminste een high-end product is, dan zal hij tevens beter moeten presteren dan een GTX285 om uberhaupt interessant te zijn lijkt me... :)

'Die shrinking' is leuk, maar ik vind tegenwoordig dat het maar erg lang duurt voordat nieuwe single GPU kaarten een enorme stap voorwaarts gaan.

Heb zelf ongeveer een half jaar geleden de overstap gemaakt van een 8800GTX Xtreme naar een HD4870 512MB en ook die overstap is niet denderend kwa performance verschil.
nVidia komt zo spoedig al met een nieuwe core, de GT300?
Ik ben benieuwd of de architectuur dan zeer vernieuwend zal zijn, aangezien de development fase dan wel heel erg kort lijkt?
Het ontwikkelen van dit soort chips is iets dat jaren duurt, en dus hebben AMD en NVIDIA meerdere teams die tegelijk aan nieuwe producten werken. Ik zou echter niet teveel geloof hechten aan het GT300 verhaal, aangezien er voor dezelfde tijd al een G212 en G216 chip op de planning staan die wel 40nm zijn.
'Die shrinking' is leuk, maar ik vind tegenwoordig dat het maar erg lang duurt voordat nieuwe single GPU kaarten een enorme stap voorwaarts gaan.
Hoezo? Moore's law geld net zo goed voor GPUs als voor alle andere chips, en dus duurt het meestal rond een jaar voor een nieuwe generatie kleinere chips gebakken kan worden. NVIDIA en AMD zijn hierin afhankelijk van andere chipbakkers, en aangezien die echt wel zoveel tijd nodig hebben om kleinere procedee's mogelijk te maken zul je helaas wel moeten wachten.
Overigens is er niet veel veranderd in de afgelopen jaren in dat opzicht. Nieuwe generaties lieten vroeger ook 9 maanden tot een jaar op zich wachten.
Als we afgaan op de ontwikkelingstijd van een nieuwe Architectuur zoals de RV770 of de G80 toendertijds (GT200 is nou niet bijster vernieuwend, dus dan noem ik liever de G80) dan moet de GT300 al wel een hele lange tijd in ontwikkeling zijn wil die echt vernieuwend zijn, en ik betwijfel of dit zo is.

Ik zie het meer als een refresh van de GT200, met alle ontwikkelingen die ze er sinds de release bij ingestopt hebben. Dit haal ik uit het feit dat er gezegd word dat nVidia ''snel de performancekroon'' weer wil pakken. Verder had nVidia niet verwacht dat ze zo hard moesten aanpoten omdat de GT200 was verwacht als een kaart die ze nog wel even een jaartje of niet langer stevig in de markt zou houden. Niet dus.

En je gaat tevens over van een super High End kaart van de vorige generatie naar een mid range van deze, dan zou je ook niet een heel erg denderend verschil hoeven verwachten hoor. Als je nou bijvoorbeeld een GTX280 had, dan had je dat vast beter gemerkt, en dat is ook beter te vergelijken.

[Reactie gewijzigd door JohnAD op 16 december 2008 17:37]

nVidia moet wel dringend met een echt nieuwe core komen omdat Windows7 misschien wel iets vroeger komt als eerst voorzien (eerste beta in naar het schijnt al in januari, dus rtm zal zeker voor einde 2009 zijn), en die komt met DX11 en hun huidige generatie doet zelf nog geen DX10.1
dat zou heel slecht zijn qua marketing
Dit slaat nergens op. Eer de tijd dat Windows 7 werkelijk uit komt zijn we al meerdere GPU "generaties" verder, gezien NVIDIA nu per halfjaar een nieuwe lijn uitbrengt.

Als de eerste beta van Windows 7 in januari uitkomt, betekent dat waarschijnlijk dat we het OS zelf pas in 2010 gaan zien. Tegen die tijd zitten we al aan Geforce GTX500 als ze met dit tempo doorgaan.

Microsoft gaat echt niet al te overhaast Windows 7 de markt in forceren, ze hebben nog heel wat losse eindjes met vista aan elkaar te knopen, daarnaast hebben we eerder gezien dat de eerste beta van een MS OS meestal meer dan een jaar vooraf gaat aan de daadwerkelijke release.

Overigens is de grote DX10 marketing grap nu wel weer voorbij hoor, ik hoor er in ieder geval niemand meer over, en dat is maar goed ook. DX10 stelt vooralsnog niet veel meer dan gebakken lucht voor als het gaat om de spelervaring van de eindgebruiker. De enige notabele uitzondering is hooguit crysis, en dat was 1 groot stuk bedrog als het gaat om DX10-only features.

Wat weet jij nou overigens van DX11? Kun jij beschrijven wat er gaat veranderen, zonder alleen maar marketingpraatjes te citeren?
Microsoft is van plan om direct na Beta 1 naar de release versie toe te gaan. En wil Windows 7 bij voorkeur nog in 2009 uitbrengen. nVidia heeft dus maximaal nog 1 generatie om DX11 te introduceren als ze tenminste bij de (geplande) release van Windows 7 een DX11 kaart beschikbaar willen hebben.

Echter is de opmerking van catfish inderdaad een beetje nutteloos.

Ten eerste is er niets wat nVidia tegenhoudt om DX10.1 over te slaan en direct naar DX11 te gaan.
Ten tweede is de verandering van 10 naar 10.1 maar minimaal en is daar absoluut geen totaal nieuwe architectuur voor nodig (zie HD2000->HD3000).
Volgens de vele geruchten was G80 niet full DX10 zoals door MS+ATI gepland compatible. En doordat G80 vroeg was en ATI erg laat. Stonden ze sterk om bij MS te zeuren om paar missende verplichte zaken optioneel of te schrappen uit DX10.

Dus voor mij is DX10 meer reduced nV DX10.
DX10.1 is DX10 as it was ment to be. En beetje verder bewerkt.

Om dat men voor subtile verschillen geen diepe architektuur logic gaat om gooien. Blijft nV bij DX10.0

Vraag me af of nV vroege DX11 piece weer half bakken DX11 hardware wordt. Of full.
Dit kan omdat nV schedule zeer strak is nV mogelijk al te vroeg architektuur beslissingen neemd terwijl API feature list en beslissingen nog niet vast staan. En men gokt op wat er in komt of wat er op het moment zo goed als bekend is.

Waar nV vooral in uitblink is in big chips en met rauwe power en duur de troon gegarandeerd in handen te krijgen. ipv innoverend bezig te zijn. En voorop te lopen in nieuwe standaarden.

Als vroege Vista vogel was je beter af bij ATI.
Voor games op XP beter nV beter.met hun G80
Nu zijn ATI en nV bij op waar ze achter bleven.

Tenminste als GT300 'n DX11 chip is en werkelijk vroeg komt.
Maar ik zie dit als een gerucht. nV en ATI kunnen ons weer eens verrassen of tegen vallen.
nVidia moet wel dringend met een echt nieuwe core komen omdat Windows7 [...] komt met DX11
Je kunt er donder op zeggen dat Windows7 gewoon prima gaat werken met DX10.0 kaarten en vermoedelijk zelfs DX9 kaarten. MS gaat echt niet het risico lopen om ruim 90% van z'n klanten te dwingen een gpu-upgrade te moeten doen voordat ze Win7 kunnen draaien, en zal er vrijwel zeker voor zorgen dat de (backwards) compatibility met huidige mainstream en zelfs low-end kaarten prima is.
Zij zullen Windows 7 zo toegankelijk mogelijk willen maken voor een zo breed mogelijk publiek, zodat ze niet weer overkomt wat ze met Vista is overkomen: volksstammen aan users die blijven hangen bij een oud(er) OS ;)

@roy-t hieronder:
DX10.1 is door ATi behoorlijk overhyped omdat het voor hun een unique selling point is. De zogenaamd 'nieuwe' zaken betreffen veelal weinig meer dan het verplicht stellen van een aantal zaken die onder DX10 reeds beschikbaar maar 'slechts' optioneel waren.

nV ondersteund een belangrijk deel van deze onder 10.0 optionele functionaliteit reeds in hun DX10 GPU's, maar niet alles. Vandaar dat de GPU's niet het label "10.1 compliant" mogen dragen. nVidia geeft in ieder geval aan de features van DX10.1 die ze niet ondersteunen niet belangrijk genoeg te vinden om daarvoor hun GPU's te updaten. Zie ook deze twee artikelen.

Het verhaal van Assasins Creed ligt trouwens nogal genuanceerder dan wat je hieronder stelt. Ubisoft heeft het over "problems with de DX10.1 implementation". Lees de forums er maar op na over de pre-patch AC met name op Geforce 8 kaarten. De backwards compatibility van de geimplementeerde 10.1 code was blijkbaar niet goed, waardoor de software geregeld crashte op 10.0 kaarten. Ubisoft heeft de code daarna kennelijk teruggedraaid naar het 10.0 only path. Zie ook hier.

[Reactie gewijzigd door Cheetah op 17 december 2008 12:18]

Windows7 ondersteund inderdaad gewoon alle videokaarten, zelfs lager dan DX9 alleen dan zonder extra visuele effecten. (De nieuwe aero achtige interface is dacht ik vanaf DX9, wat nu geen probleem mag zijn).

Wel heeft de poster gelijk dat DX11 geintroduceerd wordt met Windows7 (ook voor Windows Vista op dat moment) dus eht is wel handig als nV is opschiet met nieuwe technieken ondersteunen.

DX10.1 is al best wel anders en een grote verbetering op DX10 (alle foutjes eruit en veel performance verbeteringen, ook een aantal leuke nieuwe technieken zoals tesselation, cubemap arrays en global illumination, unified shaders, shader based anti-alliasing, Shader Model 4.1) maar nVidia weigert om een of andere vreemde reden deze techniek te ondersteunen (Misschien is het gewoon om ATI/AMD dwars te zitten aangezien geen game-producer nu DX10.1 only games maakt en er geen dx10.1 benchmarks gedraait kunnen worden, denk maar eens aan Ubisofts' Assasins Creed die na een patch met dx10.1 10% sneller draaide, de makers dit eerst erkende en toen nV als hoofd sponsor van die game boos werd "miste de 10.1 versie een erg zware postprocessing stap" die in screenshots/de game zelf niet gezien kon worden!!)

Als ATI/AMD weer de eerste is met DX11 heeft nV wel een beetje een probleem omdat het publiek veel meer aware is van hele versies.

Note: Chrome heeft wel DX10.1 compatible kaarten, dus als zij het iunnen is het toch niet zo'n probleem voor Nvidia?

Leuk leesvoer (beetje oud) http://www.overclock.net/...10-vs-directx-10-1-a.html
Las ergens toch echt dat Windows 7 DX10.1 voor Areo interface gaat gebruiken.
Misschienn dat DX10. 1 op Dx10 geëmuleerd kan worden met geringe performance lost. omdat verschil niet al te groot is.
Ik zie het meer als een refresh van de GT200, met alle ontwikkelingen die ze er sinds de release bij ingestopt hebben. Dit haal ik uit het feit dat er gezegd word dat nVidia ''snel de performancekroon'' weer wil pakken.
Volgens mij is dit slechts de manier hoe de poster van het nieuwsbericht dit omschrijft. Niet hoe het is gecommuniseerd en al helemaal niet vanuit Nvidia.
Die benchmarks die ze laten zien op die site is hetzelfde als appels met peren vergelijken.
Alle games die ze hebben getest hebben physX ondersteuning en waarschijnlijk is dat ook enabled met het testen van de game ( als ze de kaart echt in handen hebben gehad) dus ik wacht nog ff de echte benchmarks af. Het lijkt me stug dat hij echt bij sommige games een 100% performance winst geeft, de kaart zou vast wel sneller zijn dan de 4870x2 maar dan blijf de hamvraag of hij ook meer bang for your buck is

[Reactie gewijzigd door RickV89 op 16 december 2008 22:16]

Waarom moet die 295 nou weer half crippled zijn? Zou hij anders te veel richting de 300 gaan qua performance?
Denk dat hij lager geklokt is om de warmteproductie en energie consumptie in de perken te houden. De GTX2xx zijn al verre van zuinige kaarten en ook nog eens relatief groot.

En ook al is ie een beetje verminkt, mooie kans voor Nvidia om hun mislukte dies nog te benutten (Tenslotte is de kans ook erg groot met zo'n groot ontwerp dat er fouten inzitten).

Edit@tygetjuh: Ik zei toch ook al dat dit een mooie kans was voor hun om hun mislukte dies te verkopen?

[Reactie gewijzigd door SRI op 16 december 2008 22:15]

Ik denk dat dit de manke chips zijn van de GTX285 productie. Met een wat lagere snelheid en wat minder opties kunnen ze die toch voor het volle pond verkopen.

Wat ik erg jammer vind is dat er zo weinig geheugen op de kaarten zit. De enige reden om een nieuwe videokaart te kopen is voor mij om meer geheugen te verkrijgen. Met spellen zoals GTA IV is 512MB niet genoeg, dus zit ik met smart te wachten op de eerste betaalbare videokaart met 2048MB, aangezien ik 1024MB niet voldoende upgrade vind.

Hoe zit het eigenlijk met de benaming? Ik had juist begrepen dat ze een eenvoudiger benaming aan wilden houden, maar nu gaan ze alweer op het verkeerde pad. De GTX zou sneller moeten zijn dan de GT variant, maar met een hogere nummering (GT300 vs. GTX280) lijkt het tegendeel waar.
Jij bent een generatie naam aan het verwarren met een productnaam: GT200 - GT300 waarbij de GT200 de GTX260 en GTX280 is.

Net zoals BMW E92 de BMW 3 serie coupé is die we nu zien rijden en de E46 die van daarvoor oftewel generaties en fabrieksnamen (correct me if i am wrong).

[Reactie gewijzigd door Sm0k3r op 16 december 2008 20:48]

Nu zie ik het ook. Voor het gemak noemen ze de GPU dus gewoon bijna hetzelfde als de marketingnaam. Bij de vorige series was dat tenminste nog uit elkaar te houden.
Oeh, een autoanalogie die klopt! Een unicum :+

On topic: GT200 heet eigenlijk helemaal niet zo, maar dat heeft de techpers er van gemaakt (bizar hoe de pers zichzelf collectief iets kan voorhouden). De chip heet namelijk G200 (dus zonder T).
Waarschijnlijk om de warmte en het stroomverbruik enigzins binnen de perken te houden. Er komen namelijk 2 van die jandoedels op 1 koeler.
Ik ben erg benieuwd naar het antwoord van ATI. Ik hoop dat een kaart in de vorm van 5850 snel komt, dit zou een waardige opvolger van mn 4850 kunnen zijn.
De HD5800 serie komt volgens Chris Hook van AMD pas in het vierde kwartaal van 2009 en deze kaart zou de eerste met volledige DX11 support worden. In de eerste helft van 2009 krijgt de lineup een refresh met 40nm chips.
volgens de meeste geruchten zou het iets meer zijn als alleen een refresh.
en zou het in q2-09 uit komen.

of dat al een nieuwe generatie is als in hd5870 of dat het een hd4970 gaat worden is nog even de vraag.

[Reactie gewijzigd door Countess op 16 december 2008 19:32]

De 'performance kroon' maar ook de 'allerhoogste prijzen kroon' ...
Begrijp ik nu goed dat het alleen maar een soort refresh is op dezelfde chip enzo?
of is het nou een volledig nieuwe? ik begrijp het niet helemaal zoals het artikel het brengt.
De GTX285 is, als de geruchten kloppen, gebaseerd op NVIDIA's 55nm G200b chip. Dit is simpelweg een verkleinde versie van de originele G200 chip, die op 65nm gebakken is. De verkleining zorgt hierbij voor minder verbruik en meer performance.

GT300 is een ander verhaal, dit zou mogelijk een compleet nieuwe chip zijn, maar zoals ik in andere reacties ook al heb uitgelegd is dit nog niet echt een geloofwaardig gerucht.
De titel en het artikel gaan ook bijna helemaal over 2 verschillende dingen.
De gt300 is een nieuw gerucht maar de gtx285 en 295 komen in ieder geval wel al snel op de markt. Nieuw is het niet echt want het is de huidige chip maar dan een maatje kleinere chip (55nm). Doordat ze wat zuiniger zijn door dat proces is het echter wel weer mogelijk SLi op 1 kaart te maken = GTX295.
De GTX 280 is net zo groot als een 8800 GTS 512 mb wat dus een prima zaak is.
Echter deze 300 lijkt net zo groot te worden als een 8800 GTX endus te groot klopt dit ?
Het hele GT300 verhaal slaat nergens op imho. Het is al bekend dat NVIDIA een G212 en G216 chip op de planning heeft staan, terwijl niemand ooit nog de naam G300 heeft gebruikt. Bovendien is het raar dat NVIDIA eerst een G21X chip op de markt brengt op 40nm en tegelijk (of zelfs eerder?) een 55nm chip uitbrengt met een compleet nieuwe architectuur (wat de naam toch wel impliceert).
Ik zou er niet te veel van geloven tot er plaatjes en bevestigingen opduiken, want dit is een ongenoemde bron van een enkele website.

EDIT: Overigens is er niet zoiets als "te groot". Het hele Inquirer verhaal over NVIDIA's slechte G200 yields was complete onzin en onderdeel van Charlie's wekelijkse potje NVIDIA bashing, en is om de een of andere reden overgenomen door de meerderheid van de techwereld. NVIDIA heeft zelf meerdere malen aangegeven dat de G200 yields prima waren, wat ook te verwachten viel. Uiteraard zijn yields van een grotere chip iets slechter dan die van kleine chips, maar zonder inzicht in ontwerp, productie, testmethodes, doelen en kosten is er niets te zeggen hoe goed of slecht het is dat een chip groot is. G200 was in ieder geval niet te groot, en G80 al helemaal niet.

[Reactie gewijzigd door Snoitkever op 16 december 2008 20:06]

Ik zou er niet te veel van geloven tot er plaatjes en bevestigingen opduiken, want dit is een ongenoemde bron van een enkele website
Er zijn toch wel iets meer sites die de GT300 noemen:
http://www.hardware.info/...nm_GT200_maar_45nm_GT300/
http://www.electronista.c...12/16/nvidia.gt.300.leak/
http://www.firingsquad.co...rticle.asp?searchid=20964
http://www.techpowerup.com/index.php?79016

en zo kan ik nog wel even doorgaan...

Het verhaal slaat dus wel degelijk ergens op en is zeker niet het verhaal van een enkele website.
Ze hebben allemaal als bron "Digitimes".

1 site lekt dus iets, de rest neemt het over.

Olievlekwerking heet dat.

[Reactie gewijzigd door Format-C op 16 december 2008 20:40]

Ze hebben niet allemaal als bron "Digitimes".

Firingsquad noemt als bron "Hardware Infos" en die noemen hun bron zo: "aus branchennahen Kreisen haben wir Einblick in die laufende Nvidia Roadmap nehmen können". Hardware Infos heeft het dus direct of indirect uit de roadmap van Nvidia zelf.
Ze noemen (behalve de GT300) ook andere type-nummers dan Hardware Infos:
  • GT206: Q4/2008, 55 nm
  • GT212: Q1/2009, 40 nm
  • GT216: Q2/2009, 40 nm
  • GT300: Q4/2009, 40 nm
Uiteraard heeft NVIDIA een G300 chip op de planning staan. Goeie kans dat dat hun nieuwe architectuur DX11 chip wordt. Zou inderdaad ook best kunnen dat dat Q4 2009 wordt, zoals twee van je bronnen al aanhalen. Wat ik niet geloof is dat die chip nu al in Q1 uit zou komen, of dat die 55nm zal worden, zoals Digitimes/Techpowerup/Twakers beweert. :)
Zijn er eigenlijk al spellen die zo'n 'monster' nodig hebben? Ik speel alles (Call of Duty World At War, GTA IV, Tomb Raider Underworld, etc.) nog op 1680 x 1050 pixels, 'high settings' en 8x AA met een GeForce 8800GTS 512. Volgens mij heb je, als je een GeForce 8800GT hebt gekocht in Oktober 2007 helemaal een goede prijs/prestatie verhouding.

Leuk dat het veel sneller kan, maar is het nu voor de games nodig? Okay, je kan nu ook Folden@Home met die kaarten.

[Reactie gewijzigd door Jumpman op 17 december 2008 16:20]

Probeer eens GTA4 en Crysis? Nuja, ik begrijp je standpunt wel ik speel de meeste games ook op redelijke lage settings en ik amuseer me er nog altijd mee.
Denk niet dat je het goed leest... hij zegt dat ie hij het op 1680 x1050 op high settings speelt... das dus met alle franje... je opmerking is dus niet helemaal terecht.
Pacman blijft leuk, en dat meen ik niet als grap of zo.

Graphics geweld in games doet er niet veel aan toe of een game wel of niet fun is.
Ik ga daar volledig akkoord mee, maar de huidige trends in gameland zijn jammer genoeg net omgekeerd.
Gta4 is niet zo zwaar en Crysis is ook draaibaar, voor de meeste mensen is een mid-end kaart afdoende. Echter vergeet Jumpman dat 1680x1050 nog niet vreselijk hoog is. Ik heb zelf een resolutie van 1920x1200 en dat zijn al aanzienlijk meer beeldpunten, hoef dan ook geen AA te proberen bij mijn 4670. Laat staan als je een 2560x.... monitor hebt. Ook supcom wil op dualscreen (2x1920) wel eens moeilijk gaan doen en ik zet dan ook de AA uit (gaat me toch niet zo om de graphics).

Persoonlijk vind ik het zonde om zoveel geld uit te geven aan het duurste model, ik koop elk jaar een nieuwe mid-end kaart en daarnaast draai ik ook nooit de nieuwste spellen (koop alleen games die >30 euro zijn).

[Reactie gewijzigd door poepkop op 16 december 2008 18:32]

Ik heb op dit moment dezelfde gedachte!
En dezelfde resultaten. (zelfde resolutie)
Alleen Crysis draait bij mij niet vloeiend op de allerhoogste settings. En dat is het wel.

Ik wacht nog wel even op die GT300-chip.

Wat nog wel interessant gaat worden, ook voor andere mensen denk ik, is het volgende:
een passief gekoelde kaart met GT200-chip. Die zou ik nog wel kopen, mijn huidige 8800GT 512 maakt iets te veel lawaai :)
binnenkort eindelijk n kaart die crysis met alles maxed kan spelen? ;)
dit zeiden ze al in de tijd van de '16 mb' kaarten..
"zo snel? dat heb je nooit nodig"
Prince of Persia heeft al wat framedrops met een GT8800. Prijs/prestatieverhouding is echter nog steeds ideaal.
wat voor pc heb jij dan wel niet? ik speel al 20 jaar Prince of Persia en dat zonder framedrops.
Je kan weinig zeggen over de development tijd als je alleen kijkt naar de tijd tussen twee productreleases. Nvidia werkt met meerdere teams en toen de GT200 nog uitgebracht moest worden waren ze vast ook al lang bezig met meerdere generaties opvolgers daarvan.
Nou leuk voor Nvidia als ze weer de performance kroon te pakken weten te krijgen. Ik geloof alleen dat AMD nog wel flink kan snijden in de prijzen van hun videokaarten omdat de GPU een stuk kleiner (en dus goedkoper) is.

AMD is de goede kant opgeslagen ook met het meer richten op multi GPU waar je meerdere kleine goedkope cores maakt en die samen laat werken.

Nvidia heeft gekozen voor een grote core wat veel kosten en problemen met zich mee brengt. Waarschijnlijk zal Nvidia ook die keuze nog gaan herzien maar dat kost natuurlijk tijd om van hun ontwerp af te stappen. En natuurlijk ook veel geld. Hopelijk voor AMD gaan ze zo door en blijven ze een goede speler want dat hebben ze hard nodig.
Het hele multi-GPU verhaal komt overigens nog steeds niet zo lekker uit de verf (vind ik). Voordat je je SLI of crossfire een beetje deftig kan gebruiken bij high-end spellen zit je vaak 1 of 2 patches/drivers verder.

Persoonlijk zijn alle 'X2'-configuraties (ati of nvidia) niet eens een optie. En dan is de 280 de snelste op het moment. Helaas is prijs/prestatie vergeleken met een 4870/50 weer waardeloos...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True