Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 69 reacties
Submitter: QinX

De specificaties van de twee nieuwe Nvidia-videokaarten met de GT200-gpu liggen op straat. De core van de Geforce GTX280 zal op 602MHz draaien terwijl de kloksnelheid van de GTX260 met 576MHz niet veel lager is.

Nvidia heeft de specificaties een paar weken geleden bekend gemaakt tijdens een persevenement. Hoewel het bedrijf de aanwezigen een geheimhoudingsverklaring heeft laten ondertekenen, is de informatie nu toch uitgelekt, bericht Fudzilla. De snelste kaart die op de GT200-gpu gebaseerd zal worden, is de GTX280 die een kloksnelheid van 602MHz krijgt. Verder krijgt deze kaart een 512bit-geheugenbus en 1GB gddr3-geheugen dat op 1107MHz draait. De kaart zal, zoals al eerder duidelijk werd, over 240 streamprocessors en 32 rops beschikken en de shaders zullen op 1296MHz draaien. De tdp van de GTX280 ligt op 236W en de prijs zal rond de 600 dollar bedragen, schrijft Fudzilla.

De kloksnelheid van de GTX260, het kleinere broertje van de GTX280, ligt op 576MHz. Deze kaart zou verder beschikken over een 448bit-geheugeninterface en 896MB gddr3-geheugen dat op 896MHz loopt. De GTX260 krijgt 192 streamprocessors en 28 rops mee, terwijl de shaders op 999MHz zullen draaien. De tdp van de kaart ligt op 182W en de prijs zal op ongeveer 450 dollar uitkomen.

Moderatie-faq Wijzig weergave

Reacties (69)

Ligt het aan mij of zijn de specs niet echt overweldigend? Als ik de shader power bekijk, 192 x 999MHz is dat minder dan mijn 8800GT met shaders op 1840MHz. Verder is de core lager geklokt, maar dat wil natuurlijk niet altijd wat zeggen. De geheugenbus is daarentegen wel weer een stuk hoger.

De GTX280 is wel wat interessanter met 240 shaders op 1.3GHz (anderhalf keer de shader power van de 9800GTX) maar het prijskaartje stemt me niet positief.

Afgaande op de specs heb ik een vermoeden dat 2x 9600GT of 2x 8800GT nog steeds meer bang for buck gaat geven. Als je dan kijkt naar ATi met hun 4800 serie klinkt het toch positiever. Het wachten is op benchmarks.

Edit: typo

[Reactie gewijzigd door A Lurker op 27 mei 2008 10:58]

Bang for Buck zou inderdaad goed kunnen, Maar weet wel dat deze GpuCore in principe een nieuw ontwerp is met nieuwe functies en optimalizaties, waarschijnlijk zal het dus niet zo zijn als met de 8800GT < 8800GTSG92 < 9800GTX die allemaal op de G92 core lopen.. Met hier en daar wat verschillen in Clocks van geheugen/core/shaders.

Ben zelf gewoon erg benieuwd naar wat vaste Scores in 3dMark06 om maar een vergelijking te krijgen i.p.v al deze "leaked" informatie.

Ati is gewoon aan het terugkrabbellen, prijzen worden heel wat gunstiger en prestaties worden ook al wat beter, als er nu nog wat meer aan de Catalyst drivers word gewerkt..

[Reactie gewijzigd door Sqorpius op 27 mei 2008 11:13]

wanneer zullen we gaan praten over scores van 3dmark vantage? het is nog niet echt ingeburgerd, ik weet het.. maartoch. Het zijn allemaal DX10 kaarten, dus waarom niet.
Ik haal met mijn asus 3870 TOP en Q6600 op het moment 4941 puntjes. :)
3Dmark Vantage is nog niet echt relevant omdat minder dan 20% van de eindgebruikers gebruik maken van Vista, aangezien Vantage alleen op Vista te draaien is (True DX10) is er al gelijk een aanzienlijk kleinere doel/testgroep. 3Dmark05/06 of zelfs "01 Nature test is voor iedereen te gebruiken ( Moet ik even zeggen dat Vista de Nature test meestal niet zo leuk vind)
en omdat er bakken met erge bugs in zitten...

mijn HD3870X2 bijvoorbeeld blijft in zn powerplay-stand staan (dus gedownclocked in 2d-modus) en performed dus voor geen meter...

is ook niet leuk
Ligt het aan mij of zijn de specs niet echt overweldigend? Als ik de shader power bekijk, 192 x 999MHz is dat minder dan mijn 8800GT met shaders op 1840MHz. Verder is de core lager geklokt, maar dat wil natuurlijk niet altijd wat zeggen. De geheugenbus is daarentegen wel weer een stuk hoger.
FLOPS zeggen bijna nooit iets over de daadwerkelijke performance van een chip, zeker niet bij complexe chips als deze. GT200 zal ongetwijfeld een flinke lading vernieuwing met zich meebrengen, en het is aan reviewers om daar middels benchmarks het effect van te ontdekken.
Overigens was de 256bit geheugenbus van G92 vaak de beperkende factor bij die chip, niet de rekenkracht. Bij deze chip zou dat wel eens andersom kunnen liggen.
Marketing op zijn best, Ati released "leaked" confidential informatie en een dag daarna Nvidia toevallig ook. Wat ik dan zelf raar vind is dat ze zelf niet doorhebben dat deze acties gewoon steeds minder nut gaan hebben, bij het uitlekker van de 8800GTX/GTS specificaties was het "must Have" gehalte erg groot.. Bij de 8800GT werd het al minder, en nu begint het steeds meer op een wapenwedloop te lijken, Great, Greater, Greatest houden we het maar op.

[Reactie gewijzigd door Sqorpius op 27 mei 2008 10:50]

wat betreft de 8800GT kaartjes heb je het mis. Daar was een enorme run op en maanden nergens verkijgbaar of heel slecht.
Hij bedoelt het ''must have'' gevoel dat word gecreëerd door de fabrikant voordat de kaart is uitgebracht. De run op de 8800GT was zo omdat hij zo verassend goed presteerde voor zijn prijs, dat had weinig met dit lekken van info te maken.
Nou, dan kan dit ding maar beter 2x zo snel zijn als de ATi 4870, want hij verbruikt 2x zo veel en kost 2x zo veel. Gaat niet helemaal op, maar in videoland al iets meer, want als je dit dus wilt nadoen, pak je een Crossfire-opstelling, en ben je net zo ver. Heck, hoe willen ze 240W koel gaan houden? (als ik eens na ga wat voor opstellingen destijds werden bedacht om prescotts a 130W koel te houden, moet dit wel echt gek worden. Daarnaast maken ze tri- of quad-SLI bijna onmogelijk, omdat je stroomrekening best hard oploopt. (1 euro per watt per jaar bij 8 uur gebruik ongeveer)
Je crossfire opstelling van 4870 kaarten kost je load anders 320 watt en zie dat maar eens koel te houden.
Wat is dat toch met die xxxbit-geheugeninterface gezeur? Het is telkens de dure, veel energie verbruikende, te warme kaarten die 512bits zijn. Kom nou eens met een leuke middenmoot met 512bits geheugeninterface!
De GPU moet ook snel genoeg zijn om die geheugenbandbreedte goed te benutten. Daarbij is een 512bit geheugenbus verschrikkelijk duur om te maken. Het PCB wordt er enorm complex van. Dat is eigenlijk bij een 256-bit bus op een videokaart al zo. Ik denk dat je al blij mag zijn dat die hun weg naar het middensegment vinden zoals bijvoorbeeld op de 9600GT.
De hele reden waarom die kaarten met 512 bits interfaces zo duur en warm zijn, is precies vanwege die 512 bits interfaces!

Om te beginnen heb je een heleboel pootjes op je chip nodig voor die 512 bits interface. Ik doe eens een gokje, 512 pootjes? Bovendien heb je line drivers nodig voor al die 512 verbindingen naar het geheugen. Een stroompje op een chip kan vrij beperkt blijven, maar een signaal wat naar een geheugenchip moet is veel sterker (meer afstand af te leggen en dus meer storing, dus meer marge nodig).

Aan de geheugenkant heb je ook weer een hele zwik chips nodig om 512 bits tegelijk op te lepelen en terug te sturen, weer met hoge voltages & stromen. Ook heb je natuurlijk PCB traces van al die 512 pinnen naar de geheugenchips nodig.

En als je dan zo'n verzameling bits binnenkrijgt in je GPU, dan moet die natuurlijk ook genoeg capaciteit hebben om al die bits tot pixels te verwerken. Oftewel, meer shaders nodig. D kosten en het energieverbruik van een grafische kaart hangen dus heel erg nauw samen met de busbreedte.

Een ander goed voorbeeld waarom veel bits niet goed zijn: PATA versus SATA. PATA gebruikte 40 pinnen voor 16 bits; SATA is met 7 pinnen voor een 1 bits interface toch sneller.
Weet je hoe groot een chip moet zijn voor een 512bits interface? Het zou me niets verbazen als deze GT200 chip gewoon zo groot moet zijn vanwege de enorme busbreedte.
De 2900XT is ook groter dan de 3870. Komt doordat de 2900XT een 512 bits geheugen bus heeft en de 3870 een 256 bits geheugenbus heeft.
Heb ook steeds meer het gevoel dat lekken en kleine updates gebruikt worden als marketingstrategie.
Volgens mij wil je niet weten wat er allemaal wordt gebruikt voor marketing, ik denk dat Kevinp wel eens gelijk kan hebben.

Maar wat een geld...600 dollar...dat wordt bijna 2x zo duur als de HD4870. Die in crossfire ben je net zo duur uit, ik wist het wel, als ik wat zou kopen.
"Vlaggenschip kaarten" zijn altijd al rond die prijs geweest. Tenminste bij nVidia, daar mag je altijd uit gaan van een bedrag rond de ¤500,-.
Wij in Nederland noemen het topmodellen ;)
Dat is ook de bedoeling van AMD. Dit doen ze ook in de cpu markt en ook in de VGA markt. Hun kiezen er nu voor goedkope chips te maken en dan een HD4870 X2 te maken ipv een grote snelle chip.
Mijn 9600gt met 700mhz core, en 950 mem clock?? die was maar 130 euro :S
Hoe zit dat dan?
9600gt is ook geen "Vlaggenschip kaart" ;)
Nee maar wel een veel verstandigere keus als je kijkt naar performance per euro.
Dit is een strategie die al sinds jaren wordt gebruikt. Mensen hebben de indruk dat een een sneak preview krijgen en daarmee wordt het "dat wil ik ook hebben" gehalte veel hoger van deze producten. Echter wordt het zoveel gebruikt dat het weinig zinvol meer is. Zeker bij videokaarten wordt het nieuws al bijna niet meer op de normale manier gebracht.
Nvidia, weer eens te duur, zoals gwoonlijk.
Ze moeten gwoon net zoals ATI doen, GOEDKOOP.
Ik denk dat de meeste mensen echt niet meer als 350 euro gaan neerleggen voor een videokaart.

[Reactie gewijzigd door Rody9933 op 27 mei 2008 19:01]

De meeste mensen niet nee, maar de meeste mensen kopen ook niet om de paar maand nieuwe hardware, en kopen ook geen high-end Intel processoren, en kopen ook geen 4 of zelfs 8 Gig RAM... enzovoort.

Ik heb meer dan 600 euro betaald voor mijn 8800GTX, en ik heb er geen moment spijt van gehad. Als de prijs van deze nieuwe GTX280 niet al te hoog is ga ik upgraden, en ook daar verwacht ik niet direct wroeging van te krijgen.

Overigens is NVIDIA helemaal niet duur. In het mid-range segment krijg je met bijvoorbeeld de 8800GT heel goed waar voor je geld, in mijn beleving beter dan voor de 3870.

[Reactie gewijzigd door Snoitkever op 27 mei 2008 20:37]

Wat ik een beetje raar vind is dat die gpu bouwers zich helemaal niets aantrekken van de hele "green hype". een TDP van 236W, da's een hele berg hitte die geproduceerd wordt op zo een klein oppervlak.

Ik heb zelf bewust gekozen voor een 65 W cpu, terwijl deze duurder was dan de 100w variant (al waren het maar 2 eurie). Maar om er vervolgens een 236W beeldkaart in te steken die spellen als Crysis e.d. vereisen om een _beetje_ normaal te lopen doet mijn groene cpu dan weer ruim teniet.Fan's van die prullen worden ook steeds groter en luidruchtiger, het wordt tijd dat zowel AMD als Nvidia na gaan denken over hun TDP.

Bespaart naast mijn energie rekening ook nog het mileu.
Het is nu Simpelweg nog niet te realiseren om EN een Highend grafische kaart te produceren EN hem onder de 200W TDP te krijgen, Hiervoor zijn er middensegmentkaartjes die <75 verbruiken (zonder PCI-E connector) En de voornaamste redenen om over te gaan op 65nm o.i.d is alsnog Warmte en Verbruik, In een Overclocker's ogen een praal voor hogere Clocks. Voor een Milieubewust persoon kosten-en-millieu besparend.
AMD's nieuwe topkaart zal echter niet meer dan zo'n 150 Watt verstoken op full load, als de cijfers kloppen. Daarnaast zijn ze al een poosje bezig met 55nm en proberen ze het meer en meer efficient te krijgen.

In dit geval toont Nvidia eigenlijk niets anders dan dat ze de absoluut snelste kaart willen hebben, waarbij ze zich niet druk maken om het verbruik of de kosten die een consument moet maken om zo'n kaartje te bemachtigen.

Tegen de tijd dat Nvidia volledig op 55 nm over gaat, zie ik ATI al wel bezig zijn met 45 nm om nog meer energie (en dus ook warmte) te besparen.
In dit geval toont Nvidia eigenlijk niets anders dan dat ze de absoluut snelste kaart willen hebben, waarbij ze zich niet druk maken om het verbruik of de kosten die een consument moet maken om zo'n kaartje te bemachtigen.
Wake up dude.....nVidia is een commercieel bedrijf met maar één doel voor ogen: winst maken. Wat had je dan verwacht....dat ze tientallen miljoenen Dollars in R&D gaan stoppen en vervolgens hun gpu's voor een dubbeltje gaan verkopen?
Ik zie dat je niet goed gelezen hebt wat er staat. Ik heb het niet over het winst maken van Nvidia, wat inderdaad een normale gang van zaken is voor een commercieel bedrijf. Ik heb het over de kosten van de kaarten waarmee ze bezig zijn, die dusdanig hoog liggen dat je als consument die het allersnelste wilt hebben, heel erg diep in de buidel moet tasten, puur door de hoge productiekosten.

De winst die Nvidia op die kaarten maakt is toch niets in verhouding tot de totale prijs.
In dit geval toont Nvidia eigenlijk niets anders dan dat ze de absoluut snelste kaart willen hebben, waarbij ze zich niet druk maken om het verbruik of de kosten die een consument moet maken om zo'n kaartje te bemachtigen.
NVIDIA wil niet het risico nemen om tegelijkertijd een nieuwe architectuur te lanceren en over te stappen op een nieuw onbekkend procedee. 65nm is een stuk volwassener en NVIDIA designers hebben er veel meer ervaring mee. Het brengt een veel groter risico met zich mee om bij een high-end chip als deze ook een nieuw procedee te willen gebruiken.
Zo het lijkt wil Nvidia ook geen risico nemen om door te ontwikkelen, of ontwikkelingen toe te voegen in de core, zoals de unified shaders 4.1 (DX10.1). Nvidia staat stil, ze geven hun kaarten alleen maar meer testosteron en hopen op die manier ATI voor te blijven. Puur op de enkele GPU op een PCB zal het ze ook nog wel lukken, maar met de doorontwikkeling van het 2 GPU's op 1 PCB concept van de 3870, heeft ATI toch wel een sterke troef in handen. Zeker wanneer ze het voor elkaar krijgen om de PCI-E brug te vervangen voor een meer op hypertransport achtige techniek.

De tijd zal leren hoe het zal gaan des al niet te min.
Wel frapant dat dit een dag nadat er ATI specificaties zijn uitgelekt. Het blijft suggereren, maar het lijkt er wel erg op dat deze "lek" niet echt een "lek" is.
Het zou mij ook weinig verbazen als dit gewoon een deel van de marketing is. Laat wat gegevens door via een onofficieel kanaal en je krijgt stukken meer aandacht, als dat je gewoon een announcement op je website maakt...
Dit is noemt men dus een "Official leak".
Deze kaart zou verder beschikken over een 448bit-geheugeninterface en 896MB gddr3-geheugen dat op 896MHz loopt. De GTX260 krijgt 192 streamprocessors en 28 rops mee, terwijl de shaders op 999MHz zullen draaien. De tdp van de kaart ligt op 182W en de prijs zal op ongeveer 450 dollar uitkomen.
Wat een rare manier van het aantal bits & bytes....

Hier is dus duidelijk gewoon in geknipt, in de snellere variant. Een iets lager TDP, wat minder SP / Rops & een kleinere geheugenbus. Het zou me ook niets verbazen dat van de high-end niet werkende chip, de niet werkende onderdelen eruit geknipt zijn en toch werkzaam als powermonster op lager standje.

Goed. Benchmarks wijzen wel uit wie de troonhouder is weer deze keer. Het enige wat ontbreekt zijn volgens mij de veranderingen in de architectuur.
Dit is niet nieuw ? werd vroeger ook veel gedaan en bij de G80 ook GTS en de GTX GTX 96 shaders GTX 128.

Er wordt geen stuk uit de chip gehaald hooguit uitgeschakeld.
Ik vind het persoonlijk nogal veel geld voor die kaarten. Ik ruik hier toch wel een goeie kans voor AMD als de geruchten kloppen dat de prijzen voor de 48xx reeks rond de 200-300EUR liggen.

[Reactie gewijzigd door Matten op 27 mei 2008 10:47]

als ik naar de specs kijk en de prijs denk ik niet dat de kaarten heel veel sneller (als ze dat al zouden zijn) zijn dan de nieuwe serie van ATI. daarnaast hebben ze wel een denderend hoog energieverbruik vergeleken met ATI.

dus ik vraag me af of die prijzen die in het artikel staan überhaupt wel te hanteren zullen zijn. ik denk dat ati dit keer de slag gaat winnen

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True