'Nvidia brengt GT300 pas in 2010 op de markt'

Nvidia's volgende gpu-generatie zou pas in 2010 het levenslicht zien. Het gerucht ging dat de GT300 op 15 oktober had moeten verschijnen, maar dat zou onhaalbaar zijn. Nieuwe vertragingen zouden een release in 2009 definitief hebben verhinderd.

Ict-tabloid The Inquirer beweert dat Nvidia het niet gaat redden om zijn nieuwe generatie gpu's nog in 2009 uit te brengen. Eerder claimde de site al dat de geplande release op 15 oktober van dit jaar zeer onwaarschijnlijk was. De nieuwe vertraging is naar verluidt het gevolg van problemen bij de tape-out, oftewel het in productie nemen van de wafers. Het duurt ongeveer acht weken om de eerste wafers te maken, die daarna gedurende twee weken getest worden. Als de wafers goed door de tests komen, duurt het nog 10 tot 12 weken voordat Nvidia de eerste in massa geproduceerde gpu's kan uitleveren. De tape-out van de GT300 zou op 1 juni beginnen, zodat Nvidia de gpu's begin november naar zijn partners had kunnen versturen. Volgens The Inquirer zou de tape-out echter vertraging hebben opgelopen, zodat de gpu's pas in 2010 bij de kaartenfabrikanten zullen liggen.

Ook de GT215-, GT216- en GT218-chips, die al uit hadden moeten zijn, hebben vertraging opgelopen. Nvidia zegt bezig te zijn met 40nm-chips, maar die zouden voorlopig alleen in oem-pc's opduiken en pas in de loop van de zomer in de winkel liggen. Details over deze 40nm-gpu's ontbreken nog, maar het is waarschijnlijk dat het om chips voor de budgetmarkt gaat.

Door Marc Rademaker

Redacteur

06-05-2009 • 13:13

48

Reacties (48)

Sorteer op:

Weergave:

Men moet er wel rekening mee houden dat die nieuws afkomstig is van de grootste nvidia-hater ter wereld, Charlie Demerjian. Het kleinste gerucht zal hij met beide handen aangrijpen om dit zo negatief mogelijk in het nieuws te brengen.
De tape-out van de GT300 zou op 1 juni beginnen
Dit zegt al genoeg. Er is niet 1 tape-out er zijn er misschien wel 10 of 20. Niemand denkt toch serieus dat een x00 miljoen transistor tellend ontwerp in 1x goed is?
Normaal bij dit soort processen is dat er elke x aantal weken een tape-out is waar de stand van zaken getest wordt. Sommige versies werken niet eens meteen door foutjes in de voeding of clock circuit. Als ze in de buurt komen van de laatste versie worden de eisen steeds strikter totdat een volledig werkende chip wordt geproduceerd.
Het lijkt me logischer dat ze een aantal extra stappen nodig hebben om een werkend model te hebben. De "final" tape-out kan dan inderdaad later zijn. Echter als het meezit kan het ook gewoon eerder zijn. Als het af is, is het af, niet eerder of later.

Het grappige is dat de test versies altijd achter lopen op het ontwerp, want voordat een test versie van zo'n chip is gemaakt zijn de ontwerpers al een paar weken verder met ontwerpen.

[Reactie gewijzigd door TheGhostInc op 25 juli 2024 21:31]

Als men zo zou werken waren ze allang failliet. Maskers maken voor zulke chips is enorm duur, dat wil je echt niet een paar keer doen.

Je hebt pas tape-out nadat je alles getest hebt. Dit testen doe je niet op een fysieke chip maar op een accelerator of een emulator. (Grote dozen met fpga's waar de chip in nagebootst word inclusief alle timing)

Ook is het vaak zo dat als men krap gaat zitten in de planning er besloten kan worden om bepaalde blokken niet uitvoerig meer te testen en het in eerste instantie van de featurelijst te schrappen.

Overgens lijkt het wel een ontestbaar grote hoeveelheid transitoren, maar je moet niet vergeten dat het een heel erg modulair ontwerp is. Die shaderblokken test je afzonderlijk, als er één werkt doen ze het allemaal aangezien dat dezelfde code is. Timing en powerdistributie testen gaat voor een groot deel automatisch met de huidige tooling.
Ik sluit mij aan bij Vorlon dat het echt onmogelijk is om zoals jij zegt 10 of 20 tape outs te maken. Al de VHDL code wordt opgeladen in een FPGA en zo kan men de chip laten draaien op een aantal Mhzen kunnen ze alles testen.
En welke FPGA is er groot genoeg voor zoveel miljard transistors? Geeneen, het draait tegenwoordig allemaal om simulaties, hiermee kan je ook voor een groot gedeelte al voorkomen dat er zoveel tapeouts nodig is, een eventuele 2e of 3e tapeout is alleen nodig als de modellen voor het gebruikte process nog niet helemaal compleet zijn.
Dat klopt,
het meeste nieuws van The Inquirer omtrent nVidia neem ik meestal ook met een korrel zout.
The INQ wil toch ook niet meer zijn dan de luis in de pels van de industrie? De GeenStijlmentaliteit, we kunnen niet meer zonder...
Is de GT300 nu ook echt een nieuw ontwerp? Kunnen we iets spectaculairs verwachten zoals Ati met 3xxx naar 4xxx dat deed?
ja het is een nieuw ontwerp, de geruchten zijn dat de gt300 zelfs 2x zo snel moet gaan worden.
Het is idd een nieuw ontwerp en dat moet ook wel omdat de kaarten DirectX 11 gaan ondersteunen.

De beste nVidia kaarten van dit moment gaan niet verder dan volledig DX10 en niet eens 10.1 want dat schijnt niet de moeite te zijn aangezien en bijna geen games zijn die 10.1 ondersteunen.
Voor zover ik weet zijn S.T.A.L.K.E.R. Clear Sky en FarCry 2 de enige.

Als er een nieuwe DX uitkomt zal er ook weer een volledig niewe hardware voor gemaakt moeten worden omdat dit niet even met een driver update te verhelpen is.
Backwards compatibility is wel volledig mogelijk met DirectX.

edit: typo's

[Reactie gewijzigd door Sunbeam-tech op 25 juli 2024 21:31]

in theorie kan die 15 keer zo snel worden

http://www.nordichardware.com/news,9141.html
Nergens gestoeld op feiten dat verhaal. Gaat over het parallelliseren van clusters shaders. In theorie kan het dus sneller worden maar niet 15 maal sneller. Het is gewoon vrij simpel. 256 shaders verdubbelen naar 512 en dan opdelen in 16 clusters is 2 keer zo veel power, daarnaast wat efficiëntie door parallel verwerken, wat uit zal komen op nog een keer verdubbelen (is wel heel optimistisch), dan wat overhead er af halen en je komt uit op 3,5 keer zo snel als de 200.

Wanneer ATI dit ook gaat doen (wat zeker al in de planning staat meen ik me te herinneren) dan zal NVidia snel worden, maar ATI ook de zelfde winst behalen. Beter voor ons consumenten, maar geen differrntiatie in grote verschillen tussen de twee.

Een stukkie andere tekst (ook hoog speculatiegehalte) (Bron:
GT300 architecture groups processing cores in sets of 32 - up from 24 in GT200 architecture. But the difference between the two is that GT300 parts ways with the SIMD architecture that dominate the GPU architecture of today. GT300 Cores rely on MIMD-similar functions [Multiple-Instruction Multiple Data] - all the units work in MPMD mode, executing simple and complex shader and computing operations on-the-go. We're not exactly sure should we continue to use the word "shader processor" or "shader core" as these units are now almost on equal terms as FPUs inside latest AMD and Intel CPUs.

GT300 itself packs 16 groups with 32 cores - yes, we're talking about 512 cores for the high-end part. This number itself raises the computing power of GT300 by more than 2x when compared to the GT200 core. Before the chip tapes-out, there is no way anybody can predict working clocks, but if the clocks remain the same as on GT200, we would have over double the amount of computing power.
GT200 = 24 cores, 10 clusters = 24cpc * 10 = 240
GT300 = 32 cores, 16 clusters = 32cpc * 16 = 512
Dus inderdaad 2+ maal zoveel verwerkingskracht, aantal simultane acties zal gaan van 24 naar 32 = 125% dus de snelheid zal iets van 2,5 maal zo groot zijn als de GT200. Dus nog minder dan ik in eerste instantie dacht. Wat ik lees is dat binnen een cluster meerdere instructies simultaan afgewerkt kunnen worden (maar dat is natuurlijk weer afhankelijk van de opbouw van de instructies binnen het cluster). Dus 3,5 maal zou gehaald kunnen worden, maar 15 maal lijkt me stug.

[Reactie gewijzigd door Wim-Bart op 25 juli 2024 21:31]

Dat hele verhaal rond de hoeveelheid clusters en MIMD of SIMD heeft geen enkel effect op ruwe rekenkracht. G80 en G200 en alle afgeleiden hebben gewoon cores met een 8-wide SIMD eenheid. Bij G80 zijn dit er 16 in clusters van 2, bij G200 zijn dit er 30 in clusters van 3. De grootte van deze clusters maakt echter totaal niet uit voor de rekenkracht of flexibiliteit van de chip, het enige dat uitmaakt is de hoeveelheid cores en de clocksnelheid.

Zelfde verhaal bij MIMD. Dat kan in bepaalde randgevallen of in code met veel branches een verschil maken, maar in normale situaties heeft dit ook geen enkel gevolg voor rekenkracht.
Hmm, die geruchten gaan al 10 jaar bij elke generatie.

2x zo snel zal wel 20% sneller zijn ofzo :).

Ik ben toch benieuwd wat d'r gebeurd als ATI wel een nieuwe generatie voor de kerst released.
Maar de 8 serie van nVidia was ook 2 keer zo snel als de 7 serie. En de 6 serie was ook 2 keer zo snel als de 5 serie geloof ik. GTX280 is overigens intussen (met driver updates) ook bijna twee keer zo snel als een 8800GTX. Dus die verdubbeling klopt in veel gevallen wel.
Het grappige is net dat de HD3000 reeks van ATI juist een basis was voor de HD4000 reeks, waarbij men vooral gooide met meer shader-execution units (360 naar 800) en meer geheugenbandbreedte. Een mooi voorbeeld dus van een ontwerp verder uitmelken door het bigger & better te maken, zonder dingen onder de motorkap drastisch te veranderen.
ze hebben toch echt wel meer dingen veranderd van HD3000 naar HD4000, dan alleen wat shaders en clockspeed.

ik weet wel mooiere voorbeelden van uitmelken.
Ja, 8800GT -> 9800Gt -> GTS240 vind ik nog wel het mooiste voorbeeld :P

Ik ga denk ik maar voor de ATi 5k serie deze keer, ben wel benieuwd wat dat word :)
Daar zat wel nog een schaal verkleining in hè, van 65nm naar 55nm :P


Maar de HD2xxx, 3xxx en 4xxx zijn ook op dezelfde architectuur gebaseerd, de verandering van de 3xxx naar 4xxx is echt niet veel gek veel groter als die van de 8800 naar GT200 reeks.
Ik verwacht van niet. Ik verwacht dat het een GT200 is met DX11 support en meer shaders. Meer war ATi ook deed van HD3870 naar HD4870. Basis hetzelfde houden alleen sneller maken en efficienter maken. Maar dan dit keer wel met DX11 support. Maar wel gewoon 1D schaders met dubbele snelheid. En ik verwacht ook nog steeds een 512 Bit bus alleen dan wel met GDDR5. (er van uit gaande dat hij 2x zo snel moet worden. Of het wordt 256 Bit met 6-7 GHz GDDR5)
ze mogen ook wel overstappen op ddr5 geheugen. want dat gebruiken ze nu toch nog niet?
ATI al wel, weet zo 1.2.3 niet hoe dat ging met Nvidia, maar het word al wel gebruikt in videokaarten dus.
De planning voor de ATI 5000 reeks is toch wel eind dit jaar, misschien zelfs al in augustus. Dan heeft Nvidia wel een poosje een probleem.
ATI does it again, ati pakt de kroon weer terug en is nvidia weer voor.
al moet ik zeggen dat als ik volgende jaar ee nieuwe kaart koop ik toch weer kijk naar nvidia. nu heb ik ati en die draaid erg lekker.
Bij mijn weten is Nvidia toch al voor zeer lang tijde nr1 qua performance.
Als je in het verleden kijkt Triple SLI 8800Ultra.
De Quad SLI GTX295 of Triple SLI GTX285, kan ATI ook niet bijhouden.
Bij de Nvidia 6 serie hadden ze al SM3.0, de kaartje van ATI Xxxx kaartjes hadden dat nog niet.
In Linux heb ik ook betere ervaringen met Nvidia dan met ATI. (zelfs met verschillende ATI kaartjes / distro's getest.)
Als je kijkt naar de drivers, als een spel net uit is. Moet je bija ATI soms wachten tot ze nieuwe drivers uitbrengen voor alleer je het kunt deftig draaien.

Nvidia is misschien soms wel prijs/prestaties duurder dan ATI, maar als je echt max performance wilt wint Nvidia toch wel.

Dan heeft Nvidia nog de troeven van CUDA, PhysicX
Alleen jammer dan de 6 serie niet sterk genoeg was voor SM3.0.Nu heeft ATI wel dx10.1 kaarten die er toch voordeel van bij een aantal spellen. Zijn er nog niet veel, maar aangezien dx11 ook dx10.1 ondersteund. Zal een dx11 spel wel beter lopen op een ATI kaart.

Nvidia's physics word ook niet echt goed ondersteund door spellen. De spellen die er goed gebruik van maken zijn op 1 hand te tellen,

Bij de launch van de 4850 was de GTX280 toch een stuk duurder dan 2 4850's in Crossfire terwijl die combo sneller en goedkoper was dan een GTX280.

De voorbeelden die jij opnoemt heeft bijna niemand.Een single GTX280/4870x2 komt net wat vaker voor. Bovendien had ATI met de 4870x2 wel een poosje de snelste kaart op de markt. Nvidia komt later wel met een GTX 295, maar daar waren er maar een beperkt aantal van.

[Reactie gewijzigd door jean willem op 25 juli 2024 21:31]

of ATI verkoopt nog even wat langer zijn 4xxxx kaarten.
Nope zie ook de HD4770 op 40nm. ATi zal de HD58xx dan gewoon in de markt zetten. Dan hebben ze de snelste kaart op de markt. Ze gaan echt niet 4 maanden wachten tot nvidia ook klaar is met hun kaart. nVidia heeft dat ook niet bij de HD2900 gedaan. Die kwamen ook meteen met hun 8800 GTX op de markt.
Tuurlijk niet!

Waarom zouden ze hun 4 serie langer verkopen. Omdat ze dan tegelijk met NVidia hun nieuwste kaarten kunnen brengen?

Als ATI de kans krijgt om zijn superkaarten weer aan de man te brengen dan nemen ze die kans.

Jij wacht toch ook niet met je limonadekraampje op je buurman die een marktsegment van je af kan pakken. Nee je wilt eerder zijn. Je wilt vernieuwing brengen. En je concurrend een stap voor zijn.

[Reactie gewijzigd door Dograver op 25 juli 2024 21:31]

Spijtig, nu twijfel ik nog meer om toch een GTX285 te kopen in plaats van te wachten op de GT300.
Ik heb zelf net een (Gainward) GTX275 gekocht, en nu ik dit bericht lees stemt me dat nog meer tevreden dan ik de juiste keuze heb gemaakt.. En als ik jou was (en kennelijk aan een upgrade toe bent) zou ik ook voor een 275 kiezen i.p.v. 285.. Die is een stuk goedkoper (scheelt zo 100 euro) en met een beetje overklok zelfs sneller dan een (standaard) 285..
Nou als je nog meer dan een half jaar wil wachten... En dan zal je zien dat er weer nieuwe kaarten aangekondigd worden en zo kan je nog wel even door gaan. Als je van plan bent een nieuwe kaart te kopen zou ik nu voor de 285 te gaan ipv maar te blijven wachten.
Iemand al enig idee hoe het gaat zitten met de prijzen van de GT300 kaarten? Nu net een 295 besteld, dus ik ben er zelf niet rouwig om dat het wat langer gaat duren met de nieuwe serie (ik vermaak me wel). Wel zonde dat NVidia wat marktaandeel kwijt zal raken op deze manier (toch wel een beetje fan van NVidia).
Het is voor 99,99% van de lezers hier onmogelijk om te weten of dit waar is of niet, er zijn altijd mensen met connecties.. ( lees: Journalisten). Veel bedrijven kunnen ze als kiespijn missen, omdat ze toch altijd roet in het eten gooien van een wel-geplande release datum en alle spanning er dan af is.

Aan een beetje speculeren heb je niet veel. Fudzilla is betrouwbaarder wat geruchten betreft, maar zoals ''in het verleden behaalde resultaten bieden en garantie voor toekomst '' betekent dit niets. Van Gaal en Hiddink hebben ook niet overal voor succes gezorgd ,dit zal geen garantie zijn voor toekomstige clubs/naties.
Het heeft nu toch weinig zin om je te haasten met een nieuw model omdat de consumenten op hun centjes aan het letten zijn op het moment. Denk dat je dan beter aan je budget modellen kan blijven sleutelen.
Misschien dat Windows 7 nog van invloed is en als die uitkomt je ook moet zorgen dat je nieuwe lijn beschikbaar is voor de mensen die besluiten een heel nieuw systeem te kopen.

Op dit item kan niet meer gereageerd worden.