Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 62 reacties

Nvidia's volgende generatie gpu's zou gebaseerd zijn op een fundamenteel andere architectuur dan de huidige GT200- en de G9x-series, die beide op de G80 geŽnt zijn. De nieuwe gpu's zouden over 512 shaders beschikken.

De website Bright Side Of News heeft in samenwerking met Hardware-Infos informatie omtrent Nvidia's GT300 weten los te peuteren. De overstap van de SIMD- naar de MIMD-architectuur was al  bekend, maar naar het aantal shaders bleef het gissen. De huidige topmodellen beschikken over maximaal 240 shaders en dat aantal zou naar 512 verhoogd worden. Volgens BSN moet er vanwege de nieuwe MIMD-architectuur echter eerder van 'floating point units' gesproken worden dan van shaders. De nieuwe verwerkingseenheden in de nieuwe gpu zouden meer weghebben van de fpu's in bijvoorbeeld Intels en AMD's cpu's, dan van de shaders zoals die nu in grafische chips worden gebruikt.

De nieuwe gpu zou opgebouwd zijn uit zestien units van elk 32 shaders. BSN kon geen indicatie van de eventuele kloksnelheid van de shaders geven, maar stelt wel dat als een dergelijke chip op 2GHz wordt geklokt, een snelheid van 3 teraflops haalbaar is. Nvidia behaalt met zijn huidige shaders snelheden van rond de 1,5GHz, maar of het die snelheid kan vasthouden is nog niet duidelijk. De nieuwe architectuur zorgt overigens ook voor verbetering van de communicatie tussen de shaders onderling, en met name gpgpu-applicaties, zoals CUDA, zouden hier hun voordeel mee kunnen doen. De verwachting is verder dat de MIMD-architectuur voor een flinke versnelling van dual-precision floating-pointberekeningen kan zorgen. Een releasedatum werd niet genoemd, maar volgens geruchten zou Nvidia nog dit jaar met de nieuwe gpu op de proppen komen.

Moderatie-faq Wijzig weergave

Reacties (62)

Maar als AMD al 800 cpu'tjes heeft terwijl ze dan beide dezelfde structuur gebruiken, wat is dan de winst..? Of zie ik iets totaal over het hoofd? 512 <---> 800?
ATi GPU's werken op een andere manier dan die van nVidia

Uit het Het ATi HD4XXX Serie Ervaringen Topic - Deel 8 topic.
Shader?

Laten we beginnen met de term 'Shader' gebruiken om een SPU aan te duiden fout is. Een Shader is de software code wat door een SPU word afgehandeld. Een SPU is de afkorting voor Shader Processing Unit. Bij de architectuur van ATI bevat een Shader Processing Unit, 5 Shader Processors.
Wanneer men dus spreekt over 800 Stream processors, betekend dit 160 Stream Processing Units(800=160x5).

Maar Nvidia heeft er maar 240 shader processors, waarom is de ATI met 800 shader processors dan niet 3x zo snel?

Nvidia gebruikt een heel andere architectuur dan ATI. Waarbij ATI geen 800 SPU's heeft, maar 160. De vergelijking is dus 240 voor de GT200 tegen 160 voor de RV770. Het grote verschil is dan dat de SPU van ATI 5 bewerkingen kan doen en de Nvidia er 1. Een ander groot verschil is dat de SPU's van Nvidia op een andere clocksnelheid draaien dan de rest van de core, terwijl deze bij ATI op dezelfde snelheid draaien. Als men dus een 750mhz ATI SPU vergelijkt, met een 1500mhz Nvida SPU, dan kan de Nvidia 2 bewerkingen uit voeren in de tijd dat ATI er maar 1 kan uit voeren. Het verschil is dat als de code goed geoptimaliseerd is, de ATI geen 1 bewerking doet, maar 5! Anandtech heeft een hele mooi plaatje, die dit demonstreert.

http://images.anandtech.com/reviews/video/ati/4800/ilp.png

Hier zie je dus dat 1 SPU van ATI meer bewerkingen doet, terwijl de Nvidia er steeds 1 doet. Door dit verschil in code optimalisatie, werkt de ATI in sommige games beter dan Nvidia en vice versa.
Verder hier een afbeelding van een RV770 & RV790 Blokdiagram en eentje van de GT200


RV770 & RV790 Blokdiagram

GT200 blokdiagram in 3D-modus

Verder is mijn persoonlijke mening dat beide fronten het goed doen. Beide maken ze goede snelle videokaarten voor een betaalbare prijs. Ze houden elkaar in balans en de een doet niet onder voor de ander. Ik zeg : kom maar op met die nieuwe generatie videokaarten. :P

[Reactie gewijzigd door n0elite op 23 april 2009 20:05]

Tja, had ik natuurlijk zelf op kunnen zoeken. Maar ik bedoelde die nieuwe methode die in dit nieuwsbericht is aangekaart. In ieder geval bedankt voor het uitgebreide antwoord. :)
Er staan toch links in het bericht met uitleg over de nieuwe methodes? |:(
Als het goed is lopen ATI's MIMD-shaders op dezelfde kloksnelheid als de GPU zelf. Het kan best zijn dat, zoals in het artikel wordt gesuggereerd, dat de nieuwe MIMD-shaders van Nvidia op een hogere kloksnelheid dan de GPU lopen, zoals nu bij de SIMD-shaders ook het geval is.

Ook kan de structuur van de Nvidia-shaders anders zijn dan de ATI-shaders (bijvoorbeeld dat een cluster twee ipv een unit heeft die alle operaties kan). Hoewel de clusters allebei MIMD worden, wil niet zeggen dat ze identiek (en dus op aantal vergelijkbaar) worden.
ATI's MIMD-shaders
Ik wil niet lullig doen, maar euh... als je niet weet waar je het over hebt zou ik niet dat soort terminologie gaan gebruiken ;) No offence :)

Ten eerste, shaders zijn stukken code die (door je GPU) worden uitgevoerd tijdens het renderen. Je shader processors (of Stream processors, om marketing terminologie aan te houden) "shaders" noemen is ongeveer gelijk aan je CPU-cores "code" noemen.
Ten tweede, volgens mij weet je niet wat MIMD is, wat SIMD is, en hoe ze op dit moment in moderne GPUs gebruikt worden. Een SIMD eenheid is een stukje logica op een processor die 1 operatie op meerdere gegevens (single instruction, multiple data) kan uitvoeren. Zo heeft NVIDIA's G200 "streaming multiprocessors" (SM) met een 8-brede SIMD eenheid. Deze SM kan dus elke klok 8 keer dezelfde operatie uitvoeren op bijvoorbeeld 8 pixels (simpel gezegd, de praktijk is complexer). G200 heeft in totaal 30 van deze SMs, elk 8 breed.
NVIDIA wil echter graag doen alsof dat allemaal apparte "cores" zijn, dus noemen ze het stream processors, en claimen ze dat er (8*30=)240 SPs op een kaart zitten. Onzin dus.* De zwakte van SIMD units is namelijk dat ze niet flexibel zijn. Als je een opteloperatie wilt uitvoeren op 4 stukken data, en een vermenigvulding op 4 andere kan dat niet in een keer, dat moet in twee keer. Eerst moet de opteloperatie worden uitgevoerd op de eerste 4 stukken data, daarna vermenigvuldiging op de tweede vier.

Wat MIMD hier anders maakt is dat elke eenheid in de MIMD unit hier wel degelijk een eigen instructie kan uitvoeren (multiple instruction, multiple data). Hier is het dus wel mogelijk om de bovenstaande operatie in een keer uit te voeren. De eerste vier eenheden krijgen een opteloperatie en de andere vier eenheden kunnen de vermenigvuldiging uitvoeren.

Waarom zijn GPUs dan niet vanaf het begin MIMD geweest? Om dezelfde reden dat G300 dat ook niet gaat worden (ik geloof voorlopig nog niks van die onzin uit dit artikel), namelijk kosten. MIMD eenheden zijn vele malen complexer dan SIMD, kosten veel meer data, bandbreedte en uiteraard transistoren. En dat terwijl de voordelen helemaal niet zo groot zijn, zeker niet voor gewone grafische operaties.

* Overigens is dit bij ATI het zelfde verhaal, RV770 heeft gewoon 10 SIMD cores die elk 16 eenheden hebben, die weer uit 5 kleinere eenheden bestaan. 10 * 16 * 5 = 800 "SP's"
En dat terwijl de voordelen helemaal niet zo groot zijn, zeker niet voor gewone grafische operaties.
Ik dacht aanvankelijk ook dat het geen steek hield, maar NVIDIA wil al een tijdje een doorbraak met generic computing. Denk hierbij aan werkelijk grote delen van een programma (een spel of iets anders) op de GPU draaien. Daarvoor zijn SIMD eenheden niet nuttig omdat die enkel (zeer) efficiŽnt zijn met grote aantallen elementen (zoals pixels) die allemaal dezelfde bewerking ondergaan (zoals je zelf al aangeeft). Denk ook aan ray-tracing, waarbij de kans groot is dat elke ray z'n eigen weg volgt en de latenties van geheugentoegangen zeer variabel zijn.

Anderzijds moet de kost van MIMD-eenheden niet overschat worden. Larrabee zal in staat zijn om per core (wellicht 24), vier threads te draaien. Dan zit je al aan 96 threads. Die gebruikt wel SIMD-eenheden van 16 breed per core, en ondersteunt ook x86 instructies. NVIDIA kan veel compactere cores maken met vectoreenheden van slechts 4 breed, en dan is 128 cores verre van ondenkbaar en nog steeds erg efficiŽnt.

Maar NVIDIA kan ons ook gewoon voor de aap houden. :P In de discussie rond unfied shaders hielden ze ook tot het laatste vol dat een gesplitste architectuur veel troeven heeft...
Ehm, je bent wat kort door de bocht als je stelt dat NVidia geen MIMD ondersteunt. Ze ondersteunen dat namelijk wel degelijk: 30 instruction streams op 240 data streams. Dit is een redelijk slim compromis tussen 1 instruction stream op 240 datastream (SIMD, niet flexibel) en 240 instruction streams voor 240 datastreams (N:N MIMD, te duur)
Ik ben vooral benieuwd of met deze nieuwe architectuur ook meer rekening is gehouden met het energieverbruik. Als dat in combinatie met snelheid goed kan worden gerealiseerd kun je denk ik echt spreken van een concurrerend product.
Reken maar. NVIDIA en ATI weten dondersgoed dat ze langzaam maar zeker tegen een de muur van energieverbruik aanlopen. In de afgelopen jaren is het verbruik van een GPU flink gestegen, en nu is 300 Watt toch wel echt een grens aan het worden. Jammer genoeg schalen nieuwe procedees ook niet zo goed qua energieverbruik, dus het aantal transistors per mm2 verdubbelt wel, maar het energieverbruik daalt veel minder. Reken dus maar dat verbruik echt wel is meegenomen in het ontwerp van nieuwe chips.
dus het aantal transistors per mm2 verdubbelt wel, maar het energieverbruik daalt veel minder
Dat is het hele probleem. In plaats van een kleiner procede te gebruiken om energiezuinigere chips te bakken, gebruiken ze allemaal, zonder uitzondering het kleinere procede om de chips 2 keer zo groot te maken. En dan is het niet zo gek als dat de nieuwe chips opeens ook een stuk minder zuinig blijken te zijn.
Wat zeg ju nu allemaal: AMD gebruikt toch het nieuwe procede (40nm) om een energiezuinige chip te maken. Zie de HD 4770.
Voor de mensen die iets willen die minder verbruikt, zijn er toch gewoon de low-end kaarten. AMD (Nvidia niet met hun laatste design) ontwerpt gewoon een chip voor de high-end die veel verbruikt, en ontwerpt ook kaarten voor de mid-end en low-end die veel minder verbruiken.

[Reactie gewijzigd door penetreerbeer op 24 april 2009 12:25]

Als je energiezuinig wil, kan dat tegenwoordig ook al hoor. Koop je toch een HD4350 of een 9400GT? Oh je wilt ook nog fatsoenlijk kunnen gamen? Sja dat is naar voor je. Energiezuinig en hoge prestaties gaan gewoon niet hand in hand.
Energiezuinig en hoge prestaties gaan gewoon niet hand in hand.
Kom kom, dat zeiden ze ook van de zwaarverbruikende Pentium 4.
En plots was daar de snelle maar veel zuinigere AMD K8 chip. Ook de Pentium M (weliswaar iets trager, maar nog veel zuiniger) bewees dat het kon. Dus.

[Reactie gewijzigd door Fireshade op 24 april 2009 14:58]

Goed nieuws! De huidige architectuur was nu toch echt wel uitgemolken.
Als deze ook echt in de buurt komt van de 3 teraflops mag AMD toch wel met een goed antwoord komen. Waardoor er weer dikke concurrentie is, heerlijk :)
De standaard HD4890 haalt de 1,36 teraflop, dus als ze hem "slechts" twee keer zo snel maken zijn ze er al ongeveer. Lijkt me in principe wel te doen, omdat dit model al zo makkelijk overklokbaar is en ze dus nog wel wat in petto hebben qua techniek.
'Slechts' twee keer zo snel? Persoonlijk zie ik AMD nog niet zo snel met een passend antwoord komen op een kaart die twee keer zo snel is dan de HD4890, aangezien dat een beetje de snelste kaart is die AMD in huis heeft...

Ik hoop dat Nvidia achter de scherm de afgelopen maanden bezig is geweest aan iets moois, want ik heb het idee dat ze een beetje achterbleven en ATi maar aan blven gapen.. Een nieuwe architectuur moet voldoende mogelijkheden bieden voor een comeback van Nvidia denk ik zo! }:O
Het is niet anders dan logisch dat Nvidia een flinke hoeveelheid tijd in R&D heeft gestoken voor een nieuwe architectuur. de G80 kan maar zo ver schalen net als een Pentium chip ook maar tot op een bepaalde hoogte kon worden op gerekt...

Maar ook AMD zal heus niet alleen op hun huidige architectuur gokken en gewoon hard aan het werk zijn om hun nieuwe architectuur de R&D deur uit te krijgen.

Ik gok er op dat Nvidia als eerste op de markt komt met haar nieuwe ontwerp, AMD lijkt iets achter te liggen. Het AMD antwoord op de G80 core duurde ook even maar hun huidige processor kan Nvidia's G80 nu toch zeker bijhouden zo niet rond uit verslaan. Ik neem aan dat een soort gelijk iets weer gaat gebeuren in 2010/2011

De volgens mij veel interesantere vraag is, wat gaat Intel doen? Zij komen in de eerste helft van 2010 voor het eerst in jaren met een eigen discrete GPU op de markt. Volgens Intel gaat het ding de wereld veranderen... nu roepen ze dat natuurlijk wel vaker (Itanium iemand)
Maar toch de aanpak is totaal anders als bij Nvidia en AMD, Intel geeft ook al jaren aan dat het veel meer ziet in ray tracing dan in de huidige raster aan pak van AMD en Nvidia. Nu heeft Intel ook al toe gegeven dat op dit moment real time ray tracing meer toekomst muziek is dan een optie maar het is wel de toekomst al dus de jongens en meisjes uit het blauwe kamp.

Ik heb geen idee wat we echt van Intel moeten verwachten, het kunstje dat ze geflikt hebben met hun Core ontwerp is heel erg knap. AMD kwam steeds dichter bij Intel in prestaties en ging ze zelfs even voorbij met hun processoren. Intel gooide de Pentium de prullenbak in en kwam met het Core ontwerp waarmee ze het AMD nu al een tijd knap lastig weten te maken.
Op de GPU markt heeft Intel anders dan het grootste aandeel IGP's niets te vertellen maar ze willen wel graag een flinke hap nemen uit die miljoenen taart die nu bijna geheel van Nvidia en AMD is. Dus laten we hopen dat ze ook hier een soort gelijk truckje kunnen uithalen mischien niet met de eerste versie van hun ontwerp maar met de tweede of derde. Als consument is het alleen maar fijn als er meer concurentie is en de prestaties van de producten daar door opgedreven worden, terwijl de prijs naar beneden gaat natuurlijk.

[Reactie gewijzigd door Rob Coops op 23 april 2009 21:41]

Als consument is het alleen maar fijn als er meer concurentie is en de prestaties van de producten daar door opgedreven worden, terwijl de prijs naar beneden gaat natuurlijk.
En toch vraag ik me af of het wel zo goed is dat die concurrentie juist van Intel af moet komen. Stel, ze maken een mega kaart die prestaties van NVidia en AMD weet te overtreffen en een goeie prijs heeft dan gaat Intel nog meer geld "afpakken" van AMD (en NVidia, maar die is in de eerste plaats wat minder belangrijk). Dat betekent dat Intel op zowel CPU en GPU voor gaat liggen... ik denk dat dat zeker NIET gezond gaat zijn voor AMD en dus ook niet voor de concurrentie. AMD gaat over de kop en dan word het Intel vs NVidia en je weet natuurlijk al dat dat niks gaat worden natuurlijk. Helemaal niet omdat NVidia (nog) geen CPU's maakt. Meeste consument hebben toch graag alles van hetzelfde merk bij elkaar. Asus moderbord i.c.m. Asus videokaart. En op een AMD chipset met AMD proc gooien ze ook meestal geen NVidia GPU. Uiteindelijk is het Intel dat overblijft.
Dus Ja, in het eerste jaar leuk voor de consument, lange termijn uitermate slecht voor de consument.
Als ATI het volgens jou niet kan, kan nVidia het dan soms wel?

Wacht maar gewoon op de kaarten/benches.

Overigens is nVidia wat prestaties betreft nu helemaal niet zo gek bezig. Ze pakken het alleen erg stom aan wat kaarten betreft.

Eerst een GTX260, komen ze erachter dat ie toch niet snel genoeg is, maken ze een 216 versie. Blijkbaar is 65nm ook niet goed genoeg, komt er een 55nm versie. Blijkt die ook weer niet snel genoeg moet er een GTX275 komen. En met die kaart zitten ze erg dicht tegen de (EOL) GTX280 en GTX285 aan.

Wat dat betreft heeft ATI het slimmer gedaan vindt ik. Die hebben langer gedaan met de HD4850 en HD4870. De X2 versie was al gepland, en de HD4830 heeft weinig gekost wat research betreft. Alleen de HD4890 heeft dan weer onwikkelingskosten gemaakt, maar maakt tenslotte ook weer plaats voor de HD47xx serie. De HD47xx serie betekent in lijn van wat je kunt verwachten een goedkopere chip en alvast ervaring op het 40nm procede. Daarbij komt dat de pcb ook weinig kost vergeleken bij een HD4830/HD4850 pcb. Ook GDDR5 zal wss niet gek duur meer zijn. Hierdoor is het niet zo erg dat vergelijkbaar presterende kaartjes al rond de 100 euro zitten, gezien zij uiteindelijk er toch het meeste tussen uit zouden moeten houden.
De HD4890 maakt plaats voor een HD47XX zeg jij? Naar mijn weten is de snelste HD47XX de HD4770 en die komt qua prestaties in de buurt van de HD4850.

De HD4890 is en blijft de snelste (single GPU) kaart van Ati totdat de RV870 in de tweede helft van dit jaar om de hoek komt kijken.
AMD/Ati heeft dan er dan ook bewust voor gekozen om geen high-end chip te maken
het topmodel is de X2
het grote geld zit hem namelijk in de kaarten net onder de high-end die goed verkopen, dat de 4870 en de 4890 zo goed meekunnen in de high-end komt gewoon omdat de GTX280 zo "traag" is
GTX280 = 576 mm≤
HD4870 = 260 mm≤
met een chip die meer dan 2x zo groot is, 10-20% sneller zijn, dat is gewoon triestig (en slecht voor de winstmarge)
maw, AMD maakt een HD4870X2 voor de prijs dat nVidia een GTX280 maakt...
de pcb zelf zal +/- evenveel kosten, maar AMD maakt dus gewoon meer winst op z'n kaarten

[Reactie gewijzigd door catfish op 23 april 2009 19:58]

Dat heeft ook wel met andere zaken te maken zoals de warmte ontwikkeling en energie dat die kaart verbruikt.

Een kleinere opp en zoveel meer energie verbruiken is pas triestig :|
net alsof die paar die-hards met een GTX295 of HD4870X2 wat geven om het energiegebruik, mensen met een 1000W voeding in hun pc vinden dat niet erg
chip oppervlake is heel belangrijk, die kost namelijk geld: als jij hetzelfde kan bereiken op minder oppervlake (ook al is het verbruik hoger), heb je morgen direct een job bij een high end chip maker
AMD/Ati heeft dan er dan ook bewust voor gekozen om geen high-end chip te maken
het topmodel is de X2
het grote geld zit hem namelijk in de kaarten net onder de high-end die goed verkopen, dat de 4870 en de 4890 zo goed meekunnen in de high-end komt gewoon omdat de GTX280 zo "traag" is
GTX280 = 576 mm≤
HD4870 = 260 mm≤
met een chip die meer dan 2x zo groot is, 10-20% sneller zijn, dat is gewoon triestig (en slecht voor de winstmarge)
maw, AMD maakt een HD4870X2 voor de prijs dat nVidia een GTX280 maakt...
de pcb zelf zal +/- evenveel kosten, maar AMD maakt dus gewoon meer winst op z'n kaarten
En wat kan de consument dat schelen? Oh jee, mijn chip is 2x zo groot als die van ATI. Of NVIDIA maakt minder winst van ATI per chip.
Big deal allemaal, kopers van deze chips zijn enkel maar geÔnteresseerd in prestaties.
AMD/ATI komt nog met een 4890X2 dacht ik? Dat zal dan niet twee keer zo snel zijn maar wel 1,5x als het een beetje meezit. Maargoed, waarschijnlijk is AMD/ATI achter de schermen ook lekker bezig en zullen ze zich vast wel voorbereiden op een nieuwe slag van nVidia. Plus dat een release niet gegeven wordt en over zo'n lange tijd kan van alles gebeuren in beide kampen.

De laatste tijd is het juist een stuk beter in balans gekomen met de videokaartmarkt, twee jaar terug had je de 8800GTX als snelste kaart en was het lang wachten op een vervanger. Nu is de concurrentie lekker bezig, de prijzen voor een goede videokaart zijn tijden niet zo mooi (laag) geweest. Laat die "comeback" van nVidia maar even waaien als je het mij vraagt en gewoon rustig zo doorgaan.

[Reactie gewijzigd door Freaky Maus op 23 april 2009 20:04]

1 Wat zeggen tflopts ? niets nu ook al niet.
2: Dit zijn geruchten hier hoeft niets van waar te zijn
3: Volgens geruchten zou de RV870 1.9 Tflop doen en die is meteen klaar om als x2 gebruik te worden dus 3.8 tflop maar ook hier weer geruchten dus wat is er van waar ?

Ik zou dit artiekel met een vrachtwagen vol zout nemen. Het is nog veel te vroeg en ook niet nVidia's stijl om dit soort info uit te lekken.
Dit gerucht zou best wel eens waar kunnen zijn, want in het orginele artikel staat dat ze hebben gewacht met het naar buiten brengen van dit niews tot ze bevestiging hadden van meerdere bronnen.
Ze hebben het dus niet zo uit de lucht gegrepen en bovendien klinkt het erg aannemelijk.
Ik verwacht zelf eigenlijk ook iets spectaculairs van nvidia, aangezien ze nu al een tijdje achter de feiten aanlopen.
een gerucht dat waar is noemt men een feit. :)

en iets spectaculairs van nvidia zou helemaal niet slim zijn. de gtx280 was ook spectaculair. snel, groot en duur. ati kwam met iets simpels, niemand verwachte er iets van. en ineens had ati een heel sterk performande kaart die goedkoop te produceren was met een goedkope PCB.

als je bedenkt dat ati hier 5 jaar over gedaan heeft. en stel dat nvidia al die 5 jaar zijn ontwikkelteam met dezelfde instelling het lab in heeft gestuurd, komen ze dus nu weer met een enorme grote chip die men later naar midrange en budget wil downscalen. maar zoals bij de gt200 is dit niet zo efficient als met de rv770.
De ontwikkeling van de RV770 was volgens mij iets van 3-4 jaar ja. Dus de GT300 was al een heel eind toen nVidia er achter kwam wat ATi aan het doen was. Ik verwacht ook dat nVidia pas over een jaar iets heeft aan kunnen passen aan de tactiek van ATi dat duurt gewoon even omdat je een lang ontwikkel traject hebt.
Tja maar maar goed dat zou ik ook kunnen beweren snap je. Dus wanneer weet je zo iets zeker ? Ik ken die site ook niet. Maar goed dat hoeft niet meteen wat te betekenen.

Ik zou maar voorzichtig zijn dan voorkom je teleurstelling. nVidia wil natuurlijk ook niet te hoge verwachtingen scheppen want als ze die dan niet na komen is dat niet goed voor de verkopen. Het kan beter andersom zijn zoals bij de RV770.

[Reactie gewijzigd door Astennu op 24 april 2009 09:12]

Goed nieuws! De huidige architectuur was nu toch echt wel uitgemolken.
Wat is dit nou weer voor onzin. Alleen omdat NVIDIA G92 blijft hergebruiken is de complete architectuur "uitgemolken"?

Vertel me dan eens wat er precies mis is met de "huidige architectuur", en wat er veranderd moet worden?

EDIT: Hoezo ongewenst? epTa komt hier aan, roept zonder enige onderbouwing dat G80/G92/G200 (die overigens hele verschillende architecturen hebben) "uitgemolken" zijn, en laat het daar bij. Dat komt op mij over als dom napraten van sentimenten in plaats van inhoudelijke kennis. Dus als hij wel degelijk weet waar hij het over heeft zou ik graag willen weten waarom hij denkt dat er iets fundamenteels mis is met deze architecturen. Ik denk namelijk dat een G200-gebaseerde architectuur, geoptimaliseerd voor het 40nm procedee, met meer SMs, TMUs, ROPs, en GDDR5 ipv GDDR3 controllers, zeker een goede kaart zal opleveren. Wat zou er zo nodig anders moeten?

[Reactie gewijzigd door Snoitkever op 24 april 2009 10:18]

Dat NVIDIA deze architectuur kan blijven gebruiken zeg meer over het gebrek aan concurrentie.
Helemaal mee eens, maar dat is een andere discussie. Ik had ook graag gezien dat alle geruchten over de G21X chips waarheid zouden worden, maar dat is heel wat anders dan claimen dat de complete architectuur uitgemolken is :)
Vraag me af hoezeer ze zich hier al op raytracing gaan richten zoals op Intel's aankomende Larrabee (omdat dat een andere architectuur vereist dan de huidge rasterization gerichte GPUs). We hadden vandaag een gastspreker op de universiteit die een van de Nederlandse experts op het gebied van raytracing is, en hij zag daar wel de toekomst in. Hij had zelf ook een real time raytracing demo ontwikkeld die op gamedev.net te vinden is :)
raytracking hebben zowel ATI als nvidia al laten zien op de huidige en zelfs vorige generatie hardware. de shader-cores zijn daar nu al prima voor geschikt.
hoet moeten er alleen nog meer worden, en misschien wat sneller lopen maar dan zou real-time raytracing games mogelijk moeten zijn.

[Reactie gewijzigd door Countess op 23 april 2009 20:14]

Och jee hoor ze hebben ook een artiekel van iemand gevonden. En dat zo even gepost alsof het maar meteen waar is. (volgens mij uit het nVidia topic)

Ik zou oppassen met dit soort berichten want het is nog veel te vroeg om zo erg in detail te treden voor zo'n nieuwe GPU. De kanst ik heel groot dat hier niets van klopt.

Het begint hier meer op fudzilla te lijken. Berichten worden gewoon gepost en er wordt niet gekeken of die dingen wel kloppen. Meer een site vol met roddels.

Ik heb in dat opzicht liever de oude tweakers weer terug.
Er staat duidelijk bij dat het een gerucht is. T.net post al jarenlang geruchten, zo veel is er niet veranderd. Maar ik kan begrijpen dat ATI fans deze geruchten niet zo graag lezen, en dat is wat je dwars zit niet?
u vraag me af. als dit een MIMD architectuur is.
zou hij dan ook geschikt zijn voor raytracing.
als de FPU's zoveel lijken op een CPU. en als de cache dan groot genoeg wordt.....

dan heeft larrabee een probleem.
hoop dat de geruchten kloppen 512 en multiple instructions klinkt in iedergeval erg netjes
de larrabee gaat uit van de x86 instructie-set, dus die heeft altijd al een probleem.
intel moet zich dus gaan houden aan verouderde x86 extensies die je eigenlijk niet meer wilt gebruiken.

AMD/Nvidia kunnen met hun gpu's totaal opnieuw beginnen, en een totaal andere instructie-set gebruiken die niet vast zit aan oude instructies (sse1/mmx etc).
Hoezo heeft Intel een probleem? Als ze iets geleerd hebben de afgelopen 10 jaar, dan is het dat compilers doorslaggevend zijn. x86 heeft uitstekende compilers. Itanium heeft prutscompilers (in vergelijking). Larrabee begint met betere compilers dan NVidia tegen die tijd heeft.
Maarre,

Dit is dan op 40nm gebakken toch?
Dan halen ze de 2Ghz misschien wel. (of dichtbij)

G80 is stokoud, Nvidia heeft genoeg tijd gehad om wat beters te maken dat veel sneller is imo.
Ati ging zojuist van 640 (3870x2) naar 1600(4870x2) shaders, kan Nvidia ook wel imo
En X2's maken ze ook dus... +-5 Tflops moet kunnen. 8-)

Ik geniet nu echt van mijn Ati, maar dit bericht draait mijn hoofd toch wel even :)
(droom terug naar de 6800GT/ultra tijden)

Edit: Ik zie dat de titel onzin blijkt: Nvidia's GT300-gpu krijgt 512 shaderprocessors?
Is dat door Nvidia gezegd dan? Poster 8)7

[Reactie gewijzigd door 20481536gamer op 23 april 2009 20:06]

Och die goeie oude tijden dat ze het nog mogelijk maakten om shaders te unlocken!
Ze hadden toen gewoon nog niet bedacht dat het slimmer was om hardwarematig de videokaarten aan te passen ipv van softwarematig. ;)
Of een truc, beter een 6800LE verkocht die dan maar geunlocked wordt dan een ATI kaart in datzelfde systeem.

Zo ook AMD met zijn X3's die ondanks dat het lang niet op elk bordje lukt wel een flink aantal Pll X3 processoren verkocht.
Ik wil niet heel erg dom klinken, maar als de videokaarten in de toekomst op bijvoorbeeld 40nm gebakken worden, zorgt dit er dan ook voor dat het energieverbruik van de videokaarten afneemt en/of de videokaarten kleiner worden? Ik zelf vind het niet zo erg om een energieslurpende kaart te hebben, maar het is toch wel prettig als je bij aanschaf van een nieuwe videokaart geen nieuwe voeding voor hoeft te kopen of kast.
Dat is allemaal maar afwachten.. meestal als er van een bestaand product een die-shrink wordt gedaan dan schroeven ze meteen de kloksnelheden omhoog en blijf je op hetzelfde verbruik zitten als voor de die-shrink..


De kaarten zelf zullen waarschijnlijk in ieder geval niet kleiner worden denk ik.. En jah gamen kost energie..

Ik ben zelf in het bezit van een 700 watt voeding en was zelf niet echt van plan om nog veel hoger te gaan.. ik vind een 700 watt voeding wel de max.. En als je geen Tri-SLI of Quad-SLI draait moet dit genoeg zijn.
Ja, dat betekent het, maar alleen indirect. Gamers willen namelijk veel performance, en dat betekent nu eenmaal onvermijdelijk veel energieverbruik en grote kaarten. Dat zal dus niet veranderen voor 40nm, betekent alleen dat je meer performance voor je geld krijgt.
Voor de minder koopkrachtige gamers zijn er echter ook mid-range en budgetkaarten, en die worden natuurlijk ook steeds sneller. Gevolg is dat je binnen afzienbare tijd een budgetkaart kunt kopen die even snel is als een high-end kaart van 1 a 2 jaar geleden, en deze kaarten zijn wel klein, zuinig, en ook nog eens goedkoop. Als je echter meer performance wilt zul je altijd aan veel verbruik, grote kaarten en hoge kosten vastzitten.
"G200 Stokoude technologie" ..... ach zolang een GTX285 nog altijd sneller is dan een HD4890 is dat een beetje overdreven :P .

Wel interessant dat Nvidia nu de overstap maakt. Maar met 512 eenheden tegen de huidig 800 van Ati zie ik niet heel veel potentieel eerlijk gezegd. 2 Ghz chip is mooi, maar eerst zien dan geloven.
Ati heeft een goede trend gezet waar Nvidia niet langer om heen kan. Een videokaart moet niet teveel verbruiken, redelijk geprijsd en makkelijk te koelen zijn. Daar is Nvidia in mee gegaan en we hebben nu dan eindelijk iets waar de consument wat aan heeft. Kaartjes met high-end prestaties in games voor rond de 200 euro met een redelijk stille koeling.

En voor de echte prestatie fanaten heb je alsnog opstellingen voor een exorbitant bedrag met top prestaties. Zo is iedereen blij. Persoonlijk neem ik genoegen met 30FPS op 1080P en dan heb je aan een kaartje van 200 euro genoeg. Daarom hoop ik dan ook dat Nvidia niet teveel op Ati uit loopt want daar heeft maar ťťn partij baat bij en dat is zeker niet de consument.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True