Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 99 reacties
Bron: The Inquirer, submitter: SergioG829

Als het aan ATi ligt, dan zullen gpu's in de toekomst de weg volgen die cpu's al een tijdje geleden in zijn geslagen: in plaats van een grote core met vele parallelle pipelines zal de toekomstige gpu bestaan uit meerdere kleinere cores.

ATi-logoIn de basis lijkt dit principe veel op het sli dat wijlen 3Dfx in 1998 al introduceerde en door nVidia in 2004 weer tot leven is gebracht. Hardwarematig zullen er echter een aantal aanpassingen moeten worden gemaakt en op het gebied van drivers zal er ook flink gesleuteld moeten worden. Het gerucht gaat echter dat ATi de 'geheime code' heeft gekraakt. Het plaatsen van meerdere kleine gpu's op een videokaart in plaats van één grote gpu heeft een aantal voordelen, zo kan er tijd - en dus geld - gewonnen worden bij het ontwikkelen van de chips, omdat de cores verkleind kunnen worden en er hiervan vervolgens meerdere op een videokaart kunnen worden geplaatst. Ook zorgt het ervoor dat videokaarten schaalbaarder worden, een budgetvideokaart kan worden voorzien van één mini-gpu, terwijl een videokaart voor het betere werk kan worden uitgerust met acht of zestien kleintjes. Hoe meer cores echter, hoe groter - en duurder - het pcb zal zijn.

Er gaan al meerdere weken geruchten over wat de codenamen zullen zijn voor deze nieuwe generatie ATi-gpu's, maar vooralsnog is er nog niks bevestigd. Wat ook nog niet bevestigd is, is of nVidia het voorbeeld van ATi zal gaan volgen met zijn G90-core. Indien dat het geval is dan lijkt het erop dat de R600- en G80-cores de laatsten in hun soort zullen zijn.

Moderatie-faq Wijzig weergave

Reacties (99)

Ik denk dat ze dit voornamelijk doen uit kostenbesparing. Om hoge yields met een core van 50 miljoen schakelaartjes te maken is vele malen makkelijker dan eentje met met 300 miljoen schakelaartjes.
Dat is nog maar de vraag natuurlijk.
Als ze 6 cores van 50 miljoen moeten produceren om er 1 van 300 miljoen te compenseren, dan zullen de yields van die kleine cores meer van 6 keer zo hoog moeten zijn. Immers, dat een core 6x zo klein is, betekend niet dat deze ook 6x zo goedkoop is om te produceren.
je ziet het verkeerd.
door 1 fout, kunnen er 300miljoen transistors in de prullenbak nu. met die kleinere cores zouden dat er maar 50 miljoen zijn, en hou je 5 cores over.
en aangezien je al die cores op een grote hoop kunt gooien en dan naar harte lust kunt combineeren maakt het niet uit hoeveel je er precies uit een waffer haalt.
Toch niet hoor, ik zie het heel erg goed :P
De 6 cores uit het voorbeeld zullen tezamen toch echt hogere yields moeten halen dan die ene enkele core om meer rendabel te zijn.

De vraag is dus: Zijn de yields van die kleine cores X keer zo hoog als die van grote cores bij behoud van dezelfde (cumulatieve) prestaties?

Jij gaat er voor het gemak van uit dat er, ongeacht of de cores groot of klein zijn, er evenveel fouten gemaakt worden. En dat per fout er bij de kleine cores minder verlies is. Maar het is lang niet zeker dat dit het geval zal zijn. Meerdere kleinere cores brengt namelijk later ook nog eens een ingewikkelder productieproces met zich mee waar ook nog de nodige verliezen kunnen optreden.
Nee, je ziet het echt verkeerd.

De kans op fouten in je productie is afhankelijk van het oppervlak van de core. Heb je gemiddeld 1 fout per cm^2 op je wafer, dan is de yield van een core van 1 cm^2 verschrikkelijk slecht. Gemiddeld hebben ze allemaal een defect te pakken! Maar als je 6 cores op diezelfde 1 cm^2 hebt, dan zijn er dus gemiddeld 80% in orde.

Je ziet op dit moment al dat men een zekere redundantie in de cores inbouwt. Een GPU met 4 quads wordt als 3 quad GPU ingezet op goedkopere kaarten. Daardoor kun je GPU's waarbij er een defect in één van de quads zit nog steeds gebruiken, en wordt de effectieve yield dus hoger. In zekere zin is dit hetzelfde idee als multi-core.
dit roep ik al sinds de komst van SLi. maargoed, op deze manier kun je ook physics laten berekenen door 1 of meerder cores op de videokaart.
op deze manier kun je ook physics laten berekenen door 1 of meerder cores op de videokaart.
Daarvoor doen ze het niet. Een G80 bijvoorbeeld bestaat uit acht clusters die elk een aparte taak kunnen uitvoeren. Meestal zijn dat vertex, geometry en pixel shaders, maar er zou ook één of meerdere met fysische berekeningen kunnen bezig zijn.

Een hele chip reserveren voor fysische berekeningen is zowiezo niet rendabel. Wanneer er geen fysische berekeningen gedaan worden blijft hij onbenut, en wanneer er zeer veel berekeningen moeten gedaan worden wordt de rest erdoor opgehouden. Beter is dus de taken te balanceren, zoals men al volop aan het doen is...
dat vind ik dan wel weer een brilliante opmerking..
dat is inderdaad iets waar ik persoonlijk wel oren naar zou hebbe, (bijv een achtkoppige kaart waarvan je er 2 voor physx kunt inzetten, waardoor je toch in zekere zin wel eens veel mooier (realistischer) beel zou kunne krijgen..
Plz, zeg me dat die dingen wat beter te koelen zijn en dat videokaarten nu ook naar de performance per watt gaan kijken....
Mijn 7900 GT is anders perfect koel en levert prima prestaties.

Het is gewoon een kwestie van wachten op de refresh met een kleiner proces. Ik heb weinig twijfel dat de 65 nm opvolger van de G80 ook prima te koelen zal zijn. Enkel de early adopters krijgen te maken met overmaatse koelers en dure elektriciteitsrekeningen.
Bij videokaarten is vrijwel de enige manier om het verbruik en de warmte ontwikkeling naar beneden te brengen;
Productie process kleiner maken.
zoals van 80nm naar 65nm.

Bij cpu's kun je dit op meerdere manieren;
daarbij spelen meerdere factoren bij de bepaling van 'snelheid' en warmte ontwikkeling.
Ik snap je redenering niet, wat kan een cpu wat een gpu niet zou kunnen en andersom? (qua warmtebeheersing dan) het is allebei gewoon een chip hoor en alle truukjes die ik tot nu toe bij cpu's heb gezien kunnen prima bij gpu's toegepast worden...
Misschien doelt hij op de load die bij een CPU onder normaal gebruik nogal varieert. Dit biedt ruimte voor dynamisch onderklokken en het terugschroeven van het voltage. Dit levert een enorme energiebesparing op. Pas na relatief lange tijd full load zal de koeling op 100% moeten draaien.

Bij een GPU is dit anders. Een GPU heeft minder load variatie tussen de toepassingen. Een spel belast hem vrijwel volledig of de GPU wordt helemaal niet gebruikt. Dit laat geen ruimte over voor dynamische instellingen tijdens het draaien van een grafische toepassing; daarvoor varieert de load op de GPU niet snel genoeg. Bij een CPU echter worden niet alle instructies even veel uitgevoerd. Je kunt bijvoorbeeld in een integer toepassing de FPU terugklokken en vice versa. Een GPU is wat dat betreft veel minder divers, want specialistischer.

Maar goed; je hebt ook wel een punt. Als er meerdere kleinere cores gebruikt worden kun je dit soort throttling ook per core gaan doen. Niet iedere scene in een game vereist evenveel rekenkracht. Hier zou je dus met de koeling kunnen gaan winnen en daarin onderscheidt de multi-core GPU zich niet van de multi-core CPU. Bij de sinlge core variant is dit echter anders.
Een GPU is prima minder zwaar te belasten en dat is heel goed dynamisch te doen. Verminder het aantal polygonen en de workload daalt en dus het energieverbruik ook. Parkeer een poppetje in een donkere hoek van je first person shooter en kijk eens wat dat met het energieverbruik van je videokaart doet.
Is het niet zo dat de frames per seconde dan gewoon omhoog schiet en dat de gpu toch 100% 'benut' wordt? mijns inziens is het meer een probleem die door software kan worden opgelost. De framerate hoeft nl niet hoger dan de refreshrate van je monitor te zijn. Veel games cappen het al maar lang niet alle. Een direct x aanpassing misschien voldoende? Als er op die manier toch variatie in de load ontstaat kunnen er ook cpu achtige trucs worden toegepast.
De framerate hoeft nl niet hoger dan de refreshrate van je monitor te zijn. Veel games cappen het al maar lang niet alle. Een direct x aanpassing misschien voldoende?
Dat is niet eens nodig. Voor zover ik weet, kun je zowel in de NV als in de ATi drivers vsync forceren voor D3D en OpenGL.
De huidige kaarten zijn toch perfect te koelen? :?
Ik draai waterkoeling op me X1900XTX omdat ie anders echt te heet wordt...
Je kunt gaan denken aan windows laten draaien op 1 gpu en de rest uitschakelen. En dat in spellen pas alle 16 cores aan het werk gaan...

Efficiënt en zuinig!
Misschien mis ik het punt, maar sinds wanneer draait windows op een GPU, volgens mij ben je in de war met een cell processor van IBM (CPU).

En nu vista er aankomt lijkt me dit iets onmogelijks, vista met full eye candy draaien op op een kleinstukje van de GPU...
Hij bedoelt (denk ik) dat als je in windows zit en dus zeer weinig GPU kracht nodig hebt, je 1 GPU gebruikt. En zodra je gaat gamen de rest inschakelt.
Zo overdreven veeleisend gaat vista nu ook weer niet zijn hoor, die eyecandy mode draait toch ook gewoon goed op een GeForce 6800GT, dus wanneer die multicore gpu's uitkomen zijn we weer enkel generaties verder, en dan is zo 1 core waarschijnlijk al krachtiger dan die goeie ouwe 6800GT...
Vrees ik voor... want wie zal zo'n hardware aanschaffen??
Idd ja, de mensen die het overgrote deel van hun tijd op de pc spenderen aan gamen...
Enkel de electriciteitsproducenten zullen er terug wel bij varen
of die andere 15 cores gebruiken voor een zware applicatie :)
Zo gek hoe ze met CPU vergelijken.

Warmte ontwikkeling was 'n puur intel probleem, onstaan door hun keuze voor netburst dat later warmte problemen gaf en geen performance daarvoor tov de competitie. Deze bad tegen marketing heeft gezordt dat iNtel die negatieve imago klap, contra gebruikt om er nee met oude vertouwede techniek voor marketing te hergebruiken: Zuinigheid Performance ratio.

AMD gebruikt dezelfde oude methode en is dus even zuinig of kan hetzelfde resultaat er uit halen.
Ze lopen meestal achter op produktie procses dat de roet in het eten gooid. En hierdoor Netburst ook wat gouden periodes had.

GPU hebben die Netburst alike history niet.
Minder vermogen houd daar in minder performance.
Want als de competitie wel die vermogen gebruikt dan how je zuinige chips met ook minder performance over.

'n midrange van 60 Watt vs 'n high-end van 130watt.
Uiteraard zijn de bekende mobile Core truckjes nog te doen maar dat kan de competitie ook.

Maar nV dubbelle clock stream prosesors hebben wel iets gemeen met Netburst. dubbel geklokte ALU.
Maar hou rekening. 'n Netburst transistor op 90nm liep 2x 3.8 Ghz. 'n stream Proc op 2x5??Mhz 1,? Ghz.
Voor Flankstijlheid 'n wereld van verschil. Hoefd voor nV nog niet te betekennen dat hun diezelfde problemen krijgen. En Netburst toch wel meer trucken er op los liet om die klokken te halen nodig had. Dus 'n ander soort Highspeed transistor en omliggende logic. Wat juist voor die lek en vermogen zorgt.

Gezien nV voor performance gaat met hun 130+ watt bakbeest. Misschien dat met G81 'n stap terug wordt gedaan + wat meer performance. Maar dan alleen als R600 tegen zou vallen.

De competitie bepaald uit eindelijk of je voor zuinigheid of vermogen opname gaat. En waar die grens wordt gelegd bepaald mede de competitie.
Dringens stoppen met drinken. Dit lijkt nergens op.
GPU hebben die Netburst alike history niet.
Zeker de GF5800 vergeten? :)
Veel meer warmte/verbruik dan de 9700Pro, en veel minder prestaties.

Ook in de GPU-wereld komt het dus voor, al zitten NV en ATi doorgaans dichter op elkaar dan Intel en AMD omdat de GPU-generaties elkaar veel sneller opvolgen.
Hoe raar kan het lot lopen. 3DFX blijkt nu achteraf het bij het goede eind gehad te hebben met hun ideeen. Tragisch dat ze failiet zijn gegaan en dat Nvidia en Ati
hun ideeen doorzetten.
Het is niet voor niets "een goed idee op het juiste moment." Timing is net zo belangrijk als een goed idee. Als de markt er niet klaar voor is schiet je er weinig mee op. 3DFX kon het idee niet omzetten in een succesvol product. ATI misschien nu wel. We zullen zien
Dat ze failiet zijn gegaan is door Nvidia gekomen. Wellicht wist Nvidia het toen ook al dat 3DFX het bij het goede had en het door een vijandige overname het destijds het tij tijdig heeft gekeerd.
3dfx is niet failliet gegaan. 3dfx is opgekocht door nVidia.
Ja klopt, maar ze waren toen wel bijna falliet anders kon nvidia geen bod doen en heeft het 3dfx uiteindelijk voor een prikkie binnengesleept.
@sjeckneck: Maar ATI was toch ook totaal niet bijna falliet toen het overgenomen werd door AMD....
Volgens mij is 3DFX ten onder gegaan omdat ze i.p.v. wat ATI en nVidia doen, nl. enkel de GPU ontwerpen en een reference model maken, 3DFX ZELF aan de slag ging om retail-kaarten te produceren en zijn ze daardoor dusdanig in de problemen gekomen dat ze zich wel MOESTEN laten overnemen.

De laatste Voodoo's zouden allemaal 3DFX eigen kaarten worden.
En ik meende juist dat ze zelf hun retail-kaarten verkochten omdat ze te weinig afnemers voor hun chips vonden...

In ongeveer dezelfde periode kwam ATi af met hun Radeon-serie. En wie maakte de retail-kaarten met een ATi Radeon chip? ATi zelf. Jouw verhaal klopt dus niet helemaal.

En zoals reeds door iemand anders gezegd: nVidia heeft 3Dfx overgekocht.
3dfx had het niet bij het rechte eind. multi-core in hun opzet werkt niet. Vrijwel iedere andere GPU fabrikant heeft dat soort concepten ook al geprobeerd, en nergens was het echt succesvol.

Ook ATI heeft in het verleden ook al een dual-core systeem gehad, (Fure Maxx) maar die was ook niet bijzonder succesvol.

Het idee is simpel, maar blijkt in de praktijk niet echt goed te werken. Zal interessant worden om te zien waarom het deze keer wel zou lukken. Misschien heeft ATI iets heel slims bedacht, of misschien leent de huidige spel archictectuur zich er beter voor.
@denblom

er passen meer cores op 1 waffer dus de productiekosten gaan naar beneden, waardoor de consument uiteindelijk minder hoeft te betalen
Of de Fabrikant gaat meer winst maken... :(
En dat is een slecht ding? Dat betekent alleen dat ze in een betere concurrentie positie ten opzichte van NVIDIA en dat lijkt me een goed ding, uiteindelijk ook voor de prijzen. Maar ja he, Nederlanders, voor een dubbeltje op de eerste rij...
:Z
miss doelen ze erop dat er minder types cores geproduceerd moeten worden, aangezien met met een aantal cores een kaart krchtiger kan maken
Ik vind eigenlijk dat we weer meer richting 386 en co gaan maar dan met videokaarten.
Systeem niet krachtig genoeg bouw er een (co)gpu in
Het nieuws bericht spreekt zichzelf een beetje tegen.

omdat de cores verkleind kunnen worden
Dan worden cores toch alleen maar duurder??? En dus de kaart ook... Niet echt logisch dat het dan weer goedkoper word.

Er had beter "doordat er alleen maar kleinere en minder krachtige cores gemaakt hoeven te worden gaat de kost prijs ook omlaag"
De chip zelf wordt niet verkleind, maar in stukjes gedeeld.

Een chip van 2x2 cm is bijna niet te fabriceren. Door onzuiverheden zijn er maar een klein aantal op een wafer die werken. Splits je die ene chip echter in vier 1x1 cm chips, dan gaat de overgrote meerderheid ervan werken. Kies vier werkende, plaats ze op één kaart en maak dat ze efficient samen kunnen werken, en je hebt een veel goedkopere grafische kaart die ongeveer hetzelfde presteert als een met een 2x2 cm chip.

De kleinere chips kunnen trouwens meestal beter klokken, en zijn makkelijker te koelen. Dus uiteindelijk is het mogelijk om met enkele kleintjes één grote te verslaan.
core kleiner, meer chipjes uit een waffer, vooral voor budget kaarten zal dat de prijs omlaag halen.. - voor de top kaarten zou 't dan wel eens zo kunne zijn dat 't uiteindelijk relatief veel duurder word (in het begin)...
Ik denk dat het eerder slaat op R&D.
Men ontwikkeld één modulaire GPU.

Die gebruitk kan worden voor de complete produkt lijn aan G-kaarten.

IPV 5 Cores te ontwikkeling die elk hier en daar wat vanmekaar afwijken. In aantal sub units logic.

Zoals Pipelines ROP TMC shaders etc.
Betekent dit dat videokaarten kleiner gaan worden? De G80 past niet in mijn toch redelijk grote kast.
neej eerder groter, aangezien er meerdere chips op een kaart moeten????

aangezien je ook lanes moet trekken tussen de meerdere cores. - ook 't koelen lijkt me wat lastiger... (maar DAT kan ik mis hebben)
ook 't koelen lijkt me wat lastiger...
Lijkt me net niet. De hittebronnen liggen nu verder uit mekaar waardoor de warmte veel meer verspreid kan worden. De heatsink op zich zal mss niet veel koeler zijn, maar de cores wel.
Kunt u dit nader uitleggen aub waarom 3dfx beter blijkt te zijn geweest?
De Voodoo 5 had al videokaarten met 2 en 4 chips/cores onboard.
Maar dat was niet echt om ze zuiniger te maken (zat zelfs een losse 230V adapter bij), meer omdat ze de andere fabrikanten niet meer bij konden houden qua prestaties van hun kaarten :)
Mwoah.. De Voodoo5 6000 zou dan wel net zo goed hebben gepresteerd als de (veel nieuwere) GeForce2/3 Ti.
@let.

Ja alleen dan wel tegen een prijs die 2,5 keer zo hoog lag voor de consument. Erg logisch dat niemand er warm voor kon lopen.
Niet dus.
Hij had wel fillrate, maar geen hardware T&L, en miste ook een hoop van de shading-mogelijkheden die de GF2/3 hadden...
Dus het aantal tris/sec zou veel lager liggen, en de shading zou lelijker zijn, of veel minder efficient, omdat hij meer passes nodig heeft voor hetzelfde effect.

Dat was dus het probleem van 3dfx. Ze hadden wel veel brute kracht in huis, maar ze konden het niet omzetten in een efficient systeem met mooie plaatjes.
De GeForce2 is echt revolutionair geweest in het verhogen van tris/sec en verlagen van CPU-load, onderschat dat niet (de originele GeForce had dit ook al, maar was niet snel genoeg, en de software was er nog niet).

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True