Dit hebben we geloof ik al eens bij een ander nieuwsbericht besproken, maar ik blijf niet overtuigd.
ATI is een andere weg in geslagen, meerdere kleine GPU's ipv 1 grote.
ATI heeft geen keuze en moet wel meerdere GPU's op een kaart proppen om mee te komen met NVIDIA. Hetzelfde was dan ook weer te zien bij NVIDIA's dual-GPU kaart, dat was ook een haastklus met meer dan genoeg fouten om in het vervolg ver weg te blijven van multi-GPU.
ATI gaat als het goed is bij de dual kaart de GPU's zo samen laten werken dat het voor het systeem lijkt alsof er maar 1 GPU, is en ook gebruiken ze het zelfde geheugen, dus dat hoeft niet meer dubbel uitgevoerd te worden.
Dat is voorlopig nog gebaseerd op wilde geruchten zonder fatsoenlijke bronnen waar dan ook. Het lijkt me een heel goed plan, daar niet van, maar ik twijfel heel sterk aan de haalbaarheid ervan (binnen deze generatie kaarten).
dat betekend dat er geen tot weining driver optimalizaties meer nodig zijn om de GPU's goed te laten presteren en ze dus dicht bij de 100% sneller zouden moeten zitten in elke game.
Dat ben ik dan weer niet met je eens. Een dergelijke architectuur heeft wellicht enkele van de bekende multi-GPU problemen opgelost, maar het betekent wel een radicale wijziging in de manier waarop de kaart gaat werken. Dit betekent alsnog bergen driverwerk om communicatie en geheugen/cache beheer te regelen. Het voordeel zou wel zijn dat dit eenmalig werk is, als de driver er eenmaal is kan er bij de volgende generatie kaart op verder gebouwd worden.
nvidia gaat trouwens ook die kant op, de GPU's worden gewoon te groot anders, volgende generatie of die daarna.
Dat is pertinent niet waar. Ja, GPU chips worden groter en groter, maar grootte is echt niet het probleem op dit moment. Dit wordt namelijk opgevangen door een tweetal factoren:
- Marges op high-end GPUs zijn relatief groot, of in ieder geval groot genoeg om de chipgrootte te verdedigen. Ja, GT200 gaat mogelijk de grootste GPU chip ooit worden, maar wordt daarbij ook verkocht voor 400 tot 500 euro, of misschien zelfs nog meer. Bij dergelijke bedragen (en ik weet dat maar een deel naar NVIDIA gaat) zijn yields bijna geen probleem meer.
- Kleinere procedee's maken grootte van een chip minder relevant. GT200 chips zullen op dit moment nog veel te duur zijn om in low-end kaarten te gaan zetten, dat lijkt me niet meer dan logisch. Als we echter een half jaar tot een jaar verder zijn zal TSMC een goed eind op weg zijn met het 40nm procedee, die een perf/mm winst belooft van 3,7 tegenover 65nm. Dat betekent heel simpel gezegd (en ik weet dat dit te makkelijk is, maar het punt blijft bestaan) dat je de performance van GT200 op een 3 keer kleinere chip kan krijgen, of, omgekeerd, 3 keer de performance van GT200 kan krijgen op een chip van dezelfde grootte. Het maakt dus niet veel uit hoe groot GT200 nu is, het wordt later toch wel beschikbaar in goedkoper formaat voor low-end kaarten.
Als ATI om de yields en chipkosten alleen overstapt naar multi-GPU oplossingen (en dat lijkt me toch sterk) zullen ze bedrogen uitkomen. Hoe je het ook wendt of keert, om een performance van X te krijgen zul je hoe dan ook een transistorbudget van rond de Y moeten gebruiken (waarbij Y enigszins variabel is afhankelijk van het gekozen ontwerp). Of je dat verdeeld over 1 of 2 chips lijkt niet veel uit te maken, maar het probleem bij 2 chips is dat je allerlei extra logica nodig hebt voor communicatie en synchronisatie.
Het probleem van de toekomst is echter helemaal niet de grootte van chips, maar het energieverbruik. GT200 gebruikt volgens geruchten maximaal 240 watt, en 4870X2 mogelijk zelfs meer. Als we naar TSMC gaan kijken ziet het er echter naar uit dat het 40nm procedee wellicht 3,7 keer de performance gaat geven, de energiewinst is waarschijnlijk veel en veel beperkter (ik heb zo geen cijfers). Dat betekent dat je wellicht 3.7 keer de performance van GT200 op dezelfde die-space kan krijgen, het energieverbruik zal alleen wel enorm veel meer zijn. En daar komt het ware probleem boven, waar ook AMD's multi-GPU strategie niet tegen zal helpen. Sterker nog, die strategie zou wel eens kostbaar kunnen zijn vanwege de extra logica en losse chips die stuk voor stuk stroom vreten. Missschien dat AMD deze extra chips kan uitschakelen wanneer ze niet gebruikt worden, maar dat kan NVIDIA natuurlijk ook met delen van de grote monolithische chip doen. Bovendien is idle verbruik niet het belangrijkste probleem (hoewel het misschien voor de consument erg belangrijk is), maar verbruik onder load is veel interessanter, want dat bepaalt de uiteindelijke performance van de chip (die niet te heet mag worden en genoeg stroom "gevoed" moet kunnen krijgen).
Kortom, ik zie geen enkele reden waarom multi-GPU de toekomst zou moeten zijn, maar als die er wel zijn hoor ik ze graag.
EDIT:
waarom je multi gpu zou gaan is simple.
2 chips van 800miljoen transistors gaan gemiddeld hoger clocken en/of minder verbruiken of minder kosten dan 1 chip van 1.6miljard.
de yeilds van kleinere chips zijn namelijk altijd hoger, maar je kan die extra yield ook inruilen om kritischer te zijn met je chips en ze een lagere maximum vcore mee te geven of een hogere kloksnelheid.
Dat zou allemaal waar zijn,
als yields sterk afhankelijk zijn van chipgrootte. Maar voor zover mijn kennis rijkt is dit steeds minder het geval. Yields zijn veel eerder afhankelijk van het ontwerp van een chip, en hoewel dit misschien een voordeel is voor een minder complexe chip valt het nog steeds goed op te lossen door een design team met veel ervaring en een flink budget (en dus tijd) om de problemen te verhelpen.
Daarnaast heeft clocksnelheid ook maar weinig met yields te maken. Maximale snelheden van een chip zijn een eigenschap van het gebruikte proces en het ontwerp van de chip, en kleinere chips zullen dus zeker niet zomaar sneller zijn dan grote. Daarnaast zijn de verschillen in zuinigheid en snelheid per chip niet groot genoeg om voor de extra moeite en kosten van multi-GPU te gaan. Het verschil in stroomverbruik is op dit moment nog niet belangrijk genoeg voor klanten om er geslaagde chip voor weg te gooien (een paar watt minder of een paar chips meer, wat heb je liever?), en het verschil in clocksnelheid zal vrij minimaal zijn.
daarom ook dat de r600 en r670 al een ringbus controller hebben.
en het gerucht gaat dat onder andere daarom de r600 zo vertraagt is.
Ik geloof er weinig van. R600 was een chip die jaren in ontwikkeling was bij wat toen nog ATI was. Pas toen AMD later er achter kwam de ze compleet niet meer mee konden met G80 (wat voor iedereen, waarschijnlijk ook ATI/AMD zelf als een verrassing kwam) kwam opeens het plan om multi-GPU in te zetten tegen NVIDIA. Als R600 daadwerkelijk met multi-GPU in het achterhoofd zou zijn ontworpen zouden er veel meer voorbeelden van te zien zijn, en zou daadwerkelijke multi-GPU oplossingen zonder Crossfire chip al veel eerder op de markt zijn gebracht.
en als je de ringbus controller aan elkaar koppelt zou het voor de GPU niet eens persee uit hoeven maken vanaf welke geheugen controller zijn stukje informatie afkomstig is.
en die informatie verdelen over de verschillende pijplijnen is vervolgens niet anders als dat al eeuwig in de GPU gebeurt.
als ze dus het latentie verschil klein houden hoeft het voor het driver model helemaal niet uit te maken of er 1 of 2 GPU's zijn. en de brede ringbus controller is op zo'n manier ontworpen dat dat mogelijk zou moeten zijn.
Dat zou een elegante oplossing zijn, maar waarschijnlijk ook een dure. Je moet wel een PCB maken met maar liefst drie extra 512bit verbindingen, tussen de beide chips en tussen de chips en de memory controller, die waarschijnlijk ook nog weer een losse chip gaat worden (welliswaar ter vervanging van de PCI-bridge die nu op de X2 kaarten zit), en dat kost allemaal samen genomen toch weer een boel extra, ten opzichte van een monolithische GPU.
en dan deze generatie wissel maar 1/8 erbij?
je ziet zelf dat hier iets meer aan de hand moet zijn.
Wat ik zie dat er aan de hand zou zijn is budgetproblemen, onderbezetting van personeel en bergen andere problemen die door de ATI/AMD situatie zijn ontstaan. Ik zie geen grootste plannen voor nieuwe graphicswereldoverheersing, ik zie paniek en pogingen om de schade te beperken. Als jij en anderen willen blijven volhouden dat AMD's multi-GPU plannen onderdeel zijn van een groots plan om (opnieuw) de marktleider te worden zou ik dat niet anders dan naief kunnen noemen.
Laten we de feiten onder ogen zien, AMD wordt aan alle kanten onder vuur genomen en kan zichzelf amper verdedigen, laat staan terugvechten, en datzelfde bedrijf zou dan ambitieuze nieuwe plannen hebben om met een techniek die alleen maar nadelen lijkt te hebben onverwacht toch er boven op te komen? Terwijl NVIDIA, die vele miljarden meer verdient en gigantisch veel meer uitgeeft aan R&D, die zelfde "toekomst" van de multi-GPU, toch om de een of andere reden over het hoofd zou zien*? Dat lijkt mij toch niet meer dan wishfull thinking.
EDIT op de edit: Laat ik even er bij zeggen dat ik absoluut niet iets tegen heb op ATI of AMD, en dat ik het bijzonder jammer vind dat ze in deze troosteloze situatie terecht zijn gekomen. Beide bedrijven waren de underdog in hun markt, en ik vind het dan ook jammer dat de underdog zijn scherpe tanden langzaam lijkt te verliezen.
*NVIDIA heeft namelijk al meerdere keren aangegeven dat multi-GPU wat hen betreft niet de toekomst is en alleen gebruikt gaat worden als ze met een monolithische GPU niet kunnen concurreren.
[Reactie gewijzigd door Snoitkever op 28 juli 2024 21:27]