Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 99 reacties

AMD zegt dat het zijn concurrent Nvidia niet zal volgen met de schaalvergroting van gpu's. De chipbakker ziet meer toekomst in het plaatsen van meerdere gpu's op een pcb. Nvidia noemt het verhaal van AMD 'te simpel'.

Matt Skynner, werkzaam bij de marketingafdeling van AMD, stelt dat de gpu's van Nvidia bijna uit hun voegen barsten. "Wij gaan niet voor één grote gpu die erg duur is, veel energie verbruikt en alleen in een klein marktsegment kan worden verkocht." Ook zou het nauwelijks lonen om gpu's als de GT200 in het middensegment te verkopen, omdat ze te veel stroom zouden verbruiken en te groot zijn, zo is te lezen bij News.com.

Volgens Skynner kiest AMD er daarom bewust voor om gpu's te ontwikkelen die op het middensegment gericht zijn, waarbij voor de high-end markt meerdere gpu's op een enkel pcb gecombineerd kunnen worden. Dit deed de fabrikant onder andere met zijn Radeon HD 3870X2, terwijl Nvidia twee pcb's op elkaar plakte bij de Geforce 9800GX2. Skynner stelt verder dat gddr5-videogeheugen bij relatief lage kosten toch goede prestaties kan leveren. Hierdoor zouden grote geheugenchips en extra brede databussen niet meer nodig zijn.

Nvidia-manager Ujesh Desai spreekt het verhaal van zijn concurrent uiteraard tegen. "Wanneer je twee gpu's naast elkaar plaatst heb je ook een bridge-chip nodig om ze met elkaar te laten praten, en het videogeheugen kun je niet delen," aldus Desai. Volgens hem is het daarom te simpel om te stellen dat multi-gpu-videokaarten per definitie zuiniger zijn dan kaarten met een enkele high-end gpu. De Nvidia-medewerker gooit nog wat extra olie op het vuur met zijn slotopmerking dat AMD hoe dan ook onvoldoende geld in kas heeft om in de ontwikkeling van nieuwe highend-gpu's te investeren. Volgens Desai vereist dit een investering van minimaal een half miljard dollar.

Nvidia Geforce 9800GX2
Moderatie-faq Wijzig weergave

Reacties (99)

Als ik even kijk naar de geschiedenis en de vele persoonlijke ervaringen die ik zelf heb gehad met videokaarten dan kan ik voor mijzelf zeggen dat destijds een P2 met een VooDoo Banshee nog steeds bij mij is blijven hangen als beste prestatie qua hardware, zeker als je bedenkt dat we ooit begonnen zijn met een Mirage gpu'tje.

Kijk ik naar andere kaart ervaringen, zowel als een ATi kaart als een Nvidia kaart dan heb ik me toch wel een beetje geergerd aan het continu geconfronteerd worden met brakke drivers en het steeds sneller uitbrengen van nieuwe gpu serie's die maar minimaal iets extra hebben weten te brengen. AA heeft nooit vlekkeloos gelopen, want ook al had je voor die tijd een "high" end systeem, alles in high settings kon gewoon niet, games hebben nooit lekker gelopen op high settings, mits je een game 3 jaar later op een nieuwe high end systeem installeerde en dan wilde het nog wel eens netjes lopen in high settings, mits de gamedeveloper en gpu bakker met patches of nieuwe drivers bij had gehouden.

Wat mij nog het meeste opvalt is dat er nog steeds weinig structurele samenwerking plaatsvind tussen gamedevelopers, CPU en GPU bakkers. Iedereen maakt dus zijn eigen produktje en probeert middels driver aanpassingen het met elkaar goed te laten functioneren en daar ligt tevens volgens mij ook de grootste fout, aangezien ik denk dat er allang betere produkten hadden kunnen zien die hardwarematig al vanaf scratch goed met elkaar kunnen communiceren. Daarmee denk ik ook dat daar nog de meeste snelheidswinst valt te behalen maar dat iedereen liever zijn eigen toko afschermd inplaats van samen te werken.

En hardwarematig blijven we toch met plafonds zitten zolang er geen nieuwe concepten komen en alleen daar kan men een trede hoger komen. Ook Intel heeft op een gegeven moment ontdekt dat single core met hogere snelheden niet langer rekbaar was en is daardoor op de multi core's uitgekomen, waardoor er meer mogelijk werd. Ook de GPU bakkers zullen met iets nieuws moeten komen in de trend van multi cores op een enkele chip.

Maar kijk naar de geschiedenis, bij iedere nieuwe GPU zien we marginale verbeteringen en die staan niet in verhouding tot de prijzen die men er voor vraagt. Daarom ben ikzelf terughoudender geworden met PC gamen, en ik denk met mij vele anderen, om ooit nog eens even een "high" end plankje te kopen want je krijgt nog steeds geen waar voor je geld, zeker niet de early adapters, zoals ook weer was gebleken met Vista en DX10 waar Nvidia een hoop beloofde maar veel gebruikers alleen maar ellende kregen voor hun geld.

En als je dat een beetje objectief kan bekijken dan is high end, SLI en CrossFire nog steeds geen bang voor je buck en kiezen vele eerder voor een mid end kaart en spelen dan gewoon op lagere instellingen. Daarom wint de console denk ik ook wat meer terrein, minder gezeur voor minder geld en toch leuk kunnen gamen op HD screen of monitor. Dat bij elkaar opgeteld kunnen de GPU bakkers zich beter afvragen of ze niet hun eigen toko'tje juist om zeep helpen door die eeuwige nietstellende blaat verhalen, belofte's en hoofdpijnen die ze veroorzaken. Ik wil best 500-700euro voor een goeie kaar neertellen maar dan wil ik wel eens gevrijwaard worden van loze/valse belofte's, continu nieuwe drivers installeren, game patches etc etc. want daar wil ik niet langer voor betalen, de gebruksonvriendelijkheid, wat het toch wel is geworden door de loop der jaren.

En wat betreft het benchmarken, gooi het allemaal eens aan de kant, wie nu nog niet door heeft dat punten worden gebasseerd op standaard hardware profielen moet eens bij zichzelf te raden gaan, praten we even niet over de vele schandalen die benchmarks software makers over zichzelf af hebben geroepen in de loop der jaren met diverse optimalisatie's die velen lekker voor de "gek"" hebben gehouden.

Commercieel zijn is op zich niets mis mee maar het misbruik daarvan is nu wel 1tje van hele grote hoogte. Wie daar nu nog steeds intrapt heeft geld teveel en blijft naief de verhalen aanhoren die producenten voorspiegelen. Het zijn de producenten zelf die hun toekomst bepalen maar voorlopig even voor mij geen high end kaarten meer, in welke vorm dan ook ;)
Wat een geklets in de ruimte zeg...

AA nooit vlekkeloos gelopen? Goh... vraag ik me toch af wat ik dan de afgelopen jaren gebruikt heb... Sinds de 9700 Pro heb ik altijd met AA gespeelt. En nooit problemen gehad.

Geen communicatie tussen hard en software fabrikanten? Onzin! DirectX is de lijm, en de sturende kracht voor hard en software. Het is juist frappant hoe verschrikkelijk veel samenwerking er is! Dat men van zwaar proprietaire fix-functie implementaties naar een volkomen generiek shader systeem is gegaan. Dit is juist gebeurt omdat er zo'n goede communicatie was.

Multi-cores? Een GPU is allang multi-core. De shaders zijn de cores... waarvan er tig zitten op een GPU. Daar valt dus niets te winnen. Multi-GPU is slecht een economisch voordeel, omdat je dan met minder productie lijnen kunt werken.

Marginale verbeteringen in de geschiedenis? Iedere daadwerkelijke nieuwe generatie is tweemaal zo snel als de oude. En de dure high-end kaarten zijn ook ongeveer net zo veel sneller, als ze duurder zijn. Op dit soort punten zijn GPU's veel beter dan CPU's!

SLI en Crossfire is wellicht niet het beste bang for buck... maar wel juist een goede zet van GPU fabrikanten. Immers, ze kunnen een (super) high-end markt bedienen, met dezelfde kaarten als de mainstream. Zou pas dom zijn wanneer je hetzij, die markt links laat liggen, hetzij er aparte kaarten voor produceert.
Ik denk dat AMD een nog een hele goede zet heeft kunnen doen, ondanks hun beperkte budget.

Waarschijnlijk, krijg nvidia zometeen weer een aardige voorsprong, net zoals met de 8800GTX, AMD heeft nu alleen wel een half jaar winst, (R600 was later dan de G80), nu zelfs een dag of wat eerder. Dus ze staan er al beter voor. Verder kunnen we naar mijn mening eind van het jaar / begin volgend jaar, de RV870 verwachten, die AMD helemaal weer dezelfde of een beter positie zal geven dan met de intro van de RV670. Het voordeel is dan, dat AMD een snelle zuinige gpu heeft die qua performance kan concureren met de GTX280, en veel minder verbruikt.

Geloof niet dat nvidia binnen een halfjaar zijn complexe chip op 45nm kan bakken. Daarentegen zijn de GPU ontwerpers bij AMD wss allang bezig met de RV870.

Stragie van AMD: snelle, kleine chips, voor higend 2 chips op 1 pcb, een halfjaartje procuderen en dan gauw de opvolger. nvidia probeert denk ik hetzelfde grapje uit te halen als ze met de G80 deden, maar ik denk dat ze het deze keer minder gemakkelijk krijgen.

EDIT:

Kijk ff op HWI, kom ik dit artikel tegen:
http://www.hardware.info/..._over_ATI_R870_duiken_op/

[Reactie gewijzigd door Jut op 27 mei 2008 15:19]

Geloof niet dat nvidia binnen een halfjaar zijn complexe chip op 45nm kan bakken. Daarentegen zijn de GPU ontwerpers bij AMD wss allang bezig met de RV870.
NVIDIA heeft meerdere teams aan het werk. De opvolger van GT200 is waarschijnlijk al tijden in ontwikkeling. Of dat een 40nm chip gaat worden is de vraag, maar als NVIDIA daar heil in ziet zal het feit dat ze nu nog niet op 55nm zitten daar geen verschil in maken.
Overigens is het maar de vraag of RV870 al 40nm zal worden. Zogenaamde "risk production" van 40nm chips begint pas in het laatste kwartaal van dit jaar, dus het duurt dan nog wel even voor de eerste GPUs op dat procedee worden gebakken.
Bij 65nm, dat eind 2005/begin 2006 in productie ging duurde het meer dan een jaar voor ATI er gebruik van maakte. 55nm was een relatief simpele optische verkleining, die het makkelijk maakt om bestaande ontwerpen te hergebruiken, maar duurde nog steeds meer dan een half jaar tussen risk production en de eerste 55nm GPU. 40nm is weer een compleet nieuw procedee, dus het zou me niets verbazen als we tot H2 2009 moeten wachten voor we de eerste 40nm GPUs gaan zien, of het nu van NVIDIA of AMD is.
Tja. Beide hebben ze wel gelijk....
nVidia: AMD heeft niet super op dit moment en een grote chip kan zijn voordelen hebben qua performance en schaalbaarheid

AMD: Ze hebben gelijk dat de high end markt maar klein is. Dus opzich een goede keuze. Maar Dual GPU heeft op dit moment meestal 80% scaling. Sommige gevallen beter en sommige slechter. Dus haalt met de huidige techniek niet alles er uit wat er in zit.

Voordeel is wel weer dat kleinere chips vaak betere yields hebben en minder warm worden. En daardoor soms hoger geclockt kunnen worden met een lager voltage dan een grote chip waar even veel componenten in zitten als twee losse bij elkaar. Dus het kan ook zijn dat 2 GPU's wel degelijk zuiniger zijn. En dat de performance ondanks de iets minder goede scaling toch gelijk is.
En daardoor soms hoger geclockt kunnen worden met een lager voltage dan een grote chip waar even veel componenten in zitten als twee losse bij elkaar.
Clocksnelheid en voltage is afhankelijk van het gebruikte procedee, niet van de grootte van de chip of van de yields. Er zijn bepaalde delen van de chip die een limiet geven waardoor niet hoger geclockt kan worden zonder problemen, en daarbij maakt het niet uit hoe groot de rest va nde chip is.
Dual-chip oplossingen kunnen sneller zijn dan de equivalente single-die equivalenten, vanwege binning. Neem even aan dat een procedé GPUs oplevert voor zo'n dual-chip proces, en dat die met 50% kans op 600 Mhz of 650Mhz lopen. Je kunt dan 50% kaarten maken die op 600Mhz lopen, en 50% die op 650 Mhz lopen.

Neem nu een vergelijkbare single-chip oplossing (zelfde procedé) met een dubbel zo grote die. Omdat de kans op onregelmatigheden per oppervlakte constant is, is de kans dat die chip op 650Mhz draait dus maar 25% (50%*50%). 75% van de chips draaien op 600Mhz. Verlies: 25%.

Het verschil wordt uiteindelijk veroorzaakt doordat een chip draait op de snelheid van de langzaamste transistor. Meer transistoren = meer kans op een slome transistor = meer kans op slome chip.
Het verschil wordt uiteindelijk veroorzaakt doordat een chip draait op de snelheid van de langzaamste transistor. Meer transistoren = meer kans op een slome transistor = meer kans op slome chip.
Het enige probleem in je verhaal is dat de langzaamste transistor toch in een bepaald stuk logica zit. Een klein deel van de chip, zeg maar de snelheidsbottleneck, bepaalt wat de maximum snelheid kan zijn. Daarbij boeit het niet hoe groot of hoe snel de rest van de chip kan zijn. Bovendien houd je geen rekening met mogelijke dubbele logica die NVIDIA en AMD in hun chip inbouwen om yields te verhogen. Zo heeft G80 twee extra SIMD arrays (9 clusters in plaats van 8 ), waarvan er een uitgeschakeld kan worden of ter vervanging van een cluster met fouten kan dienen.

Overigens is binning relatief duur, en daarom wordt het bij GPUs lang niet zo vaak toegepast als bij CPUs of RAM, waar een volledige fab is ingericht voor en door een enkel bedrijf. Intel heeft de faciliteiten om op grote schaal binning te gebruiken, bij NVIDIA en AMD is het eerder een simpele kwestie van kijken of de chip het doet, en anders de chip weg gooien.

[Reactie gewijzigd door Snoitkever op 28 mei 2008 12:19]

Dat NU meerdere GPU`s schakelen in de praktijk niet mee kan komen met hun grotere broers zegt natuurlijk weinig over de toekomst. Single core CPU`s (pc gebruik) zijn al grotendeels vervangen voor multicore`s. Dat dit bij GPU`s ook te gebeuren staat was al veel langer bekend natuurlijk.

Dat AMD/Ati nu die weg al inslaat is naar mijn inziens helemaal niet verkeerd. Ze hebben nu de kans zich te richten op de veel grotere mid/low-segment markt en kunnen alvast flink wat extra kennis opdoen wat betreft het schakelen van meerdere GPU`s. Kennis die ze zeker nodig gaan hebben. Dit telt overigens ook voor Nvidia die vroeg of laat ook moet gaan afstappen van de single GPU kaart.

Nu kennis opdoen die in de toekomst zeker weer van pas gaat komen in het high-end sigment. De komende generaties kaarten zullen het uitwijzen.... :)
Dat dit bij GPU`s ook te gebeuren staat was al veel langer bekend natuurlijk.
Mag ik bronnen vragen? Ik geloof er namelijk helemaal niets van, tenzij je de marketingpraat van AMD bij de eerste X2 bedoelt, maar dat lijkt me een variant van "wij van WC-eend".

Er is geen enkele reden waarom multi-GPU nodig zou zijn. Bij CPUs is dit absoluut noodzakelijk vanwege de maximale clocksnelheid die een chip maximaal kan halen. Op een gegeven moment was het gewoon amper mogelijk om een single-core CPU nog sneller te maken, en dus moest men wel multi-core CPUs maken om nog enige performancewinst te maken.

In tegenstelling tot de CPU is een GPU echter al multi-core. Een G80 heeft 16 SIMD eenheden van 8 ALU's. Elke SIMD eenheid kun je zien als een "core", die maar liefst 8 berekeningen tegelijk kan uitvoeren. Omdat 3D graphics een zogenaamd "embarrasingly parallel" domein is kan NVIDIA in theorie gewoon elke generatie de hoeveelheid SIMD eenheden, TMUs en ROPs verdubbelen, en daardoor een GPU krijgen die 2 keer zo snel is. Er is dus geen enkele reden om multi-GPU te verkiezen boven een enkele chip.
Beide partijen komen naar mijn mening met goede argumenten, voor beide partijen zijn dus theoretisch gezien voor en nadelen. Theoretisch zeg ik omdat het in praktijk toch soms iets anders uitpakt. Hier geldt natuurlijk in hoeverre de techniek goed wordt uitgewerkt. Volgens mij als je beide manieren goed uitwerkt met goede drivers en ondersteuning dat het verschil niet heel groot zal zijn. Als je bijvoorbeeld kijkt naar het aantal streamprocessors van de huidige generatie videokaarten van AMD - Ati en nVidia dat zit daar toch een behoorlijk verschil in zit. AMD - Ati heeft in de Ati HD3800 serie 320 streamprocessors en nVidia heeft in de Geforce 8800 serie tussen de 96 en de 128 streamprocessors. Je zou daardoor een beter performance verwachten bij de Ati vergeleken met de 8800 serie van nVidia maar dat blijkt uit benchmarks niet het geval te zijn. Verder verwacht je dat de Ati HD3800 serie meer stroom verbruikt dan de nVidia 8800 serie, omdat hij relatief veel meer streamprocessors heeft, maar dat is ook niet het geval.

Kortom het licht er naar mijn idee sterk aan hoe je het in zijn geheel uitwerkt en dan kan het prestatie en stroomverbruik verschil tussen deze twee methoden erg klein zijn.

[Reactie gewijzigd door Regeneration op 27 mei 2008 14:23]

Als je bijvoorbeeld kijkt naar het aantal streamprocessors van de huidige generatie videokaarten van AMD - Ati en nVidia dat zit daar toch een behoorlijk verschil in zit. AMD - Ati heeft in de Ati HD3800 serie 320 streamprocessors en nVidia heeft in de Geforce 8800 serie tussen de 96 en de 128 streamprocessors. Je zou daardoor een beter performance verwachten bij de Ati vergeleken met de 8800 serie van nVidia maar dat blijkt uit benchmarks niet het geval te zijn.
"Stream processors" is een grote hoop marketingonzin.
R600 heeft 4 SIMD arrays met 16 blokjes van 5 ALUs, en NVIDIA heeft 16 SIMD arrays met elk acht relatief simpele ALUs, die op dubbele snelheid draaien. Door de 5D opzet van R600 is het een stuk lastiger om alle ALUs efficient aan het werk te zetten, wat ook in NVIDIAs voordeel werkt.
Dat komt omdat de streamprocessors van AMD veel simpeler zijn (meer toegespitst op 1 taak, met een minder ingewikkelde instructie set)

Simpel bedoel ik overigens niet negatief
Ik denk dat je dat aantal streamprocessors onderling niet mag vergelijken tussen ATI en nVidia. Ik denk dat voor nVidia elke streamprocessor bestaat uit een reeks van eenheden, terwijl ATI die elk apart telt.
Woorden blijven geen daden.

Dit zijn meer promotie-(lees: propaganda)praatjes dan harde feiten.

Op het moment dat ATi met een X2/X3/X4 kaart kan komen die duidelijk minder kost en beter presteert dan de NVIDIA single GPU kaarten is hun verhaal rond.
Als NVIDIA een kaart presenteert (ook al barst deze uit z'n voegen) welke niet onderdoet voor de multi-GPU oplossing van ATi en een in alle opzichten beter is (prestatie/verbruik) dan heeft NVIDIA de kroon te pakken.

Persoonlijk vind ik dit "nieuwsbericht" inderdaad meer "moddergooien" zoals b0On dat ook al zegt. Er is geen nieuws hier, alleen wat willekeurig gezeur over bedrijven die beweren de beste te zijn en vervolgens moeite hebben zich te bewijzen.
Het kan wel zijn dat Nvidea dan de kroon te pakken heeft. Alleen tegen welke prijs?
Als een core bijna uit zijn voegen barst is het niet meer mogelijk om deze in de mid-range kaarten te gebruiken. Dat heb je dus een hele dure GPU ontwikkeld en gemaakt die enkel te gebruiken is voor de high-end kaarten gebruikt kan worden.
Tegen de tijd dat je de yields onder controle hebt wordt hij al op gevolgd door een sneller exemplaar.
Door de GPU kleiner en simpeler te maken is het eenvoudiger om het op een kleiner procede te bakken en daar sneller goede yields mee te halen. Hierdoor is het veel voordeliger en dus makkelijker om hier meer van te gebruiken en een goede marge op het halen.
Dat heb je dus een hele dure GPU ontwikkeld en gemaakt die enkel te gebruiken is voor de high-end kaarten gebruikt kan worden.
De high-end GPU van vandaag kan gebruikt worden als low-end van morgen. TSMC's 40nm procedee belooft meer dan drie keer kleiner te zijn dan 65nm, dus dat betekent dat die "monsterchip" die GT200 nu nog is straks een middenklassertje zou zijn. Het enige probleem zit dan in de geheugenbus die te breed is, maar daar kan GDDR5 ondersteuning vast een mouw aan passen.
Er zijn toch echt geen 'low-end' kaarten gemaakt van de HD2900 XT's en dergelijke, omdat het gewoon veel te duur was om er low-ends van te maken, plus dat de DX-versie weer een nummertje omhoog ging. Er zijn wel 'goedkope' X1950's (de GT bv), maar die hebben vervolgens weer een lagere geheugenbus, waardoor ze in verhouding tot de 'goedkopere' highend kaarten van de nieuwe generatie dus eigenlijk niets bijzonders zijn.

Ik vrees dat Nvidia zijn eigen HD2900's aan het maken is zonder er eigenlijk bij stil te staan wat ze nu als mid/low segment kaarten willen maken in het vervolg. Met andere woorden, ze lijken een beetje de doorsnee koper uit het oog te verliezen, iets wat, zo heeft 3Dfx al mogen tonen, vrij dodelijk kan zijn voor je bedrijf.

[Reactie gewijzigd door dahakon op 28 mei 2008 05:18]

Het grootste deel van het ontwerp van de high-end R600 is nu nog steeds terug te vinden in de mid-range HD3870, en de low-end/mid-range HD3850. Wonderbaarlijk wat een overstap van 80nm naar 55nm doet met de grootte en de kosten van een chip.

Het zelfde zie je bij NVIDIA. De high end G80, die op 90nm werd gebakken en daardoor destijds een gigantische chip was, heeft ondertussen de weg gevonden naar de G92, die qua ontwerp vrijwel gelijk is aan G80, maar door het 65nm procedee klein genoeg is om in mid-range kaarten als de 8800GT te stoppen. Ondertussen wordt al gewerkt aan een 55nm versie, die ongetwijfeld weer kleiner en goedkoper zal worden.
"Wanneer je twee gpu's naast elkaar plaatst heb je ook een bridge-chip nodig om ze met elkaar te laten praten, en het videogeheugen kun je niet delen"
Dit vind ik een vrij halstarrige opmerking. In NVidia's architectuur van een joekel van een GPU mag dit misschien waar zijn, maar het is ZEKER mogelijk om meerdere GPUs te bundelen. Ik geloof dat dit in de PS3 al gedaan wordt zelfs.

Als ATI/AMD van de klassieke architectuur afstapt en de zaak afstemt om meerdere units toch harmonisch naar het video geheugen te kunnen laten schrijven, kan het een enorm schaalbaar platform leveren...
Bij PS3 kan dat omdat de busbreedte naar het geheugen 128 bits is. RV770 heeft een externe geheugenbus van 256bit, wat al betekent dat de chip niet veel kleiner kan worden zonder in de geheugenbusbreedte te gaan snijden. Als je daarnaast ook nog een brede bus nodig hebt om tussen de chips communicatie mogelijk te maken moet je of je chip veel groter maken (wat het hele voordeel van de kleine chips een beetje wegneemt) of de busbreedte enorm verkleinen, waardoor dit meteen een enorme bottleneck wordt. Ik zie nog niet direct hoe AMD dit denkt op te lossen.
http://www.crysis-online....26513.msg369794;topicseen

als dit waar is heeft de hd4870x2 helemaal geen bridge chip, en als dat niet nodig is, dan heeft hij misschien ook niet 2 keer de hoeveelheid geheugen nodig maar hebben ze shared memory voor je GPU's.
waarschijnlijk op een NUMA achtige manier(latency is voor GPU's minder van belang als bij CPU's)
en als dat kan, dan zouden er ook weinig driver en vooral game optimalisaties nodig zijn om de multi-gpu's goed te laten werken in alle games.

in augustus gaan ze het zien of nvidia of AMD gelijk heeft. dan komt de hd4870x2 uit.

[Reactie gewijzigd door Countess op 27 mei 2008 17:39]

ls dit waar is heeft de hd4870x2 helemaal geen bridge chip, en als dat niet nodig is, dan heeft hij misschien ook niet 2 keer de hoeveelheid geheugen nodig maar hebben ze shared memory voor je GPU's.
Bij NordicHardware zelf hebben ze 't al gerectificeerd, de fotos schijnen gefotosoept te zijn, er zit wel een bridge-chip op ;)
Update2: There's a contact surface in the middle if you play around with Photoshop;

[Reactie gewijzigd door Huppie op 28 mei 2008 15:23]

@parabellum: volledig mee eens, maar je kunt het niet ontkennen dat Nvidia met de 80serie wel een hele sprong voorwaarts heeft gemaakt (toen die uitkwam) Maar...ik moet toegeven dat al de beloftes die erna kwamen met de nieuwere gtx'en puur martketting bedrog was gebaseerd op nog meer winst met hetzelfde concept. kijk maar naar de performance van de g92 kaarten, sneller maar marginaal. Wat je mening betreft over de gameconsoles ben ik het roerend mee je eens (spijtig genoeg), alhoewel ik moet opmerken dat een pc wel iets gecompliceerder is dan een gameconsole en meer mogelijkheden heeft.
Hoop echt dat de graka's in de pc wereld enige vooruitgang gaan boeken t.o.v. de gameconsoles want als je ziet wat het verschil is van de grafische pracht van een high-end pc met high-end gameconsole dan is dat voorlopig bijna nihil. Bekijk het ook qua prijs....Hoef ik verder geen plaatje van te maken...PS3, Xbox voor zeg maar 400 ¤..., kom je met die prijs flink tekort met je pc om dezelfde kwaliteit te halen.
De driver ondersteuning van AMD loopt helaas een beetje achter op nVidia en met multi-GPU oplossingen is de driver heel erg belangrijk geworden. Een single GPU oplossing werkt out-of-the-box gewoon fijner dan een multi GPU oplossing. Bij nieuwe spellen moet je maar hopen of het meteen soepel werkt en belangrijker: sneller werkt.

Vergeet ook niet dat nVidia met zijn grote GPU's ook multi GPU kaarten kan maken. Een chip met dezelfde techniek, maar minder van alles zorgen ook voor een kleinere chip en maakt hem vervolgens wel geschikt voor het midden segment. AMD kan nu gewoon even niet volgen en moet wel een andere weg inslaan tot ze weer bovenaan staan.
Loopt achter op welk gebied?

Hoor veel mensen klagen over nVidia en Vista.
Vista is voor meeste mensen nog geen optie, maar daar zal redelijk snel verandering in komen.
Ken iemand die bewust DX10 optie met Lotro uitzet omdat-ie anders om de haverklap crasht in Vista. 8800GTS.
Hoera voorsprong op drivers! FUD!

Denk dat alleen AMD nu nog achter loopt met Linux ondersteuning, maar daar maken ze veel goed op dit moment.

En hoezo kan AMD niet volgen? Ze hebben grote voorsprong op manufacturing en ook engineering. Denk je nou echt dat alle IP weg is die de toenmalige superieure R300 op de markt heeft gezet?

Het is gewoon heel duidelijk: de GPU's gaan de dual core kanten op en het werd eens tijd zeg. Dit is zoooo'n duidelijke stap.
Net als toen ATI met het zo nuttige Unified Shader Architecture kwam protesteerde nVidia dat hun oplossing altijd beter was.

Het wordt mij steeds duidelijker dat nVidia heel veel moeite heeft met innovatie en teveel de veilige kant kiest. No guts no glory!
Ze hebben grote voorsprong op manufacturing en ook engineering. Denk je nou echt dat alle IP weg is die de toenmalige superieure R300 op de markt heeft gezet?
Hoezo voorsprong? Bedoel je dat ze een optische shrink van hun 65nm ontwerp hebben gemaakt zodat ze tenminste konden concurreren met 55nm chips? Kom nou, ATI designers werken met een stuk software waarmee ze hun chips ontwerpen, en het daadwerkelijke low-level werk wordt door TSMC gedaan, net zoals bij NVIDIA. Dat NVIDIA nog niet de noodzaak heeft gezien om naar 55nm over te stappen, en dat ATI zelf op 55nm nog niet kan concurreren met NVIDIA zegt meer dan genoeg over de staat van ATI.
Het is gewoon heel duidelijk: de GPU's gaan de dual core kanten op en het werd eens tijd zeg. Dit is zoooo'n duidelijke stap.
GPU's zijn al multi-core, en compleet niet vergelijkbaar met CPUs
Net als toen ATI met het zo nuttige Unified Shader Architecture kwam protesteerde nVidia dat hun oplossing altijd beter was.
Leuk voorbeeld, beide bedrijven gebruiken marketing als het er op lijkt dat ze niet mee kunnen komen met de concurrentie. In die tijd was het NVIDIA die achter leek te lopen, nu is het AMD, en dus gingen beide partijen heel hard roepen dat ze zelf de betere oplossing hadden.
Overigens heeft NVIDIA met zijn unified shader architectuur de vloer aangeveegd met die van ATI, of ben je dat dan weer toevallig vergeten?

[Reactie gewijzigd door Snoitkever op 27 mei 2008 14:26]

"Overigens heeft NVIDIA met zijn unified shader architectuur de vloer aangeveegd met die van ATI, of ben je dat dan weer toevallig vergeten?"

Is dat zo? Waarom is dan de professionele variant van de RV670 zoveel beter dan de G80 generatie? Kun je dat dan uitleggen? Lijkt me een sterk voordeel van de shader implementatie van ATI.
The Red Dominator:
http://www.3dprofessor.or...s/FireGLV8600/V8600P1.htm

De werkelijkheid vertelt mij dat ATI een wel heel goede shader architectuur heeft.
Dat het niet goed uitpakt met games is dat de TWIMTBP oppressie van nVidia het nauwelijks toelaat spellen speciaal te optimaliseren voor de aanpak die ATI koos: AA via de shaders.
En wat dacht je van SM4.1, tot 20% verbetering met AA, dat wordt tegenwerkt door nVidia natuurlijk: die heeft dat niet, kiest voor een te veilig pad. Er worden op dit moment meerdere spellen gemaakt met SM4.1.
Belachelijk.
Al kon R600 kanker genezen
Dat doet me denken aan dat 3dfx reclamefilmpje :Y)

'With our new chip, we could cure thousends of people.....naahh we'd rather game'
Met die redenering zie je wel het stroomverbruik en dergelijke door de vingers.
Ik wil nVdia wel eens een multi-GPU kaart zien maken waarvan de afzonderlijke kaarten onder load al 255Watt verbruiken zonder dat deze wegsmelt bij wijze van spreken. ;)

En in feite is het aaneenkoppelen van 2 GPU's zeker een goede oplossing.
Wat vooral belangrijk is in welke mate de 2 GPU's met elkaar worden geïntegreerd.

Een GPU is op zich al een samenwerken van een massa kleine core's, dus zoveel te meer de 2 GPU's worden geïntegreerd, des te hoger de efficiëntie zou worden.
In theorie zou je als de integratie goed word aangepakt 100% prestatiewinst moeten behalen per extra GPU die er aangekoppeld word.

Het grote probleem bij crossfire/SLI is dat hier de integratie/samenwerking wat omslachtig gebeurt. En daardoor krijg je prestatieverlies.

*Edit*: Wellicht ligt daar ook de toekomst van GPU's. De limieten worden wel elke keer opgeschoven, maar het word steeds moeilijker om een snellere GPU uit te brengen. Wanneer je echter het rendement omhoog kan schroeven dat behaald word door meerdere GPU's aan elkaar te koppelen. En tegelijkertijd verbeter je de prijs/prestatie/verbruik -verhoudingen.

De snelheidsrace is al lang bezig. Het is een zeer positieve evolutie dat men eindelijk steeds meer streeft naar optimalisatie.

[Reactie gewijzigd door Phate_13 op 27 mei 2008 14:02]

Omslachtig? Om 100% prestatiewinst te krijgen zou je alle overhead van het distribueren van taken en samenvoegen van rendering moeten wegnemen van de GPU. Ofwel zou je dan aparte kaarten moeten maken die speciaal voor SLI/Xfire zijn, of je zou die dingen op de standaard kaart moeten zetten, waardoor de 99% van de gebruikers die niet geinteresseerd zijn in SLI/Xfire een arm uit gedraaid wordt.
Omslachtig ten opzichte van de 2 GPU's op één kaart zetten en fatsoenlijk integreren.
Haha nvidia met zijn grote gpu's multi gpu kaarten. Ik zie het al voor me, een kaart van 500 Watt TDP met een extra externe behuizing om het te koelen en dan maar klagen dat je geen soundcard kwijt kan en thuis krachtstroom moet aanleggen... Ik zie het nog niet gebeuren :P

Nvidia heeft misschien marketing technisch voordeel dat zij strax de snelste single-chip gfx kaart hebben. Echter zijn er misschien 10 man die dat kopen terwijl AMD/ATI strax met een prachtige 'midde' klasser zit die nog enigszins betaalbaar is.
AMD heeft wel veel ervaring in efficiente multi-cpu systemen. In theorie kan men tot 128 AMD cpu's in 1 systeem pluggen die via hypertransport communiceren zonder bridge-chip en met shared memory.
Om zoiets voor GPU's te ontwikkelen is natuurlijk een ander paar mouwen, zomaar kopieren van AMD's hypertransport zal ook niet lukken vermits je met veel hogere snelheden en totaal andere instructiesets en toepassingen bezig bent - maar om te denken dat AMD dit niet kan lijkt me nogal kortzichtig, en ik geloof geen seconde dat ze dat bij nVidia niet doorhebben, maar het zal - zoals ze zeggen - wel veel geld kosten (hoewel nVidia's schatting met een grote korrel zout zou nemen)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True