Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia overweegt multichip-module-ontwerp voor gpu's

Door , 72 reacties

Onderzoekers van Nvidia hebben een paper gepubliceerd waarin zij een gpu beschrijven die is opgebouwd als een multichip-module. De gpu bestaat daarmee uit meerdere delen, die met een interconnect met elkaar verbonden worden.

Het opdelen van de gpu in meerdere modules moet het volgens het onderzoek mogelijk maken om grotere gpu's te produceren die meer rekenkracht hebben. Historisch gezien worden gpu's steeds krachtiger omdat het aantal transistors in een chip van gelijke grootte steeds toeneemt dankzij kleinere productieprocessen, maar in de afgelopen jaren is gebleken dat die Wet van Moore steeds moeilijker te volgen is.

Het maken van een enkele grote chip is bovendien erg kostbaar. Door deze op te delen in verschillende stukjes en een multichip-module te maken van bijvoorbeeld vier dies nemen de kosten af. Ook zou op deze manier een gpu gemaakt kunnen worden met een grootte die onmogelijk is als een enkele monolithische chip.

De onderzoekers beschrijven een gpu die bestaat uit bijvoorbeeld vier gpu-modules. In hun onderzoek stellen ze drie verschillende architectuuroptimalisaties voor die moeten zorgen voor een minimaal verlies bij de communicatie tussen de verschillende modules. Volgens de onderzoekers benadert hun ontwerp de prestaties van een theoretische monolithische chip van het vergelijkbare formaat. Het mcm-ontwerp zou maar 10 procent langzamer zijn.

Het is al mogelijk om meerdere gpu's met elkaar te combineren, door bijvoorbeeld twee of meer videokaarten in een sli-opstelling te gebruiken. Volgens de onderzoekers presteert het mcm-gpu-ontwerp echter 26,8 procent beter, dan een vergelijkbare multi-gpu-oplossing.

Of en wanneer Nvidia daadwerkelijk gpu's gaat maken op basis van een mcm-ontwerp is nog niet bekend. De voorstellen in het onderzoek zijn allemaal gebaseerd op theoretische berekeningen. AMD gebruikt al een multichip-module-ontwerp in zijn Epyc-serverprocessors en in de komende Threadripper-cpu's voor high-end desktops. AMD verbindt de dies met elkaar via zijn Infinity Fabric. Eerder heeft AMD al aangegeven dat die interconnect ook gebruikt kan worden voor gpu's.

Julian Huijbregts

Nieuwsredacteur

Reacties (72)

Wijzig sortering
Tja, dit was wel te verwachten van Nvidia. Bij AMD maakt Vega al gebruik van de Infinity Fabric, maar het is nog steeds een die. Er zijn hints dat Navi, de opvolger voor Vega in 2019 een multiple dies op een interposer GPU gaat zijn die schaalbaar zijn. Nvidia kan hier simpelweg niet achter blijven, dat zal ze de markt kosten. Het verbaast me dan ook helemaal niks dat ze hier nu mee komen. Ze zullen wel een inhaalslag moeten maken, maar dit is geen kwestie meer van of, maar wanneer Nvidia ermee komt. :)
Bij AMD Threadripper wordt toch al gebruik gemaakt van meerdere dies op een package?: http://cdn.wccftech.com/w.../2017/05/AMD-EPYC-CPU.jpg

[Reactie gewijzigd door tijmenvn op 4 juli 2017 21:34]

Ja zover was ik ook al. ;)
Het gaat erom dat AMD het nog niet voor haar GPU's doet. Dat is waarschijnlijk pas bij Navi in 2019. Nvidia zal niet lang kunnen wachten na 2019 want AMD kan botweg een paar honderd euro onder de prijs gaan zitten van een high end Nvidia GPU zoals de GTX1080Ti, en er nog steeds behoorlijk wat marge mee verdienen. Zo kan je die hele markt opslokken. Omdat je yields ook nog eens veel beter zullen zijn, kan je ook meer product per wafer verschepen, om het nog problematischer te maken.
Zeker waar! Stel je voor: 4x GP106 dies op een interposer, circa 5000 cuda cores. Schakel daar een paar SM's van uit, wel wat lagere clocks om stroomverbruik wat terug te dringen. En zul je flink wat performance van krijgen! En dat met heel gecontroleerde yields en dan hopelijk lagere prijs voor de comsument :D
Dat is het idee. Je ontwerp een architectuur, een chip voor deze achitectuur en je schaalt deze zonder dat je al te grote yield problemen hebt. We hebben het hier alleen wel over Nvidia, dus die lage prijzen krijg je alleen als AMD ze matched. ;)
Ik roep al jaren dat ik het niet snap waarom niet meer chips worden gebruikt in plaats van steeds kleiner.

Dit geld overigens ook voor een CPU. Wat maakt het voor het formaat uit dat een CPU 2 keer zo dik wordt of 2 keer zo groot. Op de meeste moederborden is meer dan voldoende ruimte.

Ik snap wel dat kleiner ook gelijk zuiniger betekend. Maar als zuiniger betekend dat de kosten per GPU verdubbelen dan is het wellicht verstandiger om eerst de chips wat te vergroten voordat weer een nieuwe procede wordt gebruikt.

Als ik het artikel lees hebben 4 chips dus in totaal maar 10% verlies. Dat zou dus betekenen dat met een nieuw procede en 4chips op een videokaart in plaats van 1 we een meer dan 100% performance boost krijgen? Dat zou betekenen dat 4K gaming opeens wel interessant wordt. En games nog realistischer kunnen worden dan ze al zijn.

Ik heb enkele jaren geleden alweer een 9800 GX2 gehad. Die had 2 volwaardige chips op de kaart zitten als een soort SLI maar dan op 1 moederbord. Dat was toen ook echt een beest van een kaart. Kun je nagaan als je nu de nieuwste generatie hebt en dan 4x. Waarbij de link tussen de chips ook nog eens sterk verbeterd

[Reactie gewijzigd door sygys op 5 juli 2017 08:16]

Het probleem is voornamelijk dat het gewoon heel duur is per mm2. Hierom zijn yields zo belangrijk en worden slechte chips vaak verkocht als andere goedkopere chips (Zoals de Ryzen 1500 en 1600 ).

dit is ook gelijk waarom het soms heel erg voordelig kan zijn om zelf de VCore in te stellen op je CPU, als je een goede bin hebt kan je die soms sterk omlaag gooien en dus veel koeler draaien op dezelfde clockspeed en workload.

[Reactie gewijzigd door jabwd op 5 juli 2017 12:01]

Ja, en dat staat ook in het artikel.
Dit was erna toegevoegt ja ;)
De smiesterds...
Navi gaat zeker een multiple die GPU worden. In presentaties heeft AMD laten dat Navi om scaleability draait. Nu ze Ryzen en Threadripper die techniek succesvol hebben toegepast (waarschijnlijk omdat dat hogere prioriteit had) is 1 en 1 twee.
Nee, dat is nog hinten. ;)
Het is waarschijnlijk ja, maar AMD houdt altijd haar kaarten tegen haar borst tot de release. Bewust misinformatie lekken om lekken op te sporen doen ze ook, en dat lijken ze met Vega ook gedaan te hebben. Uit AMD komt geen zekerheid over hun toekomstige producten, totdat ze het uitbrengen.
Je hebt gelijk. Het is geen feit totdat het zwart op wit staat, maar laten we het houden op een hele sterke hint. Zeker als je meeneemt dat het betekent dat:
- Die yields erg hoog zijn (80+%)
- AMD geen nieuwe dies hoeft te ontwerpen. Ze kunnen simpelweg bestaande dies gebruiken. Dat is ook de reden dat Vega zich focust op efficientie en IPC. In combinatie met Ryzen als testbed is dat een logische voorbereidende stap.

Hoe dan ook, het is in ieder geval erg interessant. AMD heeft op tijd ingezien dat grotere en complexere dies een (financieel en technische) onhoudbare situatie is. Nvidia beseft dat nu ook en moet daarom hierin meegaan om in de toekomst competitief te blijven. Intel lijkt er wat meer moeite mee te hebben. Misschien toch te groot en last van het "not invented here" syndroom. Spannende tijden!
Ik vraag me af in hoeverre dat nut gaat hebben. Het blijft een multigpu opstelling, maar dan alleen op ťťn bord. Het kan gunstig zijn om je rekenkracht over meerdere chips te spreiden, ook vanwege de warmteontwikkeling en afvoer. Alleen als je dan per chip prestaties inlevert vanwege multigpu (zoals dat nu ook is), dan doe je dat weer teniet.
Dit is iets heel anders dan multigpu. Dit is multidie. Het is niet alsof er twee individueel opgebouwde gpu's op het pcb zitten. Als de bandbreedte tussen de dies maar hoog genoeg is, is het praktisch gezien hetzelfde als 1 die. Deze multidies worden als 1 die behandeld dus als ze ook zo met elkaar communiceren. Heb je geen losses. Dit is gťťn SLI of Crossfire
Ja dat klopt maar ik denk dat het procedť daarom veel goedkoper kan gaan worden als ze die chip in kleinere delen gaan maken. Ik denk dat die delen net zoals in de tekst staat dat die veel goedkoper gefabriceerd kunnen worden.
Tevens zijn die videokaarten dan ook een stuk sneller.
Het is misschien ook leuk voor de cpu markt om in kleinere delen te fabriceren misschien worden die dan ook sneller.Deze gpu blokjes worden dan met interconnect aangesloten en samengesteld.
Het enige nadeel is dat ze meer oppervlakte gebruiken zodat er minder op een printplaat kan.

[Reactie gewijzigd door rjmno1 op 5 juli 2017 01:38]

En daar moet je als consument blij mee zijn? Alles behalve.
Ik denk dat ze wel moeten aangezien AMD dat al aan het doen is met Infinity Fabric zoals aan het einde beschreven. Multi-chip GPU met 4x een 460 of 470 is best bizar snel als je alle rops, tmu's etc. bij elkaar gaat optellen.
Grappig hoe AMD er tegenwoordig in slaagt Intel, en dan nu ook Nvidia, achter zich aan te laten huppelen :) Mooi wel, dat ze zo verder doen.
Hier heeft AMD dan ook bewust een keuze voor gemaakt door langer door te gaan met bestaande ontwerpen en architecturen. AMD heeft in het Radeon HD tijdperk een mooie modulaire architectuur neergezet die nu nog steeds wordt gebruikt. AMD heeft hierdoor 5 jaar het volledige r&d budget kunnen inzetten voor een lancering waardoor de concurrentie enorm achter lijkt te lopen. NVidia en Intel lopen echter niet achter, maar AMD loopt voor.
Aangezien de infinity fabric (IF) dus ook voor GPU's gebruikt kan worden, wordt IF dan straks ook geschikt om PCI-E op te volgen? Volgens mij heeft AMD IF open source gemaakt zodat andere fabrikanten het ook kunnen gebruiken.

Als ik het goed heb had AMD in de planning een IF met een capaciteit van 512GB/s, dat is echt enorm veel en volgens mij als je het geheugen dan kan delen met de GPU kan dat best een winst opleveren?

Ook voor geheugen, SSD's, netwerkkaarten etc. zou dit wel eens een voorsprong kunnen zijn. Als je netwerkkaart lekker direct met je CPU kan lullen of met de SSD's op zo'n bandbreedte, ook voor servers gaat dat enorm schelen.

Als die bus een beetje slim ingedeeld is en modulair is zodat je de capaciteit dynamisch kan verdelen over een GPU, geheugen, opslag enz. kan die bus enorm hoge bursts halen.

Toch wel mooi dat AMD - als het ook daadwerkelijk open source is - laat zien dat je niet alles proprietary moet maken. Met freesync hebben ze ook al een goed protocol in de markt gezet wat iedere schermfabrikant zo kan implementeren. En nvidia die haar marktaandeel dan weer wil beschermen met proprietary technieken die de prijs voor de consument alleen maar opdrijven.

EDIT:

Lijkt erop dat AMD het veel breder wil implementeren: http://wccftech.com/amds-infinity-fabric-detailed/

Enige waar ik bang voor ben is dat de losse gpu-dies steeds meer energie gaan verbruiken. Nu is dat nog een beperkende factor en drijfveer om efficienter te programmeren en ontwikkelen, maar als straks het aantal transistors eenvoudig is op te schroeven door een paar extra dies, heb je ook eenvoudig meer warmte over een groter oppervlak waardoor de koeling ervoor maken niet eens zo heel lastig is. Maar het energiegebruik rijst de pan uit...

[Reactie gewijzigd door Nox op 4 juli 2017 19:16]

volgens mij is if gewoon een laag die heel veel pcie lanes kan bundelen en besturen
Vwb je laatste alinea, dat gaat natuurlijk niet gebeuren. Ik denk dat we in het slechtste geval GPUs krijgen die op gelijke TDP blijven hangen zoals dat nu ook al jarenlang het geval is. Met zo'n 300 W TDP board power heb je toch al vrij extreem veel warmte af te voeren. Dat kan niet hoger, en is al redelijk verlaagd binnen 22nm (Nvidia gaat meestal voor zo'n 220-250w op de grootste die) en dual GPU sterft ook in sneltempo uit.

De markt vraagt ook om zuiniger, kleinere form factor, en passief. Hoge perf/watt staat op ieders verlanglijstje, en met Pascal is een nieuwe nullijn neergezet vwb de geluidsproductie op een high-end kaart en het verbruik. Daar in negatieve zin vanaf wijken maakt je product een stuk minder aantrekkelijk.

[Reactie gewijzigd door Vayra op 5 juli 2017 09:16]

Ook @aval0ne hieronder, Als ik de laatste trends bekijk, maar dan heb ik het over de afgelopen jaar of 15, is het verbruik alleen maar toegenomen. Mijn 9800 PRO had een koelertje erop zitten wat gewoon schattig was. Mijn X800 had een volledig dekkende 'cover' als koeling en nu hebben we 2- en 3-slots heatsinks erop zitten en sommige kaarten komen stock met waterkoeling. Kijk ik naar de laatste 5 jaar zie ik mijn 7950-generatie kaarten zo'n 350 watt verbruikten onder load (hele systeem). Met de nieuwe R9 Fury/1080Ti generatie is dat ruim 400 watt. Ik noem dat niet echt een daling, eerder een stabiele stijging.

Wťl mooi dat de CPU's van AMD allemaal onder de 100 watt tdp zijn gebleven, maar idle zijn ze nog steeds minder efficiŽnt, en idle is waar de meeste winst te behalen valt. Veel mensen browsen een beetje, doen een beetje officedingen en de enige momenten dat er load is, is bij het installeren of een spelletje spelen wat vrij zeldzaam is. Zeker op kantooromgevingen (workstations uitgesloten) is het gros surfen en typen.

EDIT:

Linkje: http://www.anandtech.com/...d-radeon-r9-290-review/15

Hier zie je de 6970, 7970 en R290, alle topkaarten. De R9 Fury kan zelfs een systeem naar 450 watt trekken, zie: http://www.anandtech.com/...rce-gtx-1080-ti-review/16

[Reactie gewijzigd door Nox op 5 juli 2017 10:22]

https://www.techpowerup.c.../GeForce_GTX_1080/27.html

Dit geeft goed de verschuiving weer die er vandaag de dag gaande is. De perf/watt is jarenlang heel langzaam omhoog gekropen, en maakt nu grote sprongen. De focus is verschoven van performance naar perf/watt. AMD die een Fury X met HBM uitbrengt heeft daar ook mee te maken; GDDR5 zou de TDP te ver opdrijven. Je ziet ook dat de Fury X een betere perf/watt heeft dan alles wat AMD daarvoor heeft uitgebracht met GDDR5.
Perf/watt zal altijd groeien, je kan het moeilijk verkopen dat je nieuwe kaart meer stroom verbruikt maar hetzelfde presteert 8)7

Maar ik heb het over stroomverbruik van GPU's in algemene zin, ze komen met meer capaciteit maar het is tot nog toe altijd ook met meer stroomverbruik gegaan. Er is niet een model welke ťn betere prestaties levert maar minder stroom is gaan verbruiken.

De 1080 levert dus fors meer prestaties tegen een iets hoger stroomverbruik. Ik zie liever dat het stroomverbruik verder zakt maar dat er efficiŽntere designs komen en efficiŽntere software.

Een goed voorbeeld daarvan vind ik AMD persoonlijk, met hun vulkan api's bijvoorbeeld. Zodat devs meer directere controle krijgen over de hardware. Het zou fijn zijn als het verbruik van een systeem naar <300w load en <40w idle kan bijvoorbeeld.

Ook Firefox met servo/quantum/rust is hier mee bezig, die leunen straks op mťťr threads op lagere frequentie in plaats van 1 thread op hoge frequentie.
Volgens mij moet je nog eens kritisch naar wat reviews gaan kijken want wat je zegt klopt gewoon pertinent niet. De link die ik je gaf laat juist zien dat perf/watt relatief gezien al jaren heel traag omhoog kroop en dat er nu een mega sprong is gemaakt met Pascal - en ja, de GPU is zowel sneller als zuiniger geworden.

GTX 980ti versus GTX 1070 - stock vs stock is de 1070 zo'n 5% sneller.
Speclist TDP 250W versus TDP 150W
Real world: 210-220W versus 170-180W (waarbij de 1070 verder omhoog klokt dmv Boost 3.0 en daarmee ook verder uitloopt op de Boost 2.0 van de 980ti tot zo'n 7-10% hogere performance).

En warempel, we zien nu ook full-fat desktop GTX 1070's geplaatst worden in laptops. Nvidia brengt speciale versies uit die iets zuiniger draaien. Allemaal om die markt te kunnen bedienen.

Je hebt het over de laatste trends maar de afgelopen vijftien jaar is geen laatste trend, dat is historie. Zeker in de tech wereld. Vanaf Kepler v2 is al een verschuiving gaande naar efficientie boven rauwe performance, zowel op CPU als op GPU, en dat is nodig want de markt vraagt daarom met steeds meer behoefte aan power op een mobiel apparaat.

Vwb die nieuwe APIs, ook dat pad is al eerder bewandeld met 3DFX en je ziet nu dat DirectX12 maar niet echt lekker wil ten opzichte van DX11 en tot nu toe vooral lijkt op een probleem op zoek naar oplossingen ipv andersom. Vulkan is dan de gedroomde API maar ook daar heb je het over een handvol titels omdat het gewoon een veel hogere inspanning is daarvoor te programmeren.

Low-level kan dan wel efficienter zijn, het kost ook bakken meer ontwikkeltijd- en geld en dat gaat regelrecht tegen de huidige marktbehoefte in, want die is gericht op snelle releases en agile development met de gebruiker als beta-tester.

Tot slot heb ik dan nog dit prachtige overzicht dat onderschrijft dat de max TDP van videokaarten steeds al op of rond de 250 W heeft gelegen, een enkele uitschieter naar boven daargelaten. Maar die uitschieters zijn al wel uit het Fermi tijdperk, en daarna niet meer vertoond.
http://www.geeks3d.com/20...esign-power-tdp-database/

[Reactie gewijzigd door Vayra op 5 juli 2017 14:56]

Je pakt nu een 1070 tegen een 980ti, dat is geen goede vergelijking. Je had een 1080ti en een 980ti moeten pakken. De 1080ti heeft in dezelfde benchmark gewoon een hoger stroomverbruik. Je moet niet appels (1070 als mid-end kaart) en peren (een 1080ti als high-end) vergelijken. Pak gewoon de snelste GPU van een serie. Je ziet dan dat fabrikanten steeds meer vermogen gaan eisen voor hun snelste GPU's.

En de afgelopen jaren waren er CPU's met TDP's van - ik meen - 145 watt te vinden in high-end desktops, ook zoiets, vroeger hadden we dergelijke monsters niet :) Toen had het topmodel allicht een 70-90 watt tdp. Misschien doel je erop dat er ook modellen zijn die beter presteren en minder verbruiken, maar als er nog steeds stroomvretende monsters worden gemaakt spoort dat de gamedevelopers niet aan om efficiŽnter te ontwikkelen... ;)
Bij de 980ti en de 1080ti is de perf/watt ook een stuk hoger geworden en het TDP exact gelijk gebleven. 250W versus 250W, dus wederom, je roept maar wat. En Kepler v2 / 780ti was precies hetzelfde. Gaan we verder terug, dan kom je Fermi tegen met uitzonderlijk hoge TDPs van boven de 300 W op de topmodellen, wat dus weer een feitelijk bewijs is dat je ernaast zit.

Ik pak een 1070 en 980ti omdat deze kaarten stock/stock qua prestatie vrijwel gelijk lopen en ook met OC redelijk gelijk op gaan. Daarmee wordt de stelling ontkracht dat meer performance ook meer energie zou kosten, want de 1070 is sneller bij lager verbruik. Verder is de naam van een GPU precies dat, een naam, en de positionering heeft niets met perf/watt te maken.

Vwb CPU: ook hier zit je er keihard naast. Ben je de FX vergeten, met TDP van over de 150w? Zet daar eens een Ryzen 8c/16t tegenover.... Of kijk eens kritisch naar deze verbruikscijfers van pre-Sandy Bridge:
reviews: Core i7: Intel loopt uit

CPUs zijn ook gewoon zuiniger geworden, hebben meer power states en springen dus veel creatiever om met TDP budget (hogere pieken, diepere dalen) en zijn juist bij idle vele malen zuiniger geworden. De Intel CPUs zijn vanaf Sandy Brdige bij gelijke core counts zowel zuiniger als sneller geworden. Dat er manycore CPUs bij komen die meer verbruiken is logisch, maar zegt niets over perf/watt. Bovendien bestonden bepaalde core count CPUs voorheen gewoon nog niet, zo begint Intel nu eindelijk aan het uitrollen van hexacores en octocores op een consumer platform. Dat de TDP cijfers van de meest recente x299 quad cores hoger liggen komt omdat Kaby Lake gewoon een clock bump van Skylake is. Verder hebben deze CPUs nu ook een IGP erin zitten.

Het is en blijft hetzelfde liedje: er zitten maxima aan de wenselijke TDP budgetten en binnen dat budget wordt het maximale uit een chip gehaald en een enkele keer wordt een TDP budget grof overschreden omdat de markt erom vraagt (wederom, denk aan Fermi). En op dit moment vraagt de markt om kleiner en zuiniger, en dat zie je dus ook terug in Pascal.

[Reactie gewijzigd door Vayra op 5 juli 2017 17:03]

TDP =! verbruik

En wat betreft CPU's complimenteerde ik AMD juist dat ze nu een line-up hebben in de wat zwaardere modellen met 95 en 65 watt TDP's.

Maar nogmaals, de topmodellen GPU's zijn gewoon meer gaan verbruiken, lees die link met de review nou eens en probeer dan nog te zeggen dat 450 minder is dan 340. Daar doelde ik op.
Anandtech meet system power over een periode van meerdere GPU generaties op verschillende systemen. Dat er een Fury X is met een uitschieter zegt nul komma nul over het verloop over de jaren heen. Zo zijn er, zoals eerder aangegeven, meer uitschieters geweest. Maar die zijn niet bepalend voor een trend.

System power is problematisch omdat een dikkere GPU ook de CPU harder laat werken, waardoor het verbruik van die CPU stijgt. De verschillen van 10-20w tussen alle andere GPUs zijn totaal onbetrouwbare resultaten omdat het over system power gaat.

Dus, voor de zoveelste keer; verdiep je nog eens wat beter in de materie en ga appels en appels vergelijken.

[Reactie gewijzigd door Vayra op 5 juli 2017 17:13]

En daarvoor hebben ze de GPU-benchmarks, scroll even door naar de resultaten van Furmark en zie daar dat de system power (met hetzelfde systeem, dus niet verschillende systemen) en verschillende GPU's van de afgelopen jaren alleen maar stijgt. Niet hard, maar de conclusie die jij trekt, dat de topmodellen enkel een lager stroomverbruik hebben, klopt dus niet.

En dan is die trend misschien nu net een halt toegeroepen of afgevlakt (of misschien is er thermal throttling actief geworden), vroeger hadden de videokaarten gewoon een max TDP van zo'n 100 watt. Ik herinner me mijn 3870 nog, topmodel single GPU kaart van die tijd, doet 105 watt TDP. In een paar jaar zijn we gewoon dik het dubbele gaan verstoken.

Dus om nou te zeggen dat nvidia (en AMD) echt bezig zijn om het vermogen van hun GPU's hard terug te dringen: nee, die conclusie kunnen we niet trekken. Ze blijven tegen die 250w aan tikken, persen er wellicht meer power uit maar een 160w tdp topkaart of iets dergelijks is er gewoon niet. Hopelijk snap je dat ik er dus geen vertrouwen in heb dat nvidia de vermogens terug gaat schroeven.
Als je naar de geschiedenis van de gpus gaat kijken dan stijgt het verbruik niet, het daalt eerder.
Je vergeet dat 5 jaar R&D voor AMD, misschien net een jaar is voor Nvidia, en een paar maanden voor Intel. Niet echt een excuus. Nvidia loopt al jaren gigantisch achter met zijn arch en blijft enkel bij door de core snelheden flink op te schroeven en proprietary exclusiviteitsdeals te sluiten (cuda, gameworks, etc). Intel is lui geworden op de CPU markt omdat AMD vrijwel stil stond op alles behalve APU's, en zijn nu overrompeld.
Meer mensen en meer budget maakt R&D niet altijd sneller. Even los van het risico van "research" dat er geen garantie op resultaten is, zijn er processen in architecture research die je niet kan paralleliseren. Het produceren van een test-chip is een pipeline waar je maanden en iteraties voor moet uittrekken, of je 't nu in je eentje doet of met een dozijn.

En of NVIDIA hopeloos achter loopt, die indruk heb ik niet hoor. Ze hebben gekozen voor een keep-it-simple aanpak van hun core organisatie ivm een mega-efficiente DRAM bus (ehm... afgezien dan van dat "partitie-slippertje"). Die eenvoud maakt het ook nog eens makkelijker een goede compiler te bouwen, iets dat AMD zich sinds GCN ook heeft gerealiseerd. Er is maar zoveel variatie mogelijk met een transistor-budget, en NVIDIA heeft een basis waarmee ze redelijk snel de doelpalen kunnen verschuiven (bijvoorbeeld hogere throughput bij lagere precisie, zoals we met Pascal's 2*fp16 en Volta's 16*16 8-bit "tensor" core zien). Daarnaast zijn ze behoorlijk sterk met hun power efficiency oplossingen. Wie er sterker is laat ik in het midden aangezien dat af hangt van de use-case, maar het gat is zeker niet zo groot als het pre-Zen gat tussen AMD en Intel CPUs!

[Reactie gewijzigd door RSpliet op 4 juli 2017 19:59]

Ik snap niet helemaal waarom je op +2 staat. Hoezo kan nvidia alleen maar "bij blijven" door de clocks op te schroeven? Wat is dit nou weer... Vanaf de 1060 heeft AMD niet eens een concurrerende chip, en bij alles er onder doet nvidia het beter wat betreft performance/verbruik. Dat noem ik niet echt "bijhouden". Nvidia mag dan de simpelere architectuur hebben, maar tot nu toe geeft dat een klap meer performance op dezelfde diesize en bij eenzelfde verbruik. Of weet jij een concurrent voor de 1080TI.

Nee, amd is degene die moet bijblijven, niet nvidia. Laat ze nou maar eens eindelijk een keer vega uitbrengen. Dan zien we wel weer hoe het er voor staat. Zoals het nu is loopt nvidia al dik een jaar te cashen op de high end kaarten.

[Reactie gewijzigd door Thekilldevilhil op 5 juli 2017 01:20]

https://ycharts.com/companies/AMD/r_and_d_expense

https://ycharts.com/companies/NVDA/r_and_d_expense

https://ycharts.com/companies/INTC/r_and_d_expense

Dat is dus absoluut niet waar. Waar AMD haar budget wat naar beneden heeft bijgesteld moet Nvidia het in dezelfde periode enorm omhoog gooien om bij te blijven.


Intel is natuurlijk een heel ander verhaal, maar die lijken hun budget echt totaal niet goed in te zetten ofzo. Met een kwartaallijks bidget van 3 miljard is het ruim 5 keer zo hoog als nvidia en amd bij elkaar, maar er komt nog steeds niet uit wat wij verwachten gezien de huidige koers met X299 en i9.
Vreemde conclusie op basis van ťťn grafiekje.

Nvidia is bezig nieuwe producten in de markt te zetten, dat is de reden van de stijging. Volta is allang in ontwikkeling dus die stijging heeft daar niets mee te maken, en de architectuur is gewoon iets dat constant wordt doorontwikkeld, daarom lijkt het ook allemaal sprekend op elkaar vanaf Kepler.

Dat extra geld gaat naar deep learning, Tegra PX, enzovoort.
Dit soort redeneringen gaan niet lineair. Immers, je kan met 9 moeders ook niet een kind in 1 maand baren.

[Reactie gewijzigd door Gropah op 4 juli 2017 20:28]

dus vele handen maken licht werk kan de prullenbak in?
Meestal wel ja. Veel handen maken alleen licht werk als je die handen aan het werk kunt houden, en hun tijd nuttig kunt laten besteden. Dat 'licht werk' slaat volgens mij vooral op de inspanningen van elk individu. Als je een taak kunt verdelen, hoef je zelf minder te doen.

Er zijn talloze projecten waarbij meer handen precies het tegenovergestelde effect hebben.

[Reactie gewijzigd door Vayra op 5 juli 2017 09:25]

Nvidia loopt al jaren gigantisch achter met zijn arch en blijft enkel bij door de core snelheden flink op te schroeven en proprietary exclusiviteitsdeals te sluiten (cuda, gameworks, etc).
Met de Maxwell/Pascal arch levert Nvidia betere prestaties, hogere efficiŽntie en een kleinere die size tov. concurrerende AMD producten. Dus waar precies lopen ze op achter?
Nvidia loopt achter op luchtkastelen, zoals AMD die HBM2 GPUs blijft maken die never nooit een mooie marge kunnen krijgen. Want dat is de zogenaamde 'voorsprong' die AMD zou hebben. AMD heeft geen voorsprong, ze hebben als eerste hun technologie toegepast in een consumentenproduct. Die scalability dmv Infinity Fabric is overal in ontwikkeling, ook bij Nvidia, maar daar heet het NVLink. Intel heeft tot nu toe nog geen enkele noodzaak gehad om iets dergelijks in een consumenten CPU toe te passen, maar er ligt heus iets op de plank.

De realiteit is echter dat Nvidia de timing van zijn producten duizend keer beter op orde heeft. Ze hebben veel beter gevoel voor de markt. AMD ontbeert dat nog steeds een beetje; dat zie je aan de misser bij Ryzen vwb de game prestaties en de launch van het nieuwe platform, maar vooral aan het tot twee keer toe toepassen van peperduur en slecht leverbaar geheugen terwijl je al meer dan een jaar te laat bent met de release van een GPU...

[Reactie gewijzigd door Vayra op 5 juli 2017 09:35]

Je vergeet het feit dat Infinity Fabric niet echt iets heel nieuws is, het is een doorontwikkeling van Hyper Transport, en vergelijkbaar met Intel's Quickpath en Ultrapath van Intel, en NVLink van Nvidia
Multi-chip modules zijn ook niet echt nieuw, Intel heeft de techniek gebruikt voor de eerste dual-core Pentium D.
Jullie vergeten dus voor het gemak even NVLink wat er als sinds 2014 is; https://en.wikipedia.org/wiki/NVLink

Verschilt niet zo veel met wat ze in het artikel naar voren bregen, de afstand van de losse chips maakt voor het princiepe niet zo veel uit. Daar linken ze al 8x een P100 mee aan elkaar bijv, en gpu's met cpu's. De eerste gpu's van AMD die bijv. VRAM delen moet ik nog zien. Dus of AMD nou voor loopt dunno.

[Reactie gewijzigd door maratropa op 4 juli 2017 19:17]

Nvlink is iets heel anders dan infinity. Amd maakt al gebruik van if bij ryzen processoren en zal dit nu ook verder uitwerken naar hun gpu's. Nvlink is is is daar iets heel anders in
van de wiki's;

Infinity Fabric:

"Infinity Fabric is a superset of HyperTransport announced by AMD in 2016 as an interconnect for its GPUs and CPUs. It is also usable as interchip Interconnect for communitcation between CPUs and GPUs."

NVlink:

"NVLink is a wire based communications protocol for near range semiconductor communications developed by Nvidia that can be used for data and control code transfers in processor systems between CPUs and GPUs and solely between GPUs."

Dat klinkt nou niet heul erg verschillend.
Bij amd zien we meerdere dies op een package bij processoren op moment bij nvlink zien we niet dat deze zelfde gpu dies met elkaar aangeslotem zitten op een single package maar nog steeds extern verbonden zijn zoals met sli zoals verder onder ook al is gezecht of dit ook zo uitgebouwd kan worden weet ik niet.

[Reactie gewijzigd door satanas666 op 4 juli 2017 20:11]

Dan kijk je wat te veel naar de vorm, conceptueel ligt het dicht bij elkaar. Is de link tussen 2 AMD epyc sockets dan ook iets wezelijk anders?
Of als ik 2 GP100 aan elkaar lijm heb ik ook 1 package?
In dat opzicht is NVLink dichter bij HyperTransport dan InfinityFabric en moeten ze dus de daadwerkelijke stap nog maken.
Infinity Fabric is nog wat vaag omdat er niet echt whitepapers van zijn dacht ik maar ze hinten erop dat IF heel granulair is, dat het niet alleen een verbinding tussen sockets en chips is maar veel verfijnder.

Volgens mij zei Raja zelfs dat de ene core speficieke Shaders kan aanspreken op de andere core en dat is nogal een verschil met Nvlink, dat is net als intel zijn QPI een verbinding tussen sockets.

AMD gaf geloof ik ook aan dat Intel en NVidia met hun QPI en Nvlink hetzelfde zouden kunnen gaan doen als ze deze zouden door ontwikkelen en dus verfijnen.

[Reactie gewijzigd door laurens91 op 4 juli 2017 22:41]

Hebben ze gelukkig wel vaker gedaan (met name bij videokaarten). Zo blijft de markt gezond :D.
NVlink lijkt me hier een beter en geavanceerder voorbeeld dan SLI toch? Daarmee wordt het vram bijv ook gedeeld (en mag je het optellen) etc.
Mijn inziens heeft SLI/NVlink hier niet zo veel mee te maken. Dit kan je meer zien als het idee achter single-core vs quad-core bij de CPU's. SLI/NVlink is om fysieke kaarten aan elkaar te knopen, dit gaat op een veel lager niveau. NVlink zou wellicht nog wel ingezet kunnen worden om meerdere van deze "quad-core" GPU's met elkaar te verbinden.
Ik bedoelde, ze geven in het artikel SLI as voorbeeld van het combineren van gpu's, wat puur bedoelt is om het renderen van vieuwports te verdelen en syncen over meerdere gpu's. Ze hadden als voorbeeld het banale pci-e express moeten nemen wat de onderliggende vebinding is, of het veel geavanceerdere NVLink wat nota bene van Nvidia zelf is..
Dat probeerde ik ook te zeggen ;) In deze context van het artikel is het aanhalen van SLI niet echt heel zinnig omdat het op een heel ander niveau gebruikt wordt.
Ah ok, maar Nvlink is dus wel relevant (omdat je dat achter de "/" zette met SLI samen) Volgens mij gaat NVLink wel meteen diep de chipjes in.
NVlink op dit moment zit ook nog "te hoog" in de structuur om voor dit idee heel zinnig te zijn.
Hier staat wel een mooie uitleg wat het kan betekenen. Nvlink staat boven de GPU-chip, dit verhaal gaat over de chip zelf, wellicht dat een hybride idee zou kunnen maar daar is de techniek nu nog niet geschikt voor.
de NVLINK interface zit in de chip-die van de gpu's (p100 , v100), of je er nou 2 op een plaatje plakt en met nvlink verbindt of op 2 plaatjes en dan verbindt lijkt me niet zo veel verschil voor het concept?
Zal wel mooi zijn als ze dit kunnen doen met bijvoorbeeld 2 gpu's en met een max prestatie verlies van 10% net als 2- way x- fire of sli, maar als 1 gpu word gezien.
Kom maar op toekomst.
Zal wel mooi zijn als ze dit kunnen doen met bijvoorbeeld 2 gpu's en met een max prestatie verlies van 10% net als 2- way x- fire of sli, maar als 1 gpu word gezien.
Kom maar op toekomst.
Ik denk dat dat onvermijdbaar is, zodra die volledig gpus modulair zijn(en software daar ook optimaal gebruik van kunnen maken zodat je verwerkingsnekheid eerder wordt verdubbeld ipv met enkele tientallen procenten) en die bussen snel genoeg kun je de warmte, memory en powerdraw spreiden over meerdere pcbs, terwijl je kleinere dies hebt en dus veel betere yields, goeskopere koeloplossingen.

[Reactie gewijzigd door Rey Nemaattori op 4 juli 2017 23:05]

Ik ben benieuwd of deze multi gpu's dan zonder game optimalisatie gewoon goed hun werk doen. Het is met sli veel te vaak het geval dat er eerst iets in de game gepatched moet worden voordat het goed werkt. Ik ben geen expert, maar zou het mbt de snelheid waarmee er naar het systeem gecommuniceerd wordt niet beter zijn om de sys/io module tussen de 4 gpu's te zetten?
Ik heb mij laten vertellen dat vulkan (welke gebaseerd is op mantle, wat van AMD is) en dx12 het makkelijker moeten maken om voordeel te halen uit multi gpu opstellingen.
Alleen heeft nVidia het enthousiasme voor multi-GPU bij dev's zelf de nek omgedraaid door bij de 10xx serie de mogelijkheid tot SLI enorm te beperken. Dus ondanks dat Vulkan en DX12 het makkelijker zouden maken om multi-gpu te schrijven, zal daar eerst door developers weer tijd en geld in gestoken moeten worden.

Gevalletje Nvidia lijkt zichzelf hiermee wat in de vingers gesneden te hebben.

Het idee kan ik alleen maar voor zijn. nadruk ligt al jaren vooral op power consumption... maar ik wil gewoon rekenkracht. De tijd die je nu moet wachten op render previews ed. in zware pakketten (video/3D) weegt niet op tegen het lagere stroomverbruik. Ik heb liever 3x zo snel klaar en dat de PC uit kan, dan 3x minder stroomverbruik maar wel lang moeten wachten.
Een quad core gpu met 14000 cudacores? Even 5000 euro afrekenen maar dan heb je ook wat. De multi GPU kaarten van AMD hadden veen minder last van micro stuttering dan SLI of crossfire opstellingen dus het zal wel haalbaar zijn. Met een lagere kloksnelheid dan we gewent zijn zal het ook nog wel te koelen zijn.
Zoals al aangeven in het artikel ligt AMD hier al mijlen ver op voor, en zal met niks verbazen als er binnen R&D een aantal gpu's met aan elkaar geknoopte vega en polaris cores liggen. Hell, zou me niks verbazen als ze al op de stapel liggen.

Dit lijkt me meer een poging van Nvidia om aan investeerders/klanten te laten zien "wat hun kunnen, kunnen wij ook bedenken".

Met HBM is fysieke ruimte voor geheugen grotendeels opgelost op de pcb, zullen vrij veel ruimte kunnen inzetten voor die chips. Koeling lijkt me hier het grootste probleem, zal een behoorlijke waterkoeler op moeten.

[Reactie gewijzigd door jaquesparblue op 4 juli 2017 19:06]

AMD heeft het alleen nog maar bij CPU's nog niet bij GPU's.
Super nieuws dit :)
8K 60 fps lijkt zo mogelijks niet ver weg meer :)

Eerst de cpu's die schalen op meer cores nu is mogelijks de gpu aan de beurt.

Stel u voor in 2025 (mss zelfs vroeger) een 8 core gpu met prestaties van 8 keer een 1080 :9~
Kun je dan ook gewoon, zeg 4, losse chips bakken en vervolgens aan elkaar plakken? Zou je in dat geval niet ook enorm goede yields kunnen halen door wat simpelere chips te gebruiken? Met 4 gpus is performance toch geen issue meer.
In ieder geval lijkt mij dit de toekomst. Als je dit goed weet te scalen hoef je niet zo meer afhankelijk te zijn van kleinere productieprocessen die steeds moeilijker te behalen zijn. Het enige nadeel waar ik over gehoord heb bij het Infinity Fabric gebeuren is dat er wat latency is tussen de dies.
Een Core 2 Quad was toch ook al en soort dubbele Core 2 duo met interconnect?
Wat was het probleem hiervan dat dit met GPU's nu pas gebeurd?

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*