Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 41 reacties

Nvidia is van plan om een nieuwe, snellere interface in zijn gpu's te bouwen, zodat gpu's en cpu's data vijf keer zo snel kunnen delen als nu. Ook gaat het bedrijf in 2016 een nieuwe reeks gpu's op de markt brengen, onder de naam Pascal.

De huidige pci-express 3.0-interface die wordt gebruikt als interface om een gpu in een pc te steken is volgens Nvidia een belangrijke bottleneck. De NVLink-interface moet dat oplossen, zo heeft Nvidia tijdens een persconferentie bekendgemaakt. NVLink is vijf tot twaalf keer zo snel als pci-express 3.0. Ook blijven de caches tussen de cpu en de gpu gesynchroniseerd.

Het sneller heen en weer kunnen schuiven van data is volgens Nvidia vooral van belang voor supercomputers. De nieuwe interface maakt volgens het bedrijf supercomputers met 1000 petaflops mogelijk, wat 50 tot 100 keer zo snel is als de huidige supercomputers.

De nieuwe interface zal nog worden toegepast met Nvidia-gpu's die de Maxwell-architectuur gebruiken, maar wanneer precies is nog niet bekend. De eerste gpu's met die architectuur werden vorige maand aangekondigd.

Daarnaast gaat Nvidia in 2016 gpu's uitbrengen met een nieuwe architectuur, onder de naam Pascal. Die architectuur moet zijn voorzien van geheugen dat bovenop de gpu wordt geplaatst, waardoor een gpu met duizenden bits tegelijk kan werken, waar dat nu nog maximaal honderden bits zijn. Dat principe, door Nvidia 3d memory gedoopt, zorgt bovendien voor kleinere high-end-gpu's: tijdens de keynote toonde de ceo van Nvidia een Pascal-kaart met de grootte van een betaalpas.

interconnect nvidia

Moderatie-faq Wijzig weergave

Reacties (41)

NVLink klinkt als vendor lock-in. GPU's hebben tegenwoordig al bijna geen verschil in performance tussen een PCI-E 3.0 8X of 16X slot.
Bijna geen verschil voor rendering nee, maar wel als je taken over GPU en CPU wilt gaan verspreiden en veel data heen en weer naar de GPU moet sturen. Dat is nu eigenlijk alleen maar rendabel voor bewerkingen op grote blokken data waar de overhead van het kopiëren over PCIe ruimschoots wordt goedgemaakt door de snellere bewerking op de GPU, voor kleinere en/of latency-gevoelige jobs heeft het door diezelfde overhead geen zin. Dit klinkt een beetje als de Nvidia tegenhanger van HUMA + hQ (heterogenous unified memory access + heterogenuous queuing) van AMD, die kunnen dit soort dingen nu al omdat ze zowel de CPU als de GPU zelf maken.
Het kan aan mij liggen maar heeft nvidia hier geen support voor nodig van Intel of Amd? Aangezien ze zelf geen processors maken.
Ik vind het persoonlijk wel iets groter dan een bankpas gezien de dia's van Nvidia, http://www.anandtech.com/...tc-2014-keynote-live-blog

Ook wel interessant om te melden is dat 'volta' van de roadmap van Nvidia is verdwenen en Pascal hiervoor waarschijnlijk in de plaats is gekomen.

Daarnaast is het niet persé de plaatsing van 3D geheugen direct op de chip die het hem doet communiceren met 'duizenden' bits zoals het artikel doet vermoeden naar mijn mening, maar de NV-Link die grotendeels de bottlenecks van PCI-E wegneemt en dus, daardoor sneller communiceren kan.
Die NV-link lijkt voorlopig meer een gamersfeature dan nuttig voor petaflop-supercomputers.
Lijkt me ook geen handige gamersfeature, aangezien je tussen een AMD cpu en Intel cpu al moet wisselen van moederbord. Moet je nu dus ook gaan wisselen van moederbord als je van Nvidia naar een AMD GPU gaat. Lijkt me geen handige ontwikkeling, ze hadden beter een nieuwe PCI-E standaard kunnen voorstellen.
Dit kun je vast met een bijgeleverd kabeltje in de gpu's klikken.

Je kunt dan 4 gpu's vast parallel schakelen en daarmee dan gamen als ware het 1 gpu.

Nieuwe pci-e standaard krijgt Nvidia er in zijn eentje nooit doorheen. Om te beginnen lacht intel ze uit en stemt het weg van de agenda.

Nvidia en intel zijn niet bepaald elkaars grootste vriend meer...
Klinkt dus alsof het meer voor hun tesla systemen is dan voor desktop computers en andere consumenten producten.
Lijkt me dat 't simpeler is voor desktop PC's om er iets nuttigs mee te doen, terwijl zo iets echt jaren en jaren kost voor de stronteigenwijze(*) commissies van professoren het zien als iets wat ze kopen gaan voor hun universiteit/natie.

* Ik gebruik het woord stronteigenwijs bewust om het woord corrupt te vermijden.
Teslas worden volgens mij meer gebruikt voor het renderen van films als avatar enz. niet voor een dataservertje op een universiteit.
Tesla's worden met name voor supercomputers gebruikt.

http://top500.org/list/2013/11/

Ook de nummer 2 heeft bende tesla's, de K20x

Al sinds vele jaren staan op vrijwel elke zichelfrespecterende universiteit wel wat tesla's gekoppeld aan computers voor phd's om mee te rommelen.

Ook hier in Nederland ja...

Ook SARA heeft in 1 van de supercomputers tesla's en wat testomgevingen zijn er die ze vast willen opschalen.

Vergelijkbaar met de tesla is de Xeon Phi van intel. De Tesla is stevig sneller dan de Xeon Phi, maar Nvidia heeft 'm wel een beetje duur geprijst.

voor de wetenschap wil je rekenen met double precision floating point. Hele mond vol, maar het is gewoon bijvoorbeeld 15.39294929119 met in totaal rond de 19 digits (voor en achter de komma).

De gamerscards zijn vaak enorm verzwakt in de double precision rekenkracht. Ze zijn dus wel snel in single precision zeg 15.39 (in totaal 23 bits aan nauwkeurigheid) maar stuk trager.

Deze Titan Blacks echter zijn behoorlijk snel wat double precision rekenkracht betreft en dus heel interessant voor studenten, daar ze stukken goedkoper zijn en ook sneller dan een Tesla.

De reden is dat de Tesla's dus uitgerust zijn met ECC. Daarom stevig lager geklokt en alleen single gpu modellen.

Vandaar dat de Titan blacks en ook deze dubbele titan black, zeer interessant is voor de uni's.
Dit kan erg belangrijk (lees: een doorbraak) zijn voor de portable console industrie...
hoe dan?
als je streaming bedoeld zal het tot niks uit lopen het probleem daar mee is de afstand tot de server en niet de kracht van een server
Dat principe, door Nvidia 3d memory gedoopt, zorgt bovendien voor kleinere high-end-gpu's: tijdens de keynote toonde de ceo van Nvidia een Pascal-kaart met de grootte van een betaalpas.
o zie dit nu pas

ja maar dan zullen ze alsnog stroom consumptie enorm naar beneden moeten schroeven

[Reactie gewijzigd door firest0rm op 25 maart 2014 18:27]

Hij bedoeld dat portables daardoor aanzienelijk krachtigere gpus kunnen hebben dan nu.
Echter betwijfel ik dat ze dit op het oog hadden met het ontwikkellen hiervan. Het gaat hier gewoon om de volgende evolutie naar nog snellere gpu's.
Tik - Tok --> eerst evolutie naar een krachtigere chip, daarna diezelfde chip efficiënter (vaak door te verkleinen). Dat was toch het Intel principe dacht ik, zal ook wel voor Nvidia gelden me dunkt.
Dat doet bijna elke semiconductor, enige wat anders wat aan tik-tok was dat intel er tijdbestek aan vast had geknoopt. Maar AMD en intel deden voorheen bijna altijd al nieuwe architectuur eerst uitbrengen op procedé wat ze al tijdje gebruikte. Zowel intel als AMD hebben het wel eens tegelijk gedaan maar dat gaf extra veel problemen. Ook het tweaken van architectuur en procedé gaandeweg doen ze ook allemaal.
Ik zie het meer als door kleinere procedes is er steeds meer mogelijk kwa intergrtie.

Vroeger zat de cache los op mobo werd een FPU erbij geprikt 80387 of de weitec alternatief. Nou zijn system on chip mogelijk en met elke procede verkleining worden die steeds krachtiger.

Daarbij GPU zijn grote chips als mem ontop kan is er grote plak voor mem on top ook nog stacked kan er nog meer in. Alleen de warmte moet dan door de mem deel gaan.
Ja, die stap tussen de PC's en portables zal dan (lijkt mij) even groot blijven. Deze technologie lijkt dan een significante stap te betekenen voor de grafische kracht van een PC.

Zullen we straks na al die jaren dan eindelijk Crysis en Battlefield betaalbaar ultra 1080p kunnen spelen? Ik kijk hier smachtend naar uit. :D
Dat hangt ervan af welke Crysis of BF je bedoelt. Versie 1.0 van beide draait inmiddels prima hoor :) De nieuwere versies worden voorzien van zoveel grafische grappen als de GPU aankan, en dat zie ik voorlopig niet veranderen. Van de andere kant, 10 jaar geleden was gamen op 1280x1024 nog prima, tegenwoordig moet je echt 1080p hebben. Wellicht gaat dat nog veranderen, en spelen we BF6 op 4k standaard?
Ligt er uiteraard weer aan wat je onder betaalbaar verstaat. En ook kijk jij alweer verder vooruit, ik kijk nu eerst zo van: eerst maar eens de current gen software volledig op betaalbare hardware kunnen draaien.

En onder betaalbare hardware versta ik bijvoorbeeld een GPU van max 200 euro, dus iets van een R9 270x. Crysis 3 en BF3 draaien op de R9 270x zonder CPU bottleneck alles open geen 60 fps op 1080p.
Stel je voor de pascal variant van de titan een creditcard size gpu op minimalistische PCB maar een koelblok wat nog steeds de volle lengte nodig heeft aangezien voor highend en als er concurentie is je toch even een 200watt grens moet opzoeken.

Die credit card is low budged oplossing.
Bij highend heb je naast de grote koellok ook een dozijn aan VMR die 1/3 van PCB beslaan geheugen 1/3 deel de GPU die andere 1/3 deel ik denk dat PCB iets kleiner wordt omdat geheugen migreerd naar de GPU maar de heat van de GPU moet door geheugen eer het de heatspreider bereikt dus kwa hotspots beperkt het vermogen kan disiperen ook kan je dan niet wild gaan doen met GPU met extra veel mem ingebakken.

Wat wel mogelijk is 1024 bit memory bus of meer, maar dan ook met weer extra low latency als op dezelfde chip latency.
Ik denk dat meneer de laatste alinea bedoelt. Het stukje over dat geheugen bovenop de gpu geplaatst kan gaan worden ;)

Dit is ook gelijk een stukje waar op tweakers al eerder berichten over zijn geweest een zeer veelbelovend leken.
Als ik het goed lees is deze technologie momenteel bedoeld voor supercomputers. Het zal een flinke tijd duren voordat iets dergelijks voor de doorsnee consument beschikbaar zal zijn. Daarnaast is het de vraag of NVidia andere merken zoals AMD toestaat om gebruik te maken van deze interface, zoniet dan kunnen we verwachten dat er wel een gelijkwaardige techniek op de markt komt die hiermee gaat concurreren, wat weer resulteert in moederborden die het één of het andere ondersteunen.

[Reactie gewijzigd door xoleum op 25 maart 2014 18:33]

Dat zou jammer zijn. Niet eens zo heel lang geleden ondersteunden moederborden ofwel Crossfire, ofwel SLI, maar vrijwel nooit beiden. Mijn vorige bordje (een 775) ondersteunde bijvoorbeeld enkel Crossfire. Tegenwoordig zijn beide technologieën net een beetje vanzelfsprekend geworden. Als de technieken weer moeten gaan concurreren zijn we weer terug bij af.
Er zit aan SLI gewoon licentiekosten en fabrikanten kiezen ervoor om één of beide licenties te gebruiken. Daarom betaal je ook altijd meer voor een SLI/Crossfire bordje, met name SLI wat op lang niet alle bordjes aanwezig is, want de licentie van Nvidia is veel duurder (5 dollar geloof ik).
Kan je ook uitleggen waarom? Dat blijkt namelijk niet uit het artikel.
Kwenie; 't artikel spreekt over supercomputers, die zijn meestal niet portable
Als ik de reviews van SLI CF schaling herrinner is PCI e bandbreedte geen isue zelfs zodanig niet dat AMD voor CF niet meer de bridge nodig heeft maar de PCIE bus daar ook voor gebruikt. Ik denk dat het echt eerder op de prof lijn slaat.
Er zit in SLI/CF nog wel een stuk overhead door oa cache synchronisatie en vooral frame pacing, wat ervoor zorgt dat de gpu beelden aan berekenen is die helemaal niet getoond worden. Dit is verloren performance, die met deze technieken weleens opgelost zou kunnen worden. Niet voor niets zien we een plaatje met 4 gpu's - het is een bekend gegeven dat scaling sterk terugloopt (en soms zelfs negatief schaalt) met triple of quad gpu.
Ik geloof er niet zo in, de betere cpu/gpu integratie mogelijkheden liggen bij Intel: same die.
Dat is voor je notebook genoeg, maar om te gamen of hard mee te rekenen dan kun je dat niet integreren.

Bij integratie op een cpu die kan een cpu maximaal iets van 130 watt vreten (dat is echt THE LIMIT).

Zo'n 90 watt gaat dan al snel naar de CPU en dan zou je dus, voor de allersnelste en duurste Xeon CPU van 2500 dollar per stuk maar 40 watt overhouden voor de gpgpu capabiliteit.

Dat blaast een zo'n kaart als dit compleet weg natuurlijk (afgezien van het missen van ECC achtige features).

Een kaart als dit zal effectief snel tegen de 500 watt vreten dus dat is met 100% zekerheid dus meer dan 10x sneller dan een geintegreerde GPU in een cpu, omdat je 10x meer stroom kunt vreten.
Ik ben het wel gedeeltelijk met je eens aangezien pci-e 2.0 en 3.0 al bijna geen verschil meer geeft terwijl het vele malen sneller is.
Ik denk dat de echte optimalisatie en prestatiewinst hem in de software zit.
windows is te lang op dezelfde basis aan het doorborduren en misschien is het tijd voor een volledig nieuwe engine.
Lijkt me prima feature een nieuwe nv-link.

Hogere bandbreedte is ontzettend belangrijk en de PC's lopen daarbij zwaar achter op de bandbreedte die de manycores leveren.

Vraag is hoe 't ingezet gaat worden voor supercomputers, want je zou dan een infinibandkaart rechtstreeks aan een NV-link moeten connecten om 't nuttig te laten zijn voor een supercomputer.

De bandbreedte naar andere nodes is bij supercomputers enorm belangrijk.

Verder zie ik in de tekening 4 nvidiakaarten getekend, terwijl de snelste supercomputer ter wereld (november 2013 lijst), de Chinese Tianhe-2 dus 6 Intel "larrabee" Xeon Phi kaarten heeft (iets oudere Xeon Phi kaarten overigens dan die nu in de winkel liggen - tianhe-2 vreet dan ook stevig meer stroom hierdoor per gflop) per node, ofschoon die mogelijk aan elkaar zijn vastgelijmd op de SGI manier (de wiki rapporteert namelijk 3 Xeon Phi's per node).

Meer kaarten per node = goedkopere supercomputer.

De peak snelheid ligt rond de 54.9 Petaflop van Tianhe-2.
Dus dat is minder dan factor 20 verwijdert van de 1000 Petaflop (wat 1 Exaflop is).

Maar misschien komt die factor fout van 50-100 wel wegens een verhaaltje wat Nvidia al een jaar geleden had opgepend op een paar overhead sheets, die nu pas doorlekken. Dat moeten dan wel heel oude sheets zijn, want Tianhe-2 staat al sinds de juni 2013 lijst op de supercomputer lijst van www.top500.org

http://en.wikipedia.org/wiki/Tianhe-2

Zonder infinibandkaart die op een nvidia-link werkt heb je bij een supercomputer natuurlijk niet veel aan deze feature.

Enfin, we horen 't wel van Cray binnenkort.

[Reactie gewijzigd door hardwareaddict op 25 maart 2014 18:42]

Ook gaat het bedrijf in 2016 een nieuwe reeks gpu's op de markt brengen, onder de naam Pascal.
Pffeuh! 20 jaar geleden speelde ik al met TURBO pascal! :+
offtopic:
Een vriend van mij HEET Pascal.


Leuk, een nieuwe interface, maar betekent dit dat er zo een punt gaat komen waarop je weer een NVLink enabled mobo moet hebben om die kaart te gebruiken? Neem aan dat een partij als ATI niet echt zit te springen om een interface die NVLink heet, de licentie voor NVLink zal ook wel weer niet gratis zijn... Oftewel, als ATi toch een slimme zet wil doen moeten ze de standaard van Nvidia adopteren of een EIGEN standaard maken en het hele crossfire/SLI-verhaaltje begint weer opnieuw * zucht *

[Reactie gewijzigd door DJFliX op 26 maart 2014 08:10]

Snellere interfaces op de videokaart op verzoek van Oculus?
Ze hadden ook het idee bij Oculus om al een SoC in de bril te maken om rekenkracht al voor een deel op de bril af te handelen.
Offtopic, ik weet het, maar heel erg veel Tweakers zullen er niet op die link klikken. Je weet niet waar je terechtkomt. Als je het voor het nette doet kan je beter een nette link maken met de URL tags.
Je hebt gelijk :/ Nou ja goed, het staat ondertussen overal dat er een Titan Z wordt gemaakt door Nvidia^^
Wel mooi voor een supercompact systeem een sff build als gamepc.
Moeten die sff kasten alleen iets de hoogte in.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True