Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 94 reacties
Submitter: CriticalHit_NL

Nvidia komt met een nieuwe Tesla-videokaart voor high performance computing uit: de Tesla K80. De kaart beschikt over twee Kepler-gpu's en via de twee 384bit-interfaces kan in totaal 24GB aan gddr5-geheugen aangesproken worden.

Een officiële introductie is er nog niet maar die moet snel volgen blijkt uit het bericht op WccfTech. De Tesla K80 bevat een duo KGK210-gpu's voor een totaal van 4992 cuda-cores, 416 tmu's en 96 rop's. De 384bit brede geheugeninterfaces spreken twee keer 12GB gddr5 aan.

De corekloksnelheid bedraagt 870MHz en het geheugen is op 5GHz geklokt. De bandbreedte komt uit op 480GB/s en volgens Nvidia liggen de prestaties bij double precision-berekeningen op 2,9 teraflops terwijl de singleprecision-prestaties op 8 teraflops zouden liggen. Daarmee is de kaart dubbel zo snel als de Tesla K40, claimt Nvidia. De Tesla-kaarten worden ingezet voor supercomputers en andere high performance computing-toepassingen, waar ze bijvoorbeeld wetenschappelijk rekenwerk verrichten. De prijs zou in de VS 7000 dollar bedragen, omgerekend 5600 euro.

Update, 16.00: Nvidia heeft de Tesla K80 inmiddels zelf aangekondigd.

Nvidia Tesla K80Nvidia Tesla K80Nvidia Tesla K80

Moderatie-faq Wijzig weergave

Reacties (94)

Het is eigenlijk gewoon een dubbele K40. Discussies hier op SC14 gaan vooral over hoe ze een dubbele K40 (225 Watt) in 300 Watt hebben gekregen. En welke specs vallen onder AutoBoost en welke onder de gewone NonBoost. Hopelijk krijgen we morgen hierop antwoorden.

Wat wel veranderd is, is dat het aantal registers and L1-cache beide verdubbeld zijn. Dat betekent dat CUDA en OpenCL een hogere "occupancy" behaald kan worden bij complexe an grote kernels.
Mooie kaart en mooie specs :)
Ik vraag me af waarom ze geen 512 bit interface hebben.

Zal ook wel een goede videokaart zijn voor in de Tianhe-2: http://en.wikipedia.org/wiki/Tianhe-2

[Reactie gewijzigd door AnonymousWP op 17 november 2014 14:40]

Voornamelijk vanwege kosten en fysieke ruimte heeft nvidia de afgelopen aantal jaar niet meer aan een 512-bit interface gezeten.

Aan de andere kant, AMD is stappen aan het zetten naar een 4096-bit interface, meer info hier: https://www.youtube.com/watch?v=6KbazCnR4Mw#t=4748

[Reactie gewijzigd door Ionicawa op 17 november 2014 15:42]

Voornamelijk vanwege kosten en fysieke ruimte heeft nvidia NOOIT aan een 512-bit interface gezeten.
  • GTX280
  • GTX285
  • Quadro FX 5800
  • Tesla C1060
  • Tesla S1070
Allemaal 512 bit bussen.

[Reactie gewijzigd door aval0ne op 17 november 2014 15:46]

Nvidia heeft inderdaad 512-bit interfaces gebruikt in het verleden. Daarna zijn ze overgegaan op veel smallere interfaces. De GTX480, GTX580 en GTX780 waren allemaal 384-bit. De GTX680 en GTX980 hebben zelfs maar een 256-bit bus.
De GTX285 was de laatste consumenten kaart met een 512-bit bus. Zo'n grote bus neemt veel die ruimte in beslag, en heeft ook een negatieve impact op het verbruik.

AMD gebruikt wel nog 512-bit op de R9 290/290X, maar geruchten gaan dat ze de volgende generatie overstappen op HBM ipv. GDDR5.
De GTX 970 en GTX 980 gebruiken een nieuwe generatie lossless-compressie, die zo'n 25% efficiënter is dan de vorige generatie. Daarom is de geheugenbus van 256 bit geen probleem.

Door gebruik van efficiëntere compressie kan een geheugenbus van 256 bit tegenwoordig véél meer aan dan eentje van 5 jaar geleden.
Je hebt helemaal gelijk, ik heb mijn reactie hierop aangepast :)
GTX 285 was echt een top kaart !
Oke, want ik weet wel dat er volgens mij een paar game videokaarten zijn die een 512 bit geheugenbus hebben.
Ja in de GTX 2xx serie waren er een paar en ook een aantal goedkope GT kaarten hebben een 512 bit bus.
Er kan 24 gb aangesproken worden, dus dat is effectief 12 gb toch?
Yep, het ram op de kaart is verdeeld op beide gpu's. Elke gpu heeft dezelfde info nodig, dus het is eigenlijk twee keer 12 GB.
Elke gpu heeft dezelfde info nodig
Wat is dan het voordeel van de 2e gpu? Je wilt toch juist alle data verdelen over beide GPUs, zodat ze ieder de helft van het werk doen?
Het rekenwerk wordt wel verdeeld, maar beide gpu's moeten wel weten welke beelden er worden verstuurd en wat er gemaakt moet worden.
Ware het niet dat deze kaarten eerder met honderden tegelijk aan het werk zijn en dus helemaal niet bezig zijn met beeldverwerking of creatie maar gewoon met diehard parallel simuleren.

Dit is vooral een design om zo veel mogelijk rekenkracht in een zo klein mogelijke ruimte te stoppen.
Ik vraag me af of ze bijde hetzelfde gebruiken aangezien Tesla kaarten niet in sli worden gezet omdat ze bijde GPU's aan andere instructies werken en dus waarschijnlijk niet het geheugen delen.
Dit is geen Videokaart waar het beeld tussen de twee GPU's wordt verdeeld en alle textures ed dus voor elke GPU beschikbaar moet zijn, deze TESLA wordt ingezet voor HPC waarbij er wel effectief van 24GB RAM gebruik gemaakt kan worden.
Er zit zo te zien niet eens een videokaart aansluiting op de kaart, het is inderdaad puur een rekenunit.
Ik snap je, het is alleen wel best logisch. Er wordt vermeld:
De 384bit brede geheugeninterfaces spreken in totaal 24GB gdd5 aan.
Misschien wel soort van logisch, maar totaal nutteloos..

@Cold hieronder:

In dat geval heb ik niets gezegd O-)

[Reactie gewijzigd door poor Leno op 17 november 2014 14:50]

Bij SLI moeten de beide kaarten/chips dezelfde data in memory hebben om dezelfde scene te kunnen renderen. Dus feectief heb je 2x de rekekenkracht maar slechts het memory van één kaart. Marketing laat dat feitje uiteraard achterwegen.

Dit is echter geen SLI. Zolang je de data netjes over de twee chips verdeeld zouden ze niet over duplicate data moeten hoeven beschikken en zou je dus (bija) het volledige memory moeten kunnen gebruiken.

[Reactie gewijzigd door martijnve op 17 november 2014 14:50]

Deze GPU's draaien niet in SLI. SLI is een game land feature.
Nee, want ook bij alternate frame rendering hebben de beide kaarten voor 98% dezelfde textures en modellen om te renderen. Als een kaart compute werk staat te doen waar deze tesla voor gemaakt is kunnen ze op (vrijwel) volledig onafhankelijke data werken.
SLI is puur voor game makers bedoeld, daar hebben *alle* gpu's *alle* textures nodig en de driver bepaald dan continu welke gpu wat berekend (Bijvoorbeeld oneven en even lijnen) Deze kaarten hebben niet eens een SLI aansluitingen.

Als voorbeeld;

Ik doe zelf zeer actief mee aan BOINC (google) hiervoor heb ik 2 rigs met per rig 4 maal 7950 (goed amd...) Deze zitten vrolijk zonder crossfire bridges of beeldscherm dummys dag en nacht hun werk op 100% te doen met een celeron g1610 als cpu.

De gpu's worden amper aangestuurd door de cpu (rig draait vrij kale windows 7 maar ondanks dat hoogstens 20% cpu gebruik)

Dit soort kaarten draaien op exact hetzelfde principe (er zal dan wel een leuke xeon cpu ingaan, maar alsnog) Er is geen onderlinge verbindinding tussen de kaarten nodig. Om die reden klopt het feitelijk dus WEL dat er 24GB geheugen op de kaart zit, alleen weet ik niet of dit door bijde gpu's aangesproken kan worden, of dat het 2 losse interfaces zijn naar de gpu's (ik weet niet of geheugen door 2 interfaces benaderd kan worden, zodat de gpus dus wel geheugen kunnen delen, immers delen cpu's op een multi socket moederbord ook het totale geheugen dat beschikbaar is)
Moeten deze eigenlijk nog de noemer videokaart krijgen? Ze hebben geen uitgangen meer en worden vermoedelijk voor heel wat andere berekeningen gebruikt dan enkel rendering.
Je hebt hier wel een punt inderdaad een andere benaming zou wel prettig zijn al is het om de klant ook beter duidelijk te maken dat het om een ander product gaat.
Want een videokaart moet altijd uitgangen hebben die je daadwerkelijk ook gebruikt? Bij multiple videokaarten in 1 systeem gebruik je er meestal toch maar 1 of 2 om spul aan te sluiten. Spreken we dan bij de rest van geen videokaart meer? Lijkt me sterk.

Ben wel eens dat het ook mij onduidelijk is wanneer je van iets spreekt: CPU, co-processor of GPU. Wanneer is iets van dit type? Ligt het softwarematig aan de code die nodig is of juist hardwarematige kenmerken zoals het aantal cores/bandbreedte/hoeveelheid geheugen?
kan iemand mij uitleggen wat je aan een hele dikke gpu hebt, zonder uitgang voor een monitor?

als dit ding puur voor rekenen is, waarom dan geen blade server?

[Reactie gewijzigd door mission op 17 november 2014 15:04]

Omdat een blade server bij lange na niet dezelfde parallelle computing performance heeft als één zo'n Tesla kaart.
Een tesla (vaak meerdere) worden op een moederbord geprikt wat of zelf een video uitgang heeft of remote via een network benaderd kan worden.
Verder is dit niet zo zeer een GPU (G=Graphics) maar een accelerator card die bepaalde (mits voor deze kaarten geoptimaliseerde) taken veel sneller uit kan voeren.
APU zou beter passend zijn maar die term wordt al gebruikt voor simpele AMD CPU's (hoewel Nvidia die term volgens mij wel eens in een keynote gebruikt heeft).

Het gaat hier om simulaties op het level van: Hoe zag de big bang er uit in de 10 miliseconden na de big-bang.

En geen bladeserver om het feit dat er tussen de 4/8 van deze kaarten op een moederbord passen waardoor ze een veel densere configuratie mogelijk maken (voor deze specifieke taken) dan met een blade server die nog steeds op CPU's werkt.

Eigen inbreng: Ik vermoed (kijkende naar hoe het tot nu toe loopt) dat de high-end consumenten kaarten over een jaar of 4/5 op dit niveau zitten (GTX Titan 3?).
Dit ding zal wel ín een server gaan, neem ik aan. Ik zie niet echt iets van een ventilator in die kap zitten en met een dergelijke set aan GPU's heb je aardig wat hitte af te voeren - dat zal dan dus van de behuizing waar de kaart in gaat moeten gaan komen, lijkt me.
Wat is nou het verschil tussen de Tesla en Quadro reeks? Het zijn allebij reeksen die op de zakelijke markt gericht zijn, en er zijn in allebij de reeksen zeer krachtige kaarten te vinden.
NVIDIA markt segmenten:
  • Consumer: GeForce
  • Professional graphics (workstation & mobile): Quadro
  • High performance computing (server): Tesla
Tesla:
  • floating-point calculations (simulations, large scale calculations)
  • high-end image generation (professional, scientific fields)

[Reactie gewijzigd door aval0ne op 17 november 2014 15:55]

Het heeft een compleet ander doel, de Quadro is een videokaart zoals deze ooit bedoeld was. De Tesla kaarten gebruiken dezelfde soort technologie maar zijn bedoeld voor HPC, heftige parallele berekeningen.
Wat kan de Quadro dan goed? want workstation dingen zijn toch ook meestal direct compute of niet?
De Quadro is een videokaart, de Tesla niet. Dat is het simpele verschil.
dus de tesla kan niet renderen voor video bewerken enzo?
Oh, dat zal hij best kunnen, het is wel gebaseerd op dezelfde technologie, alleen is hij toegespitst op HPC taken, bedoeld om in een supercomputer te schuiven en daar complexe parallele berekeningen uit te voeren.
Een 'normale' CPU kan ook renderen, alleen minder efficient.
de output (heeft quadro wel)
en het doel; quadro is meer voor workstations.
Ik vraag me wel eens af waarom ze nog computers om die dingen heen bouwen.... SSD er in en Thunderbolt of USB3. Ohja, en een beetje stroom... :+ _/-\o_
En een moederbord. En een behuizing. Oh wacht, dan heb je weer een pc. 8)7
But the main question: can you game on it?!

Mooie ontwikkeling maar zoals ik voorgaand zeg zal het waarschijnlijk wel meer op het zwaar werk gericht zijn dan op games.

EDIT: Zoals AnonymousWP zegt: inderdaad geen output dus sowiezo al geen optie ;)

[Reactie gewijzigd door 33Fraise33 op 17 november 2014 14:46]

Nee, zoals Midas.e al zei:
Nee. Aangezien ten eerste de kaart geen video output heeft en ten 2e de code niet geschreven is voor de kepler serie.
Wauw inderdaad nu je het zegt ik had er nog niet eens op gelet dat er geen output was.
Is een output noodzakelijk? Als je twee kaarten in SLI hangt, gebruik je van één van die twee de output ook niet. Moet je er wel altijd een tweede kaart naast hangen...
Ja, maar hoe wil je anders beeld hebben als geen van je kaarten een output bevat.
En je kan geen verschillende kaarten met elkaar laten werken dus dat werkt ook niet.

[Reactie gewijzigd door AnonymousWP op 17 november 2014 15:39]

eeh, dat gaat niet lukken. tesla's zijn niet gemaakt om op te gamen of iets in die richting puur om mee te rekenen
je beantwoord je eigen vraag... ;)
Kan ik hiermee weer bitcoins gaan minen en levert het nog winst op? :+
Ja, dat kan.
Nee, je hebt er geen winst op.

[Reactie gewijzigd door Gamebuster op 17 november 2014 14:41]

Stomme vraag, grote zucht, daar komt ie:

Waarom slechts 870mhz core clock. Ik snap dat dit niet voor gamen bedoeld is maar het zou toch handig zijn om een snellere kloksnelheid te hebben?
Dit soort kaarten doen grote zware berekeningen, maar niet in een keer. Dan gaat het meer om parallel kunnen rekenen met een bootlading aan cores bijv. zodat miljoenen simpele berekeningen tot het gewenste resultaat komen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True