Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia voorziet Quadro-kaart voor workstations van GP100-gpu en 16GB hbm2

Door , 35 reacties, submitter: begintmeta

Nvidia kondigt de Quadro GP100 aan. De videokaart beschikt over de volledige GP100-gpu en 16GB hbm2-geheugen, net als de Tesla P100-accelerator. In tegenstelling tot de pcie-variant voor servers, kan de nieuwe Quadro-kaart ook voor grafische toepassingen worden gebruikt.

De nieuwe Quadro GP100 is uitgevoerd als een reguliere videokaart, met een eigen ventilator en vier displayport 1.4-uitgangen om monitoren op aan te sluiten. Ook is er een dvi-d-poort aanwezig. Deze aansluitingen maken de kaart geschikt voor gebruik in workstations en grafische weergave. De kaart is uitgevoerd als een dual slot-model en verbruikt volgens Nvidia maximaal 235 watt. Samen met de Quadro GP100-kaart introduceert Nvidia een NVLink-connector, waarmee twee van de pcie-kaarten gelinkt kunnen worden.

Op de videokaart zit de volledige GP100-gpu, die Nvidia vorig jaar in april aankondigde. Aanvankelijk was de gpu alleen beschikbaar in de vorm van de Tesla P100-accelerator, die gebruikt wordt in Nvidia's eigen DGX-1-supercomputer en later beschikbaar kwam als pcie-kaart voor servers. Het was de eerste chip op basis van de nieuwe Pascal-architectuur en daarna zouden kleinere varianten volgen voor onder andere de GeForce GTX 10-videokaarten. Op welke kloksnelheid de GP100-gpu draait in de Quadro-kaart maakt Nvidia niet bekend.

Vorig jaar bracht Nvidia al de Quadro P6000-kaart uit die gebaseerd is op de Pascal-architectuur. Die maakte echter gebruik van de GP102-gpu, net als de Titan X-videokaart. Ook gebuikt de P6000 gddr5x-geheugen, in plaats van hbm2.

Als het gaat om fp32-berekeningen is de P6000 met 12tflops de betere kaart, de GP100-gpu haalt 10,3tflops. De P6000 is echter niet geoptimaliseerd voor double-precision fp64-berekeningen en kan die maar op 1/32e van de snelheid uitvoeren. Bij de GP100-gpu is dat 1/2e, voor een totaal van 5,2tflops.

Samen met de Quadro GP100 kondigt Nvidia een line-up van nieuwe modellen aan op basis van Pascal-gpu's, die onder de bestaande P6000 worden gepositioneerd. Het gaat om de P4000, P2000 en P1000, die respectievelijk zijn gebaseerd op de GP104- GP106- en GP107-gpu en zijn uitgerust met gddr5-geheugen. Tot slot zijn er de Quadro P600 en P400, die net als de P1000 een GP107-gpu hebben, maar met minder geheugen zijn uitgerust. Prijzen van de nieuwe Quadro-kaarten heeft Nvidia niet bekendgemaakt.

Julian Huijbregts

Nieuwsredacteur

6 februari 2017 10:39

35 reacties

Submitter: begintmeta

Linkedin Google+

Reacties (35)

Wijzig sortering
Als het gaat om fp32-berekeningen is de P6000 met 12tflops de betere kaart, de GP100-gpu haalt 10,3tflops. De P6000 is echter niet geoptimaliseerd voor double-precision fp64-berekeningen en kan die maar op 1/32 van de snelheid uitvoeren. Bij de GP100-gpu is dat 1/2, voor een totaal van 5,2tflops.
Bij FP16 (half-precision) word het nog leuker, daar doet een GP102 rond de 160 Gigaflop, omdat dat dit net als FP64 door aparte logic word uitgevoerd (maar dan 1/64), terwijl de GP100 dat met 20 Terraflop (20.000 Gigaflop) kan doen omdat deze al z'n FP32 ALU's daar flexibel (2:1) voor kan gebruiken.

Afgezien van GP100, waren Maxwell en Pascal beide slechter qua FP64/FP16 performance, vanwege dedicated double-/half-precision logic, dan de 4 jaar oude Kepler GK110. Dus het zal wel stormlopen worden met de verkoop van deze kaart, omdat bedrijven eindelijk hun Quadro K6000's kunnen upgraden.

[Reactie gewijzigd door SirNobax op 6 februari 2017 21:29]

kijk dus voor machine learning ed betaalt de gp100 zich makkelijk terug
Ik vraag me af of je dan niet beter uitkomt met meerdere tesla's aan een bord. (ik meen dat bijvoorbeeld komende POWER9-systemen ook nvlink zullen ondersteunen, in bundel met een paar tesla P100's misschien best interessant (ook heel duur natuurlijk, maar voor machine learning lijkt me het video-gedeelte van de GP100 niet direct zinvol))

[Reactie gewijzigd door begintmeta op 6 februari 2017 12:27]

dunno teslas zijn ook duah idd..maar idd het hele video output gedeelte is niet altijd nodig.. al, ook niet alle teslas zijn evengoed in fp64 en fp16..

[Reactie gewijzigd door maratropa op 6 februari 2017 16:24]

Toen ik je reactie las vond ik het wat vreemd, die lagere fp16 performance, maar na wat zoeken zit daar weer een heel verhaal achter, of misschien beter gezegd: marketing. Die fp16 performance schijnt dus ook belangrijk te zijn in de hpc markt en nividia heeft de hpc gpu's uitgerust met fp16x2 cores die 1xfp32 of 2xfp16 met dezelfde bewerking kan uitvoeren, waar de normale consumenten gpu's zwaar gelimiteerd zijn in de fp16 performance.
http://www.anandtech.com/...founders-edition-review/5
Dus hij is bekend, maar wanneer hij verkrijgbaar is weet niemand. Dat zegt niet heel veel. Het geheugen is leuk, maar we weten nu alleen de grootte, en die zou zomaar kunnen verschillen, want HBM2 komt in verschillende stackgroottes. Het lijkt erop dat HBM2 echt heel slecht verkrijgbaar is, want de chip zelf hadden ze al liggen, alleen dan met GDDR5x (en met een paar opties uitgeschakeld).
Volgens heise zijn de nieuwe Quadro-kaarten vanaf maart beschikbaar, prijzen volgens dat artikel: Quadro GP100: §7000, P4000: §1300, P2000: §670, P1000: §470, P600: §240, P400: §190
Hhmmm, met dergelijke prijzen denk ik niet dat ik bij mijn werkverschaffer de handjes op elkaar krijg voor die GP100. Misschien iets lager inzetten, de P2000 bijvoorbeeld.
Waar zou je de kaart voor willen gebruiken dan?
3D renderen, tekenen etc. Dingen waar een game videokaart onzin voor zijn. Doordat ze meer (v)ram hebben dan game videokaarten kunnen ze meer aan.
Ik gebruik een GTX1080 op een 4K (4096 x 2160) + een Cintiq (1600 x 1200) monitor, 3D studio max, Premiere, After effects werken allemaal prima. (Behalve Lightroom, die is erg traag, maar dat ligt niet aan de videokaart denk ik.)
Qua 3D werk werkt het allemaal vloeiend, hele bossen vol polygonen trekt hij prima in de viewports. Renderen doe ik nog steeds op de CPU, omdat GPU renderaars nog steeds erg beperkend en buggy zijn.

Dus als een gamekaart op mijn workstation al ruim voldoende is met het werk waar deze Quadro kaarten eigenlijk voor bedoeld zijn, wat is dan echt het voordeel hiervan.
Ga maar eens een complex model laden en gebruiken in een cad-pakket als Solidworks of Catia, dan snap je ineens waarom je daar geen consumentenkaart voor wil gebruiken. Het is niet vooruit te branden en ziet er niet mooi uit (detailniveau moet te ver omlaag om nog fatsoenlijk kleine details weer te geven).

https://www.pugetsystems....d-in-Solidworks-2016-751/

[Reactie gewijzigd door Grrrrrene op 6 februari 2017 12:20]

Is dit ook zo in Autodesk Inventor? Dit draait meer onder DirectX in plaats van openGL.
Nee, daar heb je meer aan een gamekaart.

Op het Autodesk forum kan je veel PC configuraties vinden, en hoe die t.o.v. elkaar presteren:
http://forums.autodesk.co...-p/5950908/highlight/true

Een van de gebruikers heeft een vergelijking tussen GPU's en CPU's op YouTube gezet:
https://www.youtube.com/watch?v=w3RkOc60i_I
in de industrie zijn pro gpu's vaak wel zinvol om meer dan alleen maar betere viewport snelheid.

trouwens, uit die puget test kun je ook concluderen ( naast dat pro gpu's meer fp geven ) dat veel gamkaarten in solidworks ook nog vaak prima werkbare framerates opleveren. :)
Omdat Quadro kaarten ook meer levensduur hebben dan consumentenkaarten. Het gaat om de langdurigheid before errors.
Wat voor errors zijn dat dan? Geheugen fouten of door een half verkoolde GPU chip?
Je zegt het zelf al, renderen! Gaat op een Quadro een stuk sneller dan op een GTX!
renderen gaat gewoon evensnel, terwijl een gtx veel goedkoper is. Weinig gpu renderaars gebruiken quadro's e.d.

OpenGL viewports hebben vaak wel baat bij een pro gpu. Los van de driver support en support vanuit de fabrikant van de software in kwestie etc.
Offtopic: Lightroom en Photoshop zijn enorm CPU intensive programma's. 4 tot 8 cores met een zo hoog mogelijke kloksnelheid en flinke sloot geheugen is wat LR en PS willen. Je GTX1080 gaat hier dus geen verschil maken.
sinds een aantal versies heeft iig photoshop opengl en opencl ondersteuning. de cpu is nog steeds belangrijk maar steeds meer werk word naar de gpu gestuurd.
True, maar ze zijn helaas nog lang niet zover. Mijn vrouw en ik hebben allebei dezelfde PC, met als enige verschil dat ik een GTX1050 erbij heb en mijn vrouw het met de ingebouwde GPU in de i7-6700 moet doen. Er is nauwelijks performance verschil tussen deze 2 (allebei hebben de GPU ondersteuning aanstaan natuurlijk).

Nu is de GTX1050 geen hoogvlieger natuurlijk, maar wat voor een GPU moet je dan wel niet hebben om een leuk verschil te krijgen in PS en LR?
Ze halen er in ieder geval nog lang niet uit wat er in zit, helaas :|
voor content creation zijn idd over het algemeen pro gpu's geen zinvolle investering meer.
De stabiliteit van de drivers van deze quadro kaarten
Voor een film grader / colorist die met een redelijk betaalbare configuratie, zonder of met gebruik van een Blackmagic / Aja video interface, serieus wilt filmgraden.

Een Quadro kaart stuurt per kleur 10 bit in opengl door waardoor bijvoorbeeld adobe premiere, photoshop en blackmagic davinci beelden in true 30-bit depth kunnen weergeven mits je daarvoor een monitor hebt die deze signalen ook kan verwerken. De ColorEdge CG318-4K kan dit bijvoorbeeld.

http://nvidia.custhelp.co...rt-on-nvidia-geforce-gpus
http://www.eizo.com/products/coloredge/cg318-4k/

30-bit workflow voorbeeld uitleg:
https://photographylife.c...-bit-photography-workflow
Heb je dan ook die Double Precision nodig? Volgens mij niet voor het meeste. In dat geval is deze kaart dikke overkill, en ik verwacht eerlijk gezegd ook dat game-kaarten met 16 GB uitgebracht worden.
Tuurlijk komen er game kaarten met 16gb. Helaas word het GB VRAM vaak meer als een soort marketing gebruikt dan dat het ook echt de performance ten goede komt.
gpu renderen is veel kosteneffectiever op gamekaarten, mits de hoeveid vram voldoet.

daarbij is voor gpu renderen de p6000 / titan xp de betere gpu.

gp100 lijkt meer leuk voor wetenschapellijke high precision toepassingen en machine learning op de desktop.

al ben ik wel benieuwd of het hbm nog voor verassingen kan zorgen
De prijs van de GP100 is inderdaad niet mis... In het lage middensegment/hoge ondersegment ziet AMD's Radeon WX 7100 er in vergelijking tot de Quadro P2000 of ook Quadro P4000 interessant uit moet ik zeggen, maar of dat in de praktijk ook zo uitpakt is natuurlijk nogal afhankelijk van het concrete gebruiksdoel.
Dat zal inderdaad lastig zijn. Maar als je sneller je werk ermee kunt doen is het toch wel weer een voordeel en verdient het zich op termijn terug. Maar dat is altijd lastig te motiveren aan mensen die enkel op budget moeten letten.
Hoe presteert zo'n P100 vs een Titan X (pascal) in octane/redshift?
Voor 7000euro kan je 6 a 7 kaarten kopen. Dus dan lijkt me de titan toch 'voordeliger'.

[Reactie gewijzigd door multipasser op 6 februari 2017 14:37]

gpu renderen is fp32 werk en daarin is volgens de specs de titanxp of p6000 de betere keuze. Titan x of gtx'n zijn daar toch bijna altijd de slimmere keuze.
Het is niet zozeer het standaard renderen. Ik vermoed dat bedrijven die dergelijke kaarten kopen ook wel een renderfarm hebben cq huren. Echter het voordeel is ook de support van zowel Nvidia als voor de software die je gebruikt. Zelf heb ik veelvuldig met Autodesk Acad vroeger gewerkt. Voor de gemiddelde hobbyist boeit het weinig als iets crashed. Voor ons was het dan plots 4 uur werk weg a 75 euro/uur (en mind you ik was toen nog goedkoop). Dat stukje stabiliteit + support verdient zichzelf dan snel terug.
Als jij 4u werk verliest door een crash ben je niet goed aan het incremental bewaren. :)
In een server boeit het helemaal niks maar voor workstation toepassing mogen ze van mij eens kijken naar een andere cooler.

Dit werkt prima maar is niet echt stil

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*