×

Help Tweakers weer winnen!

Tweakers is dit jaar weer genomineerd voor beste nieuwssite, beste prijsvergelijker en beste community! Laten we ervoor zorgen dat heel Nederland weet dat Tweakers de beste website is. Stem op Tweakers en maak kans op mooie prijzen!

Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia presenteert pci-e-versie van Tesla V100-accelerator

Door , 51 reacties

Nvidia heeft de pci-e-variant van de Tesla V100-accelerator aangekondigd. Er verschijnt één uitvoering, die van 16GB hbm2-geheugen is voorzien. De insteekkaart maakt gebruik van de volledige Volta-gpu met 5120 cudacores, maar is iets lager geklokt dan de versie met Nvidia's eigen interconnect.

De pci-e-variant van de Tesla V100 kan door computerfabrikanten in reguliere systemen en servers gestopt worden. Dat kan niet met de hpc-kaart van Nvidia zelf, die over een zelf ontwikkelde Mezzanine-connector beschikt en gebruikmaakt van de nvlink-interconnect. Nvidia kondigde die sxm2-versie van de Tesla V100 in mei aan en heeft nu ook de pci-e-variant getoond.

Net als bij de pci-e-versie van voorganger P100 het geval was, is de pci-e-versie van de Tesla V100 iets langzamer dan de sxm2-uitvoering. Ook is de tdp met 250 watt iets lager. Dat komt door de lagere kloksnelheid van de gpu. Niet langer maakt Nvidia twee varianten, er is alleen een uitvoering met de volledige gpu. Van de Tesla P100 was er nog een goedkopere versie met minder ram.

Volgens Nvidia komen de Tesla V100-kaarten in pci-e-uitvoering 'later dit jaar' beschikbaar in systemen van partners, waaronder HPE. AnandTech schrijft dat Nvidia ook een aantal nieuwe details heeft vrijgegeven over de Volta-gpu en heeft die in een tabel samengevoegd met de reeds beschikbare informatie.

Een van de grootste vernieuwingen van de V100 ten opzichte van de P100 is de toevoeging van nieuwe Tensor Cores, die gespecialiseerd zijn in het trainen van neurale netwerken. In totaal heeft de GV100-gpu 640 van deze Tensor Cores: acht per sm. Nvidia claimt enorme prestatiewinsten bij toepassingen die hier gebruik van kunnen maken. Bij reguliere fp32- en fp64-berekeningen is de GV100 ongeveer 1,5 keer zo snel als de GP100.

  Tesla V100
(SXM2)
Tesla V100
(PCIe)
Tesla P100
(SXM2)
Tesla P100
(PCIe)
Cudacores 5120 5120 3584 3584
Tensor cores 640 640 N/A N/A
Coresnelheid ? ? 1328MHz ?
Boostclock 1455MHz ~1370MHz 1480MHz 1300MHz
Geheugensnelheid 1.75Gbps HBM2 1.75Gbps HBM2 1.4Gbps HBM2 1.4Gbps HBM2
Geheugenbus 4096-bit 4096-bit 4096-bit 4096-bit
Geheugenbandbreedte 900GB/sec 900GB/sec 720GB/sec 720GB/sec
Vram 16GB 16GB 16GB 16GB
L2-cache 6MB 6MB 4MB 4MB
Half Precision 30 Tflops 28 Tflops 21,2 Tflops 18,7 Tflops
Single Precision 15 Tflops 14 Tflops 10,6 Tflops 9,3 Tflops
Double Precision 7,5 Tflops
(1/2 rate)
7 Tflops
(1/2 rate)
5,3 Tflops
(1/2 rate)
4,7 Tflops
(1/2 rate)
Tensor Performance
(Deep Learning)
120 Tflops 112 Tflops N/A N/A
Gpu GV100 (815mm2) GV100 (815mm2) GP100 (610mm2) GP100 (610mm2)
Transistors 21 miljard 21 miljard 15.3 miljard 15.3 miljard
TDP 300W 250W 300W 250W
Form Factor Mezzanine (SXM2) PCIe Mezzanine (SXM2) PCIe
Procedé TSMC 12nm FFN TSMC 12nm FFN TSMC 16nm FinFET TSMC 16nm FinFET
Architectuur Volta Volta Pascal Pascal

Tesla V100 vs P100 - Tabel afkomstig van AnandTech.

Door Julian Huijbregts

Nieuwsredacteur

20-06-2017 • 20:05

51 Linkedin Google+

Reacties (51)

Wijzig sortering
Eigenlijk is dit toch geen GPU meer hè ...
Gewoon een General Purpose Unit toch? :)
Waarom niet? GPU staat voor Graphics Processing Unit. Dat wil nog niet zeggen dat hij de graphics kan weergeven op een beeldscherm, maar dat hij ze kan berekenen.
Tensorflow en soortgelijke machine learning dingen kan je imho inderdaad geen graphics noemen.

Het zou eerder iets als een 'massively parallel floating point processing unit' moeten worden genoemd, want dat is de reden dat GPU's voor veel van dergelijke HPC doeleinden zo geschikt bleken te zijn. Maar wellicht bekt GPU wat fijner dan MPFPPU en bovendien was die term al ingeburgerd ;)
Tesla wordt anders ook gewoon ingezet voor Virtual Desktops als GPU voor VDI servers, niet in de laatste plaats omdat de IT steeds virtueler en grafisch veeleisend wordt. Enterprise applicaties worden steeds veeleisender en daar vallen ook veel grafische applicaties onder.

Meer info in een artikel over de Tesla M10/6/60 van afgelopen zomer:

http://www.eweek.com/virt...-gpu-for-vdi-environments
deze kaart BEVAT een GPU, namelijk de Volta chip ... net zoals de GTX 1080 ook een GPU bevat ...

helaas maken veel mensen de vergissing door te denken/zeggen dat de grafische kaart de gpu is, maar dat is niet zo, dat zijn twee verschillende dingen, de GPU is de chip op de grafische kaart die de berekeningen doet, zoals je de CPU in een computer hebt... zonder memory, harddisk... doet een cpu natuurlijk niet veel, net zo voor een grafische kaart, die heeft een gpu nodig die samen met wat geheugen, pci-e interface, koeling, en evt nog wat extra's samen z'n werk doet.. maar een gpu op zichzelf doet niet zo veel...

in een APU heb je de CPU en GPU geintegreerd in 1 chip
Ik volg uw redenering. Op zich een interessante discussie. Wat is een GPU eigenlijk? En ja deze tesla V100 heeft alle eigenschappen van een GPU in zich. Het kan zich zelfs ontpoppen in een grafische bom indien nodig enkel ligt het economische toepassingsgebied in andere gebieden dan puur graphics. De term GPU is in mijn ogen nog steeds geldig.

De graphics processing unit of GPU is uitgevonden omdat de CPU niet zo efficiënt was in het berekenen van vector graphics en het zeer snel aansturen van de pixels op uw scherm.

Een GPU wint van een CPU indien er kleine berekening parallel kunnen gebeuren en snelle communicatie met uw RAM nodig is. Dat is het geval wanneer de uitkomst van de kleine tussenberekeningen geen invloed hebben om het eindresultaat. De GPU kan elke pixel op uw scherm direct en efficiënt berekenen en aansturen zolang alles maar in het gpu-ram past en de berekeningen klein en parallel verlopen.

Stel je hebt twee coordindaten X en Y en je trekt er een lijn tussen dan zijn alle tussenpunten onveranderlijk, je moet ze alleen nog uitrekenen met een bepaalde resolutie. Elke Core (in dit geval 5120 (!) Cuda cores) nemen elks 1 deeltje voor hun rekening. Als je 20 punten tussen X en Y hebt kan je die parallel berekenen, onafhankelijk van elkaar.

Als je de lijn op uw scherm in de ruimte draait moet je dus weer de nieuw positie bereken van X en Y en opnieuw de positie berekenen. Stel je hebt een complexere geometrische vorm met meerdere polygonen dan kan je parallel alle nieuwe punten berekenen van X en Y, Z, ... en alle tussenpunten. Als je een vierkant draait, draait immers elk punt mee, dat is geometrie. De berekening kan dus parallel gebeuren omdat alles voorspelbaar is. Je kan de draaiing van een kubus simultaan onderaan en bovenaan berekenen, het eindresultaat blijft het zelfde onafhankelijk van de volgorde van uw berekening.

Maar dat is niet altijd mogelijk: Als je spreekt over ray tracing begint het moeilijker te worden voor de GPU aangezien je de reflecties niet kan voorspellen. Je kan moeilijk het einde van uw straal berekenen/renderen als je de start nog moet calculeren, de lichstraal kan plots een reflectie tegenkomen en 90° draaien. Deze trace gebeurd dus stap voor stap, serieel omdat elke tussenstap het eindresultaat kan beïnvloeden. Soms kan het traceren van een lichtstraal erg complex zijn en duizenden keren doorgaan. Op dat moment kan je een CPU niet verslagen uw ruwe rekenkracht. (Wat niet wil zeggen dat de GPU niet kan ingeschakeld worden om de brekingsindex van elk object te berekenen waar de lichstraak zou kunnen tegen weerkaatsen of afbuigen)

Er bestaan echter 100 uitzonderingen waarbij een GPU toch sneller is in ray tracing (in het geval de traces klein zijn, de resolutie relatief laag is en de software er aan aangepast) maar laat het er ons bij houden dat wanneer je zeeer nauwkeurig werk moet afleveren van één trace een CPU sowieso sneller en beter is. Voor games is accuraatheid meestal niet zo belangrijk omdat uw schermresolutie relatief beperkt is en omdat je liever veel fps hebt dan een tot op 0,000001 pixel nauwkeurige berekenen van de stand van uw muis. Dat speel in het voordeel van een GPU.

Deze Tesla V100 wordt gepropageerd voor deep learning en autonoom rijden en dat is niet toevallig een gebied waar je veel zaken in parallel kan verwerken en het eindresultaat niet 100% accuraat (maar 99,9 ipv 99,999999999999%) moet zijn om tot een oplossing te komen en zodra je een punt hebt met een richting een een snelheid kan je de rest van zijn baan voorspellen en die voorspelling in het geheugen wegschrijven (of op uw scherm presenteren, frame per frame). Je doet dat voor duizenden datapunten tegelijk. Pas als de datapunten onderling ook nog eens kunnen botsen moet je gaan praten met de rest en dat praten kost veel tijd omdat je uw data weer uit het geheugen moet halen, vergelijken etc. Again... de software en het gewenste eindresultaat is hier de bepalende factor of een
- CPU (weinig +- 10 maar snelle cores, traag toegankelijk +- 20Gb/sec maar veel geheugen)
- of gpu (veel +- 3000 trage cores, weinig maar snel +- 200Gb/sec toegankelijk geheugen) sneller is. Indien een GPU efficiënt wordt ingeschakeld haar je veeel meer Tera Flops uit uw chip dan een CPU.

De tesla Kaarten van Nvidia mogen dan wel geen video output hebben en alle extra's zoals frame buffering etc, toch behoren ze tot de GPU familie en kunnen ze net zoals als een GTX1080 een scene met polygonen en textures efficiënter dan een CPU renderen. Enkel wordt het beeld niet getoon op een scherm maar weggeschreven in het geheugen en wordt de resulterende data voor andere doeleinden gebruikt dan gaming.
Een cpu kan perfect werken zonder een harddisk :Y)

Maar je hebt inderdaad gelijk een grafische kaar is een pc op zich.
VDI met accelerated graphics zal zeker een krachtige ontwikkeling zijn de komende tijd. GPU's in CAD systemen zijn een groot deel van de tijd duimen aan het draaien. Het virtualiseren van deze grafische acceleratie is een populaire toepassing voor dit soort kaarten.

Naar ik begrijp tracht nVidia te voorkomen dat deze kaarten te populair worden ten opzichte van fysieke grafische kaarten in eenpitter werkstations. nVidia ziet de bui al hangen, koopt straks niemand meer die Quadro FX kaarten.

Aan de VDI serverkant is beheer software nodig die gelicenceerd moet worden voor het aantal users waarover de resource van deze kaart in de VDI omgeving wordt verdeeld. Hoe meer users van de accelerated vijver gebruik maken hoe meer licenties er nodig zijn. Een beetje een Catch22 dus.

Ik ben wel benieuwd hoe dit accelerated VDI gebruik zich verhoudt tot andere toepassingen als wetenschappelijke berekeningen en FEM berekeningen.

[Reactie gewijzigd door teacup op 21 juni 2017 09:41]

Deze kaarten worden alleen vrijwel niet gebruikt voor het berekenen van beeldscherm graphics, maar voor machine learning technieken die graphs met data verwerken/maken.

Het hele "graphics" deel wordt niet meer gebruikt.
Strikt genomen heb je gelijk maar in de praktijk is een GPU gewoon zo'n insteekkaart die beeld op je scherm tovert. Dit ook een GPU noemen is onhandig en schept verwarring.

Wat doet dat ding eigenlijk? Blijkbaar geen leuke plaatjes op mijn scherm zetten. O-)
Is het ook niet. "Tesla V100-accelerator" hij werkt als GPU maar is geen GPU.

[Reactie gewijzigd door Stijn Weijters op 20 juni 2017 20:29]

Het "processed" toch graphics data? Dan is het toch gewoon een GPU?
wat is graphics data?

- Een aantal vector berekeningen (floating point operaties zijn dit) loslaten op een 3D omgeving
- speciale effecten berekenen (nog meer, voornamelijk vector, berekeningen zoals ambient occlusion, light-mapping/tracing, verschillende texture maps etc etc)
- pixel pipeline pompen

Het daadwerkelijke pixels aansturen is eigenlijk niet zo enorm intensief. Het intensieve zit hem in het berekenen van hoe elke pixel eruit moet zien en dit zijn allemaal berekeningen tegen data aan. GPU's zijn er goed in om dit soort berekeningen parallel en snel uit te voeren want dat is immers nodig om mooie pixels op je scherm te toveren... dat betekent echter niet dat zulk soort berekeningen enkel gebruikt worden om pixels op een scherm te toveren vanuit een 3D (game) engine. En dát is dus eigenlijk wat deze kaart doet. Hij kan heel erg veel vector/floating point berekeningen parallel en snel uitvoeren, en dit is voor tig verschillende doeleinden relevant van statistische verwerking van enorme datasets tot pathfinding/zoekopdrachten en nog veel meer.

Een mooi voorbeeld van pathfinding/zoekopdrachten dat ik altijd gebruik om toegepaste functionele AI uit te leggen is het vinden van de snelste route in je navigatie. Meerdere wegen kunnen uiteindelijk op dezelfde bestemming uitkomen maar welke is het beste? Dan moet je niet alleen verschillende combinaties van (stukken) wegen vergelijken maar ook de snelheden op die wegen, hoeveel afslagen/rotondes je moet nemen (vertraagd) en of er evt. files zijn op bepaalde stukken. Dit zijn complexe zoek en vergelijkopdrachten tegen erg veel data aan en loont zich erg goed voor parallelisering omdat je prima bijv. 10 of 100 of 1000 verschillende routes kunt berekenen om uiteindelijk de snelste te kiezen (diegene met de laagste totale reistijd).
Ik heb daadwerkelijk naar parallel path planning gekeken (bij een bekende Nederlandse GPS maker ;) ). Wat jij beschrijft over verschillende snelheden op wegen is zeker relevante data, maar het fundamentele algoritme wat jij beschrijf (veel kandidaten bepalen, dan selecteren op reistijd) is ongeloofelijk inefficient. In het bijzonder heb je nogal veel overlap tussen de verschillende mogelijke routes, en dan voer je dezelfde berekening honderden malen uit.

Je ziet hier een praktijkvoorbeeld waarom parallel programmeren echt lastig is. Ik heb het toevallig als onderdeel van mijn afstuderen geleerd, maar de meeste mensen krijgen het niet als onderdeel van hun oplieding, laat staan voor alle programmeurs die het uit een boekje hebben geleerd.
Ja je hebt gelijk, er zijn andere efficientere algoritmen om dit soort taken uit te voeren, maar dat is een AI specialisme (wat ik toevallig heb gestudeerd en dus wel een klein beetje vanaf weet). Echter voor illustratief doeleinden is het toereikend genoeg. ;)
in dit geval is er niks "grafisch" aan die data.

[Reactie gewijzigd door laurens91 op 21 juni 2017 11:20]

Je hoeft geen beeld te (kunnen) laten zien om een beeld te renderen.
dat zeg ik ook niet.
Gewoon 21 MILJARD transistors...
Ik soldeer er af en toe nog eens 1...

En die Mr. Murphy, van die wet, is ook de tel kwijt intussen! :P


(edit: waar ik Murphy zei bedoelde ik Moore... stop de tijd!)

[Reactie gewijzigd door ToolBee op 20 juni 2017 23:20]

Maar kan hij Cryptocoins minen? Dat is de vraag!
Kan hij, maar de prijs/coin is vermoedelijk te hoog bij deze.
vast wel, maar prijs/prestatie verhouding is hoogstwaarschijnlijk waardeloos
De vraag is of hij ook goedkoper is dan Mezzanine connector.

Iemand een idee hoeveel neuronen per tensor core worden opgeslagen?
Neuronen sla je niet op in een tensor core; de tensor core berekent de verbindingssterkte tussen neuronen.

De tensor core heeft 1 fundamentele bewerking, een 64 item brede FMA (Fused Multiply and Add) met FP16 Multiply en FP32 Add.
Toevallig de NVLink dgx station versie net zien staan! Zag er toch wel stoer uit hoor.
http://i.imgur.com/WkCZTqor.jpg
Punt 1 : Als de makers van nvidia er een gewone monitor aansluiting op zetten is en blijft het gewoon een ietsje te dure grafische kaart. Je kan er alles mee gamen enzovoorts, of dit verstandig is lijkt mij van niet.

Punt 2: Dat ietsje te dure komt op enkele duizenden euro's, kijk maar eens naar de AMD concurrent zijn pro kaarten die zie je ook in de categorie ietsje te duur terug tussen de 1000 en 5000 euro per stuk
Momenteel zie ik wel een trend van zakkende prijzen in die markt, waarschijnlijk ook omdat ze steeds vaker worden toegepast. De tijden dat een pro gpu tegen de 10.000 euro/gulden waren zijn blijkbaar voorbij. Alhoewel het nog afwachten word wat deze v100 in prijs gaat doen. Wel opvallend is dat ze steeds vaker geen monitor aansluiting meekrijgen van de fabrikant, terwijl ze toch echt allemaal gewoon een monitor kunnen aansturen.

Punt 3: Deze pro kaarten zijn inderdaad erg sterk in verschillende berekeningen te maken die geschikt zijn om in parallel verwerkt te worden. Inderdaad mogen er meer foutjes in sluipen want dit word opgelost door meerdere threads met dezelfde berekening uit te laten voeren door de gpu zodat je meer zekerheid hebt dat de uitkomst klopt. De kracht zit hem in het feit dat er verschrikkelijk veel berekeningen tegelijk kunnen worden gedaan door deze kaarten en door het feit dat ze niet zo heel precies hoeven te zijn word dit ook nog eens sneller. Ik zelf heb veel meer met amd kaarten gedaan met diverse wetenschappelijke processen. Beide merken hebben hun sterke kant nvidia heeft het voordeel dat het een iets complexere instructie set aan kan. Terwijl AMD wat op andere vlakken met pure rekenkracht sneller is. Dit heeft te maken met het feit dat beide anders zijn opgebouwd.

Wat betreft het stroom verbruik van de kaarten kunnen we duidelijk zijn er word niets gedaan dat de levensduur (bij beide merken hun pro kaarten) zou kunnen verkorten. Beide fabrikanten houden zich strikt aan de limieten. Je zult echt geen enkel bedrijf aantreffen die deze peperdure kaarten en moederborden ooit gaan overklokken. Het gaat puur om de levensduur en betrouwbaarheid van deze kaarten. De consumenten versies zijn gemaakt om maximaal een paar uur per dag aan te staan. Vandaar als je beide fabrikanten vraagt hoelang hun consument kaarten vol last actief mogen zijn, beide zich hullen in stil zwijgen.
De pro kaarten worden gemaakt om nooit uit te worden gezet en kunnen letterlijk continue vol last door gaan. Je zou eens in een kamer met een paar AMD/nvidia pro systemen moeten rondlopen, ik beloof je dat oor kappen of doppen geen overbodige luxe zijn. Trouwens je zou nog geen uur volhouden in de server ruimte waar ik werkte, zonder oor beschadiging op te lopen.
Zo een enorm lawaai maken de zware servers, want tsja daar heb je massa's delta fans die de boel koel houden. Mocht je niet weten hoe een delta klinkt zoek dan maar eens een filmpje op van de delta koelers. Dit zijn zo'n beetje de beste koelers die er bestaan en worden bijna altijd in servers gebruikt van welk formaat dan ook.
Want deze jongens moeten werken en dat heel erg lang en vaak.

Overigens ben ik het niet helemaal eens dat server borden zwakkere stroom voorziening hebben. Alleen word dit niet gebruikt om wat dan ook te overklokken, maar ook nu weer gaat het om pure betrouwbaarheid en strakke performance. Want ook hier gaat het om 24/7 gebruik. Wat voor geen enkel consumenten product word aangeraden. Dat sommige van ons waaronder ik zelf dat wel doen is puur eigen risico. Sommige fabrikanten weigeren dan ook een consumenten product te vervangen als je per ongeluk aangeeft het spul 24/7 te gebruiken. Uit eigen ervaring met asus, msi en gigabyte.

[Reactie gewijzigd door rschwartnld op 21 juni 2017 09:00]

Zou Je zo'n ding kunnen gebruiken om een film te renderen in bijv. Adobe premiere?
Omgerekend, en gv104 zou niet bijzonder veel sneller moeten zijn dan een 1080 ti. Hmm.....

Ben ik toch benieuwder naar 600 dollar vega dan 700 dollar gv104. Hopelijk kan vega in de buurt komen van een 1080 ti, in ieder geval in dx12 (vulkan is natuurlijk een makkelijke winst als vega toch al sneller is dan een 1080 gemiddeld).
De x04 chips zijn mid-range. al zijn ze met pascal als high end geprijst. Dan nog, 400,- voor een 1080ti is een hele goede deal!
mischien handig om die berekening hier ook even bij te zetten.
Gewoon 9 tflops 1080 maal prestatiewinst v100 tov p100 en dat geeft 50% winst tov een 1080 aan tflops, 13.5tflops totaal en dus 20% prestatiewinst, alhoewel 20% extra tflops niet 20% hogere framerate betekent, maar wat minder, dus eigenlijk iets van 15% sneller dan een 1080 ti schat ik. Niet bijzonder veel sneller dus als dat klopt. Dat zou dus een relatief kleine prestatiewinst betekenen. 1080 tov 980 ti was 20-30% gemiddeld afhankelijk van je gamekeuze.
Een 1080 of 1080TI ?
Dat de GTX 1080 TI een andere kaart is als de GTX 1080.

In je eerste post zeg je 1080 en 1080TI
O, dat was dat als het gerucht dat vega sneller is dan een 1080, in vulkan vega in ieder geval sneller is dan een 1080 ti (leuk voor doom spelers).
Waar wordt dit voor gebruikt?
Alles waarvoor veel parallelle rekenkracht nodig is en niet teveel complexiteit.
Mooi, over 2 jaar heb ik dit in mijn game systeem ter vervanging van de 1080ti ;).
250w, dit gaat sowieso weer een GAME GPU worden tegen die tijd.

pascal is ook alweer 2 jaar oud....

Mooie vooruitzichten!! de pefecte 4K kaart voor 100+ fps

[Reactie gewijzigd door A87 op 20 juni 2017 21:58]

Juist, en in welke HDMI poort ga jij je monitor steken?

Dit zijn nadrukkelijk géén game-kaarten. Als je er al mee wilt gamen mag je dat binnen je Citrix sessie doen en dan nog is dat niet met de beste kwaliteit vanwege bandbreedte issues. Ik heb pas nog een demo mogen geven wat een Tesla M60 met Battlefield 1 doet op een Azure server i.c.m. Citrix. Dat was enorm tof, maar deze kaarten zijn er niet voor gaming.
Intern op een server met 2x 10GBits aan een pc geknoopt :Y)

Je moet wat over hebben om te game
Is er een technische reden te geven om deze lager te klokken of is dit een gevalletje van om eigen proprietary meuk te kunnen blijven pushen?

Edit: Jullie 2 droeftoeters kunnen wel gaan minnen, maar het blijft een serieuze vraag.

[Reactie gewijzigd door jaquesparblue op 20 juni 2017 21:10]

Een PCIe kaart mag officieel maximaal 300W trekken, reken wat marge daarbij en dan ga je daar overheen op volle snelheid.
Nvidia kaarten trekken echter vrijwel nooit hun opgegeven TDP, doorgaans altijd een ruimte van zeker 10% als ik zo door willekeurige reviews blader. En zelfs al zou ie met pieken wat meer dan 300W trekken, server- en workstation grade mobo's en voedingen kunnen wel wat meer hebben dan het willekeurig asrock budget spul wat consumenten in hun pc duwen.

Ik kan overigens helemaal niks vinden over hoe die SXM2 kaartjes worden gevoed en welke specificaties daar aan hangen.

Klinkt me allemaal wat te vaag.
Alleen in tegenstelling tot op de desktop, waar het opblazen van een moederbord alleen maar een beetje jammer is, is het opblazen van een server dat niet. Een limiet van 300watt betekent dus ook echt een limiet van 300 en fabrikanten zullen daar niet overheen gaan.

Overigens is het gemiddelde high-end consumentenbord qua stroomvoorziening veel zwaarder uitgevoerd dan zijn server equivalent. Zelfs de "krappie" AsRock borden hebben een veel zwaardere stroom voorziening dan het gemiddelde serverbord. Ik weet ik niet helemaal waar je de onzin vandaan haalt dat het niet zo is. Je gaat op een serverbord toch niet overclocken... Waarom zou je een 12 fase 500 amp@1V voorziening op een serverbord zetten...

De persoon boven je geeft in ieder geval de goede reden waarom de PCIe versie op 250 watt is gelimiteerd. Dit kan je ook gewoon zelf nazoeken.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*