Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 53, views: 16.016 •

Nvidia heeft het nieuwe vlaggenschip van zijn Quadro-lijn aangekondigd. De Quadro K6000 is opgetrokken rond de GK110-gpu waarop alle functionaliteit die de chip biedt geactiveerd is. De kaart die voor grafische workstations bedoeld is, komt in de herfst van dit jaar beschikbaar.

De Quadro K5000, die eerder dit jaar werd aangekondigd, is net als de nieuwe K6000 met een Kepler-gpu uitgerust, maar bij dit eerdere model gaat het om de GK104-gpu die ook in bijvoorbeeld de GeForce GTX 770 zit. De Quadro K6000 wordt het nieuwe topmodel en deze kaart bevat de GK110-gpu. Deze chip gebruikt Nvidia ook voor de GTX 780 en de GTX Titan, die over respectievelijk 3GB en 6GB geheugen beschikken. De geheugengrootte is bij de Quadro verhoogd naar 12GB gddr5.

Bovendien zijn nu alle 15 smx-blokken geactiveerd, resulterend in een totaal van 2880 cudacores. De rekenkracht van de K6000 bedraagt volgens Nvidia 5,2 teraflops tegenover 2,1 teraflops van de K5000. De tdp van de kaart is met 225W ook een stuk hoger. De Quadro ondersteunt Nvidia's Maximus-technologie om rekentaken over te dragen op Tesla-kaarten. De kaart beschikt over een dvi-i-, dvi-d- en twee  displayport-aansluitingen. Via deze laatste verbinding kunnen vier schermen aangestuurd worden. De videokaart komt pas in de herfst beschikbaar en de prijs is nog onbekend.

 Quadro K6000Quadro K5000Quadro K4000Quadro K2000(D)Quadro K600
Geheugen  12GB gddr5 4GB gddr5 3GB gddr5 2GB gddr5 1GB ddr3
Interface  384-bit 256-bit 192-bit 128-bit 128-bit
Geheugenbandbreedte  288GBps 173GBps 134GBps 64GBps 29GBps
Cuda cores  2880 1536 768 384 192
Energieverbruik (max)  225W 122W 80W 51W 41W
Prijs  - 2249 dollar 1269 dollar 599 dollar 199 dollar

Tegelijk met de K6000 zijn er nieuwe mobiele Quadro-kaarten aangekondigd. Deze zullen ook in de herfst hun weg naar laptops vinden. De krachtigste variant is de Quadro K5100M, maar Nvidia zal ook de Quadro K4100M, K3100M, K2100M, K1100M, K610M en K510M uitbrengen.

Nvidia Quadro K6000

Reacties (53)

toch interessant dat hier geen (native) HDMI poorten opzitten.
ik neem aan dat professionele monitoren dan ook geen HDMI-in hebben?
De meeste prof monitoren die ik gezien heb hebben DP, maarja er zijn allerlei opzetstukjes om vrijwel elk scherm te laten werken.
Het lijkt me niet eerlijk gezegd. HDMI is redelijk consumenten gericht in de zin dat de maximale resolutie redelijk beperkt is (zolang je een fatsoenlijke framerate wilt houden, that is) en het feit dat het een audio signaal erbij krijgt. DVI daarintegen is op signaalniveau identiek aan HDMI, maar kan wel veel hogere resoluties aan zonder noemenswaardige problemen. En DisplayPort is natuurlijk op dit moment een beetje de heilige graal van videoaansluitingen, je hebt hiermee 4K resoluties terwijl je ook meerdere schermen op één stekker kunt zetten.
hdmi 1.4 ondersteunt volgens mij ook gewoon 4K, toch? :)
Alleen op 24 frames per sec.
op 30 hz ja... DP doet dat op 60 hz..
Ja maar wel maar tegen 30fps.
Alsook is er maar 8-bit color support.

HDMI 2.0 zou voor 60fps en 12-bit moeten kunnen zorgen.
Dat is alleen bij een framerate....oh wacht :+

OT: Indrukwekkende kaart dit, al zal de prijs wel fors zijn gezien dat de K5000 al $2250,- mag kosten. Iemand enig idee waarom deze zo veel duurder zijn dan de reguliere (gaming) varianten?
Nvidia's verklaring hiervoor is zeer twijfelachtig. Twee argumenten die ze geven
  • betere support
  • rigoureuze quality testing
In de bedrijfswereld wordt op praktisch alle high performance hardware stevig wat marge genomen (Dell Precisions, AMD Firepro's, Nvidia Tesla).
Uitgebreidere ondersteuning van de hard/software voornamelijk (zonder zou het nog steeds een stevig prijskaartje hebben).
Daarvoor moet Nvidia mensen inhuren die ook weer betaald moeten worden.
Naast de betere ondersteuning zijn de quadro kaarten meestal ook gecertificeerd, en dus ook uitgebreid getest, voor een aantal professionele toepassingen en omgevingen, zodat gegarandeerd kan worden dat ze stabiel werken. Ook dit kost natuurlijk geld en is voor bepaalde professionals geld waard.
Met displayport kan je alle kanten op dus is het hebben van displayport voldoende aangezien je met adapters HDMI, DVI en D-Sub kan krijgen.

En ik denk ook dat de meeste professionele monitors displayport hebben.

Reden is waarschijnlijk ook omdat displayport meer kleuren ondersteunt dan HDMI en dat is wel nodig voor grafisch werk.
Alle kanten?

Dus er zit net als HDMI ook geluid in?
Niet echt relevant voor de professionele markt.
sterker nog de Tesla's hier, als ik de displayport gebruik worden ze in idle mode superheet en oververhitten ze :)

Dus snel die stekker eruit :)
Ja.

Volgens http://en.wikipedia.org/wiki/DisplayPort
Audio signal: Optional; 1–8 channels, 16 or 24-bit linear PCM; 32 to 192 KHz sampling rate; maximum bitrate 36,864 kbit/s (4.608 MB/s)
Jups, ik werk al jaren met DP of mini DP.
Eerst dacht ik dat het weer zo een Apple only connectie was, maar bij mijn huidige werkgever werken alle technische ontwikkelaars met deze aansluitingen.
Met inderdaad een dual screen 4k op 1 aansluiting.
(En wordt er ook geluid over gestuurd). Al is dat eerder lastig dan makkelijk ... 99% van de mensen zetten hun DP geluidskaart gewoon uit ;). )

[Reactie gewijzigd door RaZer0r op 24 juli 2013 08:05]

professionele geluidskaarten kosten een fractie van zo'n Quadro kaartje...
$20.000? Dat meen je toch zeker niet?
Ik denk eerder $3500.
Waarmee ze zich uit de markt zouden prijzen natuurlijk.

Als je dan toch al 3500 dokt dan kun je beter een Tesla kopen :)

Die heeft overigens 2688 cores voor de K20X en 2496 voor de K20 die rond de 3700 DOLLAR doet.

Wat beetje mist is model die even snel is als Tesla en evenveel rekenkracht heeft en net zoveel RAM.

Het feit dat ze hier 12 GB ram ingooien zullen ze wel weer in harde pegels beloond zien worden, Nvidia kennende.

Onderhandelen zijn ze bij Nvidia heel slecht in. Houden poot altijd stijf en het kost jaren voor je kadootjes krijgt - op zo'n moment is het al te laat natuurlijk.

Dus het zal wel 5000 dollar zijn.

[Reactie gewijzigd door hardwareaddict op 24 juli 2013 21:00]

Je zou toch verwachten dat zo'n kaart die dubbel vermogen trekt ook dubbel zo veel kan handelen.

Ik vind het geen handige actie van Nvidia. Je kan nu voor misschien meer geld dan 1 K6000, maar wel sneller 2x een K5000 kopen.

Zelfs met 2x een K4000 ben je goedkoper uit en heb je hetzelfde :?
Bijna hetzelfde, Cuda cores zijn belangrijk natuurlijk 8)7

[Reactie gewijzigd door Maximilian op 24 juli 2013 08:11]

"De rekenkracht van de K6000 bedraagt volgens Nvidia 5,2 teraflops tegenover 2,1 teraflops van de K5000."

Volgens mijn berekening kan de K6000 2,43x zoveel "handelen" dan de K5000.

Toch ben ik benieuwd waar je 12GB video geheugen voor nodig zou kunnen hebben. Ik werk op dit moment met Solidworks, met grote samenstellingen. De 12gb normaal geheugen heb ik zo vol, maar mijn video geheugen komt niet eens in de buurt van de 1gb (quadro 2000).

Voor wat voor soort taken zijn deze quadro kaarten dan in godsnaam nodig?
Voor het uitvoeren van grote en complexe berekeningen op veel data lijkt me. Je "upload" al je data naar de videokaart, geeft 'em z'n programma dat 'ie daarop moet uitvoeren en wacht totdat het signaal binnenkomt dat alles verwerkt is. Op dat moment kun je de uitvoer weer van de GPU afhalen.
@HesRuud Ik heb blijkbaar niet goed gelezen, thnx voor de uitleg.
@Xudonax Doet me dus wel denken of het wel zinnig is om zo veel power te hebben over 1 32x slot, is de immense hoeveelheid aan data wel te pompen over 1 poort?

Ik bedoel, 12GB is handig voor opslag van gegevens wanneer je er live wat mee doet.
Maar het moet er wel naar toe komen. Ik ben er niet zeker van als ik dit lees.

"PCIe 3.0 's 8 GT/s bitrate levert effectief 985 MB/s per lane"
bron: http://nl.wikipedia.org/wiki/PCI_Express

Dat zou betekenen dat het 12,47 seconden er over doet om 12 gb heen en weer te pompen over de chipset alleen.

Mocht het nou ook nog zo zijn dat je 12GB aan data van je disk af wilt halen naar de kaart op 550mb/s duurt dat 22,32 seconden.

Als je echt goed wilt werken kan je net zo goed een HP ioDrive2 G2 2.41TB
er bij nemen om de datatransfer te verkorten naar 4 seconden
Dat is 985 MB/s per lane, een x16 slot heeft 16 lanes, dus de tijd is 12,47/16 = 0,78 seconden om 12 GB over te pompen (aangenomen dat je bron snel genoeg is)
Als je bijv. wil GPU renderen (vray rt, octane, etc )moet je scene in zijn geheel in het geheugen passen. 6GB was soms ook nog wel eens een limiet voor bepaalde scenes, met 12 zit je al een stuk ruimer. Een paar seconden "uploadtijd" naar de kaart is dan ook niet zo'n issue.
Ja precies. Ik zit geregeld aan mijn max met een 2GB kaart.
Dus als ik wat geld 'over zou hebben' had ik al lang een 6GB+ kaart gekocht.

Het hangt helemaal af van je wensen/werkzaamheden. Toen de K5000 werd gelanceerd waren de meningen verdeeld. Veel positieve reacties, maar een grote groep gebruikers bleef liever werken met de 'oudere generatie' Quadro 6000 met 6GB.

Het is hetzelfde als de eeuwige discussie over hoeveelheid werkgeheugen. Enkele jaren geleden was het al extreem veel om als consument 2GB in je PC te proppen. Voor een multi-core workstation is het inmiddels met bepaalde software (lees bv After Effects) al snel gewenst om 24GB+ te gaan.
Deze kaarten worden ook gebruikt in servers, waarbij je een virtuele gpu aanbied binnen een VM. Zo kun je 6-10 mensen een virtuele videokaart aanbieden voor autocad of andere 3d zaken binnen een VM.
Dat zal met deze kaart niet snel gebeuren.

5000 dollar per stuk?
8000 dollar per stuk?

meer cores dan de k20 en die is 3700 dollar ongeveer en de k20x, DIE MEER UNITS HEEFT DAN DE K20, heeft er ook vet minder dan deze k6000 en die is 1.3 Tflop (double precision).

Je hebt 't vast over de vorige Quadro, die geweldig alternatief was voor de Tesla en bijna de helft van de prijs.

[Reactie gewijzigd door hardwareaddict op 24 juli 2013 20:25]

Wat voor videokaarten zijn dit?, niet gericht puur voor om te game, meer om te renderen?
Inderdaad ja! Daarom zijn de 600 en 700 series zo flut met renderen etc.
Lijkt dat de Tesla heerser is van de gpgpu wereld en dat Nvidia die positie met een goede quadro niet lijkt te willen aantasten dit keer.

Dat maakt nvidia wel stuk minder aantrekkelijk hoor. De keuze voor Geforce GTX Titan is dan snel gemaakt als videokaart zou ik zeggen - heeft geen ECC zover ik weet echter.

Ach er zijn vast wel zotten die dit kopen willen joh - ga eens praten in 't bedrijfsleven - logisch denken lijkt daar toch niet zo doorgedrongen te zijn :)
http://www.nvidia.co.uk/object/advanced-technologies-uk.html

Inderdaad.. voor bijvoorbeeld rendering en andere professionele toepassingen..
Bedoelt om de professionele markt af te romen.

Aantal jaar geleden was de Quadro nog interessant in deze: een nieuwe tesla deed rond de 2000+ dollar en de quadro kon 't zelfde met zelfde aantal cuda cores, voor een prijs van 1100 dollar.

Echter in deze vorm lijkt me een Titan een betere kaart :)
kan iemand mij uitleggen wat precies het nut is van de Quadro K600? Voor de helft van de prijs heb je een GTX 650 met betere specificaties.
De Quadro serie is niet om mee te gamen maar om mee te renderen en te berekenen... voor profs dus.

[Reactie gewijzigd door Remmes_NT op 24 juli 2013 10:50]

Voor mensen die 1 goede kaart kopen bedoel je.

Lijkt me dat je dan nu beter 2 Titans kunt kopen dan een enkele quadro 6000.

Ten eerste is 2 titans sneller en ten tweede is het maar een derde van de prijs.

Wat zal hij gaan kosten die k6000. iets van 5000 dollar ofzo, maybe 8000?

Ze lijken een BEWUSTE keuze te maken dit keer geen quadro uit te brengen met dezelfde specs als de Tesla. Dus dan snappen we dat dit VET duurder wordt voor iets met MEER cores en dubbel zoveel RAM als de Tesla.
CAD en andere rendering taken. De kaarten en de drivers zijn er speciaal voor ontwikkeld en gecertificeerd. Schijnt dat Nvidia de gaming kaarten express ook kreupel heeft gemaakt voor CAD toepassingen..dus dan moet je zoiets kopen.
Ja, ik snap dat de kaarten niet voor gamen bedoeld zijn, maar ik keek puur naar de specificaties van de kaart zelf, welke lager of gelijk zijn aan de GTX 650. Het leek me dat je in dat geval beter een GTX 650 voor renderen kan gebruiken met een videokaartbudget van ¤200. Verschil zal inderdaad wel in softwarematige restricties zitten.

Bij het high-end model zie ik dan weer wel zaken die de GeForce serie niet biedt zoals 12 GB geheugen en hoger aantal CUDA cores.
Het heeft te maken met ECC geheugen geloof ik.

Dat is uiteindelijk ook een functionaliteit die uit de Titan gesloopt is, anders werd die kaart te concurrerend voor dit marktsegment.
Als je toch maar met 1 kaartje gaat rekenen dan heb je minder behoefte aan ECC natuurlijk.

ECC is met name handig voor systeembeheerders en een NOODZAAK voor supercomputers en clusters.

De GDDR5 van de grafische kaarten heeft al een ingebouwde CRC die je kunt opvragen. Niet zo uitgebreid als ECC dus maar je kunt wel zien dus of 't geheugen fouten maakt.

Voor clusters is dat te omslachtig - vandaar dus ECC.

Overigens kleine opmerking: in integersnelheid is deze generatie Nvidia niet zo supersnel.

De factorisatie hier doe ik met VORIGE generatie tesla's dus.
Zelfs de AMD Radeon 7970 is daar al sneller overigens ondertussen, ondanks de enorme gebreken van OpenCL.

In double precision is 't allemaal wel heel snel - en dat is wat voor gros van number crunching dus hard telt.

Voor double precision berekeningen zijn 2 titans natuurlijk vet sneller dan deze quadro K6000.

Remember - je had al die CRC dus je weet dat je berekening geen bitflips gehad heeft.
3D Renderen kan prima op een GTX kaart met uitzondering van bepaalde complexe simulaties waar een Quadro beter in is.

Quadro is eigenlijk vooral bedoelt voor complexe berekeningen die minimale foutmarges mogen bevatten. Alle componenten zijn handmatig geselecteerd en getest (volgens nvidia).
Die kaarten worden volgens mij ook gebruikt in de medische wereld voor het simuleren en visualiseren van elementen tijdens onderzoek.
Die K6000 heeft 12GB gddr5? Is dat niet een beetje overkill? Wel cool, overigens! Voor welke doelgroep zijn deze kaarten en in welke machines horen ze te zitten?

[Reactie gewijzigd door Amanush op 24 juli 2013 15:10]

Als je bijv. Textures voor een film aan het maken bent kan dat wel oplopen tot een paar 100mb per texture, als je dan nagaat dat je in 1 scène 600 objecten met zo'n texturen wilt hebben is 12Gb maar een fractie. Deze kaarten zijn totaal niet bedoeld voor te gamen en hebben met hun drivers en support veel hogere prestaties in de zware toepassingen op een computer (ie: simulaties, rendering, painting, modeling, editing etc etc)
Meen je dat? 100mb per texture? Dat is wel flink hoor..

Ze zijn dus totaal geen high-end game modelletjes, begrijp ik. Wel cool dat je dat soort dingen met redelijke snelheid met deze gave kaarten kan doen. Niet de kaarten die ik zou kopen, maar dat komt omdat ik geen werk in de film-industrie doe.
Nee joh in de filmindustrie kunnen ze 't grotendeels ook niet betalen joh.
Meeste designstudios waar ik binnenloop doen ze het met echt weinig budget hoor :)

Overheden echter wel :)

Het was aantal jaar geleden goedkoop alternatief voor een Tesla. Zeg maar voor iemand die alleen thuiszat en die Tesla iets te duur vond.

De meeste van deze Quadro modellen zijn echter vrij knullig t.o.v. bijvoorbeeld een GTX Titan, die ook niet zo is gelimiteerd in double precision (gelukkig).

Meer RAM is voor *sommigen* wel heel belangrijk hoor. ECHTER, op het moment dat je heel erg goed software hebt geoptimaliseerd voor CUDA, dan valt ook weer een en ander over het cluster te verdelen.

De bandbreedte van en naar de (PC-) RAM is dan wel niet zo heel groot, maar dat wordt al sinds tijden prima prefetched dus je merkt er niets van.

Vergis je echter niet - de compute units zijn zo ontzettend snel dat je complexe dingen liever niet in de RAM stopt.

Zelfs met 'kraken' van grote getallen met priemgetalletjes, waar een grotere prime buffer in geheugen dus ervoor zorgt dat je meer composites eruit filtert en dus effectief minder hoeft te rekenen - daar is er wel enorme trade-off tussen de enorme rekenkracht van de SIMD units versus het takketrage geheugen.

Dus ook daar is meer RAM niet handig in de GPU. Wel op de CPU's overigens...
Mooi kaartje maar ze kunnen deze kaart toch ook een thunderbolt aansluiting geven.
Ik weet niet in hoeverre dat nodig is, een pc/mac met een Thunderbolt uitgang kan een monitor met DP gewoon aansturen omdat het (volgens mij) met hetzelfde stekkertje (niet kabel) wordt aangesloten.

Daarnaast is Thunderbolt nog niet heel erg geintegreerd als standaard..
Ai... net een Titan gekocht met de gedachte dat er toch niks beters meer komt voor Maxwell.

Niet dat ik deze quadro kan betalen, maar nu ze toch een kaart blijken uit te brengen met alle 2880 CUDA cores ben ik bang dat er misschien ook nog een snellere Titan of Geforce kaart aan zit te komen.

Er is namelijk ook sneller geheugen beschikbaar dan wat op de 780 en Titan zit, dus misschien wel een 785 met 7000MT/s geheugen en 2880 CUDA cores?

Zou wel een slimme zet zijn voor Nvidia om dit vlak voor de kerst uit te brengen.
Zodra je een prijsquote ziet voor die K6000 ben je weer blij :)

p.s. de logica in huize Nvidia kan ik niet altijd volgen maar lijkt me niet logisch om een gamerscard uit te brengen met evenveel RAM en evenveel double precision mogelijkheden als deze K6000. Anders koopt niemand meer de K6000 natuurlijk.

Nvidia neemt zo'n stap pas logischerwijze als AMD met iets nieuws dreigt te komen - maar die lijkt voorlopig leeggeschoten te zijn.

De productieprijs van de K6000 lijkt me te hoog om 'm als gamerscard (zonder ECC en met de double precision transistors grotendeels uitgeschakeld) te releasen. Dus dat doet Nvidia alleen als ze echt MOETEN om beter te lijken dan AMD.

[Reactie gewijzigd door hardwareaddict op 24 juli 2013 20:51]

1269 dollar voor een K4000? (zie grafiek). Vorige maand een K4000 aangeschaft voor ¤ 695 ex btw.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013