VideoCardz: Nvidia komt binnenkort met RTX 2000-workstationvideokaart

Nvidia komt binnenkort met een nieuwe workstationvideokaart: de RTX 2000 Ada. Dat schrijft de redactie van VideoCardz. Deze gpu beschikt naar verluidt over 8GB aan GDDR6-geheugen en moet ongeveer 550 dollar kosten.

VideoCardz claimt dat er twee modellen van de RTX 2000 Ada zullen verschijnen: een reguliere variant die ongeveer 600 dollar moet kosten en een E-variant. Die laatste variant zou zich richten op enterprise-gebruikers, langere ondersteuning meekrijgen en moet tussen de 500 en 630 dollar kosten.

De workstationvideokaart werd opgemerkt in een webwinkel en uit die listing blijkt dat het apparaat over PCIe 4.0-ondersteuning met 16 lanes beschikt. VideoCardz vermoedt dat de videokaart over een AD104-chip zal beschikken. De tpd van de gpu zou volgens de redactie op 70W liggen en de kaart zou dankzij zijn relatief bescheiden afmetingen geschikt zijn voor compacte workstations. Nvidia heeft de workstationvideokaart nog niet aangekondigd, maar de techwebsite vermoedt dat het bedrijf volgende week met een aankondiging komt.

Workstationvideokaarten zijn ontworpen voor gebruik in zakelijke omgevingen en in professionele toepassingen. De drivers van deze gpu’s bevatten vaak optimalisaties waardoor ze in sommige workloads efficiënter kunnen presteren.

Render Nvidia RTX 2000 Ada - Bron: VideoCardz
Render Nvidia RTX 2000 Ada - Bron: VideoCardz

Door Jay Stout

Redacteur

11-02-2024 • 11:44

48

Reacties (48)

48
48
16
0
0
28
Wijzig sortering
Wat het artikel een beetje mist is dat dit om een low-profile kaart gaat. Waardoor het voor workstation die alleen een SFF kaart aan kunnen super interessant maakt.

Nvidia heeft deze kaart al eens uitgebracht namelijk de RTX A2000. Ook is er een 4000 variant de RTX 4000 ADA SFF.

En voor wie zich afvraagt kan je er op gamen? zie: https://www.youtube.com/watch?v=AvRDI1z-hh8&t=4s

De toepassing is daarom ook zeer duidelijk, het is een kaart voor workstation die alleen SFF aan kunnen en een zwaardere kaart nodig hebben. Of voor mensen die willen besparen op energie maar niet op prestaties want deze kaarten zijn voor hun form-factor namelijk behoorlijk snel.

Ik heb zelf de A2000 variant met een goede reden, mijn computer staat bijna de hele dag aan. Ik game veel. Dus 70W in plaats van 200+ scheelt nogal wat stroom ik bespaar best wat per jaar door iets meer te investeren in een grafische kaart en zeer te besparen op stroom.

Voor Windows is er een onderscheid in drivers voor deze kaarten. Onder Linux is dat onderscheid er niet.

[Reactie gewijzigd door stealthgun op 22 juli 2024 18:28]

Ik heb zelf de A2000 variant met een goede reden, mijn computer staat bijna de hele dag aan. Ik game veel. Dus 70W in plaats van 200+ scheelt nogal wat stroom ik bespaar best wat per jaar door iets meer te investeren in een grafische kaart en zeer te besparen op stroom.
Dit is toch gewoon iets wat je zelf bepaalt? Ik kan m'n GPU ook op 70W zetten moest ik dat willen.

[Reactie gewijzigd door napata op 22 juli 2024 18:28]

Maar deze kaart is er voor bedoeld dus je levert niet in op prestaties door je wattage naar beneden te zetten. Daar zit het verschil in.

[Reactie gewijzigd door stealthgun op 22 juli 2024 18:28]

Dat is niet hoe het werkt. Dit is simpelweg niet veel anders dan een GPU arbitrair TDP limiten. In dit geval is de A2000 een licht cut-down 3060 12GB met een flink verlaagde TDP waardoor het niet meer een PEG stekker nodig heeft.

Bij de 3060 heb je in ieder geval nog de optie om de TDP los te laten wanneer performance > efficientie.

Ik durf er vergif op te nemen dat de 3060 de A2000 zal outperformen als ze allebei max 70W mogen trekken puur omdat de 3060 meer shader units heeft (maar het zal slechts een procent of twee zijn).
Dat klopt.
De “professionele” kaarten zijn dezelfde chips op lagere clocks.

En de drivers supporten een paar dingen die de normale lijn niet support.

Een paar openGL features die cad workflows versnellen in een paar programma’s (maar een 4070 super doet dit alsnog sneller voor hetzelfde geld)

En 14 bits per oanaal kleurdiepte voor professionele monitoren.

Die lastste kan je niet onheen maar heeft bijna niemand nodig, die eerste ja doet er pas echt toe als je de echte too nodig hebt, anders ben je beter af met een 4070 met meer geheugen en meer power voor mindsr.
En ECC geheugen. Alhoewel qua "snelheid" voor "gaming" inderdaad een 4070 beter kan zijn, zijn deze kaarten performance/watt voor de professionele mens en hebben daarnaast ook echte ondersteuning, je kan nVIDIA bellen met een probleem en binnen een paar uren/dagen heb je een oplossing of een nieuwe driver, dat doen ze niet als je zegt dat Far Cry niet goed speelt, maar wel als Solidworks niet werkt.

Aan de andere kant, als je een bureau moet zetten of je wilt een desktop-vervanger in een laptop-formaat, moet je ook niet aankomen met een systeem die 1.2kW kan trekken. Ook voor VDI heb ik liever 6x75W in een server dan een speciaal systeem moeten kopen om 2 A40s te draaien.
Als iemand die deze professioneel gebruikt heeft… nou die ondersteuning heb ik nooit gezien.

En ik heb evenveel zoniet meer driver issues gehad met deze dan met “gamingkaarten”

En voor perf/watt. Je kan een andere kaart ook gewoon op powertarget 50% zetten met afterburner, en dan heb je hetzelfde, wss nog minder verbruik met meer perf.

De enige niche waar het Imho echt belangrijk is is 14 bit monitor output, maar 95% van de professionele gebruikers is nog steeds beter af met een snellere kaart gemikt op gaming.
Voor dezelfde prijs of minder.

Tenzij je idd een 2 48gb rtx8000 nodig hebt want je doet extreem zware scenes met RT en dat duurt te lang op cpu, en je kan dan memory sharen dus je hebt dan 96gb

Ja ok dan heeft het zin ja,
Al het kleine grut blijft gewoon een trage chip voor teveel geld.
Ja, want als professioneel gebruik je MSI Afterburner. Nog NOOIT gebruikt en dat is waarschijnlijk het eerste dat nVIDIA zegt als je hun contacteert.

Het probleem is niet de prijs van de kaart, maar de prijs van de kaart die niet werkt. Ik heb ook ooit een systeem gebouwd met 4xTitan omdat het goedkoper was dan 4xTesla. Dat doe ik nooit meer, constant vreemde problemen met dingen die goed compileerden (CUDA) op de Tesla's maar volstrekt niet op de Titans of stukken trager liepen, problemen met de PCI lanes. En dan wat doe je dan met 12,000 euro aan GPU dat niet optimaal gebruikt kan worden, je kunt ze niet terug dragen. Daarnaast was het gecombineerd salaris van de mensen die van het systeem gebruik maakten zo'n 400,000 euro per jaar, gewoon de extra 20,000 uitgeven voor een 'goed' systeem dat 5-7 jaar zal werken en ondersteuning krijgt.

Als je ondersteuning wilt van nVIDIA zelf (alhoewel je meestal via de software/hardware partner zal werken vb. AutoDesk, Dassault, HP of Dell):
https://www.nvidia.com/en-us/support/enterprise/
https://nvid.nvidia.com/

Een ticketje aanmaken is redelijk gemakkelijk, meestal krijg je een antwoord binnen het uur.

[Reactie gewijzigd door Guru Evi op 22 juli 2024 18:28]

Je kan het ook gewoon niet doen en de extra 100W verbruiken. Heb nog nooit gehoord van een baas dat die 100w een probleem is.

En 4x titan heb ik ook gedaan en dat werkte net zo goed zoniet beter in mijn ervaring.

Punt is als je vermogen omlaag wil halen dan kan dat.

En ja mijn workstation heeft een 4090 en ja ik zet die met afterburner op 70% powertarget (zeker in de zomer) om mijn kantoor niet te heet te laten worden.

En ja ik werk voor een bedrijf in silicon valley als manager of engineering met specialisatie in 3d content,

Kortom ja het kan en meestal is het de goedkopere meer performante optie.

De quadro lijn nu gerenamed is een mooie truuk om meer geld uit de business zakken te kloppen voor slechtere chips.

Thats it.
Vroeger 15+ jaar geleden waren die openGL limitaties wel relevant, nu niet meer.

En antwoord is 1 ding, oplossing is een andere.

Voor cuda en ML wil je wss wel idd een A100 chip maar die is ook daadwerkelijk anders dan de consumenten gpu lijn.

Deze gpu’s zijn dat niet.

[Reactie gewijzigd door freaq op 22 juli 2024 18:28]

Een a2000 is eigenlijk niet primair voor gaming. Dus de prestaties zijn iets minder dan een gpu die gemaakt is voor gaming.

Tevens zijn er vaak bij veel spellen niet alle power nodig om te gamen.

Voorbeeld mijn 4080 super verbruikt op world of warcraft gemiddeld tussen de 280 en 320 watt. Dat is voor mijn gehe systeem met 2 monitoren en headset.

Mijn systeem kan bij vol verbruik ook 600 watt verstoken.

Daarbij kan je dus de powerlimiet naar beneden bijstellen.

Ik zou eerder een 4060 of 4060ti halen die efficiënter zijn dan de 2000 serie.

Die kan je naar beneden zetten qua power en zijn sneller en goedkoper.

Als je keuze enkel gamen is is dit een vreemde keuze.
Mvidia maakt kaarten die 200watt verstoken, maar het prima ook met 70watt had gekund voor de lol?
Denk niet dat het zo werkt..
De hele industrie verkoopt GPU's en CPU's die inefficiënt hoog geclocked zijn. Als je ze afknijpt leveren ze veel minder aan prestaties in dan dat het stroomverbruik afneemt.

En de reden waarom ze dat doen is omdat de meeste consumenten alleen maar verkoopprijs/prestatie kijken en niet naar stroomverbruik/prestatie of naar totale kosten/prestatie (dus inclusief stroomkosten).

Dus de fabrikanten kunnen dezelfde chips voor meer verkopen door ze inefficiënt te klokken.
Je levert die prestaties wel in maar je ziet het gewoon niet omdat de max 70W is.

[Reactie gewijzigd door napata op 22 juli 2024 18:28]

Wat een berg onzin is dit, kan niet geloven dat dit een +2 krijgt. Het niveau van Tweakers.net is echt om te huilen.
Nvidia heeft deze kaart al eens uitgebracht namelijk de RTX A2000. Ook is er een 4000 variant de RTX 4000 ADA SFF.
Nee, die is gebaseerd op de Ampère architectuur, deze op Ada. AD104 i.p.v. GA106. Totaal andere GPU dus. Het is niet dat Nvidia nog nooit refreshes heeft uitgebracht, maar dit is er dus niet een van.
[...] en een zwaardere kaart nodig hebben. Of voor mensen die willen besparen op energie maar niet op prestaties want deze kaarten zijn voor hun form-factor namelijk behoorlijk snel.
Ten eerste:
Of die RTX 2000 serie GPU's "zwaarde kaarten" zijn kunnen we in het midden laten, ik zou de 3060* GPU (GA106) van de RTX A2000 nou niet bepaald een zwaargewicht noemen, dan moet ik eerder aan een RTX 5000 achtig iets denken, maar goed, als je er maar mee vooruit kunt.

Ten tweede:
Je beweert dat deze kaarten van 70W niet inleveren op prestaties, maar de RTX A2000 is geklokt op 532MHz 562MHz, 59,7% 57.4% lager dan de RTX 3060.
En als we kijken naar de turboclocks word het plaatje ook niet zo véél beter. 1.2GHz Is 37,5% lager dan 1.92GHz

Deze kaarten bevatten allebei de GA106, alleen heeft de A2000 2 cores (SM eenheden) minder, namelijk 26 i.p.v. 28
Dus 70W in plaats van 200+ scheelt nogal wat stroom ik bespaar best wat per jaar [...]
Absoluut, maar daar had je geen workstation-grade kaart voor aan hoeven schaffen.
[...] door iets meer te investeren in een grafische kaart en zeer te besparen op stroom.
Maar jouw kaart doe werkelijk waar minder werk, dus het geen eerlijke vergelijking. Als de hoeveelheid werk gelijk was (rendertaak bijvoorbeeld) en je kijkt naar totaal systeem verbruik kan het best goed uitpakken om hoger te klokken, maar puur kijkend naar core frequentie, is lager klokken/undervolten _altijd_ effiënter, want zo werken v/f curves nou eenmaal, maar alleen kijken naar stroomverbruik geeft een vertekend beeld van de besparingen.

[Reactie gewijzigd door DvanRaai89 op 22 juli 2024 18:28]

Maar jouw kaart doe werkelijk waar minder werk, dus het geen eerlijke vergelijking. Als de hoeveelheid werk gelijk was (rendertaak bijvoorbeeld) en je kijkt naar totaal systeem verbruik kan het best goed uitpakken om hoger te klokken, maar puur kijkend naar core frequentie, is lager klokken/undervolten _altijd_ effiënter, want zo werken v/f curves nou eenmaal, maar alleen kijken naar stroomverbruik geeft een vertekend beeld van de besparingen.
Dat lijkt me niet. Zoals je zelf al lijkt aan te geven vereisen hogere clocks hogere voltages en hogere voltages. Verbruik volgt helaas de logica 2*v* frequentie dus die hogere voltages tellen hard mee. Op lagere clocks is je performance/watt dus altijd beter (tot het punt dat je zo laag gaat clocken dat je geheugen etc meer gaat verbruiken).

[Reactie gewijzigd door sdk1985 op 22 juli 2024 18:28]

[...]

Dat lijkt me niet. Zoals je zelf al lijkt aan te geven vereisen hogere clocks hogere voltages en hogere voltages. Verbruik volgt helaas de logica 2*v* frequentie dus die hogere voltages tellen hard mee. Op lagere clocks is je performance/watt dus altijd beter (tot het punt dat je zo laag gaat clocken dat je geheugen etc meer gaat verbruiken).
Misschien had ik dit beter moeten benadrukken:
Ook grappig, wel gebruikten allebei 't woord "altijd", alleen zette ik een een underscore zowel ervoor als erachter.

[Reactie gewijzigd door DvanRaai89 op 22 juli 2024 18:28]

Op je eerste zin ben ik niet mee eens, ja het klopt het niveau is alleen maar gezakt vergeleken met 20 jaar geleden. Maar dat is niet alleen hier, het is overal zo.

Als mensen die willen een workstation gpu wil gaat vergelijken met een prosumer gpu, dat is het zelfde een vrachtwagen vergelijken met een porsche.

Dan hou ik op met lezen. Mijn laatste dedicated gpu was een ati 9600se...
De A2000 is gebaseerd op de Ampere architectuur en niet de Ada Lovelace architectuur. De naamgeving in de workstation GPUs van NVIDIA is een beetje verwarrend als je niet goed oplet.

Dit gaat over de RTX 2000 ada edition (er was gelukkig geen RTX 2000 in de Turing architectuur, anders was de chaos compleet geweest).

[Reactie gewijzigd door CrazyJoe op 22 juli 2024 18:28]

Beetje onzinnig om dit geld uit te geven voor een marginale besparing op stroomkosten. Dat haal je er echt niet uit. Een 3050 presteert beter, is goedkoper, en verbruikt zeker geen >200watt.
De andere factoren die afwijken staan in het artikel. Voor professionele toepassingen relevant.
Nee hoor de lower end RTX kaarten zijn vrijwel altijd een veel slechtere deal and gewoon een RTX te halen. Dit is gewoon marketing troep.

Alleen de top end Quadro's hebben speciaal veel VRAM die kunnen wel toegevoegde waarde hebben t.o.v 4090s , maar die top end kaarten kosten meer dan 10K per stuk.
Ik denk dat je dan nog beter af bent met een RX6600, die verbruikt idle iets van 2-3 watt, dat is echt veel beter dan welke nVidia kaart ook en heeft nog best aardige game prestaties als je even wilt gamen. Persoonlijk geef ik de voorkeur aan meedere pc's in huis die speciaal ingericht zijn voor specifieke taken. Zo bespaar ik een hoop geld omdat ik niet altijd maar die zware gamepc aan heb staan (zoals ik ruim 30 jaar lang heb gedaan). Mijn zwaarste PC is de Simrig, en die gebruik ik hooguit een paar uur per week. De NAS is een superzuinig J1900 celeron pc'tje die 24 uur draait. Audio PC (in mijn geval FL Studio) is dan weer een supergoedkoop X99 12 core XEON machine die ik voor 50 euro op Ali Express heb gekocht. Is niet modern meer, maar wel een super krachtige machine voor het werk wat ik er mee doe en spotgoedkoop. Een ander voordeel van alles gescheiden houden is dat alles heel overzichtelijk wordt. Windows installatie is heel schoon is omdat alleen de nodige software erop draait. Herinstallatie is vrijwel nooit nodig en je projecten blijven goed functioneren. Wat zeker met muziek maken heel fijn is, de herinstallatie van 1000en plugins en het configureren van je controllers is een drama. Telkens je Simrig opnieuw moeten inrichten is net zo'n drama. Je wil het ding gewoon kunnen aanslingeren en - gaan met die banaan - zonder eerst weer een dag bezig te zijn met het aansluiten en configureren van randapparatuur.
zonder meer info lijkt dit maar een bizarre kaart. De AD104-chips worden in consumerkaarten als laagste in een RTX4070 gezet met 12GB en een max TDP van 200W. Zowel qua prijs als TDP zit deze workstation kaart (die meestal net duurder zijn ipv goedkoper) daar dik onder :?
Mogelijk binning van AD104's die lager geklokt worden omdat ze issues hebben?
Die kans is natuurlijk aardig groot. Daarbij valt op dat de kaart een TDP heeft van 70W. Dat vertaalt niet direct naar verbruik, maar het zou mij niets verbazen als deze kaart zonder extra kabels van voldoende prik voorzien wordt (alleen via het slot dus). Mede ook, omdat er meestal geen extra prik via PCIe power cables beschikbaar is in die SFF cases.

SFF insinueert overigens dat het low-profile/half-height kaarten zijn. Wel laten de renders dual slot koelers zien.

Een erg interessante kaart voor een zeer compacte build in ieder geval!
Veelal kaarten die geoptimaliseerd of gecertificeerd zijn voor CAD of andere "lichte" grafische toepassingen. Daarnaast heeft de AD104 ook een AV1 encoder aan boord wat het interessant maakt voor video toepassingen (live streaming etc.)
Ja, maar die kaarten zijn dan enorm veel duurder altijd.
Als je je geld ermee verdient, zijn dit prima acceptabele bedragen om geen gezeik te hebben. Er zijn wel tools om je CAD-pakket te foppen dat je een workstation-kaart hebt, maar ik zou dat zakelijk nooit gebruiken.
Ik heb een tijd BricsCAD gedraaid met integrated Intel graphics (onder Linux) en dat programma heeft nooit geklaagd over incompatibiliteiten. Ik heb ook een Nvidia Quadro M1000 in deze laptop, maar die gebruikte ik op dat moment niet.

Nu heb ik hem wel weer in gebruik, maar meer voor andere vrije applicaties. Autodesk heeft voor verschillende programma's ook geen speciale vereisten voor een workstationkaart (meer), tenzij dat elders nog bekend gemaakt is.
Ik draai Solidworks ook probleemloos op een RTX2060 en heb nog nooit een Quadro-kaart gehad. Maar voor bepaalde grafische kwaliteit heb je dat wel nodig. Wordt je ontwerp daar minder van? Nee, sterker nog: ook met mijn werklaptop, met Quadro-kaart, zet ik die grafische meuk uit. Ik hoef geen reflecties te zien, wat boeit mij dat nou?
Ja, maar die kaarten zijn dan enorm veel duurder altijd.
Misschien willen ze hun martaandeel verdedigen. Ze zouden dingen van concurrenten kunnen weten dat we geen zicht op hebben.
Zo kan ik me inbeelden dat Intel met hun GPUs in dat professioneel segment heel goed zou kunnen gaan concurreren als ze zich er op richten. Als Intel hun bestaande en geplande GPUs een lagere stabielere clock geeft, error correcting hoge kwaliteit geheugen voorziet en een stabiele driver update channel, kunnen ze daar meteen voor 3 keer de prijs verkocht worden. Dan komen ze ongeveer in dit prijsbereik terecht.
Ze zijn niet geoptimaliseerd voor CAD . Quadros zijn altijd veel langzamer dan een gelijk geprijsde RTX kaart.
Ik heb het niet over optimalisatie maar over certificering, bvb https://www.autodesk.com/...graphics-hardware/autocad

Als je grafische issues hebt in AutoCAD met een consumenten GPU krijg je bvb geen support daar op.
Maakt niet uit ik heb in een kantoor vol CAD tekenaars gezeten die zo'n goedkope Quadro op de 1050 chip hadden en dat liep haperig en continu vast. Support is niks waard in dit geval. Continu blauwe schermen etc

Ondertussen had een iemand een 2070. Die was goedkoper en liep vlekkeloos.
Er staat 70 Watt bij. Dit maakt het voor studio's meer aantrekkelijk. Normaal gezien kan het met workstations niet snel genoeg, want tijd is geld in een professionele omgeving. Deze kaarten, zoals hieronder vermeld zullen waarschijnlijk voor specifieke doeleinden bedoelt zijn.
Sommige SFF workstations hebben geen GPU stroomaansluiting vanuit de voeding.

Een 70W kaart kan volledig vanaf het PCIe slot draaien.
Er is waarschijnlijk een nichemarkt voor een kaart met veel parallelle rekeneenheden, zonder dat er hoge kloksnelheden nodig zijn. De "netto prestaties" van zo'n kaart zijn door die lage kloksnelheden natuurlijk niet heel hoog, dus er kan geen hoge prijs gevraagd worden. Inmiddels kan Nvidia de AD104-chip kennelijk in groot genoege hoeveelheden produceren om ook deze markt aan te spreken, ook al is de prijs lager.

De meeste klanten van deze kaart kopen er vast meteen meer dan een paar tegelijk, dus dan is het toch snel de moeite waard.
Perfecte kaart videostreaming en video-encoding als ik het zo lees.

Al ik me afvraag, dergelijk geval zou een RTX 4060 toch beter zijn? Schaf je deze dan puur aan vanwege de zakelijke support? Of zijn die applicaties gewoon gelimiteerd tot zakelijke kaarten?

Edit:
Ah terwijl ik dit post, als je hele dag aan hebt staan dan is in stroomverbruik over honderden mensen natuurlijk wel gigantisch verschil.

[Reactie gewijzigd door graceful op 22 juli 2024 18:28]

Historisch hebben de consumenten GPUs een limiet aan het aantal encoding sessies in de driver. Nu is deze limiet eerst verhoogd naar 3 in 2023 and naar 8 in 2024 maar de A2000 heeft deze beperking niet.
Op zich voor een bedrijf valt stroomverbruik best mee, maargoed je gaat voor kantoor gebruik natuurlijk geen PC's met een gamingkaart neerzetten. Veelal schakelen meer bedrijven steeds meer over naar thinclients voor dat. En voor die groepen die wel een dikke videokaart nodig hebben, is het stroomverbruik maar een fractie van de kosten, dat die persoon zijn/haar werk sneller en beter kan uitvoeren is dan vele malen belangrijker.
Hmmm, als dit betekend dat we ook de workstation features krijgen zoals SR-IOV is dit wel een tof kaartje.
Wat voor workloads zijn dan gebaat bij zo’n kaart? Rendering of anders?
Eigenlijk alleen CAD.
Een 4070 is 100% zeker stukken sneller dan deze RTX2000 voor CAD.
En deze heeft geen externe power connector nodig, het PCI-E slot kan 75W leveren.
Wellicht kan deze op termijn mijn A2000 vervangen! Dit zijn leuke kaartjes voor de SFF fan. Zelf heb ik een 4 liter behuizinkje ge3Dprint waar een 5800X3D en A2000 prima samenwerken voor de games die ik speel. (Vooral grand strategy) En kan ik mijn computer meenemen voor een lan party.
Vreemd dat ze daar de 2000 naam voor gebruiken, omdat dat in de gaming wereld alweer een 2 generaties oude architectuur is.

Ik had vroeger systemen van mijn werk met de workstation serie van Nvidia erin. Quadra heetten die toen nog. Ik vond het nogal troep eigenlijk. Ze waren enorm veel duurder en minder krachtig dan de game varianten, ondanks dat ik het voor VR design gebruikte waar een gaming kaart gewoon geschikt voor is. De reden dat ik toch een Quadro had? Nvidia had een dealtje gemaakt met de laptop fabrikanten dat ze alleen Quadro kaarten in "zakelijke" laptop series zouden stoppen (in mijn geval een Lenovo Thinkpad P-Serie.

Ik geloof dat het tegenwoordig eindelijk wel "mag". Maar ik was sowieso klaar met die P-serie bakbeesten dus ik gebruik nu gewoon mijn prive PC voor de ontwikkeling, met 4090 erin, en een dunne lichte laptop voor ander werk.
Ik heb verder nog geen idee waarmee deze RTX 2000 dan vergelijkbaar is maar voor een meer professionele zakelijke kaart vind ik de prijs nog mee vallen. Afhankelijk dan wel natuurlijk van wat de uiteindelijke prestaties ervan zijn t.o.v. de consumenten kaarten.

Op dit item kan niet meer gereageerd worden.