Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Foto's tonen vermeende Nvidia GeForce RTX 3090-videokaart met tripleslot-ontwerp

Een Twitter-gebruiker heeft foto's van een vermeende Nvidia GeForce RTX 3090-videokaart gedeeld. Vermoedelijk gaat het om de Founder's Edition van Nvidia zelf. De videokaart zou een tripleslot-ontwerp krijgen.

De afbeeldingen, die zijn gedeeld door Twitter-gebruiker GarnetSunset, tonen de mogelijke RTX 3090-videokaart naast een RTX 2080 Founder's Edition. De komende videokaart beschikt over twee fans, die respectievelijk aan de voor- en achterkant van de koeler zijn geplaatst. De videokaart zou daarnaast drie slots in beslag nemen. Eerder dit jaar verschenen er al foto's van een vermeende RTX 3080 Founder's Edition-videokaart met een soortgelijke koeler. Dat model had echter een dualslot-ontwerp. Er dient nog wel een slag om de arm genomen te worden, aangezien Nvidia zelf nog geen officiële informatie over zijn komende videokaarten heeft gedeeld.

GarnetSun publiceert foto's van de voor- en achterkant van de RTX 3090, waarop de komende videokaart groter lijkt dan de RTX 2080. De pci-e-slot van de RTX 3090 lijkt echter groter dan die van de RTX 2080, doordat deze vanwege het tripleslot-ontwerp dichter bij de camera ligt. Hierdoor lijkt de RTX 3090-koeler op de foto's mogelijk groter dan hij daadwerkelijk is.

Dezelfde Twitter-gebruiker claimt ook dat de RTX 3090 een mogelijke adviesprijs van 1400 dollar krijgt, terwijl de RTX 3080-, 3070- en 3060-varianten respectievelijk 800, 600 en 400 dollar moeten kosten. Het is echter niet duidelijk waar de Twitteraar deze informatie op baseert en het is niet bekend of Nvidia zelf al definitieve adviesprijzen heeft bepaald voor zijn RTX 3000-line-up. Deze informatie dient dus ook met een korrel zout genomen te worden.

Verder is er weinig informatie over de mogelijke RTX 3090-videokaart. Eerder deze maand publiceerde geheugenfabrikant Micron een document waarin wordt vermeld dat de RTX 3090 beschikt over 12GB aan gddr6x-geheugen met een snelheid van maximaal 21Gbit/s. Andere geruchten stellen dat de videokaart maximaal 24GB aan videogeheugen zou hebben. Nvidia houdt op dinsdag 1 september een livestream. De kans is groot dat de fabrikant op die datum zijn komende GeForce-videokaarten aankondigt.

De afbeeldingen van de vermeende RTX 3090. Afbeeldingen via GarnetSunset op Twitter

Door Daan van Monsjou

Nieuwsposter

22-08-2020 • 15:08

286 Linkedin

Reacties (286)

Wijzig sortering
Het viel me op dat op die foto de 3090 een dual slot design heeft.

Ik heb ze in photoshop over elkaar heen gelegd en de rest van de pixels van de foto's zijn identiek, behalve het gedeelte wat de kaart 3 slots doet zien lijken. Ik vermoed een fake van de 3 slots kaart

Edit: Heb even een gif gemaakt:
https://gifyu.com/image/cDqL

Edit 2: Ik zie herhaling in pixels bij de 2 slots koeler, dat lijk me edit werk. waardoor ik tot de conclusie kom dat de 2 slots afbeelding fake is.

[Reactie gewijzigd door j005t op 22 augustus 2020 18:22]

Dat kan. Maar dat lijkt me niet. Op twitter gaf iemand al aan dat de pcie op de 3090 groter is dan de rtx2080 en dus de 3090 "fake" noemde. Maar omdat de 3090 dikker is is de pcie voor de camera dichterbij. Daardoor is ie iets groter. En dikker betekend ook mogelijke 3slots
Bekijk mijn Gif even, 1 van de 2 is fake. Overigens weet ik niet welke. Als ik in Photoshop zoom vermoed ik de 3 slots versie. Dat gedeelte heeft afwijkende jpg artifacts.

Edit: Ik zie herhaling in pixels bij de 2 slots koeler, dat lijk me edit werk. waardoor ik tot de conclusie kom dat de 2 slots afbeelding fake is.

[Reactie gewijzigd door j005t op 22 augustus 2020 17:58]

Ik heb werkelijk nooit een ontwerp als dit gezien dus zou me niks verbazen als beide nep zijn, of iets van engineering samples, of dat het een waterblok is.
Het PCIE slot zou in deze orientatie op dezelfde plaats moeten zitten (de koeler gaat immers vanaf de PCB naar voren komen).

De kaart is veel hoger dan zijn voorgangers en veel langer, dit ontwerp gaat in vrijwel geen normale behuizing passen. De foundry edition kaarten zullen voldoen aan standaard maatgevingen en zullen niet zo ver uitsteken in de hoogte of in de lengte. Dat alleen al maakt mij overtuigd dat die afbeeldingen fake edits zijn. Ook klinkt het absoluut niet logisch dat ze een 3090 gaan aanbieden voor de prijs van een huidige 2080ti, veel waarschijnlijker is het, dat de 3090 aanzienlijk duurder gaat worden.
Heb je hier de originele bronlink van (dus niet deze imgur-link)? Dan ik kan het even verifiëren en zo nodig het artikel aanpassen :)

EDIT: Hier ook nog even voor de volledigheid. Zoals ik eerder ook in Geachte Redactie al schreef, kan ik de foto met dualslot-ontwerp nergens anders vinden (los van de bovenstaande imgur-link, maar die is vijf uur geleden geüploaded en de afbeeldingen van Twitter zijn gisteravond al gepubliceerd). Ook alle andere media linken alleen naar de foto's met tripleslot-ontwerp. En, zoals @j005t schrijft, lijkt de dualslot-foto mogelijk bewerkt te zijn. Voorlopig laat ik de huidige foto's dus in de tekst staan :)

[Reactie gewijzigd door AverageNL op 22 augustus 2020 21:24]

1400 USD voor een kaart.. moet niet gekker worden lol.
Je hoeft 'm natuurlijk ook niet te kopen. Er zijn nog steeds voldoende kaarten voor elk budget beschikbaar.
die gaan evenredig in prijs omhoog, waar je 6 jaar geleden voor €600 het topmodel kocht (GTX X80TI) kost het huidige top model €1200 (verdubbeling van de prijs in 6 jaar tijd wat neer komt op een prijsverhoging van 33% per generatie) dan tellen we de Titan modellen nog niet eens mee.
De midrange kaarten van toen (GTXX60) waren toen €250 en nu €370 en als de nieuwe al €400 gaan kosten zitten we ook al aan een 10-15% prijsverhoging per generatie, dat noem ik geen inflatie correctie meer. Het argument dat onderzoek kosten hoger zijn nu dan toen kan best maar de verkoop aantallen liggen nu ook significant hoger dan toen.
Laten we hopen dat AMD met RDNA(2/3) de concurrentie in de markt op zo veel mogelijk prijspunten terug kan brengen. Gelukkig koop ik toch geen topmodel kaart, ik ga liever voor de beste prijs/performance, en dan kan ik altijd bij AMD terecht.
maakt toch niet zoveel uit, het gros van de mensen zullen toch Nvidia blijven kopen. Dit zie je gewoon terug bij elke generatie, waar als zelfs AMD de beste prijs/performance bied in de mid range dat de Geforce kaarten toch beter zullen blijven verkopen. De bitter smaak van AMD hun software problemen blijft veel mensen aan zetten tot Nvidia te kopen en dan heb je natuurlijk de die hard fan bois die jan en allemaal Geforce blijven aanraden. Dat Nvidia deze prijzen kan vragen zijn we zelf schuld.
Komt meer omdat de overgrote meerderheid van de gamers kant en klare pc`s kopen, en daar zit veel vaker Nvidia in dan AMD. Ook is er een hardnekkig fabeltje dat alle gamers alles weten over hardware, dat is niet juist, de meeste gamers hebben nauwelijks tot geen verstand van hardware.
Inderdaad ze denken in FPS :)
Ik bouw custom pc,s en de vragen die ik krijg zijn van hoeveel fps draait Fortnite etc
Gamers hardware wordt dan ook gekenmerkt door gekleurde lampjes en enorm coole dozen en minder door door specs.Het lijkt meer een lifestyle dan een bewuste keuze.
Dat dus +1

Als ik de naam AMD al uitspreek dan kijken ze mij al zuur aan. Als je verder op in wilt gaan zoals een ryzen cpu dan verlies ik hun aandacht gelijk.
Ik heb in mijn eerste jaren trouw AMD gebruik, tot de R9 390x. Die toen vervangen voor een 1070. Heb nu voor een ITX build van mijn vriendin een rx 460 en heb eigenlijk continu wel iets van driver issues. Dat is voor mij toch nog wel echt een dingetje.
Dat is ook mijn ervaring met AMD de afgelopen jaren. En als ik dan dit soort verhalen nog steeds hoor, geef ik mijn geld toch liever uit aan iets dat zorgeloos functioneert.
Als je goed zoekt vind je van elke merk wel zulke verhalen.

Leuke is ook dat als ik jouw nu vertel dat ik al jaren AMD gebruik en letterlijk 0 problemen heb, ga je dan je mening aanpassen?
Tuurlijk, elk merk heeft wel iets. Vind Geforce Experience ongelofelijk vervelend als voorbeeld. En er zullen zat mensen zijn die nooit issues hebben met AMD (vraag me dan persoonlijk wel af of zij de high end kaarten hebben waar iets meer nagedacht word over mogelijke issues).

Maar punt blijft dat ik het wel toevallig vind dat het altijd gaat over "amd en drivers zijn een slechte combi". En ik na jaren weer mijn eerste AMD kaart aanraak en dit direct meemaak.
Is niet echt toevallig, vraag maar eens mensen om je heen wat ze je weten te vertellen over auto's met rode lak. Zelfs jonge mensen vertellen je nog de oude verhalen over hoe de rode lak verschrikkelijk verkleurde door zon en daarom zullen ze nooit een rode auto kopen. Hier is tegenwoordig echter niks meer van waar maar de tweede hands prijzen van auto's met rode kleur zijn significant minder dan andere kleuren.
Dit geeft maar aan hoeveel blijft hangen (zelfs generaties later) over negatieve zaken van specifieke dingen, lees AMD en drivers.
Er is een vergelijking qua drivers en performance en daar verbaasde zich zeer veel mensen over de uitkomst.
Snap niet wat je wil bereiken met deze vergelijking? Zijn 2 totaal verschillende voorbeelden.
Waarom zou je een corporatie uberhaupt fanboyen, het is toch TE gek voor woorden dat je je hard-verdiende geld uitgeeft aan iets puur alleen omdat je de billen van een corporatie wil likken?! Koop gewoon wat het beste voor jouw budget is, wat boeit het welk merk het is, zolang het maar het beste voor jouw budget is!

In mijn ervaring voor GPUs heb ik al sinds de 7970 tijd niet meer aan een AMD kaart gedacht, laat staan kopen. Veel mensen die ik ken hebben ook vaak driver-issues gehad met AMD in de afgelopen jaren. Natuurlijk hoop ik zelf op concurrentie zodat de prijzen dalen.

Het perfecte voorbeeld hiervoor is weer AMD, maar dan met Ryzen. Na jarenlang intel gebruikt te hebben (laatste AMD was een phenom x4) ga ik overstappen op een Ryzen 4000. Intel zie ik de laatste tijd een heleboel foute dingen doen, ik gebruik nu een 6700K op 4.7, maar de komende jaren wordt het overduidelijk AMD voor mijzelf en vele anderen!
Zonder er naar te hebben moeten zoeken is mijn eigen ervarging en die van vrienden soortgelijk met betrekking tot driver problemen met AMD (Linux gebruikers).
Een soortgelijke ervaring: Steeds trouw AMD chips geprikt als GraKa als cpu, ook zelfs toen de cpu's bakbeesten waren - maar value for money gaven (Phenom II 955) en stil waren met een custom cooler.
Bij de recente upgrade op zoek gegaan naar een balanced upgrade met de Ryzen 2600X. Ofwel de R9 die qua budget goed zat, maar uiteindelijk underpowered bleek. Ofwel de Vega/5xxx categorie, die niet te duur waren voor hun prestaties, maar niet in de buurt kwamen van het stil of passief koelen.
En zo, na 20 jaar, zat er plots een Nvidia chip in de pc.
-Edit: het is de GTX 1660 Ti Asus Rog Strix geworden-

[Reactie gewijzigd door Dial_Up op 23 augustus 2020 14:24]

Apart. Ik zelf heb een RX480 8GB, gebruikt zonder en nu met overclock (zelfs waterkoeling erop gezet) en ik heb nooit echt last gehad van driver problemen. Ook heb ik deze kaart in twee verschillende systemen gehad (Intel i7 2600 - 2016 tot 2019) en nu een AMD Ryzen 9 3900X.

Ik vraag me af wat voor problemen je dan ervaart?
Ik heb een 460 2GB. Zou me niks verbazen als ze voor die duurdere kaart van jou, de drivers nog ff dubbel checken.

Game crashes, black screen, soort rare gebreien wollen trouw van blauwe pixels. To name a few. Oudere drivers van paar maanden terug erop gezet en toen was het al aanzienlijk minder.
Ik heb een vega56, draait altijd super en geen driverproblemen. Dat is voor mij toch nog wel echt een dingetje, geen gedoe.
Vooral op Linux, waar ik met mijn R9 280X allerlei gekke artifacts of volledig zwarte textures had in CSGO heb ik met mijn huidige 1070 die problemen simpelweg niet meer.

Nvidia op Ubuntu 20.04 met drivers zonder custom ppa draait als een zonnetje.
Voor kort was dat ook het geval met Intel vs AMD CPU's (nog steeds wel maar stuk minder)

Zoals je zelf weet kan dit snel omslaan, echter is nVidia geen Intel die lekker rustig aan doet als ze minder competitie hebben, maar ook nVidia kan slechtere tijden hebben, dat deze GPU +300 Watt gaat verstoken kan bijvoorbeeld 1 zo'n minder iets zijn
https://external-preview....220a0501426dfd599ebb9365e

dat lijkt me niet, is in de laatste 20 jaar 1 keer voorgekomen met 1 generatie. de opmerking over dat een kaart veel stroom verstookt is alleen van toepassing als je niet de beste kaart hebt.... De 10900K verstookt gewoon tot 250W aan stroom, hoor je niks over omdat die toch net een paar % beter is dan zijn concurrent die nog niet eens de helft verstookt. Vraag me af wat deze 3000 serie gaat verstoken, vooral gezien de grootte van het koelblok. Zen is ondertussen 3 jaar oud en pas nu zie je serieus mensen naar AMD overstappen, bij de GPU markt heb je die tijd niet en AMD heeft in de midrange al zeer goede kaarten die ook nog altijd slechter verkopen omdat Nvidia hun marketing apparaat nou eenmaal beter op orde hebben.
AMD is al zo lang doodstil over de RDNA2/3 dat ik daar weinig hoop op heb.
Dat zegt dus echt helemaal niks.

Hoe minder er naar buiten lekt hoe minder je concurrent weet hoe beter het is voor jouw, zodat hij niet al op launch is heeft om jouw af te troeven.

Daarbij weten we al aardig wat door de consoles. En heeft Lisa gezegd dat rdna2 die jaar komt.
Dit jaar een nieuwe laptop aan moeten schaffen, toevallig was er een daling met in Intel laptops en heb ik er eentje met een 2060 weten te bemachtigen.

Wel echt héél chill dat ik machine learning voor een deel kan versnellen. Voor iets als live image recognition krijg je een performance boost.

Jammer dat de prijzen omhoog gaan, een plausibele 600,- voor een 3070 is wel duur, ook omdat ik nog 380,- betaalde voor mijn top-of-the-line GTX 970 in 2015. Maar voor gamers/analisten wel nice ;-)

Ik wil hier overigens niets mee bewijzen hoor, maar ik ben echt de target markt hier!
De kaarten van nu zijn dan natuurlijk ook vele malen meer geavanceerd dan toen. Ik ben het met je eens dat het belachelijke prijzen zijn, maar ik heb nog in de gulden tijd ook bijna 1000 gulden betaald voor de Geforce 3 Ti500 en dat was in 2001...
Als je rekening houd met de performance van de kaarten blijft de prijs gewoon gelijk daar waar het vroeger daalde (ie de volgende generatie even duur als de huidige maar stuk sneller).
De aandeelhouders willen (nog) meer geld.
De aandeelhouders willen (nog) meer geld.
Uiteraard, wie niet.
Waar het om gaat is dat ieder bedrijf winst wil maximaliseren. Dus zoeken ze de prijs waarop de winst vermenigvuldigd met het aantal verkochte producten maximaal is. Dat ze zoveel geld vragen voor een videokaart betekent dus
  • Ofwel dat NVidia slechte economen in dienst heeft
  • Ofwel dat er genoeg mensen zijn die zoveel geld voor een videokaart over hebben
Ik kan het de aandeelhouders niet kwalijk nemen. Als je het te duur vind is het simpel: dan koop je het niet. Feitelijk is dat wat @Gerton ook al zegt.

[Reactie gewijzigd door 84hannes op 22 augustus 2020 19:31]

Het belangrijkste verschil met vroeger lijkt mij tweevoudig: de high end markt is gegroeid en 'limited edition' marketing blijft effectief.

Door aanbod laag te houden stijgt de vraag (als het uitverkoopt zal het wel het geld waard zijn, toch?). Daarna stijgt opeens het aanbod en zodoende verkopen deze kaarten, vooral in het eerste jaar, tóch genoeg om steeds meer winst te halen.

Dit is overigens een strategie die Nvidia al jaren hanteerd, en precies dezelfde strategie die Apple sinds de introductie van de iPhone rijk heeft gemaakt.

In tegenstelling tot Apple producten dalen de prijzen uiteindelijk weer wanneer de vraag zakt en natuurlijk ook met invoeging van concurrentie.
Door aanbod laag te houden stijgt de vraag (als het uitverkoopt zal het wel het geld waard zijn, toch?).
Dat is marketing en daar zijn mensen inderdaad gevoelig voor. Ik vroeg laatst een collega wat zijn koptelefoon koste en hij antwoordde dat hij 60% korting had gekregen. Bij een topic over ransomware zei iemand dat als je maar vijf miljoen betaald terwijl het dubbele gevraagd is het wél acceptabel is om te betalen. Maar het enige dat zou moeten tellen is: hoeveel betaal ik en wat krijg ik er ervoor. Niet ‘wat betaal ik niet’ of ‘wat krijgt een ander’. Helaas zijn mensen niet zo rationeel.
Wat een belachelijke redenering. Dus als je graag gamet moet je volgens jou maar stoppen met gamen omdat je geen videokaart meer kan kopen omdat je het te duur vindt? Zo werkt het helaas niet. Als je graag gamet ga je niet plots stoppen met gamen en kan je dus niet anders dan die veel te dure videokaart van Nvidia te kopen als je een beetje deftig wilt gamen en door gebrek aan concurrentie van AMD. Je hebt dus geen keuze en Nvidia weet dat. Dat noemen we ook MONOPOLIE!
Als je graag gamet ga je niet plots stoppen met gamen en kan je dus niet anders dan die veel te dure videokaart van Nvidia te kopen
Ik ken die vorm van verslaving gelukkig niet dus wellicht leef ik me niet genoeg in in de slachtoffers die jij beschrijft.

De eerste voodookaarten kostten een gulden of tweehonderd volgens mij. Laten we zeggen €100. Toen men er achter kwam dat dat verkocht kwamen er duurdere kaarten, laten we zeggen €200. Dat verkocht ook, dus gingen fabrikanten het proberen kaarten van €400 euro op de markt te brengen.

Als kaarten van €1200 verkopen, verwacht jij dan dat NVidia degene is die gaat zeggen ‘Nu wordt het gênant, we maken voortaan geen kaarten meer die meer dan €509 kosten’? Natuurlijk niet: jij bent diegene die dat moet zeggen!

Je kan wel klagen over een monopolie maar dat is onzin. Er zijn nog steeds kaarten van €250 beschikbaar en die zijn beter dan kaarten van diezelfde prijs van vorig jaar. Zijn die niet goed genoeg voor jou? Dan ben jij diegene die de markt voor peperdure kaarten in stand houdt!

[Reactie gewijzigd door 84hannes op 24 augustus 2020 08:17]

Maar met een kaart van €300 kan je toch ook prima gamen? Ik game zelf nog met veel plezier met een GTX970, die is nu vier en een half jaar oud, en wordt wellicht dit najaar vervangen. Een vriend van mij speelt alles met een 1050 Ti, dat performt nog wat minder, maar doet ook alles wat het (voor hem) moet doen.
Als jij je 970 gaat vervangen door een 3070 ga je niet toekomen met €300. ;) Als je een beetje deftig wilt gamen, dus minimaal 1440p 120Hz heb je minimaal een 3070 nodig en die is veel te duur met >500€ door gebrek aan concurrentie van AMD.

[Reactie gewijzigd door Fredi op 25 augustus 2020 06:36]

Ik snap niet zo goed waarom mensen zo aan dat nummertje vast blijven houden. Een kaart van €300 (of wellicht €400, want dat kostte die GTX 970 ook) die ik in november ga kopen is gewoon twee keer zo snel als wat ik nu heb. Dat betekent dus dat ik waarschijnlijk weer alles op hoge settings op 1080p op 60FPS kan spelen.

Uiteraard, als ik de verwachtingen van waar een kaart aan moet voldoen ga aanpassen dan wordt het natuurlijk duurder. Ook bij de release kon je met een GTX 970 niet weg als je 1440p 120hz speelde en nog een beetje deftige settings vol wilde houden.

Uiteraard hoop ik ook dat AMD en nVidia komende generatie elkaar qua prestaties weer bij kunnen benen. Maar AMD kan dat momenteel ook prima in het lagere en het middensegment. Voor mij maakt het vrij weinig uit dat er geen AMD alternatief voor een 2080 Super is, want een 5700 XT voldoet voor mij (en voor 95% van gamers gok ik zo) prima.
De eisen worden steeds hoger. Straks heb je minimaal een systeem van 4-5k nodig wil je een beetje relaxt gamen op de hedendaagse tech.
Straks heb je minimaal een systeem van 4-5k nodig wil je een beetje relaxt gamen op de hedendaagse tech.
Dan game je toch iets minder relaxed? Of niet? Of je speelt spelletjes die al twee jaar oud zijn? Het is heel makkelijk de schuld op anderen af te schuiven maar je bent zelf baas over je eigen portomonee. En nogmaals: als mensen zo gek te krijgen zijn om echt duizenden euro’s aan een videokaart uit te geven, dan zou NVidia onverantwoord bezig zijn om het niet te vragen.

[Reactie gewijzigd door 84hannes op 23 augustus 2020 20:26]

Mijn 5 jaar oude GPU doet het nog prima in Horizon Zero Dawn en Flight Simulator (laatste zelfs op Ultra). De Crysis remaster overleeft ie ook wel.
Het gros van de mensen koopt toch mid-range en game-ontwikkelaars houden daar rekening mee.

[Reactie gewijzigd door Wolfos op 23 augustus 2020 15:39]

Onzin, het artikel gaat over high end shizzle. "Een beetje relaxed gamen" hoeft toch niet per se met 120+FPS op 4K te zijn? Met een beetje schappelijke low tot mid-range kaart kun je juist tegenwoordig op 1080p aardig uit de voeten. Sterker nog, ik heb recentelijk een kleine build gemaakt met Ryzen 3200G en die GPU is behoorlijk genoeg voor wat Sims en dergelijke casual games op 1080p.

Waar je een paar jaar geleden nog echt een dedicated kaart nodig had om tot enige prestaties te komen kun je nu met lage eisen best redelijk uit de voeten met de GPU in de processor, dus juist weinig kosten. Ik heb even een paar jaar oude 750 afgezet tegen een Vega 11 en prestaties zijn navenant.

https://gpu.userbenchmark...-Ryzen-iGPU/3162vsm401440

Gooi eens €150 stuk en je hebt iets als een 1660 waar je aardig mee weg komt op 1080p of zelfs QHD? 4-5k is écht onzin, juist tegenwoordig bouw je voor een paar honderd euro een leuke game PC, en met Ryzen kun je nog makkelijk een keertje upgraden na een of twee jaar ook.
Dat is niet gek voor een topmodel hoor
Er was een tijd dat een topmodel voor 500 euro over de toonbank ging. Gecorrigeerd voor inflatie zou dat vandaag nog altijd geen 1000 euro zijn. Terwijl in de it met tijd zowat alles goedkoper wordt blijken grafische kaarten echt wel de andere kant uit te gaan.
Dat gezeur altijd over die prijzen. De laatste keer dat je voor 500 euro het topmodel kreeg was ergens in 2005. Ik kocht in 2003 een ATi Radeon 9800 Pro en die was toen al 475 euro. Elk jaar worden de kaarten duurder, net als bijna alle andere dingen. Gewoon een paar maanden wachten en de prijs zal alweer aanzienlijk gedaald zijn.

In 2003 had je een topkaart nodig om een spel als Doom 3 een beetje fatsoenlijk te spelen (specifiek voor dat spel kocht in de Radeon 9800 Pro), tegenwoordig draaien games prima op kaarten uit het midden of zelfs lagere segment.

[Reactie gewijzigd door EnigmaNL op 22 augustus 2020 16:52]

Niet echt een goede vergelijking. De andere componenten van een PC inclusief de CPU zijn niet echt in prijs omhoog geschoten terwijl de performance dat wel is.

Het probleem is gewoon dat Nvidia geen serieuze concurrentie heeft. Aangezien je tegenwoordig niet meer betaalt voor wat iets kost, maar voor wat ze er voor kunnen vragen, komt dit gewoon heel hoog uit.
Het is niet alsof AMD nou zoveel betere prijs/kwaliteit verhouding heeft. Die ligt redelijk in lijn en concurreren alleen niet op de enthusiast markt.
Ik denk dat de grootste schuldige in dit verhaal toch de mininghype is. Vooral daardoor is er een enorme schaarste ontstaan. En wat gebeurt er doorgaans bij schaarste? Prijsstijgingen! En dan ging het vooral over de topmodellen omdat midrange kaarten natuurlijk veel minder interessant zijn voor mining. Maar toch zijn ook deze flink in prijs gestegen. Dat heeft volgens mij voornamelijk te maken door een tekort (en dus hoge prijs) van de hig-end kaarten waardoor veel mensen hun toevlucht gingen zoeken in midrange kaarten waardoor ook deze in prijs stegen. Volgens mij is het mining gebeuren nog steeds niet voorbij, alleen is het wel minder geworden. Het kan overigens zomaar zijn dat de miningwereld ook op de nieuwe 3000 serie aan het wachten is en de prijs daardoor ook hoog zal blijven, en daardoor de midrange versies ook omdat mensen daar een toevlucht naar zoeken.

Zo heb ik onlangs een nieuwe build gebouwd op basis van de Ryzen 3700X en was aan het kijken mijn antieke Radeon HD5770 te vervangen voor een moderne midrange kaart in de vorm van een 2060 of 2070 Super maar wacht even wat de prijzen gaan doen van de 3000 serie want de 2000 serie kaarten zijn niet echt in prijs gezakt sinds introductie en als de 3060/70 nauwelijks duurder worden dan ga ik daarvoor.

[Reactie gewijzigd door Tranquility op 24 augustus 2020 15:11]

De mininghype is inderdaad niet voorbij maar de enorme piek wel. Niettemin zijn de kaarten nog steeds zo duur ;)

Bitcoin wordt niet meer met GPU's gemined omdat dat gewoon geen enkele zin meer heeft. De moeilijkheidsgraad is zo hoog dat het niet meer loont. Speciale hardware (ASICs) zijn nu de enige optie.

Maar de meeste altcoins kunnen nog wel gemined worden op GPU's inderdaad.
"Het probleem is gewoon dat Nvidia geen serieuze concurrentie heeft. Aangezien je tegenwoordig niet meer betaalt voor wat iets kost, maar voor wat ze er voor kunnen vragen, komt dit gewoon heel hoog uit."

Was dat ooit anders? Denk dat kaasboeren ook wel E1400,- per wiel zouden vragen als iemand dat wou betalen.
True, ik speel horizon zero dawn op een gtx 760 en speelt zeer lekker.
'lekker' en 'relax' gamen zegt niet zo veel. Als jij bijvoorbeeld 20-30fps op 1080p op low settings lekker vindt dan ben ik wel een beetje jaloers. Ik ben helaas verpest en verwend en wil graag met mijn 1440p 144hz scherm ook graag tegen de 144fps aanzitten, dis wordt steeds moeilijker moet ik zeggen (ik heb een 9700k en 1080ti)
Ben het met je eens ik zit hier met 3 x 1440p monitoren te spelen of werken en vind kan dan ook de charme van 1080p niet meer waarderen.
Natuurlijk als ik mijn laptop opstart en onderweg een spel wil spelen dan is het prima en voldoet.
Dus ja misschien ben ik wel heel erg verwend.
In ieder geval wil ik nooit meer terug naar 1080p zeker omdat ik met normale programma's geniet van de ruimte en gemak van mijn grote schermen.
Op de ene monitor draai ik een film op de andere heb ik mijn tools open waar ik mee bezig ben wat van alles kan zijn. Meestal ben ik met files te bewerken of ben remote bezig met het oplossen van een IT probleem bij anderen. En dan heb ik op mijn derde scherm de pc in beeld waar ik aan werk.
Heerlijk gewoon alles tegelijk goed en overzichtelijk te kunnen doen.
Uiteraard zijn er niet veel spellen die je met 2 of meer schermen kan spelen, maar het gebeurt heel vaak dat er van alles tussendoor komt en dan heb ik gewoon mijn spel draaien op 1 van de schermen en pauzeer even en ga aan de gang met de andere schermen met wat er nodig is.
LoL zelfs spellen spelen en film kijken lukt zonder problemen, afhankelijk natuurlijk van wat je moet doen in een spel ;)
Daarvoor gebruik je het tooltje Borderless gaming en hoppa je kan heerlijk switchen naar hartelust zonder gezeur.
paar maanden wachten? 2080 super van MSI kostte bij introductie €800 in 2019 en anno 2020 €780, ik kan me nog wel anders herinneren. Trouwens vroeger waren de GPU ook gewoon zo gebinned als nu om even de R300 als voorbeeld te nemen begon je bij de 9500, 9600, 9700, 9800, 9800 pro en 9800 XT en Nvidia had toen ook gewoon GTX, GTS en GT modellen welke allemaal gewoon goed waren voor hun prijs klasse. kan mij mijn 8800GTX nog herinneren kostte me iets van €600 maand na release ofzo, paar jaar later met de GTX480 was dat €550 bij release, toen ik weer wilde upgrade tijdens Pascal was de 1080TI €850 en nu de 2080TI al €1200.
Nvidia heeft de prijzen gelijk gehouden voor hun chips tot Kepler waarna ze per generatie de prijzen flink omhoog begonnen te gooien en er geen vernieuwingen meer kwamen elk jaar zoals eerst. De reden is vrij duidelijk, geen concurrentie zelfde als Intel heeft gedaan.
Je vergeet dat deze kaarten niet alleen gpu zijn, maar ook ai cores (tensor) en versnellings cores (rt) cores aan boord gebben.

Deze chips kosten ook geld en r en d.
Daarnaast gaan de kaarten ook langer mee. Zo’n 15 jaar geleden kocht je het topmodel en die was een jaar later al niks meer waard. Als je nu bij introductie de nieuwste kaart koopt duurt het überhaupt al 2 jaar voordat er een verbeterde versie komt, maar dat is ook geen wereld van verschil zoals toen.
Kun je een voorbeeld geven van zo'n videokaart van 15 jaar geleden? Ik kan me hier niets van herinneren en ga al mee sinds het 'Voodoo' tijdperk.

De prijzen van videokaarten zijn jarenlang stabiel geweest, maar na de crypto-koorts worden ze ineens voor het dubbele verkocht. Blijkbaar realiseren ze zich dat een groot deel van de consumenten zich nauwelijks laat remmen door de prijs. Het mooie is dat ze niet alleen een flinke marge pakken op de flagships, maar consumenten bereid hebben gevonden om flagship prijzen (500+) te betalen voor het middensegment.

Ter illustratie:
2013 - 780 ti - 699
2015 - 980ti - 699
2017 - 1080ti - 699
2019 - 2080ti - 1050
2019 - 2080ti - 1050 was meer....dik 1299 die kaart in het begin
Ik heb de launch prices overgenomen in dit overzicht. Dat je voor dat bedrag geen enkele 2080ti kon scoren is een feit.
Je maakt een fout ze maken niet de meeste winst op de marge van de dure kaarten, juist op de goedkopere kaarten word de meeste winst gemaakt. Relatief gezien worden er van de duurdere vaak veel minder verkocht en zijn de kosten vaak veel hoger om die te produceren om diverse redenen.
Natuurlijk zullen er veel afvallen in de top lijn en worden deze aangepast door lasercut om als mindere kaart als nog verkocht te worden. Dus niets nieuws het vervelende is echter dat de mining boom op gpu kaarten eigenlijk allang over is. en dat er door de fabrikanten dankbaar misbruik word gemaakt van deze oude situatie door de prijzen niet te verlagen.
Je kan erop rekenen dat dit niet meer gaat veranderen. In de mining wereld kunnen nu alleen nog hele grote bedrijven winst maken, de kleine man moet om nog winst te maken zijn energie of stelen of in een land kunnen laten draaien waar je heel weinig betaald. Dat worden er ook steeds minder, maar de mining boom is echt over ook al blijven enkele diehards beweren dat het niet zo is.

[Reactie gewijzigd door rschwartnld op 23 augustus 2020 14:28]

Er is altijd wel innovatie geweest op GPU gebied. Dat is normaal.

Een CPU van 10 jaar geleden heeft ook veel meer cores, hardwareversnelling voor van alles en nog wat, 3D transistoren enz. Toch hoeft die niet veel meer te kosten dan toen.
Concurentie want nu is monopoly op high end segment.Intel is ook maar begonnnen eens amd terug kwam met ryzen.We betaalde ook te veel voor iedere nieuwe generatie met bijna geen voor uitgang.
Zeker dat dat aparte chips zijn? Volgens mij zitten die toch echt allemaal mee op de main die.
Zeker,

Alleen de definitie is maar net waar je hem neer legt:

https://www.nvidia.com/co...chitecture-Whitepaper.pdf

https://videocardz.com/77...-rtx-6000-ray-tracing-gpu

Ja ze zitten in de zelfde chiplet , maar het zijn echt complete aparte cores in Turinger, en RT zit er ook los van.
in princiepe worden gpu’s nu gemaakt voor compute is gamen “bijzaak”; de markt is wel veranderd sinds de 500 euro topmodellen..
Grappig aangezien Nvidia nog steeds het leeuwendeel van zijn inkomsten haalt uit hun Gaming divisie. Alleen sinds het meest recente financial earnings heeft Nvidia meer uit Datacenters verdient:
https://nl.hardware.info/...er-grootste-inkomstenbron
https://www.tomshardware....ing-gpu-revenue-as-gaming


Het grote merendeel van de GeForce kaarten wordt gewoon voor mining/compute gebruikt. Nvidia schuift de schuld voor tekorten al jaren door naar de cryptominers.
Het minen van crypto is ook niet meer wat het was hoor. Ja, in 2017 ging het heel hard met de GPU verkoop voor minen. Inmiddels worden er nog maar weinig GPU's verkocht voor het minen en is er geen spraak meer van een tekort door het minen.
Heb je bronnen voor je uitspraak?

https://news.bitcoin.com/...nufacturers-blame-nvidia/

Met meer en meer tokens zoals bv RNDR die aan populariteit winnen zie ik het alleen maar stijgen.
Inmiddels is het weer aan het toenemen inderdaad, maar het komt niet in de buurt van de 2017 crypto bullrun. BTC is ook niet te minen met GPU's dus we hebben het alleen over altcoins. Feit is dat toen crypto rond 2017 helemaal hot was er vrijwel geen GPU te krijgen was voor gaming omdat ze opgekocht werden door miners. En hoewel het nu dus weer toeneemt is het nog altijd flink minder dan wat het was.
Maar voldoende om de prijzen hoog te houden.
:) ik had ook geen weet van de cijfers, punt is meer dat de groeiende compute tak ook zijn stempel drukt op de gaming producten. Ik denk dat nvidia daar ook meer groeipotentie ziet?
en toch - per dollar krijg je bij elke nieuwe generatie wel meer performance, het is dus wel een betere deal dan de vorige generatie. Los van het feit dat je er (hopelijk, fingers crossed) buitensporig veel meer geheugen bij krijgt - gamers hebben er (nog) niet veel aan, maar content creators krijgen nu ineens erg veel geheugen voor relatief weinig geld. Wel jammer dat ie triple slot is - nou passen er geen 4 meer in een workstation.
Nee dat is niet een betere deal, dat hoort gewoon bij vooruitgang. Alles wat je nu koopt is beter dan vroeger, voor dezelfde prijs.

Afgezien van planned obsolescence, dat is iets wat vroeger niet bestond waardoor je veel langer door kon met hetzelfde. Eigenlijk krijg je nu dus een slechtere deal.
Alles? Volgens mij was alles vroeger beter :)

Afgezien van die discussie, is deze kaart vanwege de hogere bandbreedte en hoeveelheid van het geheugen eerder een opvolger van de Titan dan de 2080ti, en dan is ie weer een stuk goedkoper, sneller en beter. Voor content creators is dit een veel betere deal dan de 2080ti (afgezien van dat ie zo groot is, minpunt in mijn optiek), de oude favoriet in die doelgroep.

Sowieso is de hele videokaartmarkt steeds hoger aan het schieten met hun markt, als je kijkt dat je vroeger met de voodoo kaart voor 200 dollar het beste van het beste in huis haalde. Vergeleken met de prijs die je betaalde voor de rest van je systeem was dat relatief veel goedkoper dan nu.

[Reactie gewijzigd door mixil op 22 augustus 2020 18:54]

Dat ligt er maar aan als je graag een modded game draait word het toch echt een ander verhaal als je bijvoorbeeld gaat kijken naar skyrim se dan kan je toch heel ver komen met het belasten van een gpu met heel veel geheugen. Mede omdat er in dit spel het al heel ver is gekomen met het levensecht maken van een spel. En dat zou zo maar eens een vlucht kunnen nemen als er nog meer geheugen beschikbaar komt voor al dit grafisch geweld. En eerlijk gezegd zie ik dat ook echt wel gaan gebeuren.
Voor 1000 euro, of zelfs 500, koop je straks een kaart die meer dan prima op 1440p kan gamen. Dat is voor bijna iedereen meer dan voldoende natuurlijk
Voor €500 koop je nu een kaart waar je gemiddeld genomen prima op 1440p 144Hz kan gamen. En natuurlijk, gemiddelde AAA spel zal hij niet 144FPS constant halen, maar daarvoor heb je freesync/gsync.
Dat is al meer dan prima toch? Voor competieve games zet je wat settings terug en dan haal je vast wel 100+ fps met een 3070
Oh zeker, dat is ook mijn punt: Leuk die prijzen van topmodellen, maar de gemiddelde gamer heeft die echt niet nodig. En zit je op 1080p 60Hz dan is ook een 2070S al enorme overkill.
Probleem is dat een 2070 s al veel te duur is met >500€.
Waarom is dat een probleem als die enorme overkill is? Een 1660 of een RX580 ofzo is prima voor gemiddelde speler op 1080p @60Hz.
Zelf speel ik op 1440p. Dit omdat ik redelijk slechte ogen heb. Links(6,75+ met een cilinder van 2,5) Rechts (8,75+ met een cilinder van 2,5 en 50% zichtveld) en het oog wilt ook wat Grafisch gezien. ik merkte op dat ondanks ik met mijn 1070 Ti, 70 FPS haalde op COD MW Warzone op een G-Sync scherm, ik toch een duizelig gevoel kreeg als ik snel van links naar rechts keek in game. Onlangs geupgrade naar een 2080 Super. Het lijkt alsof dit natuurlijk overkill is, maar merk toch op dat als ik nu van links naar rechts kijk in-game het allemaal veel soepeler is. Is ook niet zo gek met 110 FPS. Het is natuurlijk maar net wat een gek bereid is om af te tikken.

Dit verhaal is geen tegen argumentatie, omdat het logisch is dat er met 1080p meer behaald kan worden uiteraard :)
Wat is de kans dat je een 3070 gaat kunnen kopen voor 500 euro, als je nu al snel 550 betaalt voor een 2070 Super? Als je een hard budget hebt van 500 euro, haal je nu niets beter in huis dan een 2060 Super. Misschien net de goedkoopste 2070 Super in aanbieding...

Dat vind ik geen normale prijzen. Ik weet niet op welke planeet jij leefde 3 jaar geleden, maar vroeger had je een 1060 voor 300-350. En de generatie daarvoor had je voor dat budget al een goedkope 970.

Als je gaat kijken naar de performance die je krijgt voor hetzelfde geld, is de vooruitgang maar droevig de laatste jaren. Je krijgt nog altijd iets meer dan bij de vorige generatie, maar als je de industrie al wat langer volgt dan een paar jaar, dan weet je gewoon dat het vroeger allemaal een stuk harder vooruit ging bij een vast budget.
Meer dan prima is niet echt waar, maar het draait leuk.
Als je echt zware grafische spellen opstart die meer nodig hebben kom je toch echt niet weg met een 500 euro kaart of kan je mij eentje aanraden die wel 11 Gb geheugen heeft.
Ik heb die nog steeds niet gevonden, het spel wat ik soms speel laat op een zware gpu tot aan 9 Gb gebruik zien als het bevrijd is van de limietdie een goedkopere kaart heeft.
Ik kon deze spellen wel spelen nadat ik een gtx 1070 kocht die 8Gb gpu geheugen heeft ... uiteraard niet echt in de resolutie waar het in zou moeten draaien te weten 4K maar op 1440p moet je het niet wagen om dit alles op high of ultra te zetten dan ben je snel klaar ... lekker wachten tot je figuur beweegt en jij niet je hoofd bent verloren in het spel.
Zet je alles op 4k dan word het prachtig en verdomd echt maar je moet dan wel heel veel geduld gaan hebben om nog te willen bewegen, laat dan maar meteen achterwege dat je dan ook nog eens een tegenstander zou kunnen verslaan.
Dus misschien bij simpele spellen mogelijk maar echt mooie grafische spellen nee niet op de hogere settings.
Het verschil is dan wel dat je vroeger wel echt een high-end kaart nodig had als je op een beetje instellingen/resolutie wou gamen, en vaak was die zelfs dan na 1.5-2 jaar zo verouderd dat je flink terug moest met instellingen en na 4 jaar was je videokaart zo achterhaalt dat de nieuwe games niet eens meer konden opstarten :P

Tegenwoordig kun je tussen de 200 en 400 euro met kaarten als de GTX1660(Ti) of RTX2060 Super (of AMD equivalenten) heel behoorlijk gamen, en mits je bereid bent je instellingen iets te verlagen (het verschil tussen Medium en Ultra is veel kleiner dan het ooit was) kun je langer met je videokaart dan vroeger. De topkaarten zijn inderdaad wel veel duurder geworden, maar die heb je tegenwoordig dan ook alleen nodig als je op de hoogste resoluties met de hoogste instellingen zoveel mogelijk FPS wilt halen.
Vroeger had je ook goede midrange kaarten, ben het dus niet helemaal eens met je opmerking.
Dat was het wel bij de release van RTX2080Ti. Toen was het ook "het moet niet gekker worden"

Nu lijkt het dood normaal... Toch een hoop geld! Ik heb een RTX2080Ti btw :p
Ik kan me nog een tijd herinneren dat je een paar honderd euro neertelde voor een topmodel. Ik meen dat de Radeon HD4870 250 euro of zoiets was? En de HD4870 X2 400-500 of zo? Voor 250 heb je tegenwoordig nog maar net een mid range kaart. Maar ja, die krengen kosten gewoon erg veel tegenwoordig.
Die krengen zijn voor de fabrikant ook gewoon veel duurder om te maken.

Ga maar na als je een chip maakt van 256 mm² (HD4870) of 1 van 775 mm² (2080TI), en daarvan is de uitval ook veel kostbaarder.

En dan komen daar nog zaken bij als veel bij zoals geheugen wat ook veel meer oppervlakte en dus kosten heeft tegenwoordig, en het voeden van dat alles kost ook nog meer door meer VRM's dikkere koperbanen. En de R&D zal ook wel flink hoger zijn door veel meer ingewikkelde truucjes die we tegenwoordig hebben.

Ja de kaarten zijn duur en er zit echt wel een flinke marge op, maar ik geloof oprecht dat er ook veel meer geld in zit tegenwoordig.

Denk dat als je elke generatie 250 uit geeft dat je ook wel elke generatie op voorruit gaat. De duurste (over de top) kaarten zijn natuurlijk waardeloos qua performance per euro, helaas natuurlijk maar dat b is de prijs van het beste willen hebben.

Als de 3090/3080ti ~40% sneller is dan mijn 2080ti (wat verschillende geruchten aangeven) dan koop ik hem zo gauw er goede aftermarket versies zijn.

[Reactie gewijzigd door watercoolertje op 22 augustus 2020 18:18]

En dan komt er nog inflatie overheen, stijging van loonkosten, stijging van prijzen van andere onderdelen als ram en algemene stijging van prijzen in de pipeline.

High end kost inderdaad veel maar heeft desondanks veel waarde voor sommigen. Daarnaast is voor de een 1000 euro veel geld en voor de ander gewoon fuck you money. Ik spring gewoon van 1060 naar 2060 naar 3060, dik in orde voor mij.
Hoezo stijging van loonkosten? Dat soort fabricage werk wordt toch niet voor niets uitbesteed aan lagelonenlanden?
Daar stijgen loonkosten procentueel misschien nog wel harder.
Nope, enige reden dat Nvidia's kaarten zo duur zijn is gebrek aan concurrentie van AMD.
Op high-end klopt dat, maar qua midrangen niet en is er (gelukkig) nu flinke concurrentie waardoor (hopelijk) midrange kaarten goedkoper worden. Ik ben in de markt voor een nieuwe midrange kaart en kijk wat een 3060 of 3070 gaat doen qua prijs en maak dan een beslissing. Er zijn drie scenario's die voor mij kunnen opgaan: 1. Een 3060/70 gaat ongeveer evenveel kosten als een 2060/70 Super nu kost en koop ik een 3060/70. 2. Een 3060/70 gaat flink duurder worden en koop ik waarschijnlijk een 2060 Super als deze niet in prijs zakken na introductie van de 3000 serie. 3. De 3070 wordt veel duurder dan een 2070 Super en de laatste gaat flink in prijs omlaag: dan ik koop een 2070 Super.

Afijn, we zullen het in september gaan zien :)
Een 3070 zie ik toch echt als high-end en een 3060 als mid-range.
Ik kan me die tijd ook herinneren. De laatste topkaart die ik kocht voor minder dan 500 euro was een ATi Radeon 9800 Pro voor 475 in 2003. De kaarten worden elk jaar duurder maar tegenwoordig heb je ook geen topsegment videokaart meer nodig om spellen goed te kunnen spelen aangezien bijna alle PC games console ports zijn (of console parity hebben).
Dat kan nog wel eens veranderen als de nieuwe generatie consoles uitkomt. Maar ja, tot die tijd wil het nog best aardig. Ik heb een GTX780, en ik kan alles wel spelen. Ik zou wel graag eens beter willen, maar dat komt met de RTX3000 serie, dan krijg ik waarschijnlijk een oude GTX1080ti. Die vind ik ook wel goed genoeg.
Zal niet echt veranderen. De GPU in de PS5 en Xbox Series X is vergelijkbaar met een RTX2080 (die is zelfs iets sterker).

In het begin zullen de games ietsje zwaarder worden (met een beetje hoop) maar na een tijd als gamers beginnen over te stappen op de RTX3xxx serie van kaarten (en AMD equivalent) is dat ook weer verleden tijd. Consoles zijn tegenwoordig al verouderd voordat ze op de markt komen.
Maar kunnen wel veel beter omgaan met drawcalls en hebben toegang tot heel snel geheugen.
B
400 gulden voor mn voodo 200 of bijna 800 gulden voor mn voodoo 5 kaart.
gelukkig zijn het nu euro's :)
Gelukkig? Helaas zul je bedoelen..
Het is niet onverwachts. Toch blijft het gek...

Het blijft een hoop geld ondanks dat ik het kan kopen wanneer ik zou willen. Alleen het lijkt het amper waard naar mijn mening.
Maar dat is toch bij bijna(al niet alle). Producten. Het top model heeft bijna nooit de beste prijs/kwaliteit/performance.

En als jij als 1 van de weinig 4k+ en 120hz+ wil gamen is dit de enige optie.
Ik kan het kopen omdat ik lang niet echt iets duurs heb gekocht en ook goed omga met geld. Echter...ik ga het niet kopen want gezond verstand. Ik vind het maar absurd zulke prijzen. Met dat geld kan je veel andere leuke dingen kopen.

En nee, het is niet het waard.
Waarom vind je dat? Wist je dat de 1080ti lanceerde voor 700 usd?
prijs verdubbeld in een paar jaar vind jij niet gek?
Mijn 1080TI was 1170 euro. Idd de tijdens de crypto gekte. Maar de prijzen zijn nooit meer gezakt.
Lijkt erop dat Nvidia er op in heeft gespeeld toen ze zagen dat mensen bereid waren meer neer te leggen dan wat hun er in eerste instantie voor vroegen, en toen inderdaad de 20 serie kwamen hadden die veel hogere prijzen, qua prijs-prestatie zeer weinig progressie inderdaad, en nu weer met de 30 serie.
Omdat de vorige serie dat ook kostte
Nee hoor, de 2080ti lanceer prijs was 1199 dollar.
Dan heb ik de bitcoinhypeprijzen nog in mijn hoofd
De prijzen in de winkels lagen inderdaad een stuk hoger dan de lanceer prijzen van Nvidia, maar dat zou nu weer het geval kunnen zijn als bijvoorbeeld het aanbod te laag is, dan zullen deze ook voor meer dan 1400 dollar verkocht worden, ligt allemaal aan vraag/aanbod, daarom koste de 1080ti op den duur 1100 euro nieuw, terwijl die een paar maanden ervoor voor 700 nieuw te bemachtigen was.
Daar ben ik het mee eens. Ik geloof dat er ook geruchten waren over dat het misschien wel de 2k ging aantikken.
Waar ik me meer over verbaas is de vermoedelijke 400 dollar voor de kaart uit de **60 serie. Dat wordt ook steeds duurder.
In 2017 kocht ik de gtx 1060 in de aanbieding voor €340.

Als nu de rtx 3060 €400 kost vind ik dat netjes.
Ik kocht laatst een Gtx 1660 super voor 230 euro in de aanbieding. Vergeleken daarmee vind ik 400 euro voor een 3060 niet zo netjes.
De 3060 zal aanzienlijk krachtiger zijn dan de 1660, daarnaast is het de release prijs. Zie uiteraard zelf liever ook dat je zo’n videokaart al kunt kopen voor €100,- maar helaas.
De 1660 is een hele serie onder de 2060 RTX (Super) Die zijn 350 a 400 euro.
Dat is de normale prijs voor de instapper van de top serie.
In datzelfde jaar kocht ik een gtx 1080 voor $420. En toen ontplofte bitcoin..
Ik kocht in 2016 de GTX1060 6GB voor 290. Niet in de aanbieding.
Toen kort daarna begon de Mining rage...
En Nvidia en AMD lijken gretig hun prijzen te hebben vastgezet op die prijzen ipv ze weer te laten zakken.

[Reactie gewijzigd door LongTimeAgo op 22 augustus 2020 18:34]

en zelfs voor de mining craze werden de gtx1060 kaarten al voor veel te duur verkocht, de msrp van de 1060 was 250 dollar, maar de webshops gooiden daar zo 50-70 euro op, dat was wel even een goudmijntje voor ze, flinke marges.
Dat was dan geen beste aanbieding
Ja, ik heb het gezien, vandaar ook mijn opmerking, hij heeft zelfs een hele maand op 280 euro gestaan, daarom vraag ik me af waarom 340 euro een aanbieding geweest zou zijn.
3090 zal duurder zijn dan dat toch ?
Ongetwijfeld.

Ik denk dat het tijd wordt voor een andere gezondere hobby dan gamen :D
Als dit zo doorgaat met die belachelijk dure prijzen van Nvidia koop ik voor het eerst in mijn leven een console, ook al ben ik een fervente pc-gamer. Never nooit niet dat ik Nvidia hun kas ga spekken. Mij hebben ze niet.
Ja, ik ben ook wel klaar met die constante upgradewoede voor een paar fps.
Datzelfde wilde ik zeggen over trippe slot. Al die extra ruimte is dat omdat het moet of omdat het kan?
Ik zou liever zien dat ze kleine platte kaarten maken met beperkte warmteafgifte. Het is hier bij mijn pc al warm genoeg in de zomer. Ik denk dat ik alleen om die reden al zou bedanken voor kaarten met nog meer warmteafgifte.
1400 USD gaat dus 1550 euro worden. En aan het begin als het slecht leverbaar is 1700,- ;(
dat word dan dikke 1600 euro hier met tax erop
Is een hoop geld, maar aan de ene kant klopt het wel.

Je koopt een Processor, Geheugen en Moederbord in 1.
Eigenlijk kan het wel gekker worden want is de 1400USD voor Founders Edition? Zo ja, dan worden de AIB nóg duurder. De AIB partners nemen waarschijnlijk die FE prijzen over en voegen er de meerprijs voor betere koeling.

Hoe dan ook, ik gebruik mijn gezond verstand en ben absoluut niet van plan om zulke absurde prijzen te gaan betalen. Ik hou mijn 1080Ti wel tot het kapot is of als de RTX5090 in prijs is gedaald wanneer de RTX60xx uit zijn gekomen.
Tja er zijn genoeg professionals die er gerust 2 of zelfs 4 aanschaffen voor real-time rendering.
In Blender heb je bijvoorbeeld een super snelle noise filter die werkt met de RTX kaarten (Optix AI). De tijdwinst die je daarmee haalt verdienen profs zo terug.

Zelf heb ik een RTX 2070 Super en zie rendertijden die 60% sneller zijn dan ik eerst haalde. Dat is voor mij pure winst.
Je hoeft niet te denken dat 1400+ dollar voor een game kaart nieuw is, Titan Z in 2014 was al 3000 dollar.
Je hoeft hem ook niet te kopen, voor mij is een videokaart van de helft van dat geld ook al een aantal bruggen te ver maar er zijn vast ook mensen die twee Titan RTX'en á 2500 dollar in hun build stoppen. Professionele gamers, zullen dat geld ervoor over hebben, al krijgen die hun build meestal gesponsort.
Ik ben niet zo bekend met Nvidia's typenummers en aanduidingen, maar is de 3090 dan een soort van nieuwe benaming voor de 3080Ti? Of moet ik het meer zien als de opvolger van de TITAN kaarten? Ik begrijp namelijk niet zo goed waar deze in line-up past.
Gezien de historie zou ik verwachten dat het 2x 3080's (sli-achtig) in 1 verpakking zijn. Maar misschien dat de geniale marketing afdeling nu iets anders heeft bedacht.
Ik vermoed ook dat men 1 september een 3080 en een 3090 aankondigt waarbij de 3090 een dual 3080 is. De 3080Ti zal mijns inziens pas komen zodra TSMC bakcapaciteit vrij heeft en/of RDNA2 uit komt om Big Navi te counteren.
SLI en Crossfire zijn dood atm, dus zou mij verbazen.
Maar kan je nog van SLI en CFX praten als je dual GPU op 1 kaart hebt? Is dit niet hardwarematig opgelost en dat het als 1 geheel werkt? (geen idee overigens, oprechte vraag)

Edit @MSalters : dank, zoiets was mijn vermoeden idd al. :)

[Reactie gewijzigd door marcel87 op 22 augustus 2020 15:59]

Ook SLI is tegenwoordig hardwarematig opgelost (NVLink). En dan maakt het niet echt veel meer uit of je alles op 1 of 2 stukje plank zet.
Dat maakt volgens mij vrij weinig uit. Het probleem is doordat je twee chips hebt dat je goed moet communiceren welke wat doet, NVLink gaat het probleem van PCI-E of die aparte bridge niet echt oplossen dacht ik. Doordat het ene frame eerder klaar is dan het andere (met AFR, alternate frame rendering) heb je eerder last van microstuttering als dat niet goed geregeld is; er zijn wel verbeteringen in de vorm van framepacing maar ook dat is niet perfect.

NVLink is veel eerder bedoelt voor compute en simulatie taken, daar is latency minder van toepassing.
Nee ook niet echt een super oplossing en heel beperkt tot 2 kaarten in plaats van max 4
SLI en Crossfire zijn dood omdat programmeurs het veel te lastig vinden om de software aan te passen en hun best te doen om dit goed te doen.
Daarmee bedoel ik niet de eigenlijke mensen die zitten natuurlijk niet in het bestuur van deze game giganten, men wil gewoon geen tijd, geld en moeite steken in deze techniek en wil gewoon het makkelijk en simpel houden omdat er nu eenmaal eigenlijk niemand meer echt een programma schrijft.
Daarvoor zijn er heel andere zaken ontwikkeld zoals Delphi en dergelijke programmeer omgevingen waar je simpel aangeeft wat je wil en deze tool geeft jou een kant en klare code oplossing en poef je hebt weer een nieuw spel. Daar komt letterlijk amper tot geen echte programmeer kennis bij te pas.
En deze ontwikkeling is niet meer te stuiten, omdat er niemand meer een ruk geeft om kwaliteit en dergelijke zal dan ook niemand meer proberen echte oplossingen gaan bedenken om de vele jaren al bestaande problemen op te lossen. De timing problemen en dergelijke heeft men letterlijk nooit willen aanpakken. Dit zien we wel opgelost in de bedrijfssystemen waar er fabelachtige bedragen kunnen worden neergeteld voor deze processor kaarten zoals je dat zou moeten noemen.
Ik denk dat je de gemiddelde persoon die een engine schrijft gigantisch onderschat; die gebruiken echt geen drag and drop code generators. Goede engines hebben heel veel optimalisaties en gebruiken zover ik weet geen bagger dat op Pascal draait. Denk dat de meeste engines iets van C/C++ gebruiken, sommigen zullen afwijken naar C# of Rust. Het enige waar misschien wat makkelijker wordt gedaan is met scriptalen zoals Lua en Python die er meer als extra bijzitten.
Het probleem ligt aan het feit dat het een zoals je aangeeft een lastig probleem is om op te lossen en twee het is iets wat misschien maar 5% van de markt gebruikte, dan kan je je afvragen of het het waard is om daar extra ontwikkelings geld in te stoppen.
Ik zie nvidia niet switchen naar TSMC alleen voor een 3080Ti, aangezien de rest op samsungs 8nm is gemaakt waarschijnlijk.

En dual GPU is gewoon dood, dus dat zie ik ook niet gebeuren.
Hey ja dat was ik alweer vergeten. Ze hebben een tijdje dual GPU kaarten gedaan en die kregen inderdaad de x90 benaming. Dat zou toch wel super interessant zijn zeg.
Nier echt SLi en CrossFire support is al enige tijd niet meer bestaand. Zelf heb ik een aantal Crossfire sets gehad, maar met mijn huidige Vega56 gebruik ik alweer een poosje een single kaart. De performance winst met SLi en Crossfire is veel te weinig tegenover de extra kosten die dat met zich meeneemt, naast dat het practisch niet meer ondersteund wordt door bijvoorbeeld games en kwa drivers vaak wel wat issues opleverde.
SLI en Crossfire zijn altijd 2 verschillende kaarten. Dual GPU in het verleden op x90 serie kaarten waren 2 chips op 1 bord. En als ik het me goed herinner werd dit in windows ook gewoon als 1 kaart herkent. Nu er aan de processor kant veel succes is geboekt met meerdere die's en een interconnect ertussen zou het best kunnen dat Nvidia dit ook gaat proberen met GPU's
De dual GPU kaarten in het verleden waren feitelijk gewoon intern gewoon SLi of Crossfire oplossingen, maar nooit de performance van één GPU x2. Daarnaast zat er wel veel meer geheugen op de kaart, maar dat opgedeeld voor beide GPU's net zoals bij twee losse kaarten in SLi of CrossFire.

Het zou inderdaad kunnen zijn dat Nvidia hun GPU's in navolging van AMD (CPU's en inmiddels GPU's) hun GPU's ook modulair wil gaan opbouwen. Daar makkelijk meerdere core's aan elkaar te plakken meer performance te krijgen. Zeker weten de ik dat niet, want daar voor heb ik deze ontwikkeling de laatste tijd te weinig gevolgd en heb ik het idee dat dit ook niet zoveel meer langs komt op de FP, maar dat kan aan mij liggen.

[Reactie gewijzigd door _Dune_ op 22 augustus 2020 20:29]

Dat zou misschien ook de keuze voor tripleslot verklaren aangezien je dan 2 "kaarten" in 3 slots hebt ipv 2 kaarten in 4 slots. Met een mogelijke terugkomst van Quad-SLI via de achterdeur?

[Reactie gewijzigd door Mitsuko op 22 augustus 2020 15:35]

SLI ondersteuning in drivers is bovengemiddeld vaak gedoe. Een relatief klein deel van de gebruikers heeft een dergelijke setup waardoor het voor de spel uitgever niet de moeite is om hier heel veel dev-uren in te steken. Ook drivers vanuit Nvidia laten genoeg te wensen over, zeker vlak na release.
Het is helaas niet zo dat je met 2 kaarten 2x meer performance krijgt, meer 1,4x.
Bij Tri/Quad-SLI zullen deze beperkeringen alleen maar nadrukkelijker aanwezig zijn vrees ik.
Een dual GPU kaart zou de grootte wel verklaren..
Volgens mij heb ik eerder hier op de frontpage gelezen dat de Ti toevoeging komt te vervallen en dat de 3090 in werkelijkheid de 3080Ti had geweest. Wat SLi betreft, dat lijkt mij heel sterk, aangezien er practisch geen support meer is voor SLi of CrossFire.
Volgens de geruchten is de x90 de nieuwe Ti. Dus de RTX3090 is eigenlijk de RTX3080Ti en nVidia zou van plan zijn om de Ti weg te laten.
Is die founders edition zo compact of is die 3080/90 zo ongelofelijk groot.
De getoonde RTX 2080 heeft een 'normaal' formaat voor een videokaart. De grotere kaart waarvan geclaimd wordt dat het een RTX 3090 is, is groter. Twee punten waaraan je dat makkelijk kan zien:
• De RTX 3090 is hoger. Zie de afstand tussen het einde van de brackets en de bovenste rand van de videokaart op de eerste foto.
• De RTX 3090 is mogelijk langer. Zie de afstand tussen de fan locaties. Dat kan ook het vertekende perspectief zijn (zie hieronder).

Overigens is de RTX 3090 waarschijnlijk wel groter (hoger), maar zijn de foto's niet helemaal representatief. De koeler van de RTX 3090 is dichterbij de camera omdat deze hoger is. Daardoor krijg je een vertekent perspectief.

[Reactie gewijzigd door The Zep Man op 22 augustus 2020 15:20]

Als ik het zo lees dan is de kaart groter dan mijn huidige 2080s rog strix wat ik al een beest vond. SLI is daar al bijna niet te doen mocht je dat willen, er is amper speling tussen beide kaarten.
Waterkoeling is natuurlijk nog een optie dan. Maar het worden dus aardig dikke kaarten zo te zien.

De 2080s rog strix is 299 en nog wat mm.

[Reactie gewijzigd door maradesign op 22 augustus 2020 15:27]

Waar zou je tegenwoordig nog SLi of CrossFire voor willen gebruiken, ondersteuning wordt practisch niet meer gegeven van game ontwikkelaars en bij AMD en Nvidia ligt dit ook redelijk op een laag pitje. Ikzelf ben na meerdere Crossfire sets daar ook mee gestopt met mijn huidige Vega56 die ik ook al weer een poosje heb. SLi of CrossFire biedt in nog maar heel uitzonderlijke situaties nog maar echt een performance wint, voor mij was dat de prijs niet waard.
De enigste reden die ik kan bedenken is als je heel veel meer pixels aan wil sturen. Denk aan het aansturen van 3 4k schermen voor een race/flight sim fanaat. Het zal bijna niet gebeuren, maar als je dat wil heb je veel geheugen nodig lijkt mij.
Echter als je SLi of Corssfire gebruikt, betekend dit niet dat je het geheugen van de gebruikte kaarten kunt optellen, zo werkt dat niet. Het geheugen op betreffende kaart wordt ook alleen door die kaart gebruikt. Simple gezegd worden verschillende frames door de verschillende kaarten afgehandeld, feitelijk blijf je het geheugen houden wat één kaart bevat, bij gelijke kaarten in CrossFire of SLi.

Daarnaast moet de applicatie of in jouw voorbeeld race of flight sim ook echt ondersteuning bieden aan SLi of CrossFire, anders is het effect ook nog maar beperkt.

[Reactie gewijzigd door _Dune_ op 22 augustus 2020 16:50]

Eh, je hebt niet alleen maar meer geheugen nodig op een hogere resolutie hoor?
Zo`n ~300mm zal die moeten zijn als het klopt.

https://pbs.twimg.com/med...V?format=jpg&name=900x900

[Reactie gewijzigd door Enchantress op 22 augustus 2020 15:45]

Je ziet gewoon duidelijk de afmetingen op de foto, daar hoef je niet voor naar dingen als brackets of fan locaties te kijken. Alleen als de kaart een halve meter hoog is, zal het vertekenen op deze afstand. Maar de paar cm verschil in dikte gaat niet zo'n groot verschil maken dat je naar andere elementen hoeft te kijken.
Ik kan niet wachten op de nieuwe kaarten. Ein-de-lijk echt 4k 60fps zonder consessies. Hoop dat EKWB gelijk zijn waterblokken op orde heeft. Bij mij gaat zodra hij te bestellen is de Founders Edition in de pre-order. Ja ik weet het 2080ti launch was dramatisch en Navi2 enzo.. maar ik kan niet wachten...
Alle settings up Ultra, en lekker flightsimmen op 4K. Bring it on.
EKWB heeft al bevestigd dat ze vrijwel direct, in ieder geval vlak na de release, de blokken uit gaan brengen. Ik zit er ook op te wachten! ;-)
Heb je daarvan toevallig een linkje?
@juggle Ik heb via Instagram d.m.v. DM's persoonlijk antwoord gekregen. Kan niet direct iets vinden online en nu even niet in de gelegenheid om wat te uploaden. Eventueel later mogelijk wel.
Good enough for me. Thx voor terugkoppeling.
Gisteren toevallig nog iets gezien over gamen in 4k:

https://youtu.be/ehvz3iN8pp4

Spoiler: je moet al op een belachelijk groot scherm heel dicht bij zitten om onder de fysieke resolutie van het oog uit te komen bij 4k.
Je hoeft ook niet op 4k uit te komen met je zicht, al zie je 3.5k, dan is het ook goed. Het alternatief is namelijk een resolutie wat daar onder zit, dus 4k bied nog steeds meerwaarde tegenover het alternatief er onder 2560×1440.

Stel je moet met een auto een sprint maken en daarvoor moet je dan optrekken naar 100km/h in 5 sec. Heb je dan niks aan een auto die het in 4 sec doet? Juist ja, dat je niet alles gebruikt betekend niet dat je er helemaal niks aan hebt.

4k bied gewoon forse meerwaarde qua scherpte over het alternatief van 1440p (2.5k).

[Reactie gewijzigd door watercoolertje op 22 augustus 2020 19:39]

Gewoon een 40 inch monitor op de normale halve meter afstand. Zijn er nogsteeds mensen met een kleiner schermpje?
Alleen de 99% die 27-32 inch gebruikt.
Sorry op de verkeerde gereageerd :)

[Reactie gewijzigd door watercoolertje op 22 augustus 2020 19:32]

Hier staan 2x 24 inch schermmen, en dat mag van mij wel hoger/breder.
Haha, dat doe ik dus ook. Zit bijna letterlijk met mijn neus op het scherm met een 55inch LG C9 :-)
Inderdaad, heerlijk simracen op je 55" op iets minder dan 90cm. :) Laat maar komen die 3090. :D
In de tijd van CRT (cathode RAY tube) kon ik me nog iets bij die vraag voorstellen. En ook toen zat men op kantoor gewoon 8 uur(of meer) op zo'n afstand van een scherm(ik ook :) ). Nu nog steeds, maar nu zijn het LCD's, net zoals mijn TV. En je mobieltje werkt met dezelfde techniek en houd je doorgaans op een kortere afstand, dus wat denk je zelf? ;)

Normale kijkafstand is bij mij overigens een meter of 3 en vooral bij games zie ik het verschil tussen HD en 4K echt wel. Bij films vind ik het verschil wat minder groot.

[Reactie gewijzigd door MN-Power op 23 augustus 2020 09:31]

Bizar als je erover nadenkt dat de 1080ti lanceerde voor 700 dollar, de helft......
Over 4 jaar kost het topmodel 2500 dollar als dit zo doorgaat.
Er zijn genoeg nvidia gekken die dat er graag voor betalen..
Ik zou zeggen daar valt weinig iets aan te doen zolang ze het toch uitgeven..
Nvidia is heel goed om consumenten zo gek te maken dat ze gehersenspoeld raken.
Zolang er geen ander aanbod is dan zullen mensen altijd het beste willen kopen die het meeste fps haalt op hogere resoluties.
Amd komt voorlopig altijd achter en dan nog zijn de prestaties niet te vergelijken.
Nvidia loopt voor en wie het beste wil koopt dan ook de duurste kaart.
Tja mijn gtx 285 was 325 euro en toen top of the line en heb echt niet 2x zo veel inkomen sinds dien laat staan 5x zo veel.

En het top model kost nu al 2500 (titan rtx) als je het al kan krijgen. Bij megekko hebben de megekkies hem zelfs voor 3360 staan...

[Reactie gewijzigd door computerjunky op 22 augustus 2020 23:47]

Hier een betere foto.
https://uploads.disquscdn...20c1ba6de13b2b08e2e97.jpg

Edit:
Een foto met de afmetingen. (mochten de geruchten kloppen uiteraard)

https://pbs.twimg.com/med...V?format=jpg&name=900x900

[Reactie gewijzigd door Enchantress op 22 augustus 2020 15:48]

Beter vind ik die niet. Is minder scherp, omdat hij waarschijnlijk uitvergroot is.

@Pliskin @PatrickSeastar My bad. Niet goed gekeken. Is inderdaad een andere foto.

[Reactie gewijzigd door AnonymousWP op 22 augustus 2020 15:18]

Het is een betere foto omdat de PCIe connectors gelijkgezet zijn. In de originele foto heeft de "RTX 3090" een iets grotere PCIe connector. Dit kan zijn omdat hij hoger ligt, of omdat het een bewerkte foto is.
Waarom is de PCI connector dan van het zelfde formaat?

@AnonymousWP Kan gebeuren. :D

[Reactie gewijzigd door PatrickSeastar op 22 augustus 2020 15:22]

De PCIe connectoren zijn gelijk anders zou de kaart straks niet in je pc passen ;-). Ze hebben de kaarten op de foto in verhouding gelijk gemaakt door deze uit te lijnen op de PCIe connectoren zodat het verschil in grootte tussen de 3090 kaart t.o.v. de 2080 goed te zien is.
Ben heel benieuwd, hoe goed deze kaart zal wezen en hoe duur jij woord, hoop dat eindelijk deze keer AMD rond de zelfde tijd hun nieuwe grafische kaarten uit brengen, zo dat de prijs snel en sneller omlaag gaan om te concurreren tegen elkaar, en dat ik dan een AMD Radeon kan kopen als ze snel zijn en goedkoper zijn dan de GeForce RTX 30** grafische kaarten.
Geen idee waarom je dit aan mij uitlegt, dit is juist waarom ik de vraag stelde aan AnonymousWP omdat hij de foto die Enchantress linkte niet goed vond en twijfelde aan de echtheid van de foto. Ik realiseer juist wel wat de formaat van de videokaart is tegenover de 2xxx serie.
Excuus dan als het zo bedoeld is maar is uit je post niet op te maken ;-). In je post staat maar één zin met een vraagteken....
Ik geloof er geen bal van dat de nieuwe kaart zoveel groter wordt. De normale full size kaarten passen maar amper in een pc kast. Deze zal in de meeste niet eens mee passen
Dat de kaart veel groter is klopt wel, dat zie je ook aan de lengte van de brackets, die op de RTX3090 zijn gelijk aan die van de RTX 2080. Ofwel de 3000 serie gaat echt een baksteenbeest in je bak pc zijn ;)
De hoogte van die kaart kan nog wel een dingetje zijn bij aardig wat kasten. want daar bovenop krijg je ook nog eens de pcie connectoren. Niet elke kast zal breed genoeg hiervoor zijn.

[Reactie gewijzigd door Hakker op 22 augustus 2020 15:24]

de gemiddelde NUC gaat dat niet redden, nee. Dit lijkt me een kaart waar je rest van het systeem omheen ontwerpt naar het "geld speelt geen rol" principe...
in NUC's kan je zelfs geen graka inbouwen, maar moet je het stellen met de onboard graphics of een externe oplossing over thunderbolt.
Weet ik, was ook niet serieus bedoelt... maar wat ik bedoel is dat een dergelijke kaart niet in zo maar even een PC kastje gezet moet worden, maar dat je je systeem zorgvuldig moet bekijken of zelfs om deze kaart heen moet ontwerpen.
Hoe groot moeten kasten tegenwoordig zijn joh? Ik heb liever een wat compacter systeem op mijn bureau.
Ik heb liever een stiller systeem onder mijn bureau ;).

En nu gaat dit ding natuurlijk een hoop verbruiken, en dus zal daarom de koeler groter zijn om het geluid binnen de perken te houden. Echter als het toch past in mijn kast, heb ik liever een koeler met een stille 120mm fan erin, dan meer lege ruimte in mijn kast.
In de meeste kasten kan je een deel van de harde schijf bays weghalen en dan passen dit soort kaarten makkelijk.
Kan toch ook gewoon, alleen niet met deze kaart.
Ik heb het liefst geen systeem op mijn bureau ;) Ik zet mijn computer op de grond, want ik vind het zonde van waardevolle deskspace.

Echter er zijn aardig wat Mini-ITX kasten die een videokaart van >330mm kunnen huisvesten... Echter zijn ze vaak niet berekend op een 3-slot koeler.

Tevens vraag ik mij serieus wel af hoe je een compact systeem met high-end hardware koel gaat houden. Je zou in zo'n 20L kast letterlijk een 2066 socket (tot 165W TDP CPU's), een RTX 3090 (vermoedelijk 380W TDP), plus high-end M.2 SSDs proppen.. Veel succes om de 550W a 600W aan componenten daarin koel/stil te houden.
Deze is wel mooi en compact voor een uATX + grote grafische kaart. Wordt waarschijnlijk dé kast voor mijn volgende PC:

https://tweakers.net/pric...ssic-zwart/specificaties/

[Reactie gewijzigd door Bigjim80 op 23 augustus 2020 08:39]

Dat is een chique kastje ja. Heb zelf nu een Fractal Design Node 202
Dat is inderdaad een prachtig kastje. Ik heb hem zelf ook, in het blauw. Zelfs na een aantal jaren vind ik dit nog steeds de mooiste behuizing op de markt.

Natuurlijk brengt die dichte voorkant wel wat nadelen met zich mee qua beperking van de airflow. Ik zou daarom dan ook zoveel mogelijk casefans inbouwen en er voor zorgen dat je die zoveel mogelijk individueel via PWM kunt aansturen, dus zorg ook je mATX- moederbord daarvoor de nodige ruimte biedt. Verder zou ik waarschijnlijk een GPU met een maximum TDP van 200W aanraden. Dus zo'n RTX 3090 komt alleen al op grond van zijn TDP niet in aanmerking :) .
Ik wacht even op AMD zijn reactie. die zullen ook niet stil gezeten hebben
Ik kan alleen maar zeggen, kijk naar de specs van de nieuwe consoles, dat word smullen is mijn voorspelling


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone SE (2020) Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True