Listings wijzen op vier nieuwe ASUS RTX 5080- en RX 9070-videokaarten

Er zijn sporen van nieuwe ASUS GeForce RTX 5080- en Radeon RX 9070-videokaarten opgedoken. ASUS werkt aan minstens vier varianten van de GeForce RTX 5080, twee varianten van de Radeon RX 9070 XT en twee versies van de RX 9070. ASUS heeft de gpu’s nog niet officieel aangekondigd.

Uit de listings die VideoCardz op het spoor is gekomen, blijkt dat ASUS twee RTX 5080-videokaarten via de nieuwe ROG Astral-productlijn wil introduceren. Deze productlijn bestaat op het moment van schrijven nog niet. Er zijn ook nog geen productafbeeldingen verschenen. Een van deze twee gpu’s wordt naar verluidt een OC-versie en zou dus in beperkte mate overklokt zijn. Uit de listings blijkt dat de RTX 5080-gpu’s 16GB aan videogeheugen meekrijgen. Het gaat hoogstwaarschijnlijk om GDDR7-geheugen, al valt het type geheugen niet uit de vermeldingen af te leiden. ASUS zou ook een Prime-versie van de RTX 5080 willen uitbrengen, en een TUF-versie. Deze sku’s zouden allebei een OC-label meekrijgen.

Leaker momomo_us heeft ook enkele productnamen van nieuwe ASUS-gpu’s gedeeld. Uit een post op X blijkt dat de fabrikant twee versies van de AMD Radeon RX 9070 XT wil introduceren: een TUF Gaming-editie en een Prime-versie. Beide zouden overklokbaar zijn en 16GB aan videogeheugen bevatten. De hardwarefabrikant zal ook een TUF- en Prime-versie van de RX 9070-gpu op de markt brengen. Deze edities zijn net als de XT-versies in beperkte mate overklokt en komen met 16GB aan geheugen. Het gaat hoogstwaarschijnlijk om GDDR6-geheugen.

ASUS heeft de videokaarten nog niet officieel aangekondigd. Het is niet duidelijk wat de kostprijs van de gpu’s zal zijn. AMD zal op 6 januari 2025, tijdens technologiebeurs CES, een persconferentie houden. Het bedrijf kondigt dan vermoedelijk nieuwe RDNA 4-videokaarten aan. Nvidia houdt op 7 januari zijn persconferentie op CES. Het techbedrijf kondigt dan vermoedelijk de RTX 50-serie aan.

Update, 14.10 uur: In de tekst stond te lezen dat de OC-versies van de gpu's overklokbaar zijn. Dit werd aangepast. Nu staat er te lezen dat deze videokaarten al in beperkte mate overklokt zijn.

Listing ASUS RTX 5080 ROG Astral-gpu. Bron: VideoCardz.com
Listing ASUS RTX 5080 ROG Astral-gpu. Bron: VideoCardz.com

Door Jay Stout

Redacteur

29-12-2024 • 09:51

193

Lees meer

Reacties (193)

193
193
57
2
0
82
Wijzig sortering
Ik zelf zal reikhalzend uitkijken naar de 5080. Ik heb nu een 3080ti en op m’n net aangeschafte 3440x1440 merk ik toch dat hij zo nu en dan moeite heeft met de settings die ik wil.

Overigens denk ik dat veel mensen op de 30 serie zitten en gaan upgraden, aangezien ze voor MSRP toen erg goede prestatie/prijs hadden.

[Reactie gewijzigd door el_Peanut op 29 december 2024 10:11]

Toen goede prijzen? Heb je de pandemie en cryptohype gemist? Een 3060Ti ging voor meer dan 1000 euro over de toonbank. Toen de prijzen eindelijk begonnen dalen heb ik 750 betaald, dat is bijna het dubbele van de msrp?

Ik ben ook benieuwd naar wat je speelt, mijn xx60Ti draait alles wat ik wil prima op 1440x3440. (Maar ik heb hem fps fetish, 60 is genoeg, 100 meer dan genoeg)
Maar die prijzen gingen niet van nvidia uit. Vanaf de 4000 werden ze echt greedy. Ze verdienen er echt 3 dubbel aan hoor.
Nee dus, ze verdienen er geen 3 dubbel aan. De grote winsten komen uit de server business, niet consumer. Je ziet het ook bij AMD, ook die hebben hoge prijzen, en dat komt omdat het veel kost om die chips te laten fabriceren, wat weer komt door het tekort aan capaciteit bij TSMC.
Het zal me dan ook echt niets verbazen dat de 50x0 dit ook gaat worden, en mensen trappen er maar in, ik kan mij nog herinneren dat ik een 980 in 2015 voor 629 gekocht heb, wat een verschil nu.
Je zou denken dat je voor ongeveer hetzelfde geld (inflatie gecorrigeerd), nog steeds ongeveer dezelfde oppervlakte van een silicium wafer zou kunnen kopen.
Maar dan nog is het bijna 1/4de duurder nu. :|

Jouw GTX 980 was 629 euro (2015), met een random inflatie calculator dat ik op internet vond kom ik op ~831 euro (2024).

Ik denk dat we ons nu moeten voorstellen dat de xx70 Ti Super de nieuwe xx80 categorie is. De huidige xx80 serie is dan Titan-categorie.
Zelfde GPU die (AD103), maar de duurdere hebben alle CUDA cores actief.

De grootste chip werd toen voor verschillende modellen in dezelfde serie gebruikt, telkens voor ongeveer 3 verschillende modellen. Het verschil in aantal CUDA cores was dan steeds onder de 20%. Van daar dat ik die vergelijking tussen de 4070 Ti Super als xx80 en de 4080 Super als Titan trek.

De xx90 is een totaal andere klasse wat we hiervoor nog nooit hebben gehad, een andere chip dat nog 60% meer CUDA cores heeft dan een volledig actieve xx80 model. Ik denk dat Nvidia tijdens de crypto-explosie en pandemie ontdekt heeft dat er een klasse van consumenten bestaat die nog veel meer geld over heeft voor de beste GPU, dat groter is in aantal dan gedacht. Ik zie opmerkelijk vaak dat mensen een RTX4090 van meer dan €2000 hebben :+

De prijsstijging van silicium wafer mm2/euro heeft denk ik meer te maken met dat er veel meer vraag is naar chips dan vroeger. Ik herinner me ook nog een presentatie dat ik bij IMEC in Leuven had gevolgd 10 jaar geleden, daar werd gezegd dat de research telkens duurder werd met iedere verfijning van chipfabricatie.

Al bij al valt de prijsstijging wel mee. Ik ben zelf wel nog altijd aan het sparen voor een 4070 Super of 4070 Ti Super.
Misschien moet ik wat minder avocado toast eten (voor wie niet mee is: een multi-miljonair zei dat eens als oplossing voor de jonge generatie dat weinig geld heeft)
Waarom game je op een verticaal scherm? :+
Bij Tetris geeft dit een immens voordeel!
Wellicht zit ie op ander halfrond
Ik weet het nog goed, haha. 800 euro voor mijn 6800XT. 4 maanden op moeten wachten ook. Maar gelukkig toch op tijd besteld, want 2 dagen later was hij 1050 euro :+
Dat is omdat er geen kaarten weggingen voor MSRP bij mijn weten. (Wellicht helemaal aan het begin of als een vendor echt heel eerlijk was, maar iedereen heeft zichzelf echt in de voet geschoten door toen een goeie buck for the bang te vragen. Want nu kopen mensen gewoon 2x lifetime later.
Ik denk dat vrij weinig mensen gaan upgraden als de prijzen zo hoog zijn als nu gelekt wordt.

Gisteren deze video gezien waarbij de prijs 2800 Australische dollars voor de 5080 16gb. Blijkbaar wordt er 100 dollar meer gevraagd in die markt. 2700 ausie dollars*1.21 = 1900-1950 euro.
Alle leaks wijzen op vrij hoge bedragen.
Bijvoorbeeld 1900-1950 Euro voor een 5080 als je de Australische geschatte/leaked prijs gaat omrekenen.
Als het dadelijk wat honderd Euro's minder blijkt te zijn dan is iedereen zo blij dat het gelukkig niet zoveel is als men eerst dacht.
Dan denken veel mensen dat ze er wel een goede koop aan doen.
De marketing is dan geslaagd.

Meer dan €1000 uitgeven aan een kaart met 16gb vram vind ik zelf gekkenwerk.

[Reactie gewijzigd door HugoBoss1985 op 29 december 2024 11:53]

Die prijzen uit Australië zijn geen marketing van Nvidia.

Het is een foto van een scherm van een Retail locatie. Met een inkoop verkoop portal.

Maar inderdaad 16GB voor 1800-1900 euro is absurd. Wellicht dat Nvidia later doet wat ze met de 4070ti super hebben gedaan.

Of board partners. Er zijn namelijk 3GB modules GDDR7 op de markt.
Dan wordt het een 24GB kaart. Een stuk beter met de performance en prijs.

Maar dan nog, het word een RTX 4090 achtige performer. Met aanzienlijk minder geheugen bandbreedte

Ik ben eerder geschokt dan onder de indruk.

[Reactie gewijzigd door BarnET op 29 december 2024 12:16]

Ik noemde het ook specifiek als voorbeeld.
Feit is wel dat er voor de 5080 behoorlijk hogere (geschatte/geruchten) bedragen worden genoemd dan dat wij hier voor een 4080 (S) betalen.
Kijk als Nvidia nu veel hogere bedragen leaked dan wat het straks daadwerkelijk gaat kosten dan kun je dat als marketing zien.

Die 3GB GDDR7 modules zijn volgens mij net te laat voor deze kaarten, wellicht dus iets voor de refreshes.

[Reactie gewijzigd door HugoBoss1985 op 29 december 2024 12:20]

Maar Nvidia heeft dit niet geleaked. Gezien de context van de leak is dat onmogelijk.

Het is ook geen gerucht meer te noemen. Het is gewoon een portal van een winkelketen die de kaarten verkoopt. Gezien het effect van de foto van het beeldscherm ook moeilijk te vervalsen.

Dit is gewoon waar het naartoe gaat. Kaarten zijn al voor gigantische bedragen ingekocht. Dus het word niet heel anders. Prijzen gaan met 30-40% omhoog tov de vorige generatie. In ieder geval met de 5080.
Voor de duidelijk: ik sprak dus in de algemeenheid en had het bedrag op de Australische webshop al achter me gelaten in de discussie.
Ik gaf dat expliciet aan als één voorbeeld.

Ik heb gisteren ergens gelezen dat Nvidia een slag om de arm houdt met verkoop bedragen vastzetten; tot op het laatste moment (om te zien wat de concurrent doet?).
Even heel overdreven en als voorbeeld uit mijn duim gezogen: €1500-1900.

Wat zeker is, dat is dat de prijzen nu (nog) niet definitief zijn want de kaarten zijn er nog niet.

We zijn het volgens mij met elkaar eens.

[Reactie gewijzigd door HugoBoss1985 op 29 december 2024 12:29]

Dat is nou dus een gerucht wat simpelweg niet kan.

Je hebt een supply chain, dingen worden gemaakt in Taiwan, chips gaan naar de boardmakers. Die willen weten wat het kost en waarvoor ze het kunnen verkopen.

Dan gaan die producten naar retail. Die moeten weten wat ze betalen en waarvoor ze de eerste kaarten kunnen verkopen.

Die moeten voorraad bestellen.
Dit gebeurd onder embargo, vanwege marketing redenen.

Dan release je de producten met de prijzen. Je kan wat bijsturen in de marges. Maar dit soort stijgingen te niet doen? Nee dan moet je zoals vorige keer een product eerst uit de markt halen.
Ik denk dat ik de supply chain (een beetje) snap.
Extreme pieken en dalen in de prijzen kan dus niet.
M.b.t. tot dit dacht ik ook dat er soms deals gemaakt worden met bijvoorbeeld gamevouchers e.d. bij de videokaarten.
En dat dit gedaan wordt om de fabrikanten te compenseren voor prijsdalingen?

Jij bedoeld de "4080 12gb" waarbij alles voorzien kon worden van een nieuw bios, nieuwe productsticker en nieuwe verpakking (oh ja: en prijs :P)?
Ja die bedoelde ik ja de RTX 4070 die Nvidia probeerde te verkopen als een RTX 4080.

Game vouchers kan altijd. Nvidia betaald sommige studio’s voor optimalisatie en integratie nieuwe Nvidia features. Dan kan de developer akkoord gaan met vouchers bij die nieuwe GPU’s.

Ik zie hier ook geen probleem in. Beide fabrikanten doen het. En de consument krijgt meer waarde.
Helemaal mee eens! Enige manier om dit tegen te gaan is om te stemmen met je portemonee.
Maarja, dat betekent dus wel behoorlijk moeten inboeten wat betreft prestaties, en dan is de keuze misschien toch wel snel gemaakt om toch maar die 100-200 euro extra uit te geven om toch net wat beter future proof te zijn. De 40xx range kaarten gaan echt nirt zwaar in prijs zakken door de release van de 50xx, was namelijk met de 20xx en 30xx ook niet.
Future proof ben je eigenlijk nooit, als je ziet wat raytracing of path tracing met je gpu doet.........
Echt om te janken.. Nou dan blijf je gewoon kopen om de zoveel jaar weer opnieuw.

Meestal kopen mensen iets voor de toekomst.. Maar je kan beter gewoon kijken wat je met de dag van vandaag nodig hebt.

Zo heb ik recent voor mij zelf maar gewoon een RX7800XT 16GB gekocht en geen RX7900GRE16GB. Geheugen in deze vond ik zelfs belangrijker, dan nog meer prestaties.

Laatste is beetje sneller maar ook flink duurder.. Uiteindelijk sloopt de technologie elke kaart wel.
Heb mij die 110 euro lekker in me zak gehouden.
RX7800XT is prima genoeg prestaties om de komende tijd rond de 100 FPS uit te komen op 1440P
En dan lekker op High laten staan. Over 3 - 4 jaar is er weer iets veel snellers.. Waar ik dan meer profijt van heb.

[Reactie gewijzigd door Robin4 op 29 december 2024 21:09]

"Future proof ben je nooit"
Ja daar liep ik dus ook tegen aan en ben eigenlijk daardoor gestopt met PC gaming(ook andere prive factoren hoor).

Mijn eerste uitstapje naar high end was de 2080ti, 4k 60+ was die kaart, 1.5 jaar later was dat zelfs met dlss een uitdaging, dus verkocht en een 3080ti gekocht. Precies hetzelfde verhaal, werd gezien als overkill op launch, runde dingen met moeite 1.5 jaar later.
Dus verkocht, en toen maar echt overkill gegaan. 4090, had op launch een 100 game average van 4k 120fps ZONDER dlss, nu 2 jaar later MET dlss tik je bij sommige games amper de 60fps aan. Dat is een verlies van meer dan 50% performance in zo een korte tijdsduur. Geef het een jaar een zelfs 60fps is een luxe.

Ik zag het er ook echt niet in terug, heb echt niet het gevoel dat games er zo een stuk beter uit zien.
Speel nu voornamelijk op me switch en haal daar net zoveel lol uit. Misschien dat ik in de verre toekomst weer is in stap, maar voor nu laat ik de gekte voor me voorbij gaan. Het is toch eigenlijk van de zotte dat ik 3k uitgeef om spelletjes te doen ;)
Ze zien er ook niet veel beter uit. Sommige ook wel hoor. Maar tegenwoordig zijn games zo slecht geoptimaliseerd. Soms heb heb ik het idee dat ze het ook express doen.
GameStudios hebben het ook moeilijk tegenwoordig.
De standaard van games worden steeds hoger. Het blijft een gok van 4 jaar. Verkoopt het niet ben je de sigaar.

Kijk naar Alan Wake 2 wereld game. Een van de beste games ooit gemaakt.
Maar nog geen winst gemaakt.
Zo was ik vroeger ook constant upgraden. Op de duur begin je dan echt vragen te stellen of het echt wel allemaal zin heeft om zoveel geld uit te geven om die 8 of 10% meer fps. Dan heb je een top pc en het spel dat je speelt draaien de servers dagen kut door een update, of gaat je eigen internet even hangen.
Wat ik eruit geleerd heb, is dat ze mensen makkelijk om de tuin leiden met softwarematige tijdelijke performance. Hoe meer je upgrade hoe makkelijker ze geld verdienen. En tegenwoordig lijken de meesten daar ongelooflijk blind voor te zijn. 2000€ voor enkel een videokaart is en blijft absurd. Zelfs al is er inflatie.
Future proof als in dat je volgend jaar niet meteen weer een nieuwe kaart nodig hebt om de nieuwste games op een fatsoenlijke setting te kunnen spelen. De 4090 is bv de komende 4-5 jaar daar nog goed genoeg voor, voordat je settings naar mid/low hoeft te zetten (hell zelfs voor low verwacht ik de komende 10 jaar nog wel).
Nieuw prijs of gebruikt?
Sommige denken ook nog steeds de hoofdprijs tekrijgen voor 2de hands :)

Als de garantie vervallen is word het bij mij al ?

[Reactie gewijzigd door xaradine op 30 december 2024 11:52]

Nieuw prijs, mij zul je nooit horen over een 2e hands GPU, daar begin ik niet aan, te vaak in mijn omgeving gezien dat het dan mis ging en ze dus geen garantie hadden.
Het kan een risico z8jn klopt.
Ik begin er niet aan b.v 36/42 maanden oud ps5 .....nul garrantie :)
2de hands worden idd debiele prijzen gevraagd, sommige vragen meer als de nieuwprijs. 2de hand kopen is al zeker de btw eraf + de jaren garantie die al verlopen zijn. En dan nog weet je niet hoe de kaart onderhouden is door de verkoper. Ik kocht de laatste jaren nogal wat nvidia kaarten die allemaal een defect hadden door crypto minning, fans beste tijd gehad of geflashed en brandplekjes rond sommige componenten. Voor mij nooit nog een 2de hands Nvidia !
Tenzij je leaks als een korrel zout neemt, dan gaat die paar honderd euro het ook niet redden hoor.
Ik zou op z'n hoogst RTX4080 pricing verwachten. Alles ver boven de 1250 is mij te duur.

Nu zal ik misschien een andere perceptie van value hebben, aangezien ik 1 van de weinigen was die een RTX3080 voor onder de 800 euro (op voorraad bij release) heb kunnen kopen.

Maar als deze kaart dan 4 jaar later 'slechts' 2x zo snel gaat zijn voor 2x zoveel geld, dan is er weinig leuks aan om door te schuiven. Tenzij je enkel meer FPS wilt, maar dan had ik voor iets meer dan 2000euro al 2 jaar lang een RTX4090 in mijn systeem kunnen hebben. Dat is incl rekening houdend met de xx90 premium price tag, 2 jaar plezier en 24GB geheugen dan een betere deal.

Maar eigenlijk zouden met deze prijzen de price/perf van de RTX4000 serie niet overstijgen. No thanks.

[Reactie gewijzigd door Hans1990 op 29 december 2024 13:32]

Inderdaad. De 3080 was zelfs 700 euro bij release. De performance is gelijk aan de 4070 en die is nog 600 euro nu. Dat is wel erg weinig vooruitgang. Wat dat betreft moet de 50-serie een flinke stap gaan maken.
Dat was de prijs van de 4090
Dus plausibel toch?
De prestaties van 3090 zijn te vergelijken met 4080.
Dus als de prestaties van 5080 te vergelijken zijn met de 4090, moet Nvidia wel heel gek zijn om daar de prijs van te verlagen.

Ik denk dat de enige shockerende aan de nieuwe videokaarten, de prijzen gaan zijn.
Vroeger ja die mooie oude tijd bleven de prijzen relatief het zelfde en waren ze even snel als 1 stap hoger als de vorige generatie en daar waren bedrijven content mee... maar nu moeten ze elke cent uit de consument trekken.
De markt is inmiddels ook veranderd. Vroeger waren het voornamelijk gamers en wat professionals. Oftewel kopen en gamen (consumeren).

Nu is de markt breder en veel meer mensen/bedrijven die deze kaarten gebruiken om 'waarde' te creeren of in iedergeval eruit halen. Zoals met AI, crypto mining en andere intensievere toepassingen die toen nog niet mogeijk waren.

Kortom, de gamer is niet meer de nummer 1 klant en moet concureren met de rest van de markt/klanten.
Voor een deel ben ik het met je eens.
https://m.macrotrends.net.../NVDA/nvidia/gross-profit

Sinds de release van de gtx 10xx reeks waarin de prijzen ook omhoog ging is de winst ook omhoog gegaan. De prijzen/winsten van vandaag de dag komen inderdaad door AI.. maar ook daarvoor ging de prijs al omhoog ook de MSRP.
Zo werkt de economie nier helemaal. Sure, je hebt vraag en aanbod (meer vraag, zelfde aanbod = hogere prijs), maar daarnaast heb je ook natuurlijk economy of scale. Als er meer vraag is en het aanbod kan vergroot worden, zou je theoretisch gezien lagere kosten kunnen maken als bedrijf en alsnog dezelfde prijs kúnnen vragen.

In dit geval lijkt het er echter meer op dat Nvidia, net als bijv. Apple, gewoon de markt test om te zien wat de maximale prijs is die de markt 'draagt', oftewel de prijzen waarbij de omzet maximaal is.
Je negeert daarbij dat de productiekosten per transistor vroeger ook direct lager waren dan de vorige generatie, terwijl dat nu eerder andersom is. Dus direct meer prestaties voor hetzelfde geld is nu gewoon niet realistisch.
Maar wel grappig toen Nvidia daar vanaf stapte de 10 reeks. De winst ook omhoog ging. Om nog maar over de huidige prijzen winst en omzet te zwijgen. Maar goed gamers betalen het en prijzen zelfs nvidia de hemel in dus tja waarom ook niet....

[Reactie gewijzigd door loki504 op 29 december 2024 13:02]

Zou ik hoog vinden maar je weet nooit met nvidia.
https://old.reddit.com/r/..._minds_over_the_price_of/

Prijzen zijn altijd in range ongeveer gelijk gebleven, aka je kreeg meer voor dezelfde prijs .
4080 was 1200 euro dus 1900 is ene enorme verhoging
De RTX 4090 heeft dan ook 24GbB in plaats van 16GB geheugen. Dus ook al komt die qua prestaties in de buurt zou het nog van de zotte zijn om hetzelfde bedrag te vragen.
Maar Nvidia is momenteel ook helemaal doorgedraaid hè. Die poepen letterlijk geld. En daarbij is het wel 24 gb gddr6x geheugen VS gddr7 16 gb. Die zullen vast niet hetzelfde inkoop prijs hebben
Ik denk dat de 5090 tegen de 3000 euro grenst.

We zullen zien he
Grenzen zijn bij Nvidia anders eindeloos. De echte grens ligt bij de gebruiker.
Als de prestaties te vergelijken zijn met 4090 waarom geven mensen dan nog steeds de hoofdprijs om ter plaatse te staan trampelen ? Dit wil dus eigenlijk zeggen dat nvidia op zijn limit zit en upgraden geen zin meer heeft toch ?
Ik denk dat vrij weinig mensen gaan upgraden als de prijzen zo hoog zijn als nu gelekt wordt.
De meeste mensen hebben ook geen 4K monitor zoals el_peanut. Men maakt het problem een beetje zelf met te willen gamen op 4k. Als we de stats zien, zitten de meeste mensen nog altijd op 1080p schermen, en is zelf 1440p een druppel in de ocean.

Persoonlijk zie ik gewoon niet het nut in van boven 1440p te gamen. Dat is zo een sweet spot waar je geen of enorm weinig AA nodig hebt, alles is crisp, en tegelijk game je op 1440p met nvidia3000/amd6000 series met gemak boven de 120fps (uitzondering de slecht geoptimaliseerde games maar dat is nog erger op 4k, zelf met 1500 gpus).

Er is een reden waarom GPU sales slabakken voor de gaming markt. Ja, men verkocht enorm veel GPUs omdat je gans de crypto en nu AI toestanden had, maar dat is niet de gaming markt.

Vroeger upgrade je vaak omdat games constant graphics zo een upgrades waren, dat je wel moest. Dat is al lang gedaan, en mijn persoonlijke mening:

* Veel nieuw AAA games zijn saai voor ons oldtimers, omdat de gameplay voor veel AAA titles gewoon hetzelfde is, jaar op jaar. Zien we ook met de 1001 fifa games of whatever ... Probleem is, dat de GPU prijzen zo hoog zijn geworden dat het buiten het niveau van een tiener gepushed is (welke gewoon een console meer en meer draaien), en de mensen met spare geld, tja, dat is dan al die oudere groep.
* De graphics zijn zo mooi, dat je minder makkelijk het verschil ziet tussen 5 jaar oude en nieuw games (in het verleden zou zo een uitspraak me een aframmeling verkrijgen). Toen me denken aan de tijden dat we van 480p-720p>1080p voor films. Leuk dat we nu ultra bla bla hebben, maar de sprong is dimishing returns geworden bij gaming op graphics effect. En tegelijk zien we mensen volop gaming op 720p/low op handhelds *lol*
* De markt is vol met goede 2de hans kaarten. Heb hier een 6800 voor een jaar+ en ding draait gewoon alles wat ik maar wil op 1440p 144hz+.
* De game markt is ook niet meer de oude, van volop AAA bedrijven. We hebben nu 10x meer indi games dat uitkomen ieder jaar, dan grote titles. Met als gevolg, er is altijd iets voor iedereen, en vaak met VEEL minder graphics eisen, dan de blockbuster AAA titles.
* En dan spreken we nog niet over de back catalog van oude games, dat je goedkoop kan aanschaffen, en dat van minder graphics eisen hebben.

Feit is, dat we al lang in een droogte zitten van goede start / mid range GPU kaarten, tegen aanvaardbare prijzen. En zo lang nvidia/amd dit niet aanpakken, tja... Intel is een goede weg opgegaan met hun B580 aan 250$ (maar op EU markten is die prijs lastig wegens belastingen en prijsdaling op de oude spullen). Waar zijn de entry level GPUs naartoe gegaan?

Ik zie veel mensen nog veel langer de kat uit de boom kijken. Nvidia kan het niet schelen, die zijn nu een AI GPU bedrijf. Het gevolg is dat we al lang zien dat de PC gaming markt veranderd. De figuurlijke PC in het huis is langzaam aan het verdwijnen voor laptops (werk/office/...) en consoles. Tieners zitten nog veel meer op consoles. Handhelds zoals SteamDeck vullen een groter en groter marktdeel in, wat syncroniseerd perfect met die grotere indi markt.

En als je dan dedicated GPUs heb met slechte introductie prijzen, waar je een volledige PC/Mini PC/Handheld met ( betere en betere iGPUs ) koopt voor de prijs van 1 nog geen mid range GPU, tja ... Als men nu al afkomt met geschatte 2k prijzen voor een 80 series GPU, dan moet je jezelf eens afvragen wat dat word voor de 70, 60 ... want al die prijzen worden opgetrokken. Ik zie mezelf in een paar jaar gerust puur iGPU gaan en gewoon 100% op indi games te blijven.
Mijn probleem met 1440P (ook al is dat m'n volgende monitor - al gekocht, nu nog op 1080p doodgaand scherm), is dat het een 'niet evenredige resolutie is met 1080p en 2160p, namelijk vreemde 1.3 vermenevuldigingsfactor. Dat betekent artifact bij schalen.

4k monitor kan perfect beide tonen, en 1080p ook, nu voor gaming dat wel goed met vreemde resoluties overweg kan, is het zalige tussen resolutie, en ik wil geen 4090 nodig hebben om te gamen. Maar voor beeldbewerking (video en 1080p) voelt 1440 een lullige resolutie aan.
namelijk vreemde 1.3 vermenevuldigingsfactor. Dat betekent artifact bij schalen.
Ik hoor dat argument al in geen jaren meer van artifacts. Het ergste dat je kan voorhebben is iets meer blur afhankelijk van de upscaler in je monitor maar die upscalers zijn deze dagen zo goed, dat zelf de meest goedkope monitors er goed uitzien. Dat issue hebben ze jaren geleden al gekraakt.

Als je een game hebt dat op 1440p draait (op een 1440p monitor), dan is dat de native resolutie. Er is geen issue met upscaling.

Als je een 4k monitor hebt, en je wilt gamen op 1080p, ja, dan heb geen upscaling, maar je game upscale van 1440p naar 4k, gaat er (in mijn mening) nog altijd veel beter uitzien, dan 1:1 1080p. Des te meer wegens interfaces that een goede mix hebben op 1440p vs, de chunkers op 1080p. En dat is een issue wegens 4k monitor grotest. Zie men argument onderaan want dit komt terug op iets belangrijks.

Wat denk je dat DLSS/FSR en die toestanden doen, als je een game op je 4K monitor wilt spelen? Die renderen rond de 1440p (of 1200p) en scalen dan op.
Maar voor beeldbewerking (video en 1080p) voelt 1440 een lullige resolutie aan.
Kan ik begrijpen, maar dan heb je eerder een 34" widescreen draaien, dan een 1080p/4k 16:9 aspect ratio monitor.

Als programmeur is mijn keuze gewoon 1440p op een 27", omdat het die perfect middelpunt heeft.

Ik heb 34"'s gedraait, 4K monitors gehad:

* 34" waren goed voor veel zij content, maar als je dan een browser open had in je center, dan draaide je deze vaak in een resolutie van 1080 of 1200 pixels horizontaal maximaal. Want als je dat full screen deed, branden je retinas uit. En dan was er de issue dat een 34" eigenlijk te groot is om in 1 keer in je gezicht veld te vallen, en dan moet je een curved gebruiken, wat dan weer content distorted maakt. En dingen verdwijnen, zet bijvoorbeeld je taskbar links, en zit in het midden, de lijn dan normaal links van je icon dan staat (de actieve indicator) is gewoon weg, aka, 3 a 4 pixels verdwijnen langs beide kanten. En nog andere issue...

* En 4k was gewoon alles te klein, en moest je dan weer een 32" monitor richting gaan, wat hetzelfde issue gaf, van browser informatie dat je retinas zat uit te branden bij witte/lichte content (aka 80% van de internet pagina's). En dan spreken we nog niet over het upscale issue ;)

De keuze was gewoon de slimmer: 27" in het midden, en een 21" verticaal aan men rechter kant, dan je kan uitzetten/of gewoon minimaliseren van die content. Gevolg, geen uitgebrande retinas ;)

Voor veel mensen als je ziet wat ze actueel open hebben, is 4K monitors vaak overkill.

Wat ik VAAK zie, is dat mensen 4k monitors hebben en dan de boel upscalen!!!! Ze realiseren niet dat Windows by default, 150% neemt. Kijk naar de default settings aka, ze kijken en werken in upscaled content. Je moet verdoemd goede ogen hebben om 4k te doen op een < 30% monitor, or een grotere scherm hebben.

Resolutie, scherm grote enz, is een vaak interestand topic, want je zou verbaast zijn hoeveel mensen niet doorhebben dat ze naar upscaled content kijken. Al die "4k consoles"... Als 10% van de games native op 4k draaien zal het veel zijn. *lol*... En dan spreken we nog niet over de games dat op PC geport hebben en interne upscalers toepassen voor performance.

Anyway, het is een lang topic, maar voor iemand dat videos doet, lijkt me een widescreen veel beter keuze. De langere timeline is veel meer belangrijker.

[Reactie gewijzigd door Verwijderd op 2 januari 2025 19:47]

Zal ik zeker in overwegen nemen bij nieuw scherm, 4k is gewoon te kostelijk. 144p, ray tracing DLSS req, hogere penalty of videokaart en memory, ultra, kost eigenlijk 4090 van Nvidia, en schermen zelf (goed 4k scherm geen 'algemeen' gaming 4k scherm, kost ook heel veel.
Same, de 3080TI is nog steeds vlot, maar 12GB geheugen is voor recente titels erg krap. Bij The Great Circle moet je concessies doen op textures.

Daarom verbaast het me dat de 5080 maar 16GB mee krijgt. In het kader van toekomstbestendigheid had ik voor de 80 en 90 varianten op 24GB gerekend.
Toekomstbestendigheid, VRAM en Nvidia... je hoeft daar niet op te rekenen.
Misschien krijgen de refresh ("Super" ?) 5080 kaarten nieuwere GDDR7 modules en dan wél 24gb...

[Reactie gewijzigd door HugoBoss1985 op 29 december 2024 11:52]

Het lijkt er op dat ze alleen bij laptops aan toekomstbestendigheid denken. Zo kwam ik er net echter dat de 3080 in mijn laptopje wél met 16GB is uitgerust.

Dat zou betekenen dat nVidia bij vervangbare kaarten opzettelijk minder geheugen plaatst om ze sneller obsolete te maken. Wat mij betreft is dat smerige spelletjes spelen met een doelgroep die de producten sowieso al nauwelijks kan betalen.
Ik snap de emotie, maar een doelgroep die het oprecht moeilijk heeft met geld, nauwelijks kan betalen zoals je zegt, die kopen geen 3080 maar dan gewoon een 3060 of 3070. Elke videokaart van meer dan 500 euro is voor mensen met geld over. Kijk naar Intel nu met hun 12 GB VRAM aanbod voor € 300, in dat segment wordt concurrentie al voelbaar. Een 5080 met 16GB is al minder interessant en als ie dan ook nog 1.800 euro moet kosten dan is het no deal. Doet toch de 3080 met 10 GB VRAM nog een ronde en zien we bij de refreshes wel weer. Wie weet is de AMD 9070 ondanks de 16GB VRAM dan toch slim voor gaming. Liefst had ik ook wat met LLM's kunnen experimenteren, maar daar moet een meerprijs van honderden euro's voor voldoen, niet duizend euro extra.
Kan heel goed. Er zijn 3GB modules op de markt in plaats van de waarschijnlijk gekozen 2GB modules.

Dan kom je op 24GB
Dat gaat de 5080Ti en 5080 Super zijn, later in de cycle. Die gaan 20-24GB krijgen. Maar 16 is niet acceptabel voor een kaart als deze.
Dit is al langer een probleem met weinig ram op een videokaart. Begint naar mijn inziens een beetje te lijken op smartphones ipads waar het geheugen ook de eerste issue is waar je tegenaan loopt. Apps vragen steeds meer ruimte en updates. Maar dit is nu hoe ze klanten blijvend geld uit de zakken laten halen.
Dan hoop ik voor je dat de prijzen betaalbaar blijven. Ene Youtuber Vex heeft al contact gehad met een Australische webwinkel en de prijzen die deze webwinkel anoniem vermeld heeft liegen er niet om. Omgerekend ko'en die neer rond de €1500,- voor de RTX 5080 en €2300,- voor de RTX 5090. Nvidia weet waar het staat in de gpu markt en maakt hier nu grondig gebruik van. En het maakt ze niet eens zoveel uit hoeveel ze er verkopen, omdat hun grootste inkomsten van aan AI gerelateerde produkten afkomstig is. Als de RX 9070 XT echt rond de prestaties van een RTX 4080 zit, dan is dat naar mijn mening meer dan genoeg om UE5 spellen op high settings te kunnen spelen. En als je nu al kunt zien dat die engine games toont van zo'n hoge kwaliteit, dat je bijna gaat twijfelen of je naar een opgenomen video kijkt of naar een spel, dan kan het al niet veel beter. Als die kaart dat dan aankan, waaeom dan nog rond de €1500 uitgeven als je nagenoeg dezelfde graphics ook voor rond de €700,- kunt draaien? Ik denk dat de RTX 5070TI dan zelfs een betere optie is als je rond de €1000,- wilt uitgeven. Maar goed, ik kan het natuurlijk mis hebben.
En niet te vergeten dat president Trumph dit jaar ook nog met tariffs komt (om te exporteren) (of importeren)
Dus dan zal elke hardware daarop ook nog duurder worden.

Ik las zelfs op i-net dat Nvidia en AMD al vroegtijdig al spullen hebben verzonden om deze tax te vermijden.. Maar goed bij de volgende transport beweging zullen die prijzen ook nog op de hardware komen.. Word dus een slecht 2025.

[Reactie gewijzigd door Robin4 op 29 december 2024 21:56]

Ik meen dat trump t alleen op import kan doen
Ik zelf zal reikhalzend uitkijken naar de 5080. Ik heb nu een 3080ti en op m’n net aangeschafte 3440x1440 merk ik toch dat hij zo nu en dan moeite heeft met de settings die ik wil.
Mijn RTX2080Ti had dit in 2019 al van in het begin bij sommige games in 4K maar hinkt nog steeds mee.
Meestal is het vooral alles van raytracing en DLSS afzetten en dan kun je verder in 4K

Nu laatst Indiana Jones and the Great Circle in 4K kunnen spelen op een nieuw samengestelde PC voor iemand met een RTX4090 24GB vram .. met alle settings op maximaal en toen sommige cutscenes opdoken enkele keren wat crashes gehad, dus heb ik ook daar de settings moeten terugschroeven om crashes te vermijden. Want die cutscenes zorgden telkens voor een val in de fps.

Echt erg voor die kennis dat ie een nieuwe peperdure high-end PC laat samenstellen en vervolgens toch niet met alle settings op maximaal in 4K kan gamen. Had hem nochtans verwittigd voor Indiana Jones en dit gaat niet de laatste game worden .. Dus als jij een RTX5080 met 16GB vram gaat aanschaffen moet ik geen tekening maken, dan ga je al van in het begin settings moeten terugschroeven als je in 4K gamed.
ik koop nooit meer dan een klaart van ~500 euro. Ik heb een 3060ti tot nu toe die nu voor het eerst begint te haperen in DA Veilguard op 1440p op Ultra settings. De 8Gb in niet meer genoeg, hoewel; de meeste spellen minder dan 8Gb noidig lijken te hebben. Ik ga naar een 7800XT binnenkort
Maar ik snap dat je met zo'n hoge resolutie problemen begint te krijgen met een 3080
Daar zeg het het: Voor MSRP.
Ik heb weinig voor MSRP weg zien gaan. elk geval niet aan eind gebruikers. De scalping, grote vraag, gering aanbod door chip schaatste. hebben de prijs bij zowel retailers als resellers flink opgerukt.
Vond de TI versies al wel een stuk duurder dan de reguliere. waar de RTX 3080 (12gb) 800$ was, was de RTX 3080TI 1200$ (beide als MSRP)

Nvidia heeft ook wel gezien dat mensen er toch wel redelijk wat meer over hadden voor de 30 serie dan dat ze vroegen. Dus zullen ze daar in de toekomt ook wel rekening mee houden. lullig voor ons, maar zakelijk hebben ze gelijk.

Maar eerst eens kijken wat ze werkelijk doen als ze in de winkels liggen, al gaat hij waarschijnlijk toch mijn aanschafsbereidheid te boven.
en anders over een jaar.
Met een prijs die ver boven de 1000 euro uit lijkt te rijzen heb ik echt nul interesse in deze nieuwe normaal opgelegd door nvidia (en AMD volgt daar maar al te graag in).
Goede prijs/prestatie is nu toch niet exact wat in me herinner bij de introductie van de 30-serie en dan heb ik het heus niet over scalping prijzen.

30-serie was al absurd gestegen en de 40-serie was dan helemaal van het potje gerukt. De trend gaat verder zo lijkt het met de nakende 50-reeks
Overigens denk ik dat veel mensen op de 30 serie zitten en gaan upgraden, aangezien ze voor MSRP toen erg goede prestatie/prijs hadden.
Ik heb zelf een RTX 3080, gekocht op de eerste dag voor €849. Net als jij gebruik ik een monitor met een resolutie van 3440x1440. Daarnaast is mijn kaart ook aangesloten op een 55-inch A90J in de woonkamer. Ik ondervind geen problemen bij de games die ik speel op ultra-settings, zowel op de ultrawide-monitor als op de 4K-tv.

Ik heb geluk gehad met de silicon lottery, want mijn GPU draait stabiel op een core clock van 2,1 GHz, wat waarschijnlijk helpt. Voor mij, als eigenaar van een 30-serie, zie ik nog geen reden om te upgraden. Waarschijnlijk pas bij de 60-serie.
zelf hier nog op een 2080ti. elke 4 a 5 jaar n nieuwe pc bouwen :)
Ik ook, gekocht net na de aankondiging van 3000 series vóór dat duidelijk werd dat er een enorm tekort was. VR en moderne spellen werken nog steeds goed genoeg :D
Hier nog steeds op een GTX 1070 in de desktop met 3800X 8-) en in de Laptop een RTX 3060 met 5800H en 64Gb RAM.

Ik zit nog wel eventjes goed voor wat ik speel.

niet het beste meer maar op veel games High en de nieuwere games Normal/High met combi in Low best te doen.
Ik hoop 't van harte. Kan ik hier mooi de last gen weer uit de V&A oppikken voor een prikkie :)

Ik loop al jaren bewust een generatie achter. Dat scheelt echt een hele hoop. En het is alsnog overkill, want ik speel voornamelijk 2D indie games.
Ik vind dat ook wel fijn om een generatie achter te lopen..
Je weet dat het product al op de markt is.. Wachten is niet meer nodig. Zolang de voorraad gevuld is.

Begin top prijs is weg.. Prijzen gezakt.. En je hoeft nooit zorgen te maken of je wel aan een nieuwere generatie kaart kan komen.. Want komt ook wel eens voor dat de voorraad gewoon weinig of slecht leverbaar is.

Wilde zelf ook op een RDNA 4 wachten.. Maar zie genoeg dingen dat de aanschaf alleen maar kan gaan hinderen. Maar ben achteraf voor een RX7800XT 16GB gegaan.. In deze dat ik het Vram wel belangrijker vond, dan nog meer geld uit de zak kloppen voor een RX7900GRE.
welke games als ik vragen mag?
Echt een combinatie van verschillende games. Rocket League, Age of Empires 4, Cyberpunk, RDR 2, Anno 1800 om maar een handgreep te doen.
Ja ik wacht ook al een tijdje op iets om 3090 te upgraden, dat is er gewoon realistisch niet echt. Hoop dat de 5090 hem gaat worden voor de komende 4 jaar.
Er zijn geruchten dat hij 1780€ kost, ik hoop dat je daarvoor klaar bent, plus je verliest 8GB ram tegenover 4090, vraag je af of dat het waard is, je hebt ook 60% minder cores dan weliswaar oudere 4090 gtx cores.

Nvidia wil deze als 'personal AI cards' verkopen, en het gat met de pro kaarten niet te groot maken, en dus prijs stevig hoog zetten.
Wat ga je liggen upgraden vanaf een 4090? :+
4090 kopen IPV 5080, ook als je nu 1800€ kan betalen voor 5080 kon je vroeger ook 1600-2000€ betalen voor 4090, die bovendien nog altijd 24gb voordeel heeft. Kortom ik probeer gewoon gelijk wie (ook wie geen 4090 heeft- af te raden 5080 te kopen, zelfs aan 3000€ vind ik de 5090 dan betere koop 32gb ram, 512 bit bus, dubbele streamprocessors enz. En ik haat dure kaarten dusja zegt veel als ik dat moet toegeven op 5090.
Ik denk het niet. Alleen mensen die geld kunnen verbranden
Ik ben heel benieuwd wat de RX9070XT gaat doen qua prijs. Als dat net onder of gelijk is aan de 3070Ti dan kan het best een winnaar zijn en zou het mijn RX6900XT vervangen. Ik vind kan de 5080 ook wel verantwoorden als video encode aanzienlijk beter is dan dat van de AMD kaarten, maar in de vorige generaties (heb een 3070ti) was het verschil daar maar kijken naar het prijsverschil niet zo relevant.
Ben even benieuwd op welke spellen jij dan moeite hebt, heb zelf al een tijdje een 3440x1440 met een 3080ti en nog nergens tegen echte problemen aangelopen.

Soms wel even wat settings verlagen maar dat komt vrijwel altijd vanwege de waardeloze optimalisatie van de devs zelf en niet vanwege de echte limieten van de kaart.

(krijg makkelijk 100+ fps in battlefront 2 op max settings maar 70fps in de nieuwe battlefield game..... starwards battlefront 2 ziet er op ieder aspect beter uit dan 2042)
“Een van deze twee gpu’s wordt naar verluidt een OC-versie en zou dus overklokbaar moeten zijn”

uhm 8)7
Ja, absolute onzin. En dat geldt de afgelopen jaren al helemaal met chips die uit zichzelf boosten (het aantal Mhz omhoog krikken) waar mogelijk. Alles binnen de marges die de voltages bieden. Alleen door undervolting kun je nog net iets extra's eruit halen, maar het is zo marginaal dat je het effectief niet zal merken.

OC varianten is niets anders dan de klant manipuleren, bang maken dat hij mogelijk een minder product koopt als hij de non-OC variant koopt. En een middel van fabrikanten om zichzelf proberen te onderscheiden van de videokaarten die AMD en Nvidia zelf ook de markt brengen, iets wat steeds lastiger wordt aangezien de Nvidia kaarten tegenwoordig ook goede koelers hebben.

Mijn ervaring de afgelopen jaren is dat de non-OC modellen in de praktijk niet eens verkrijgbaar zijn voor de videokaarten waar ik interesse in had, maar ik kan dit uiteraard niet voor alle modellen in de markt zeggen.

En overclocken en undervolten kan net zo goed met de non-OC varianten, er is feitelijk niets anders dan iets andere standaard instellingen van clockspeed en memory speed, wat in de praktijk weinig tot niets zal uitmaken.

Anyway, met dat OC gebeuren als productvariant mogen ze stoppen.
Zelfs in het huidige tijdperk, waarin GPU's automatisch boosten, bieden de "OC-varianten" een garantie dat je specifieke kloksnelheden behaalt. Deze snelheden staan letterlijk op de verpakking vermeld. De BIOS van deze kaarten is aangepast met andere basiswaarden om binnen dat hogere kloksnelheidsbereik te opereren. Dat is niet het geval bij de non-OC-varianten.

Natuurlijk kun je een non-OC-kaart hebben die, dankzij factoren zoals een hogere ventilatorsnelheid, undervolting, goede kastkoeling en een stabiele voeding, automatisch hoog boosten—misschien zelfs hoger dan een "Factory OC"-variant. Maar daar gaat het niet om. Het blijft afhankelijk van de silicon-lottery; je kunt ook pech hebben en nauwelijks boven de standaardkloksnelheden uitkomen. Het draait bij OC-varianten simpelweg om de garantie van die specifieke kloksnelheden.
Maar die specifieke kloksnelheden zijn in de praktijk niet relevant, aangezien de chips vrijwel altijd significant hoger boosten dan de opgegeven turbo (OC)-frequentie. Daarnaast is de overklok tegenwoordig zo laag dat je er in de praktijk niets van kunt merken (meestal maximaal 3%), complete onzin dus. En dat wordt nog eens versterkt, zoals je zelf al aangeeft, o.a. door silicon lottery. Ik heb al aardig wat 4090's getest, waaronder drie exemplaren van de 4090 FE en ze haalden allemaal verschillende boostsnelheden. De 'slechtste' kwam niet verder dan 2625MHz, en de beste ging tot 2700MHz. Dat is een verschil van bijna 3%, wat al aantoont hoe onzinnig die OC-varianten zijn.
Volgens MLID (moore's law is dead), bestonden er plannen voor 7900 XT(X) tot bijna 3000 mhz te klokken maar blijven ze nu 2.5 ghz steken. Zo konden ze er nog meer snelheid uit persen, waarschijnlijk niet gedaan omdat geheugenbandbreedte er ook nog is.

Maar dat nu plots wel kan met nauwelijks betere node zegt genoeg: deze chips worden harder geklokt. Misschien omdat die kleiner is, maar dat alleen verklaart geen 600 mhz.
Die nieuwe RTX 5080 en RX 9070 kaarten klinken als een droom voor gamers en content creators! Maar eerlijk, die prijzen en stroomverbruik van high-end GPU’s rijzen de pan uit. Ik gebruik nog een oudere RTX-kaart en kan eigenlijk alles nog prima draaien op 1440p. De vraag is of deze nieuwe generatie écht zoveel beter is dat upgraden loont. Zeker met games die vaak meer van de CPU dan GPU vragen (zie bv. analyses op TechPowerUp en Tom’s Hardware. Benieuwd of deze kaarten echt next-gen prestaties bieden of gewoon marginale upgrades zijn.

[Reactie gewijzigd door Liquid_Bisquit op 29 december 2024 10:08]

Je ziet ook games. Die zien er niet beter uit dan paar jaar terug, maar eisen wel meer power.
Dat is niet helemaal waar hoor. Hier een paar voorbeelden (als je geïnteresseerd bent)

- Indiana Jones met path tracing
- Alan Wake 2 met path tracing
- Cyberpunk 2077 met path tracing

Deze games zijn, met path tracing, een gigantische stap vooruit ten opzichte van voorheen. Maar helaas kan je dit niet draaien zonder een 4080 (eigenlijk draait het pas echt een beetje acceptabel met een veel snellere 4090).

Met de 50xx serie wordt dit waarschijnlijk voor wat meer mensen speelbaar.
Met de 50xx serie wordt dit waarschijnlijk voor wat meer mensen speelbaar.
Als het nu alleen echt goed speelbaar is op een 4090.. en de 5080 wordt even duur of duurder, zal dat niet helpen om het voor meer mensen speelbaar te maken helaas
Wellicht zal een 5070(ti) er ook wel mee om kunnen gaan.

Ik heb ook hoop voor de Radeon RX8000 serie. Ik geloof dat AMD kenbaar heeft gemaakt dat het stappen gaat zetten op het gebied van Ray Tracing. Dat zou misschien nog een of twee extra kaarten die dit kunnen draaien betekenen.

Maar goed, het zal nog wel een generatie duren voordat je dit soort effecten kan gebruiken met mainstream kaarten helaas.
Die Indiana jones vind ik niet zo mega mooi uitzien. Wel de path tracing effecten.
AAA devs doen totaal niet meer aan optimalisatie. "Koop maar een 5090 als je max settings wil". Gelukkig zijn er devs die hier wel oprecht moeite in steken en niet gewoon klakkeloos alle defaults van Unreal gebruiken.
AAA devs doen totaal niet meer aan optimalisatie. "Koop maar een 5090 als je max settings wil". Gelukkig zijn er devs die hier wel oprecht moeite in steken en niet gewoon klakkeloos alle defaults van Unreal gebruiken.
Grapjas. Zodra een game ook op consoles uitkomt is optimalisatie enorm belangrijk. Daarnaast, de game engines en de tools doen het meeste al en je moet tegenwoordig echt je best doen of er niet veel van snappen om optimalisatie te laten liggen.

Het idee dat devs tegenwoordig niets meer aan optimalisatie doen is echt een urban myth die tweakers onwaardig is.
YouTube: Challenged To 3X FPS Without Upscaling in UE5 | Insults From Toxic D...

Games zien er niet beter uit dan een paar jaar geleden maar de specs zijn wel blijven stijgen. Dan klopt er iets niet. "Ja maar raytracing". Doet er zelfs niet toe in het filmpje dat ik gelinkt heb.

[Reactie gewijzigd door iqcgubon op 29 december 2024 17:18]

je word gedownmod, maar het is oprecht zo. Door tijdsdruk en GPUs met veel geheugen word er minder geoptimaliseerd dan vroeger.
Ik hoop vooral dat het efficiënter is. Ik wil van een oud systeem (i7 6700 + gtx970) upgraden naar UWQHD, maar mijn tier 2 (destijds) 400w psu wil ik het liefst lekker laten zitten. Dan kom ik nu uit op een 4070, maar een 5070 van ~200w met de prestaties van een 4080(ti) zou mooi zijn voor UWQHD.
Ik zou die psu lekker vervangen. Die is al zo oud dat die de pieken van huidige videokaarten niet aan kan en grote kans dat hij t een keer begeeft en je systeem meetrekt.
En aangezien je toch alles al moet vervangen zie ik afgezien van 80ish euro besparen geen voordeel in het "laten zitten" van je voeding.

[Reactie gewijzigd door Arjant2 op 29 december 2024 12:12]

5070 heeft maar 12gb, dat zal snel te weinig zijn, (8gb is nu al volledig verbrokkelt, voor 1440p). 5070 ti of ga naar huis.

Beide 5070 zullen normaal extreem efficient zijn, GDDR7 kan slurpender zij? weet niet zeker, maar is vaak zo bij zo'n grote snelheidsverhoging. De chip zelf is nog nooit to klein geweest en op nieuwe node en waarschijnlijk laag geklokt, dus kan niet anders dan efficient zijn.
Als je kijkt naar de afgelopen generaties gaat de 5070 niet de 4070 evenaren: de 4060 blijft steken tussen de 3060 en 3060ti, dat is wat nvidia je tegenwoordig geeft met een generatie.

Verwacht dus maar dat de 5070 ongeveer op het niveau van de 4070ti of ti super zit, niet meer.
400W PSU is toch wel aan de krappe kant hoor ! Het is 1 van de belangerijkste componenten van je pc. Mijn advies die ik al jaren meegeef aan pc bouwers is om niet te besparen op een goede voeding. Een 750W voeding verbruikt toch maar de benodigde watts die je systeem verbruik hoor. Terwijl een 400W voeding constant op zijn limit moet draaien en soms problemen kan geven.
Destijds lag mijn keuze op een betere kwaliteit psu van 400w (tier B)' of een 550w (low priority C tier). Omdat mijn systeem rond de 300w zou zitten heb ik uiteindelijk voor die van 400w gekozen, ook met het idee dat componenten zuiniger zouden worden. Ik heb een i7 en 970, ik stap nu over naar een Ryzen 5 en weer een xx70, ik had gehoopt dat deze klasse nog rond die 300w zou zitten.

Toch denk ik dat een 4070 nog wel met mijn systeem zou kunnen, dan zou ie met alles 100% verbruik op 400w zitten. Ik heb ook gelezen dat de peak power van deze psu 450w is. Maar ik hoop dat de 5070 net wat(t) zuiniger is dan de 4070, het liefst heb ik natuurlijk net iets onder de 400w.

[Reactie gewijzigd door Nyltje op 4 januari 2025 20:15]

Ik heb nu een PSU van corsair 750W. Nog nooit problemen mee gehad op bijna 10 jaar ! In het begin dat ik mijn eigen systemen bouwde bespaarde ik op een PSU om duurdere GPU te kopen. Maar je komt dan wel tot de conclusie dat een kwaliteit PSU met overschot stiller werkt omdat de fan bijna nooit draait. Deze word ook nooit vol 100% belast en gaat ook langer mee. En je hebt het voordeel dat je al eens kan wisselen upgraden naar meer verbruikende componenten zonder problemen. 400W is en blijft krap Nyftje.
Ja helaas verbruikt een 5070 nu 250w, terwijl de 970 145w verbruikte. Ik had verwacht dat het ongeveer hetzelfde zou blijven of zelfs minder.

Het is krap, maar ik heb flink gemeten en ik heb uitgerekend dat ik met een kaart van 200w een peak zou hebben van 400w, continu zou dat dan iets lager liggen. Ik weet dat mijn psu een peak van 450w aankan, maar ik weet niet of ik dat wil riskeren. Ik had verwacht komende maand de 5070 in handen te kunnen krijgen, maar met de aangekondigde tdp denk ik dat ik toch maar even wacht op de 5060(ti) of misschien een 2e hands 4070, maar die 5000 serie ziet er wel goed uit.

Het luidste component in mijn pc tijdens het gamen is trouwens mijn harde schijf, soms ook mijn videokaart, maar dat is alsnog vrij stil. Alle specs staan in mijn inventaris.
Maar eerlijk, die prijzen en stroomverbruik van high-end GPU’s rijzen de pan uit.
Daarom blijft het bij dromen voor velen, niks ergs aan er komen ook mooie midrange opties. Afhankelijk van de content die je create is hardware trouwens een ideale afschrijf- en BTW wegstreep post dus professioneel gezien is het iets heel anders dan particulier.
Als je game cpu limited is dan doe je gewoon de graphics hoger tot je GPU limited word.

https://www.techpowerup.c...d-ryzen-7-9800x3d/20.html

een 600 euro kostende AMD Ryzen 7 9800X3D is 4% sneller in 4k gemiddelde dan een 180 euro kostende 7600 op 1440p stijgt dit naar 10% 1080p : 15%
Heb nog een 5800x3d met een 4090. Ik game op 1440p en alles op max. Zo te zie kan die processor nog wel even mee.

Zijn er dan nog meer dingen om je gpu limited te laten zijn. Zonder dat je naar 4k moet.
Settings (level of detail, textures, AA alles op max zetten) als je dan nog niet aanzit (en gene multiplayer) iets als reshade of mods?

Krijg zonder problemen een 4090 op de knien dan: cyberpunk 2077 4k path tracing & 100 tal graphische mods en zonder dlss zit ik op 20fps , met dlss ss op quality en FG en een paar andere settings aangepast zit ik op een 55fps.
Ik wilk van een GTX 1660 naar iets nieuws om in VR mee te kunnen flightsimmen. Ik heb een mooie HTC Vive Pro 2 die onder de 700 euro kwam. Nu nog een videokaart die dat trekt, en een 4090/5080 is het minimale waarmee dat een soepel gaat.

Om te flightsimmen heb je best een hoge resolutie nodig, anders is het instrumentenpaneel niet af te lezen.
Die 2448 x 2448 per oog is eigenlijk nog aan de krappe kant.
Flightsims zijn zwaar, ik ben niet op de hoogte van de VR-specs, maar ik ben verwondert te lezen dat jij dit nog met een GTX1660 kunt spelen.

Ik ken een flightsimmer waar ik PC's voor bouw, die koopt om de 2 jaar het duurste. Die heeft me al gecontacteerd voor volgend jaar als de RTX5090 uitkomt zijn PC "wederom" samen te stellen.

Die gebruikte tot dit jaar een 34" QHD monitor en heeft nu een 57" 4K monitor aangekocht.
Had mij hierbij om raad gevraagd omdat hij ging upgraden en meer detail wou.
Die RTX4090 zit nu tegen zijn limieten aan !!


.

[Reactie gewijzigd door MPIU8686 op 29 december 2024 18:44]

X-Plane 11 ging op een gewone full HD monitor nog prima met een GTX 1660. Ooit met een Vive Pro 1 erop gespeeld, en dat ging nog enigszins met de settings flink teruggeschroefd.

Het voordeel van flightsimmin in VR is dat je over het algemeen redelijk stil zit en dat het zelfs met een framerate van 10-20 nog best acceptabel speelbaar is. Natuurlijk is het met 50+ mooier, maar ik vermoed dat het veel minder verschil maakt dan in bijvoorbeeld VR rondloop-spellen. Anyway, bij de pro 2 kwam het eigenlijk nooit boven de 10 fps uit, dus dan is het toch echt tijd voor een fancy nieuw GPU.

45 inch 4K klinkt ook wel heel gaaf. Op welk scherm is de keus van de flightsimmer gevallen? Ben wel benieuwd. Ik flightsim achter mijn gewone bureau. Daar heb twee 27 inch 4K schermen, waarvan eentje in portrait. Totaal onhandig for flightsimmen. Wat hat nadeel is van veel moderne extre brede schermen is dat je niet tegelijk je instrumenten en je uitzicht kan bewonderen. Ik zou dat eigenlijk liefst een gebogen 4K x 2K scherm willen, maar die tijd is helaas geweest:
https://www.usa.philips.c...cd-display-with-multiview
Ik heb heel vroeger ook nog flightsims gespeeld, maar dan spreek ik echt wel over Combat Flight Simulator 1 & 3 // Lock On: Modern Air Combat en IL-2 Sturmovik series. Dat is 15 tot 25 jaar geleden.

Daarvoor had ik een opstelling van 2x19"crt LightFrame monitors en later 3x 24" schermen.
Voor de grafische hardware had ik hiervoor 2x Nvidia GPU's in SLI en later 3x AMD's in CrossFire.
Was toen nog een heel gedoe om alles werkend te krijgen met zo'n set-up.

Het scherm heb ik nog in mijn zoekgeschiedenis staan, was trouwens 57",
maar ik geef je de tweakers link van de Pricewatch erbij :

Samsung Odyssey Neo G95NC 57"

uitvoering: Samsung Odyssey Neo G95NC 57" (S57CG952NU) Zwart


.

[Reactie gewijzigd door MPIU8686 op 29 december 2024 18:44]

Oh, 8k pixels breed. Dat is wel erg nice. :D

Ik zou zelf nog wel voor zoiets kunnen gaan:
uitvoering: Dell UltraSharp U4025QW Zilver, Zwart
Omdat de Aspect ratio dan wat minder extreem is.
Zolang dit geen probleem is voor jezelf,
jij zegt niet zo breed te willen gaan,
die kennis van mij zegt net wel breed te willen gaan .. :D

Hij had wel iets te zeggen over de hoogte van het scherm (zonder voet) dat deze minimaal 36cm moest zijn en liefst nog meer scherm in de hoogte voor het inlevingsvermogen. Maar die wilt er ook echt middenin zitten, omgeven dus. Daarom dat we samen op die gebogen Samsung Odyssey zijn uitgekomen, heeft 42cm in de hoogte (zonder voet). Maar die deint wel diep uit naar achteren toe.

Die van jou heeft ook 42cm in de hoogte (zonder voet)

In ieder geval niks voor mij, heb een plat 27"scherm voor mijn desktop en nog twee van diezelfde 27" schermen voor mijn bewaking. Ik kan die switchen, bijvoorbeeld een 27" scherm extra naar mijn PC, maar uiteindelijk maak ik daar toch nooit gebruik van. Kan ik mooi naast mij kijken of boven mij op die 27" schermen of er iets verdachts gebeurt wat mijn camera's detecteren .. :D
Ja bij hem wel ja, maar in het gross van de mensen met zon kaart zit hij verre van de limiet.
Msfs 2022 kan ik in 1440p met mijn 6750xt prima op ultra settings draaien.
Msfs 24, daarintegen: terug naar medium settings en niet vloeiend. Bedroevende ontwikkeling.
Afin, headtracking aan. Voelt als vr, maar dan zonder misselijk te worden.
Tja, ligt helemaal aan vanaf waar je komt, je geeft aan dat je een RTX kaart draait, maar niet aan welke, en het toch toch echt een heel groot verschil of je komt van een RTX10xx of een RTX30xx, laat staan een RTX40xx..
En ook wat je doet, ik wil PCVR met op zijn minst de Pico 4/quest 3 wireless doen, en dan is een RTX5080 wel zeker de moeite waard, kijkende naar minstens 4+jaar gebruik en dus ook mogelijk nieuwere headsets met 4k schermen per oog.
Zo raar die namen nu met Nvidia naming scheme. Maar snap t wel vanuit markt oogpunt.
Hoezo? De 9070 XT wordt een kaart van AMD. En alhoewel ik Nvidia een kutbedrijf vind, is de naam toch wel logisch 980 > 1080 > 2080 > 3080 > 4080 > 5080
AMD zou inderdaad is wat consistenter mogen zijn met hun namen, zowel op CPU als GPU vlak.
Nvidia zou ook wat minder anti-consumer mogen zijn als het op de namen van hun GPU's aankomt, want zolang dezelfde naming scheme gebruiken maar totaal afwijkende specs gebruiken maakt het even verwarrend als wat AMD doet.

//edit: nog even vermelden dat ook AMD wat minder anti-consumer mag zijn met sommige van hun CPU's.

[Reactie gewijzigd door Hardfreak op 29 december 2024 10:24]

Absoluut.

7970 -> R290 -> VEGA56/64-> Rx470/480-570/580-> 5700XT
-> 6800XT-> 7900XT(X) -> 9070

En dat is met wat volgorde fouten denk ik. En dan heb ik 3 producten gehad in die lijn. En nog snap ik geen bal van hun naamgeving meer.

Laat staan een consument zonder affiniteit.
Omdat amd dat niet deed op die manier en nvidia wel. Nu gaat amd die manier ook bij hun kaarten toepassen.. dat is wat hij bedoelde. En Nvidia is een top bedrijf hoor, maken de beste gpus op de wereld.
Ik ben vooral benieuwd wat die nieuwe DLSS beter kan dan de vorige versie. Daar zou best nog eens de meeste performance winst kunnen liggen.
Geruchten volgens de Australische retailer:
Youtuber Vexmaakt de prijs bekend van een Australische webwinkel, waar de Asus Prime GeForce RTX 5080 16GB OC Edition staat vermeld voor 2.799 Australische dollar. Volgens Notebookcheck komt dit na belastingen en omrekening neer op ongeveer 1.800 euro. Ter vergelijking: de RTX 4080 verscheen hier in eerste instantie voor 1.469 euro. Dit zou neerkomen op een prijsstijging van ruim 300 euro, oftewel zo’n 22 procent.
Ik heb voor mijn 4090 OC €1.869 betaald. Nu wordt de 5080 bijna net zo duur en laat staan hoe duur een 5090 gaat kosten?

[Reactie gewijzigd door Van der Berg op 30 december 2024 00:15]

Stel de 5080 is even snel of net iets sneller dan de 4090, dan is dat een sprong van ongeveer 40% performance tov 4080/4080super.

De 4080super heeft een adviesprijs 999 dollars, dan verwacht ik dat dit 1399 dollars wordt voor de 5080. Omgerekend komt dit dan ongeveer uit op 1550€ en dit kan wel kloppen met de leaks.

Na 2 jaar krijg je dan betere prijs prestatie verhouding tov de 4090 (maar geen 24gb).
Na 1 jaar krijg je even goede prijs prestatie tov 4080/super.

Ik verwacht dat de 5080 slecht zal verkopen en men liever wacht wat de 5090 gaat doen.

De 5090 krijgt dubbele specs tov de 5080, theoretisch kan dit 2x fps opleveren, maar het zal gegarandeerd het dubbele kosten :)

Ik verwacht dus een adviesprijs van 2799 dollar voor de 5090. Vertaalt naar ruim 3100€...

Hierdoor lijkt het alsof de 5090 een betere deal is dan de 5080. Dit hebben we al gezien bij de 4080/4090. Ik verwacht dan ook veel betere verkoop van de 5090.

Het lijkt erop dat AMD amper een stap vooruit gaat maken en Nvidia hier heel goed van op de hoogte is. Klinkt als duopolie in mijn beleving.

Let op dit is geen financieel advies: volgens mij kun je beter Nvidia aandelen kopen ipv een 5080/5090 ;)
YouTube: RTX 5080 Pricing LEAK..... Nvidia is Gone

Adviesprijs van 2800 AUD voor een 5080 (gerucht)... ik verwacht eigenlijk wel dat Nvidia dit gaat doen 8)7
Ook de reden dat ik weiger een Nvidia kaart te kopen, dan maar een mindere van AMD. Dat AMD (en Intel) mindere stappen maken, maakt ze niet minder interessant. Vooral de 7900GRE is een interessante en de 9070XT is blijkbaar even snel als de 4080 (en verbruikt minder)...

Ik snap echt niet waar het sentiment en/of de gedachte vandaan komt dat je perse een 4090 of 5090 nodig hebt om te kunnen gamen...

Ik heb een 7800XT van Powercolor (was 530 euro incl. 2 gratis games) en draait Cyberpunk 2077 op Ultra met RT op Ultra zonder problemen... waarvoor moet je een kaart hebben die 5x zoveel kost :X
Ja Path Tracing zal vast beter zijn, maar damn... wat een geld (en vermogen vragen die kaarten van Nvidia).
Vermogen is genuanceerd bij Nvidia. Ik haat ook de 500-600 watt van 4090 en 5090 rtx. Maar omdat ze exreem véél cores hebben, en bij fps capped games of gewoonweg simpele taken, op lagere kloks sequentieel kunnen uitvoeren kunnen in scenario's zeer zuinig zijn. Maar vanaf je het volle pond vraagt (en waarom niet je betaalde net voor die monsterlijke snelheid), en de game of app vraagt dat ook, zijn ze allesbehalve efficient. Misschien in fps /watt nog redelijk, maar in absolute zin moet je wel 2x meer energiefactuur dan 1080 ti betalen. Bij hun lagere kaarten zijn de kloks vrij laag gezet, die size klein, weinig cores. Dat zorgt voor efficientie, maar bij volle core belasting, wel minder dan bij 4090 omdat het lage aantal cores overwerk zal moeten leveren, wel beter dan AMD.

GDDR7 (zeker met zo'n snelheidsverhoging) die ik niet werken zonder verbruiksverhoging, dat zal deel energievreten bij Nvidia, maar hun chips, (kleiner) nieuwere node, lagere kloks (op 5060/5070) zullen zeker goedkmaken en nog efficienter zijn.

Laag geklokt amd 9070 modellen (non XT, reference?) zullen ook heel efficient zijn, minstens 4000 nvidia serie. Immers veel kleinere chip, efficienter design, dacht ook een kleine node verbetering, en lagere bus breedte. 9070 xt AIB modellen (al la Asus TUF) zullen hoog geklokt zijn om zo dicht mogelijk bij 4080 /7900 xt te komen. Daardoor zullen ze nog steeds beter dan 7900 xt zijn, maar stukje slechter (klein beetje) als 4000 serie Nvidia. In games die geen volle klok vragen zal hij wel efficienter zijn dus gemiddelde is beter.
Alles draait hier nog prima op een 4080 super.

Dus kijken naar de aankondiging maar lekker overslaan deze 50 serie.

Ben wel benieuwd wat de prijzen gaan worden.
Je reactie is een beetje in de trend van "Mijn iphone 15 pro doet het nog goed, dus ik laat de iphone 16 (pro) voorbij gaan.". Tenzij je het leuk vindt om te upgraden en geld uit te geven, maar ik vermoed dat deze upgrade niet voor jou bedoelt is.
Iedere zijn keus toch
Als de kaart voldoet waarom upgraden?

[Reactie gewijzigd door xaradine op 29 december 2024 13:03]

Beetje maf om iedere keer mensen te zien die zich hardop afvragen of ze een kaart moeten vervangen die nog lang niet aan vervanging toe is.
De 20 series begint oud te worden, en de lagere kaarten in de 30 series lopen ook niet altijd even lekker meer. Maar een 4080 super is een high-end kaart van nog geen jaar oud. Natuurlijk ga je die niet lopen vervangen 8)7
De garantie zit er nog op.
Hangt er van af wat je er mee doet of wil gaan doen én je budget.
Als de nieuwe 50x0 kaarten veel snellere en energiezuiniger zijn in AI kan het voor sommige mensen toch een overweging zijn.
Of als je met een 4080S tegen de geheugen limieten aan loopt, wil je hem wellicht ook vervangen.
En soms willen mensen gewoon het nieuwste, kosten wat kost.

Dus het is niet altijd 'natuurlijk', soms is een kaart al in een paar weken terug verdiend en zal de nieuwe kaart even snel meer waarde leveren t.o.v. de oude. Het hangt er maar net van af wat je er mee doet.
Zijn er zat die het wel doen.
Ik hoor daar niet bij.
Een kaart dat boven 600/750 kost koop ik niet.
En ik draai nog steeds met 1070ti.
Als de nieuwe Amd zuinig is en bedrag laag dan ga ik naar kamp rood.
Beetje klaar met belachelijke prijzen.

Daarom ieder zijn keus en mening :)

[Reactie gewijzigd door xaradine op 29 december 2024 17:12]

Tja, de opmerking is zonwastdeloos omdat de 4080super de laatste incarnatie van dat model is. Waarom upgraden van een 40xx naar 50xx, ofwel meteen upgraden naar de volgende generatie, is vaak sowieso niet echt heel zinvol. Maar heel veel mensen lopen nog enkele generaties achter, en voor die is upgraden wel interessant.
Het was ook niet mijn opmerking ;) ik reageerde er alleen op haha.
Er zijn mensen die upgraden mwt elke nieuwe versie gpu.. ( teveel geld of een hobby ) daarom ook ieder zijn keus toch?
Of het zinvol is tja :)

[Reactie gewijzigd door xaradine op 29 december 2024 19:23]

Hier ook een rtx4080 die zijn werk prima doet icm een 7800x3d. Upgraden kan altijd nog en als ik zover ben prik ik er de 9800x3d in met een 50 of 60 serie videokaart.

Vroeger was updaten wel vaak nodig, maar met dlss en fg kunnen kaarten het veel langer uitzingen waardoor upgraden minder vaak hoeft :)
Helaas zorgen al die technieken voor vreselijke smearing. Als je cs2 op high fps speelt (240 ofzo) is het superscherp als je snelle bewegingen maakt.

Heb nu 2 dagen marvell rivals geprobeerd, en ondanks de simplistische graphics heb ik dlss nodig om 240 fps te halen op een 4090 op 4k. Detail moet zelfs wat omlaag, waardoor het er echt minder uitziet dan veel andere games van een paar jaar terug die wel geoptimaliseerd zijn. Ondanks die 240 fps is alles blurry bij snelle actie, alsof je motion blur aangezet hebt, het is verschrikkelijk. Allemaal het gevolg van die k upscaling technieken waardoor devs niet meer fatsoenlijk optimaliseren.

Speel je deadlock, dan is alles weer superscherp zonder dlss e.d.

Voor een trage single player game allemaal leuk en aardig dat dlss, maar voor multiplayer met pixel perfect aming is het een complete verschrikking.

[Reactie gewijzigd door OriginalFlyingdutchman op 29 december 2024 11:54]

Frame gen helpt je niet, die maakt pixels die er niet zijn. Dus ga je schieten op zaken die niet bestaan.
Het andere probleem is geforceerde aa. Dat maakt het een blur feest.
Als je 240hz wil hebben moet of je resolutie of andere settings omlaag.
Tenzij je cpu bound bent.
Ze werkt dat langs geen kanten.
Valt nogal mee hoor, framegen voegt frames toe tussen andere frames, en werkt eigenlijk pas lekker vanaf 90 fps ofzo. Dan ga je van 90 naar 140+ en dan zit er genoeg informatie om niet de fout in te gaan.
Wat van dlss (super resolution, frame generation,...) op welke resolutie en welke kwaliteit heb je dat dan gezet?
Ik kan het niet verdragen in een fps game ongeacht welke instellingen of resolutie. In multiplayer fps games heb je sowieso een nadeel tov mensen die geen dlss gebruiken.
Nee hoor en "niet verdragen" wat je niet kan zien of soms zelfs beter uitziet?
Ik gebruik dlss met alle plezier. Maar ik speel dingen als BFV waar in sommige situaties vijanden gereduceerd worden tot enkele pixels, dlss zorgt er voor dat die vijanden onzichtbaar zijn. Op zo’n detail danst alles een beetje op je scherm met dlss. Dat is niet mogelijk in dergelijke games. Elders kan dat gewoon aan. Dit is geen gevoel, dit is een feit, je scherm wordt minder rustig met dlss aan, en als je gealarmeerd wil worden door een paar pixels die bewegen dan kan dlss niet aan.

Ik zou hier een hele technische uiteenzetting kunnen geven, maar daar heb ik geen tijd voor. Als je zelf fan bent van dlss en je hebt er al goed wat mee geëxperimenteerd en gespeeld, dan weet je exact wat ik bedoel.

[Reactie gewijzigd door BlaDeKke op 29 december 2024 20:29]

Maarja, CS2 is dan ook niet echt een grafisch zwaar spel, dis dat je daar 240+fps zonder DLSS kunt doen us dan ook niet zo gek. Op mn PS3 kon ik ook 4k 100+fps draaien, mits ik het beperkte tot een paar ronddraaiende kubusjes.
Zou graag een RTX 5080 Pro Art model willen zien voor SFF. En dat het naar mijn mening qua design wat professioneler oogt en minder gamerig met 40 ledjes erop voor de RGB
Stomme vraag, maar als je een professioneel ogende PC wil hebben, dan koop je er toch simpelweg eentje zonder glazen zijkant? Waarbij granted, dat is tegenwoordig soms makkelijker gezegd dan gedaan. Maar vanaf dat moment maakt het allemaal niks meer uit wat je in je PC stopt. Oké, ik zie net wat RGB op mijn vloer naast de PC door een ventilatiegaatje heen, maar ook dan zou het makkelijker zijn gewoon de RGB uit te schakelen als ik me druk erover maakte, dan specifiek naar eentje op zoek zonder.
Is een kast zonder glazen zijkant niet professioneel dan.
Huh? Ik snap je post niet? Mijn hele punt is dat als je een professioneel ogende PC wil hebben, je er toch eentje koopt zonder glazen zijkant koopt. En dan maakt het geen drol uit wat er in die PC zit qua uiterlijk.
Bij professionele bedrijven zie je volgens mij (op de werkvloer) vrijwel nooit systemen met een kunststof of glazen paneel in de zijkant.
Ik heb het tijdens mijn workstation builder periode nog nooit gezien en ik ben bij veel bedrijven geweest voor onsite garantie/rma.
En de workstations werden ook nooit geleverd met een window.

[Reactie gewijzigd door HugoBoss1985 op 29 december 2024 12:02]

Ik heb een NR200P Max, mijn kast staat op mijn bureau. Mocht ik de glazen side panel gebruiken, die verticaal geplaatst zit, dan oogt dat in mijn ogen een stuk strakker dan een gamerig ding. Mocht ik de geperforeerde side panel gebruiken, zie je inderdaad de RGB bij de "gamer" kaarten er doorheen. Dus voor beste van beide werelden oogt in mijn ogen een design zoals Pro Art beter
Dat ligt dan toch helemaal aan jezelf? Meeste RTX kaarten komen helemaal niet met die kermislichten, en in een dichte kast maakt het niet uit hoe die kaart er verder uit ziet, zolang die maar goed werkt en liefst zo stil mogelijk is.
Ik begrijp je punt, maar ben het er niet helemaal mee eens. Ik heb een NR200P Max case. Bij deze case zitten er twee side panels bij, waaronder dus een van glas. De GPU is verticaal geplaatst. Het is ook eigenlijk dan bijna het enige wat je ziet aan de zijkant van de case. Een persoonlijk strak ogende GPU vind ik dan mooier dan zo'n overdreven gamerig ding. Mocht ik de GPU niet willen zien en voor meer airflow willen gaan, kan ik de andere side panel gebruiken. Maar als je een GPU hebt met kerstlichten, zoals hierboven wordt beschreven, zie je dit alsnog door de geperforeerde sidepanel en moet je handmatig de RGB uitzetten
Maar een glazen sidepanel noem ik al niet strak in een professionele omgeving, daar wil ik niet eens de kast zien.
Dat mag, smaken verschillen gelukkig. Anders was de wereld erg eentonig geweest
Ik ben benieuwd naar de laptop varianten. Heb nu een 3080 in mijn 4 jaar oude asus rog zephyrus, was destijds best een investering maar hij is nog als nieuw en games draaien er verbazingwekkend goed op!
Waar ik toen een QHD scherm had, heb ik er nu een UWQHD op aangesloten. Dus een upgrade is welkom, mag ook wel na 5 jaar. Eur 42/mnd voor mijn mooie laptopje.
Als je dat gewoon aan de kant had gezet had je vanaf nu een laptop kunnen kopen zonder 15% rente en BKR registratie.
Of hij heeft gewoon €2520 afgetikt en rekend het nu voor zichzelf om dat de laptop hem afgelopen 5 jaar €42 per maand gekost heeft :z
Tja als je het voor 15% afsluit laat je je zelf wel erg naaien... en een BKR registratie is niet perse negatief.
42 euro p/m en met gratis BKR erbij?
Is waarschijnlijk gewoon het aankoopbedrag verdeeld over de levensduur.

Verder is een BKR-registratie positief als je deze iedere maand aflost; je kunt er vaak zelfs een veel hogere hypotheek/lening mee krijgen.
Nee, zo werkt het hier niet. (In Amerika en Canada wel i.v.m. met je credit-rating). Hier wordt het maandelijkse bedrag simpelweg afgetrokken van wat je elke maand kan betalen, dus dat betekent altijd minder hypotheek. Bron: Ben zelf data analist bij een grote bank / hypotheekverstrekker.
Als iemand een lening heeft afgelost en altijd netjes de termijnen heeft betaald. Staat dat ook in bkr of worden de gegevens verwijderd zodra de lening is afgelost?
Ik kan me indenken dat een hypotheekverstrekker de voorkeur heeft voor iemand die bekend staat als goede aflosser.
Hoewel ik me kan indenken dat een persoon die financieel goed plant, daardoor de Nibud buffer op zijn spaarrekening heeft staan en eerst spaart voordat hij/zij een laptop of auto koopt - dus niet snel geld impulsief uitgeeft - wellicht nog veel aantrekkelijker is.
En dat is toch logisch? Iemand die 50k per jaar verdient en geen leningen heeft kan meer aflossen als iemand die 60k verdiend en 20k aan andere dingen moet betalen.
Haha nee, de enige lening die ik heb is mijn hypotheek. Auto destijds ook gepind..
Is het aankoopbedrag verdeeld over de gebruiksduur, zonder restwaarde.
@OriginalFlyingdutchman inmiddels geld aan de kant gezet voor een laptop met 50x0.
Dat klinkt verstandiger inderdaad :) :)
Wat doe je met de laptop? uitvoering: Lenovo Yoga Slim 7 14Q8X9 (83ED001RMH) is een mooi ding.

[Reactie gewijzigd door djwice op 29 december 2024 11:06]

Op dit item kan niet meer gereageerd worden.