Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia: verkoop van GeForce RTX-videokaarten valt tegen

Nvidia geeft aan dat de verkopen van de GeForce RTX-videokaarten lager zijn dan verwacht. Het bedrijf heeft mede daarom de omzetverwachting over het aflopende kwartaal flink naar beneden bijgesteld.

Nvidia had aanvankelijk verwacht in het vierde kwartaal van 2018 een omzet van 2,7 miljard dollar te behalen, maar nu heeft de videokaartenfabrikant dat bijgesteld naar 2,2 miljard dollar. De definitieve cijfers worden op 14 februari bekendgemaakt bij de presentatie van de kwartaalcijfers.

Als verklaring voor de lagere omzet noemt Nvidia specifiek dat de verkopen van bepaalde high-end gpu's met de nieuwe Turing-architectuur tegenvielen. In de verklaring stelt Nvidia dat consumenten wellicht wachten totdat de nieuwe videokaarten goedkoper zijn of dat ze wachten op RTX-ondersteuning in games.

Nvidia bracht vorig jaar in september de GeForce TX 2080 Ti en de RTX 2080 uit en in oktober volgde de GeForce RTX 2070. De videokaarten kenmerken zich met speciale RT-cores voor raytracing, maar ook met een hoge prijs.

Jensen Huang, de ceo van Nvidia, zegt dat het vierde kwartaal tegenviel en 'ongewoon turbulent' was. Naast tegenvallende RTX-verkopen stelt hij dat ook 'verslechterde macro-economische omstandigheden', met name in China, zorgden voor een verminderde vraag van consumenten naar gaming-gpu's. Daarnaast viel ook de omzet uit gpu-verkopen voor datacenters lager uit dan verwacht.

Door Julian Huijbregts

Nieuwsredacteur

29-01-2019 • 21:47

289 Linkedin Google+

Reacties (289)

Wijzig sortering
De markt voor kaarten van deze prijs is gewoon te klein.
Een midrange prijs voor rond de 350 euro is acceptabel. Voor een toprange is dan zo ongeveer het dubbele acceptabel, daar kan misschien 100 euro bovenop als de technologie echt super is en dat in populaire games een absolute meerwaarde bied. Dat een nieuwe generatie videokaart dan het 4 voudige moet kosten is totaal van de pot gerukt.

Dan de technologie...
De kaarten maken gebruik van een technologie waarvan ze zelf overtuigd zijn dat het een meerwaarde bied. Engine bouwers, game developers en consumenten twijfelen. Zeker voor iets dergelijk fundamenteels heb je engine bouwers zoals ID Tech 7, Unreal Engine 4 en Source 2 nodig die mee komen. Veel andere ontwikkelaars ofwel volgen deze engine bouwers in hun eigen engine of nemen de engine af van deze grote engine bouwers. Als die niet mee zijn dan gaat de technologie in je kaart ook niet door de gamer omarmt worden. Er zijn nauwelijks titels die deze technologie gebruiken, die zijn op nog geen 2 handen te tellen waarbij alleen battlefield 5 een titel is die grote publiciteit heeft.

Ook kwa marketing is dit gewoon een enorme flop. De serie RTX kaarten is niet overtuigend en dan met zo'n prijs zegt de hele community: "Ik wacht wel even." En daar plukt Nvidia nu de rotte appels van.
Heb je er ook wel eens bij stil gestaan dat engine bouwers ook rekening moeten houden met het feit dat alles ook nog op de xbox en playstation moet blijven draaien? Natuurlijk twijfelen deze bij nieuwe hardware.

Ik zeg het al jaren en ik blijf het zeggen. De consoles van nu houden innovatie in de game industrie tegen. Alles wat er gedaan wordt moet ook werken op de jaren oude hardware van deze consoles. Developers kunnen nooit de grenzen van de pc meer opzoeken zoals dat vroeger gebeurde.
Een game als BF5 en Metro Exodus gaat op de PC door ray tracing velen malen mooier zijn dan op de consoles. Wat dat betreft hoeven de ontwikkelaars toch geen rekening te houden met het feit dat het ook op de consoles moet draaien?

Je kunt ook zeggen dat de pc community de game innovatie tegenhoudt. Voor ontwikkelaars zijn consoles veel interessanter, want daar worden gewoon veel meer games voor verkocht dan op de pc. Een ontwikkelaar is wel gek om alleen voor PC te ontwikkelen, niet lucratief genoeg, omdat de pc community een slechte klant is. De ontwikkelaars die dan hun nek uit willen steken om de pc echt als leading platform te nemen zijn dan ook schaars. Draai het eens om en geef de pc community de schuld van het feit dat de ontwikkelaars niet meer dedicated voor pc durven te ontwikkelen. Kijk wat de ontwikkelaars uit een PS4(pro) weten te persen met games als God of War, Horizon, Uncharted en Detroit. Die apparaten beschikken amper over een cpu en hebben een gpu die helemaal niets kan ivm een beetje videokaart. Ontwikkelaars kunnen het wel, ze willen gewoon geld zien en op de pc markt is dat gewoon onvoldoende te halen.
Je kunt ook zeggen dat de pc community de game innovatie tegenhoudt. Voor ontwikkelaars zijn consoles veel interessanter, want daar worden gewoon veel meer games voor verkocht dan op de pc.
Dat lijkt me niet. Heb je een Bron?
Gelukkig zijn er projecten zoals Star Citizen die wel de passie hebben om iets totaal nieuws te ontwikkelen, en die basically het geld door spelers in de schoot geworpen krijgt om los te gaan op hun visie. Grote uitgevers gaan zo'n titel niet maken als ze miljarden winst kunnen maken op digitale voetbalplaatjes. Die rommel is lastiger op de PC te doen want de meeste PC gamers zijn wat ouder, geduldiger en weten beter hoe ze met geld moeten omgaan.
De grootste cijfers zijn niet console of PC maar Mobile. Console draait net iets meer omzet dan pc op dit moment maar de verwachting is dat PC dit gaat inhalen.
Echter console is wel alle consoles, Switch, Nintendo DS (onderschat de omzet van Pokémon niet), Vita, PS, Xbox. Daar staat tegenover dat PC veel meer games heeft, het platform is meer toegankelijk om te ontwikkelen, games die complexere controls vragen zijn vaak pc only en games blijven langer in omloop (een 10 jaar oude game zal vaak nog te te koop zijn op PC), de koek moet dus meer breed verdeeld worden over verschillende games heen.

Echter als ik nu een game uitbreng op console en PC, waar verkoop ik het meest? Moeilijk te zeggen op basis van de omzet maar er zijn wel cijfers beschikbaar van games zelf. GTAV heeft maar marginaal verkocht op PC, echter de game is pas laat op PC verschenen, toen de grote stormloop al lang was gaan liggen. Witcher 3 verkocht in 2016 21% aan PC, in 2017 steeg dat echter naar 50%.

Je kan dus wel opmaken dat multiplatform games uitgebracht op Xbox, PS en PC meer gaan verkopen op console dan PC. Maar er zijn meer games op PC en dat zijn daarom niet kleine games, Total War serie, Annoo serie, WoW, Leage of Legends maar nog veel meer (denk maar aan alle flight sims bijvoorbeeld).
Het zijn andere marktsegmenten met andere eisen/noden/vragen. Niet te vergeten dat Mobile nog het meeste omzet draait, maar dat neemt niet weg dat niemand meer voor console/pc gaat ontwikkelen.

https://newzoo.com/insigh...8-mobile-games-take-half/
Apart dat je handhelds/mobile meerekend. Tja... Dat is een beetje alsof je de Volkskrant laat meedoen in de boekencharts. :+
Het is een markt waar geld te halen valt, dat is wat interessant is voor de gamebouwers.
Je ziet wel meer bedrijven de fout maken te denken dat deze markten hetzelfde zijn (diablo mobile "dont you guys have phones?"). Maar toch zal je het mee moeten tellen, gamemakers doen dat ook.
Want Star Citizen is ook een geweldig succes :+ :+
Grappig dat je een +2 krijgt voor zo'n flauwe opmerking. Je begrijpt natuurlijk dat het in ontwikkeling is en dat de huidige staat niet de 'gold' versie is. Mijn punt was dat er wel een markt bestaat voor titels die meer voor enthousiastelingen ipv casual publiek is bedoeld. Kijk maar naar de funding van de op dit moment 216 miljoen dollar.


Maargoed, naar je account kijkende lijk je meer op een troll dus ik ga niet een heel verhaal uittypen om het te onderbouwen. :Y)
Development begon 2011(2012), en een budget van 250mil... Oh meer geld is prima, mochten we ons doel van 2miljard niet halen kunnen we altijd nog aan Squadron 42 werken ipv Star Citizen.

Erg vreemde markt, als je doelgroep enthousiastelingen zijn die graag geld naar hun scherm gooien en 8 jaar willen wachten op niets. Dit noem ik het DayZ syndroom.

En Chris Roberts met een mond vol goud lekker driften in één van zn 100 Bentley's.

En kom alsjeblieft met een onderbouwing, want de originele backers zijn inmiddels dood.
Hey! Ik ben een originele backer en ik ben niet dood. :'(
Niet zo netjes om te doen op een topic wat over Nvidia praat, maar ok.

Die bedragen. 250 miljoen? 2 miljard? Wat? Nee. Het begon met 2 miljoen en daarna 4 miljoen als eerste stretchgoal oid. Ik gaf in m'n vorige post nog aan dat ze nu op de 216 staan. En ik noem het liever het Cyberpunk syndrooom als je het een woord moet geven. Dayz klinkt zo negatief, haha.

CIG heeft een youtube account hebben waar je elk facet van de ontwikkeling kan volgen. Ze geven openbaar de performance van de hardware die SC draait, laten tech zien die in ontwikkeling is, hebben een roadmap die actief geupdate wordt, een cast zoals mark hamill die enthousiast is voor het project en zo is er nog een enorme stapel info die je met 1 google opdracht kan vinden. Have fun!

Ik vind het jammer en een beetje vreemd dat wanneer iemand daadwerkelijk risico's neemt en iets supertofs wilt bouwen wat nooit gedaan is, zo onderuit gehaald wordt door mensen en weggezet wordt als een leugenaar die luxe autos koopt ipv een bedrijf van ~500 man runt. Je hebt niets te verliezen als je wacht tot na release, dus wacht het gewoon even af zou ik dan zeggen. Als je dat soort ambitie steunt, kan je het project steunen, wat je wilt.

PS: Ook alle financiën van CIG zijn publiekelijk . Tot nu toe praat je maar wat lucht zonder onderbouwing wanneer je zegt dat hij een oplichter is, de bewijslast ligt aan jouw kant..

PS2: Het dayz team heeft een overhaul gedaan van de engine wat voor Arma 4 gebruikt gaat worden. Schijnt een enorme undertaking te zijn heb ik gehoord. Ik ben zelf geen Dayz speler dus ik heb dat niet close gevolgd.

Edit: Wat is er mis met jaren wachten? Ik ben een geduldig mens en begrijp dat die gasten zich met dingen bezig houden dat nooit eerder is gedaan. Duurt nu eenmaal wat langer.. Als 't maar goede games zijn kan ik wachten.

[Reactie gewijzigd door BigBrotha op 30 januari 2019 20:46]

Uitingen zoals die van Uzuhl zijn de reden dat de gezegde "de beste/meeste ideeën liggen op het kerkhof" waarheid is. ik ben blij dat er inderdaad projecten zijn zoals Star Citizen die de grenzen van een specifiek platform proberen te verleggen en zaken zoals RTX serieus overweegbaar maken. Nvidia had op safe kunnne spelen en gewoon weer een standaard iteratie kunnen uitleveren, maar nu hebben ze wel weer iets wat de toekomst van grafische rendering kan veranderen. Of het de prijs nu momenteel waard is licht dan weer bij de fanaat zelf maar de aanwezigheid ervan geeft nu wel de tijd om te groeien in de hoofden van de consumenten en developers.

Tis jammer dat mensen een maaiveldcultuur in hun doen en laten creëren maar gelukkig zijn er mensen die wel het risico nemen waardoor dit soort ideeen een vorm krijgen. "boldly go where no one has ever gone before", Laat ons maar lekker met onze vloten gaan waar we willen gaan, al dat negatieve gepiep over SC is gewoon achtergrond geruis wat we achterlaten door onze warp drives op Hurston in te stellen, en over een paar maanden op ArcCorp:P
Ik ben zelf ook een backer van het project en vind het jammer om te zien dat zo veel mensen een maaiveldcultuurtje hanteren, vandaar dat ik hier wel even op wil ingaan ondanks dat het off-topic is. Het is prima als je niet gelooft in het project of de support van de backers of de reden waarom, maar waarom moet jij je persoonlijke mening dan zo kaderen dat het net lijkt alsof alles wat jij vind waar is en klopt?

Kom uit je bubbel man, de helft van wat je claimt is gewoonweg niet waar of verbogen om je eigen mening te onderstrepen en geeft gewoon aan hoe meer geïnteresseerd je bent in het project afkraken ipv het project zelf XD je kan wel op kleine detailtjes zoals release schattingen en vervangen beloftes dit soort discussie proberen te winnen maar tis niet alsof backers in jou geloven in plaats van dit crowdfund project want anders had die 200+ mil wel in jou gezeten en het project gaat gewoon door:P Ik heb weer iets nieuws om naar uit te kijken in maart bij de volgende update, wat ga jij doen dan? een ander project afkraken? XD
Je snapt dat het ook op de pc kroelt van de games volgepropt met mtx? Raadt eens, dat zijn ook meteen de populairste games. Het is puur de consument die voortgang probeerd tegen te houden en het liefst de grootste anti customer praktijken ondersteunen.
Zijn de grootste MTX games niet gewoon de multiplatform games? Overwatch, Asscreed, GTA V, PUBG, Fortnite, FIFA, Siege, COD..... Uiteraard heb je PC centrische games die het ook hebben zoals MOBA's of CSGO maar die zijn dan ook gratis. Er komt niet meteen een game te boven bij mij.


Misschien Euro truck Simulator paintjobs? Kan ik niet anti consumer noemen, die gasten supporten hun game al sinds 2012. Niet zoals AC waar je monopoly geld kan kopen in een 60 euro SP game om de grindy quests te kunnen overslaan. Maargoed, er zijn zeer waarschijnlijk games die het doen hoor. Het is een werkend verdienmodel. Ik ben echter niet zo bekend met de games die dat doen op de PC buiten F2P games uiteraard. Heb je voorbeelden voor me?
Csgo natuurlijk, pubg werd ook extreem groot op de pc. Daarnaast heb nog een hele lading f2p games die alleen op de pc zijn. Dus jou uitspraak dat pc gamers zogenaamd wijzer zijn is op niks gebaseerd. Oh ja, star citizen is mtx de game.
CSGO is gratis. PUBG werd al groot als gratis Arma 3 mod zonder MTX, daarna zijn ze een standalone versie begonnen die geport kon worden. Een game moet iets van een verdienmodel hebben after all dus ik neem F2P niets kwalijk, zeker wanneer er betaalde titels zo schaamteloos meedoen. :)


En het is op het feit gebaseerd dat PC gamers gemiddeld ouder zijn. Volwassen mensen itt tot kinderen, kunnen vaak beter geduld opbrengen en hun geld beheren. Volgens mij is dat vrij algemene kennis. Hier is de bron naar een onderzoek die dit punt ondersteunt:

https://www.npd.com/wps/p...currently-plays-pc-games/
Veel meer games verkocht voor consoles dan PCs? Dat was vroeger misschien zo, maar tegenwoordig is dat verschil al een stuk kleiner.

Zie bijvoorbeeld voor 2017: https://www.gamesindustry...-the-year-in-numbers-2017
Als we daar puur de console verkopen bij de boxes & downloaded PC games optellen en ze vergelijken dan is 55% van de markt voor consoles en 45% boxed & downloaded PC games.

Als we naar 2018 kijken (https://www.gamesindustry...-the-year-in-numbers-2018) dan is het verschil een paar procent groter geworden ter voordeel van de consoles. Dit was te verwachten gezien Red Dead Redemption 2 alleen voor de consoles is uitgekomen. Zelfs dan zitten ze nog erg dicht bij elkaar (57% en 43%). Qua digitale sales is de PC de console zelfs al voorbij.
Je kunt ook zeggen dat de pc community de game innovatie tegenhoudt.
Wat zie jij als game innovatie? ik denk juist als hardware middelmatig blijft zijn (consoles) er minder innovatie is. Als er alleen maar consoles zouden zijn denk ik dat games juist hetzelfde blijven omdat het lekker makkelijk cashen is.

Waar denk je dat de grootste Esports toernooien mee gehouden worden? Ik moet toegeven spelen zoals DOTA/CSGO/LOL hebben niet de beste hardware nodig. Maar als er echt eens toernooien komen met spellen zoals pubg etc dan zie je vaak dat consoles het niet echt lekker trekken.

Consoles worden steeds meer kleine pc's hardwarematig en ik denk dan ook dat in de toekomst er weinig verschil meer is en het alleen aan het OS ligt waar het verschil in zit. Consoles worden gewoon budget game pc's.
PUBG is een slecht en nooit afgemaakt spel met zulke slechte code dat het zelfs op goede PC hardware heel lang niet goed heeft kunnen draaien. En als je de performance nu naast de grafische eigenschappen van de game zet, is het gek dat dat uberhaupt zo is (want laten we allemaal even eerlijk zijn, pubg ziet eruit als een spel uit 2010). Ik weet niet waar jij vandaan haalt dat spellen niet goed draaien op consoles, maar dat is dus totaal niet waar.

Neemt niet weg dat er wellicht een kern van waarheid in zit dat consoles de vooruitgang vertragen, maar ook daar zijn prima argumenten voor te bedenken. Niet iedereen heeft namelijk geld of zin om veel meer aan een gaming PC dan een console uit te geven. Ik ken de oeroude tegenargumenten daarop ook, maar voor het geld van een nieuwe Xbox One X koop jij je geen gelijkwaardig nieuwe PC. De controller is voor mij bijvoorbeeld een zware afweging. Ik wil graag op mijn bank een potje MP battlefield kunnen spelen zonder dat ik me zorgen hoef te maken dat ik overhoop word geknald door mensen met muis en toetsenbord. Dat kan alleen op de console op dit moment.
PUBG is inderdaad bagger code. Had het beter kunnen formuleren inderdaad. ik bedoel daarom eigenlijk spellen zoals pubg met vele spelers op een grote map. niet de game pubg zelf.

Als je kijkt naar pc vs consoles zie je toch altijd dat er concessies zijn gedaan met spellen. Hier doel ik op minder spelers om mp mappen. minder detail in de verte en vaak ook dichtbij. Ook render distance speelt vaak een grote rol met console games.

Je hebt helemaal gelijk in prijs hoor. De prijs van een nieuwe xbox one x ga je niet kunnen vinden in een pc met nieuwe hardware. Die ga je alleen kunnen matchen in 2e hands hardware en op lange duur als de kosten goedkoper worden tegenover de console in aanschafprijs van games en online abbo's.

Ik heb lange tijd gewoon een kleine pc in de kast onder de tv gehad en lekker een controller voor veel games en dan op de bank zitten. En ja je hebt gelijk dat als ik een toetsenbord en muis erbij moet pakken dat met een lange sessie toch minder makkelijk zit op de bank ;)

toch verkies ik altijd de pc gewoon vanwege meer mogelijkheden :*)
Ik krijg jeuk van die games volgepropt met anti consumer praktijken als mtx die jij opnoemt. Noem je dat innovatie, ik noem het eerder de complete ondergang van de industrie.
ik heb het puur over hardware en waarom juist met betere hardware meer innovatie mogelijk is. kijk maar naar het verschil van de cmd64 en nu. Wat bedoel je precies met mtx?
Dota, csgo en lol zitten vol met microtransacties.
[...]
Wat zie jij als game innovatie? ik denk juist als hardware middelmatig blijft zijn (consoles) er minder innovatie is. Als er alleen maar consoles zouden zijn denk ik dat games juist hetzelfde blijven omdat het lekker makkelijk cashen is.
Weet ik ook niet precies, maar game innovatie wordt vaak uitgelegd als grafisch mooier, realistischer etc. Op dat vlak kunnen consoles nooit concurreren met PC's. PC's hebben ook een ander prijskaartje.

De software bij consoles is weer een stukje duurder, maar vaak pik je games 2 maand na launch voor de helft van het geld op. Er zijn maar weinig games waar ik € 60 voor neerleg. Dat terzijde brengen consoles wel innovatie op het gebied van het gamen zelf. Kijk wat Nintendo gedaan heeft voor handheld gaming en voor actief gamen met de Wii. Volgens mij is PSVR ook een redelijk succes. Laagdrempelig worden zulke technieken wel gepusht door consoles. Een PC heeft veel mooiere VR, maar als je ziet wat daar een high-end VR set kost tov een PSVR, dat is voor veel gamers onbereikbaar (helemaal omdat ook de pc over high-end hardware moet beschikken.

Ik ben het niet met je eens dat met alleen maar consoles de games per defenitie niet innoveren. Gamers kunnen één keer hun geld uitgeven, dus zowel consolebouwers als gameontwikkelaars moeten met hun producten de gamer overtuigen hun product te kopen. Een consolegame als RDR2 vond ik technisch innoverend.
Ik denk dat er genoeg PC only titels zijn die het tegenovergestelde laten zien, maar inderdaad publishers willen VEEL geld zien en dat valt het meeste te halen op de consoles, dus wordt er voor ontwikkeling van elke triple A game vanuit de kracht van de xbox en playstation gewerkt.
En natuurlijk zijn er wat effecten die je aan of uit kan zetten voor de PC, maar dat is dan ook wat het is. Wij als PC gamers krijgen dan een effectje erbij, misschien wat hogere framerate en resolutie, maar thats it. Voor de rest speel je gewoon een game die gemaakt is om op jaren oude hardware te draaien.
En Raytracing zal voorlopig hetzelfde blijven. In plaats van dat de game vanuit de basis wordt ontwikkeld om echt optimaal gebruik hiervan te maken, zal het nu in veel gevallen gewoon een effect zijn wat je aan kan zetten zodat je misschien iets mooiere reflecties krijgt maar meer ook niet. In de basis blijf je gewoon een xbox game spelen zonder raytracing.
CD Project Red comes to mind...

Reminder:

GEEN drm
GRATIS DLC.

Need I say more?
Het probleem in de PC markt is dat elke MIT student een ''spel'' kan uitbrengen op steam. Hierdoor overhit de markt waardoor PC gamers vaker een miskoop kunnen aangaan, en dit gebeurt. Developers komen beloftes niet na, of er wordt ge-downgrade (wie houdt wie tegen ookalweer?, voorbeelden: Watch Dogs, Ghost Recon Wildlands om even paar bekende spellen op te noemen).
Ik zeg het al jaren en ik blijf het zeggen. De consoles van nu houden innovatie in de game industrie tegen. Alles wat er gedaan wordt moet ook werken op de jaren oude hardware van deze consoles. Developers kunnen nooit de grenzen van de pc meer opzoeken zoals dat vroeger gebeurde.
Ja en nee.

Want consoles zijn de reden dat we een gaming industrie hebben zoals vandaag de dag.
De verkoop van consoles geeft games van caliber Red Dead Redemption 2, Battlefield en Metro bestaansrecht.

Wie betaald bepaald. Is niet leuk, maar gaat bijna altijd op. Verdienmodellen zijn de bottleneck, niet technologie imo.

De massa die betaald, gaat hoogstwaarschijnlijk geen console van 1000,- aanschaffen (die wel high-end is) of naar een console die upgradebaar is (want dat is gedoe). We zien nu voor het eerst hardware upgrades in de console markt komen en die betekenen dat je een hele nieuwe console moet aanschaffen. Dat vind ik nog geen ideale situatie, maar het landschap verandert wel.

Het is nu de truc aan ontwikkelaars om het zo schaalbaar mogelijk te maken zodat een game draait op inferieure hardware (dat basis Xbox One ding) en floreert op de highest-end (PC van 1000,-en euros).

Maar als die laatste veel te hard van stapel loopt, kan de massa dit nooit volgen en is het financieel niet te verantwoorden.
Heb je er ook wel eens bij stil gestaan dat engine bouwers ook rekening moeten houden met het feit dat alles ook nog op de xbox en playstation moet blijven draaien?
Dat is niet wezenlijk anders dan dat het ook op PC's zonder RTX moet draaien, wat de overgrote meerderheid is. Wereldwijd gezien is het grootste deel daarvan ook nog eens en stuk trager dat wat in west Europa en de VS doorgaat voor een mainstream PC.
Dat hoeft niet perse. Vroeger en ik denk nog steeds is de software de hardware seller. Als straks een developer iets uit de rtx kaarten weet te toveren waarvan je zoiets hebt van wow dit wil ik ook en geloof mij realtime ray tracing is zoiets, dan gaan die dingen echt als warme broodjes over de toonbank. Zeker als je bijvoorbeeld ook nog even wat backup budget bij nvidia zelf kan los peuteren. Echter bij de consoles kan dat simpelweg gewoon niet. De hardware zit er niet in en kan je ook achteraf niet erin zetten. Die markt uitsluiten is voor bijna geen enkele engine bouwer en grote publisher een optie. Veel engine bouwers zullen dus voorlopig rtx niet als de core voor hun engine gebruiken wat betreft lichten, schaduwen etc. Het mooie aan raytracing is dat het niet alleen realistischer beelden kan genereren, maar ook enorm veel over complexiteit uit engines kan halen. Shadow maps, reflection maps die weer in meerdere resoluties opgeslagen moeten zijn etc etc. Al deze trucage kan allemaal overboord, want ray tracing zorgt hier helemaal automatisch voor. Kan je voorstellen hoe het straks is als developers zich niet meer bezig hoeven te houden met het faken van licht, en dat licht gewoon iets is wat werkt zoals in de echte wereld in realtime. Game artists kunnen helemaal los gaan en dingen doen die voorheen niet konden of met heel veel moeite nagebootst moesten worden.
Deze dingen ga je nooit niet zien zolang een game ook op de huidige consoles moet draaien.

[Reactie gewijzigd door ro8in op 30 januari 2019 22:24]

en geloof mij realtime ray tracing is zoiets
Dat staat nu juist zeer ter discussie. RTX draaien betekent vooralsnog dat aanzienlijk op resolutie en/of framerate moet worden ingeleverd, en kennelijk ziet een grote meerderheid van gamers dat niet zitten - in ieder geval niet voor zo'n hoge prijs.
Realtime raytracing in games zal heus wel de toekomst zijn, maar het is nog zo ver.
Shadow maps, reflection maps die weer in meerdere resoluties opgeslagen moeten zijn etc etc. Al deze trucage kan allemaal overboord,
Dat kan pas als raytracing mainstream is geworden, en zo ver is het nog lang niet. Tot het zo ver is zullen graphics engines beide moeten ondersteunen als ze uberhaubt iets met raytracing wiillen doen.
Jou uitspraak staat in scheel contrast met de kwaliteit games die alleen te vinden op consoles. Innovatie zit bij de ontwikkelaars, niet de hardware.
Zou nVidia geen RT-cores hebben was hardware raytracing natuurlijk ook geen ding geweest. Dus hoezo, innovatie ligt bij ontwikkelaars? Die moeten het ook met de mogelijkheden van de hardware doen...
ehm... mag ik vragen hoelang je al games speelt? zowel op pc als op console zijn er pareltjes te vinden en zonder hardware geen software en dus geen ontwikkeling. hoe beter de basis is hoe beter je er op kunt bouwen.
Consoles zorgen juiste voor innovatie. Zonder geld van Sony, Nintendo en Microsoft zouden veel games niet eens gemaakt kunnen worden.
Dat slaat echt zo dood als een slappe lul op een drumstel. Alsof Sony, Nintendo en Microsoft in alle games hebben geïnvesteerd??
Dat je een console prettiger vind, dat kan helemaal. Maar om te stellen dat hardware die 7 tot 10 jaar lang onveranderd blijft zorgt voor innovatie?? Nee sorry, maar daar kan ik echt niet in mee. Zoals je ziet bijvoorbeeld gaan de consoles nog heel lang ervoor zorgen dat echte raytracing voorlopig niet in games verwerkt wordt, met de simpele reden de hardware kan het niet en dat blijft voorlopig ook nog zo. Daar waar de PC nu nieuwe stappen aan het maken is met nieuwe GPU's kan dat met consoles niet. Ik weet nog dat ik vroeger letterlijk mijn PC hardware ging upgraden omdat ik dan net dat ene nieuwe spel niet kon spelen. Ja dat was misschien heel duur en belachelijk, maar dat was hoe het vroeger was. De game developers zochten te grenzen van de hardware op en jij moest daar in mee wilde je alles kunnen blijven spelen. De console markt, nintendo etc was een hele andere tak van sport. Er zat totaal geen overlap en multiplatform was maximaal op de sega en nintendo, maar PC stond daar helemaal los van. Dat is vandaag de dag helaas wel anders nu consoles steeds meer op PC's zijn gaan lijken.
Dus? Raytracing zonder enorm performanceverlies is nu ook op de PC niet mogelijk. Ik lig er niet wakker van. HDR werkt niets eens fatsoenlijk op de PC, laat staan Raytracing. Dat duurt nog wel een aantal generaties eer het vlekkeloos werkt. Bovendien heeft 99% van de pc gaming markt geen Raytracing videokaart en zal er weinig ontwikkeling zijn. Zodra de nieuwe generatie consoles komen zal Raytracing intressant worden (zonder grote API overhead)
Dat is echt onzin, je hebt 2 demo's gezien die binnen een minimum van tijd ontwikkeld zijn en kan nu al stellen dat de perfomance niet goed genoeg zou zijn? Geef developers even wat tijd en geloof mij over 1 jaar heb je full raytraced games op huidige rtx kaarten. Ik heb nu al demo's die full raytraced op acceptabele framerates draaien hoor. Ik kan niet wachten op de eerste game die hier echt vol gebruik van gaat maken, want dat wordt gewoon prima te spelen en heeft echt geen generaties nodig zoals jij dat stelt.

Echter is het dus nu de vraag of dat ooit gaat gebeuren, want waarom zou je? De consoles ondersteunen het toch niet dus de markt is enkel PC en die is te klein voor de grote bucks aldus publishers. En ja zo kom ik toch weer op mijn originele punt. De huidige consoles houden innovatie tegen. Je mag van mij om mijn argumenten heen praten. Maar het verandert verder weinig aan de feiten die ik vermeld.

Niet lullig bedoeld maar het console fanboyisme druipt er wel een klein beetje van je reacties af. Ik heb niks tegen consoles ik vind Kingdom hearts 3 hartstikke leuk op mijn PS4. Maar voor de echte innovatie moet ik wel op mijn PC zijn dat is logisch en merk gewoon dat games terughoudend zijn omdat er ook telkens een PS4 en xbox one versie gemaakt moet worden. Dat is niet bedoeld om je geliefde consoles mee af te kraken, dat is gewoon een feit. Bedoel het lijkt mij vrij logisch dat je niet all out kan gaan als je game ook op jaren oude hardware moet kunnen draaien toch?

[Reactie gewijzigd door ro8in op 30 januari 2019 11:45]

Zolang Raytracing alleen voor het Topsegment van de insteek kaartjes mogelijk is ( met gigantisch performanceverlies) gaat niemand het breed ondersteunen. Dus je argument slaat nergens op.
Zolang Raytracing alleen voor het Topsegment van de insteek kaartjes mogelijk is ( met gigantisch performanceverlies) gaat niemand het breed ondersteunen. Dus je argument slaat nergens op.
Welk argument? Volgens mij voer jij in je hoofd een soort PC vs consoles discussie, die ik niet aan het voeren ben.

Ik ga het even super plat voor je stellen en reageer dan op deze vraag, want je draait er steeds omheen.
Jij vind niet dat als games telkens gemaakt moeten worden voor hardware die inmiddels al meer dan 7 jaar oud is dit op geen enkele manier wellicht innovatie van deze games in de weg staat? (want dit is letterlijk wat er nu gebeurd bij bijna alle triple A games door de huidige generatie consoles)

[Reactie gewijzigd door ro8in op 30 januari 2019 11:55]

Oke dus jij vind dat alle moderne PC hardware ten volle benut wordt door de games die gemaakt zijn om op 7 jaar oude hardware te draaien?

Ik denk dat jij nog eens enorm verbaasd zou zijn als je kon zien wat een triple A developer kon doen als ze de game volledig op een 2080ti mochten bouwen en geen enkele rekeningen hoefde te houden met voorgaande hardware. Ik denk je dat je je ogen zou uitkijken. We zullen dit alleen nooit te zien krijgen.

[Reactie gewijzigd door ro8in op 30 januari 2019 12:00]

Inderdaad tegenwoordig niet meer door onder andere de consoles. Vroeger werd pc hardware wel degelijk ten volle benut. Dat is mijn hele argument. Jij mist niets omdat je niet beter weet. Maar dat betekent niet dat het niet beter kan!
De rtx technologie nu is wat dat betreft voor de early adopters en dat verklaart ook een beetje de prijs. Zo is het altijd gegaan, overigens. Bij de Voodoo kaarten en zelfs de eerste GeForce en Radeon kaarten...

[Reactie gewijzigd door CH4OS op 30 januari 2019 13:23]

Ik ben ook opgegroeid met console gaming (Atari/sega/nintendo/snens/nin64 etc) maar ook pc beginnend met een commodore64 en later een pentium 1 pc.

Toch blijft voor mij pc de beste ervaring geven juist doordat je zoveel kan tweaken/modden etc. Je hebt gewoon veel meer keuze in genre in games en het speelt beter.

Heb nog een xbox360 en PS3 gehad maar toch telkens terug naar de pc en beide verkocht. ik kan alles wat ik met een console kan ook met een pc en meer. Tuurlijk het is duurder in de aanschaf maar het geeft meer bang voor mijn buck en dat maandelijks betalen om online een game te spelen was voor mij ook een drempel elke keer.
Wat betreft de technologie heb ik, naast wat @Abom al aanhaalde alleen nog toe te voegen; vergeet de Unity Engine niet. Source 2 is leuk, maar echt superveel draait er niet meer op (wat nieuw is of uitkomt)

Waar het ook mis ging is dat RTX afhankelijk was van een patch vanuit Microsoft voor Windows 10 die vertraagd was/werd, de initiële performance-resultaten (BF5) niet echt geweldig waren (maar na een patch is dat ook weer een stuk beter)

Combineer dat met de prijs, het nog vrij recente (ten tijde van lancering) debacle wat de Geforce Partner Program was wat voor veel mensen een nasmaak had achter gelaten. Qua prijs was/zijn de kaarten gewoon inderdaad te duur. Ze vragen prijzen die disproportioneel hard omhoog gegaan zijn tegen marginale performance-verbeteringen (net alsof ze prijzen van de crypto-boom periode wilden hebben nadat die hard omlaag ging). Laten we nog even los dat het van de zotte is dat AIB's de hoofdprijs moeten betalen voor de hoger klokbare chips (FE modellen) waardoor ze niet anders kunnen dan zelf ook omhoog gaan met de prijs (en daarom waren non-FE kaarten van AIB's net zo duur als de FE van Nvidia zelf)

Wat ik er van begreep wist Nvidia al dat de verkopen niet zo hard zouden gaan lopen, en werden de prijzen daarom 'wat' opgekrikt (meer revenue per kaart ipv meer kaarten verkopen) Het eindresultaat is dus inderdaad wat we nu zien... een verwachte 500 miljoen minder omzet.

Raytracing is inderdaad een geweldige stap vooruit - maar doordat de vereiste patch/software er niet was ten tijde van lancering, de GPP-nasmaak, de prijzen van de kaarten (ook mede geholpen door gebrek aan concurrentie) heeft Nvidia nu dus een rode neus opgelopen.

Laten we niet vergeten dat gezien de prijzen en performance het voor veel mensen gewoon interessanter was om een 1080TI te halen ipv een 2080 bijvoorbeeld (nagenoeg dezelfde performance, maar dan zonder DLSS en Raytracing wat nog nagenoeg nergens gebruikt wordt)

Overigens is het wel amusant dat Nvidia heel hard roept dat ze raytracing naar voren duwen, maar zover ik begreep is het voornamelijk DirectX die het naar voren duwt en is Nvidia gewoon de eerste die het in de hardware weet te proppen. Maar goed, daar ben ik niet genoeg over geïnformeerd dus neem dat met een korrel zout.
Amen, Ik betaalde voor de 8800 GTX destijds 650 euro, wat ik toen al echt een heel hoop geld vond. Achteraf is het 1 van de beste beslissingen in m'n PC-kopende leven geweest, gezien het vanaf het moment van uitgave tot jaren daarna 1 van de beste kaarten op de markt bleek te zijn. Maar die kaart was inderdaad <2x de midrange, hij was gewoon toepasbaar en beduidend sneller dan wat dan ook en hij kwam vlak voor wat later bleek een enorme luwte op het gebied van vooruitgang in technologie. En deze kaarten staan aan het begin van hun proces, dus de kans dat er een betere kaart uitkomt binnen 1.5 a 2 jaar is ook nog eens aanwezig en dan zit je voor 1000 a 1200 euro op de 2de of 3de rij...
[...]
Dan de technologie...
De kaarten maken gebruik van een technologie waarvan ze zelf overtuigd zijn dat het een meerwaarde bied. Engine bouwers, game developers en consumenten twijfelen. Zeker voor iets dergelijk fundamenteels heb je engine bouwers zoals ID Tech 7, Unreal Engine 4 en Source 2 nodig die mee komen.
...
Dat ben ik niet met jou eens. Iedereen die tenminste een klein beetje begrijpt wat raytracing is, weet dat raytracing echt wel meerwaarde heeft en 'the next step' is. Daarom ondersteund DX12 ook raytracing.
Het probleem is dat het een eerste generatie van real-time raytracing, voor de consument, is. Nvidia heeft er heel dik op ingezet omdat de snelheid van de kaarten niet bijzonder veel beter was dan de vorige generatie (die al 2 jaar oud was). De marketing afdeling moet toch iets hebben om mee te schermen en dat backfired nu (gelukkig).

Het is nu duidelijk wat de limiet voor de consument is, vergelijkbaar met de iPhone X(*), die valt qua verkoop aantallen ook tegen. Bedrijven blijven maar de grens opzoeken en een groot gedeelte van de consumenten hebben hun limiet aangegeven.

Ik heb een 2080 gekocht en ik ben er happy mee, sure een beetje prijzig, maar ik kijk ook naar andere aspecten van de kaarten. Zo ben ik zakelijk geinteresseerd in nvenc en nvdec. Overigens games streamen naar mijn nvidia shield werkt veel beter dan voorheen met een AMD 290X naar mijn Steam Link. Nu weet ik niet of dat aan de videokaart of aan de steam link ligt.
Raytracing is mooi maar de 1 of 2 games die het nu ondersteunen doen dat alleen op bepaalde licht effecten. Niet de hele game is rendered met raytracing. Er is een mod van Quake 2 die volledig raytraced is en die draait dus op ...... 60 fps op een 2080 Ti .......
Daarom zegt hij ook the next step. De volgende generatie of die erna is het iets wat je(of in elk geval ik) nooit weer kwijt wil. Het is nu alleen nog net iets te vroeg. Het had wel gescheeld als de prijzen lager waren, dan was de 'revolutie' een stuk sneller gegaan. De tech is onmisbaar, de prijs nu alleen te hoog.
Mee eens maar ik denk dat het nog wel 10 jaar gaat duren voordat de performance in orde is als je ziet dat een 2080 Ti Quake 2 amper op 60 fps kan afspelen (Quake 2 kwam in december 1997 uit ...)
Die mod zal hier en daar ook niet geoptimaliseerd zijn, net als de engine zelf. Je praat over een game dat released was toen er nog weinig hardwarematig gerenderd werd of kon worden gerenderd... Het is niet dat een GPU opeens dat andere gebeuren opeens magisch overneemt.

[Reactie gewijzigd door CH4OS op 30 januari 2019 13:11]

Dat kan inderdaad maar als je ziet wat voor performance hit raytracing nu al heeft in BF V bvb met enkel een aantal effecten die echt ray traced worden dan zal het nog heel lang (imo) duren voordat raytracing echt gebruikt kan worden.
Daarom dat ik zeg dat het nu wat meer voor de early adopter is. Laat de techniek verbeteren, de drivers en engines ervoor optimaliseren. Je kan niet gelijk top notch performance verwachten. Dat is altijd al zo geweest, met alles. Ik denk echt dat velen teveel verwacht hebben van de nieuwe techniek.

Als dit jaar een nieuwe RTX-videokaart uitkomt, zul je zien dat de performance hit kleiner is. ;)

[Reactie gewijzigd door CH4OS op 30 januari 2019 14:31]

Ik hoop het ook eerlijk gezegd want raytracing is wel mooi en kan zeker iets toevoegen in games.
Het is niet dat de eerste hardware 3D kaarten (Voodoo, GeForce e.d.) ook gelijk top-notch performance gaven in de engines / games. De Voodoo kaarten van 3DFX met hun Glide was dan op zich wel een boost, maar volgens mij ook zo drastisch niet. Dat verbeterde ook alleen maar mettertijd. :)

Niet vergeten dat raytracing al een ding is sinds de 80's van de vorige eeuw, dat het nu dus pas (of misschien al) enigszins hardwarematig kan geeft natuurlijk ook aan dat het best complex is. Dat kun je dus ook nooit in 1 klap uitgewerkt hebben, als het zolang kost. ;)
Ik tik je hier even op de vingers.. de Quake 2 mod is niet raytraced. Die pathtraced. geeft je een soortgelijk als niet het zelfde effect, alleen werkt het heel anders. Raytracing volgt elk lichtstraaltje, pathtracing werkt omgekeerd en werkt alleen in je FOV.

Path tracing volgt het pad terug naar het licht punt, waardoor het dus echt alleen in je FOV zal werken, wat prestaties verbeterd tegen over Raytracing.

Daarnaast is het een mod, deze mod zal enige optimisaties nodig hebben om beter te functioneren.
Dat moet toch van te voren te zien zijn geweest met marktonderzoek m.b.t. prijselasticiteit. (Daar komt 4 havo economie weer boven :p, kan iemand dat uitleggen waarom ze daar niet op gehandeld hebben?)
Ik denk dat het lastig is om de juiste onderzoeksgroep te vinden; je wilt specifiek de mening weten van Tech Enthousiasts die zelf een losse grafische kaart kopen om in te bouwen, maar waarschijnlijk hebben er nu een paar teveel TECH ENTHOUSIASTICFANTASTICS!! in het onderzoek gezeten die een vinkje hebben gezet bij "ik koop altijd de snelste kaart, ongeacht wat die kost".
Inschattingen, verkeerde testgroep, onbewuste manipulatie van resultaten, vul maar in.
Er falen wel meer producten, waar vaak een fikse studie voor gedaan is.
Nu je eem rtx hebt welke games ga je allemaal spelen met raytracing?
Noem eens 5 dan word het interessant.

Btw, ik ben het met je eens dat het technisch interessant is, maar dat stium zijn we helaas allang voorbij.
Reallife meerwaarde moet het hebben. Zeker voor die prijs.
Inderdaad, hoewel dat geld voor alle "early adopters", kocht je begin 90's een van de eerste CD-rom spelers, de single speed, tegen de tijd dat de techniek daadwerkelijk gebruikt werd was een doublespeed het minimum.

Realmagic of DXR hardware MPEG decoders? Tegen de tijd dat het gebruikt werd kon de standaard laptop dit in software. 90's VR-helm(VFX-1), veel plezier met je nog geen 10 spellen. Gravis geluidskaarten, 3Dkaarten van Permedia labs en PowerVR?

Voor de gemiddelde consument zullen deze dingen een veels te grote investering zijn, voor de verzamelaar zijn ze echter prachtig.. Ook zijn ze gewoon "testbed" voor nieuwe technieken, ook al falen ze in de markt.
DX11 ondersteund ook raytracing.

Raytracing is al sinds de jaren 80 "the next step".
Inderdaad, sinds de jaren 80 :)
Maar in de tussentijd zijn er zoveel vernuftige alternatieven gemaakt op minder krachtige hardware waardoor raytracing overbodig lijkt. De huidige games zonder raytracing zijn -zonder raytracing- nog prima overtuigend en gewoon speelbaar. De gemiddelde consument zal er echt niet om malen, en niet slechter van spelen.
Dus realtime raytracing hardware moet zodanig goedkoop zijn dat het de huidige technieken in-place kan vervangen.

Btw, over de jaren 80 gesproken: die videokaart op die foto doet me ook denken aan een jaren 80 transistor radio in zilver en zo :+
Inderdaad. Ooit eens op een 286 met coprocessor zitten renderen in Povray. Vanaf de commandline, en dan maar uren wachten tot er resultaat was.

#tripdownmemorylane
Daar heb je misschien wel gelijk in. Ik heb een FH monitor en ben nog even zoet met mijn 1060. Een bijvoorbeeld 2080 zou voor mij een overkill zijn. Verder hoeft niet iedereen op 144hz of dergelijke te spelen.
Vind ik ook hoor. Ik game op mijn 50'' Full-HD TV. Als ik Odessey speel of RDR2 op mijn normale PS4 sta ik soms al te kijken van de kwaliteit.

Ik ga echt geen 1000 euro betalen voor een overkill kaart
Ik vind mid range voor 350 euro eigenlijk niet zo acceptabel. Ik heb altijd kaarten gekocht op het prijspunt 200-250 euro, daarmee zat ik altijd net onder de echte top end kaarten. Denk hierbij aan een 6800GT, 8800GT, 7900GTO, HD4890. Eenmalig een grotere investering gedaan door voor een Crossfire HD6850 setup te gaan, deze kwam op 350 euro uit, maar was sneller dan de top end kaarten destijds.

Ik denk persoonlijk dat Nvidia beter de GTX 2060 voor iets van 250-270 euro had kunnen uitbrengen, de RTX 2070 voor 350-400 euro, 2080 voor 500 euro en dan het topmodel voor 600-700 euro. De prijzen die nu gevraagd worden vind ik persoonlijk belachelijk. Nu heeft de mining gekte ook niet meegeholpen. Ik heb daarom een 1050 Ti gekocht in 2017 :P Dat was de enige kaart die voor <200 euro fatsoenlijk te krijgen was.
Mee eens. Ergens houdt het een keer op. Als je voor de prijs van een dergelijke top range kaart (die ten opzichte van bij wijze van een 1080ti alleen raytracing als selling point heeft, een techniek die nog nauwelijks gebruikt wordt) een game systeem kan bouwen waarmee je de meeste games van nu op prima settings kan spelen, dan moet je marketing wel ziek goed zijn om mensen te overtuigen om wel zo’n bedrag uit te geven.

Je zal altijd mensen hebben die dat geld er wel voor over hebben. Maar een grote groep zal nu afhaken al zie ik clubs als Nvidia er wel voor aan dat ze de 10x0 series zo snel mogelijk van de markt halen als dwangmiddel.
Ik denk inderdaad dat zo als Nvidia zelf ook al deels aangeeft in deze winst waarschuwing de meeste gamers de prijs simpel weg te hoog vinden dan wel hun huidige graphics goed genoeg om de RTX kaarten nog even te laten wachten en de kat uit de boom te kijken.

Ook denk ik dat Nvidia de terugval van de crypto markt goed voelt. Immers als de miners minder kaarten kopen (ongeacht het merk) dan is er genoeg beschikbaar voor de rest van de markt iets wat er voor zorgt dat de prijzen van de kaarten sneller zullen dalen omdat er voldoende aanbod is en mensen zo snel niet dan maar een andere kaart hoeven te kopen omdat de kaart die zij eigenlijk willen niet beschikbaar is of schrikbarend duur is op dat moment.

Dat ray tracing de toekomst is is volgens de meeste 100% zeker maar tot dat de RTX kaarten uitkwamen was realtime ray tracing ongeveer gelijk aan een fusion reactor; het is de toekomst en over 10 a 20 jaar zal het waarschijnlijk mogelijk zijn. Nu is het op eens mogelijk en zijn de engine makers er nog niet klaar voor.
Vergeet ook niet dat het voor de engine bouwers een flinke hoeveelheid werk is om zo iets even in te bouwen en voor vele is het dus gewoon kijken naar wat de markt doet. Als de markt massaal dit soort kaarten koopt bouw je het zo snel mogelijk in anders wacht je nog even en doe je eerst wat andere dingen waar meer mensen wat aan hebben.
Source 2 is al behoorlijk oud, ID Tech engine weet ik zo even niet, maar kan mij voorstellen dat Source 2 niet gauw raytracing gaat krijgen. Frostbyte heeft dat al, althans in BFV, Unity zal even afwachten zijn. Volgens mij zit het ook al in UE4, dus de grotere engines van het moment hebben het al. De adoptie in de techniek is er, maar dat betekent niet dat het ook gebruikt moet worden in games.
Geef je helemaal gelijk.. die prijzen zijn van de pot gerukt.. wat krijg je er voor terug 10-30% meer performance +rtx (zeer beperkt nog)... Een techniek die 50% meer vermogen vraagt van je kaart en dus zeer slecht geoptimaliseerd is... Voor veel mensen is dit geen reden om te upgraden. Dus hou je enkel de 10-30% meer performance over.

Een 1080ti kost nu rond 500 euro 2e hands hier... een 2080ti 1350... betaal je bijna 3 keer zo veel voor die 10-30% verschil in prestaties...

Komt er nog bij dat het gros van de mensen inmiddels al een goedkopere kaart hebben die nog wel functioneerd voor hd gamen.. en heb je geen 4k monitor dan kan je daar ook nog de meeste games prima mee draaien. Van de misschien 10% van de gamers welke een nieuwe kaart willen is voor een hoop 1000+ euro te gortig.. en dat lijkt me ook logisch, het is een flink bedrag. Je moet er een hoop gebruik van maken wil je dat er uit krijgen binnen een jaar of 2.
Misschien moeten ze gewoon zorgen dat de innovaties meer in sync lopen.

Vroeger kwam om de zoveel tijd kwam er weer enorme sprong als Microsoft weer eens een nieuwe direct x had aangekondigd.
Er is altijd wel iemand die de eerste zet moet doen, dus het is makkelijk om dan te wijzen naar de nakomers en hen voor bottlenecks uit te maken.

Feit is gewoon dat net als Assassins Creed mensen in het algemeen afhaken als een fabrikant zn product blijft 'dumpen'. De hardware wedloop om ieder jaar minstens 2 prodoct ranges uit te brengen slaat eigenlijk gewoon nergens op als je naar de markt kijkt. Dus het is niet zo gek dat die markt zo klein lijkt, als je bedenkt dat ik inmiddels 3 jaar doe met een radeon 7990. Die voor de nostalgische games van vroegah prima werkt.

De noodzaak is er gewoon niet om zo vaak te upgraden. Pas als een nieuwe game uitkomt zoals RDR2 of Exodus die meer vereist van de hardware dan gaan mensen weer eens nadenken of ze dat de investering waard is voor een upgrade. Ik denk dat die groep die er zo in staat stiekem best wel groot is.

Of je nu 300, 500 800 of 1000 euro betaald hangt denk ik mede af van de toekomstbestendigheid. Ik vraag me af of de duurste kaarten genoeg performance winst opleveren omdat het voor de meesten niet uitmaakt of ze een game op 180 of 90 fps draaien; op een 4k 100hz scherm zie je dat nauwelijks.
No shit sherlock. De prijzen zijn abnormaal hoog. Misschien dat Nvidia netzoals Apple, Samsung leert dat het een keer ophoud, dat de consument een grens heeft die ze nu dik aan het overschrijden zijn. RTX is een gimmick, die de huidge prijzen absoluut niet waard.

[Reactie gewijzigd door Cogency op 29 januari 2019 21:52]

Nou inderdaad. Zat echt klaar met het geld om mijn 1070 te upgraden naar het nieuwste (consumenten) vlaggenschip van Nvidia tot ik zag wat RTX met de prijzen deed. Had er zo €800-€900 voor neergelegd, maar de prijs voor de 2080 TI heeft mij gelijk genezen ondanks dat ik dat geld ook heb zonder probleem.

En zo ken ik nog 3 mensen waar ik veel mee game die dezelfde beslissing hebben genomen. Als er een goede prijsverlaging komt of een 2080ti kaart zonder RTX dan zal mijn interesse ook weer terug komen. RTX doet mij namelijk helemaal niks. Ja het kan mooie plaatjes opleveren, maar ik vind games zonder RTX ook mooi en ik vind 90+ fps veel belangrijker en al helemaal in VR. Dus waarschijnlijk zet ik het dan heel laag of uit.
Ik ben nog steeds op zoek naar een vervanger voor mijn GTX 970. Had gehoopt op de opvolger van de 1070, maar dat valt tegen tot nu toe...
Denk dat het mes aan twee kanten snijdt, tenzij je een 4k scherm hebt is de 1070/1080 echt een kaart die totaal niet aan vervaning toe is.
Idd ik heb zelf een 1070ti en die gaat nog wel een jaar of 3 mee
Mn 680 ging dood toen een 1070 gehaald. Mooie speedboost hoor maar als de vorige niet kapot was had ik minstens nog een jaar gewacht. Misschien wel 2..
Op 1080 ging alles nog redelijk en ik ben al lang uit die tijd waar mooie beelden het belangrijkste in een game was.. civ en stellaris deden het prima net als fallout 4 etc
Tel erbij op dat games vaak voor consoles zijn gemaakt en dan naar pc worden overgezet. Met consoles duurt t jaren voordat die een ipdate krijgen naar een nieuwe generatie gpu's. In die tussemtijd zinn er maar weinig games die dan voor alleen pc de nieuwe tech gaan benutten, aangezien t dan niet meer op de consoles uitgebracht kan worden
Wat ook meespeeld. "Het is genoeg".

Ik zie zelf geen noemenswaardig verschil meer tussen prachtige graphics en een hedendaagse Crysis oid. Als ik BF5 op high of ultra zet, ja als ik stil sta en van dichtbij het level bewonder, zie ik het verschil wel. Maar tijdens het spelen zelf.... merk je hier absoluut niets meer van.
Ja ik heb hetzelfde. Afgelopen week viel me pas op dat je een weerspiegeling op het wapen ziet bij bfv.. nog nooit gezien, heel mooi maar als ik aan het spelen ben zie ik het totaal niet omdat ik puur focus op tegenstanders.

Wanneer je beelden gestreamed heb en je kijkt het later terug dan pas zie je hoe mooi het eigenlijk is.
Nou ja, dat geldt op zich voor alle recente GPU's toch? Als je huidige GPU nog geen 3 jaar oud is, dan is het nog zeker niet aan vervanging toe. Ik draai zelf nog op een 970 en kan nog steeds alle games op high tot ultra spelen op 1080p.
Het statement was dan ook 4k.
Maar ook dat gaat redelijk goed met een GTX1080.
Ik heb een GTX1070 met een 4k scherm en geen van beide is aan vervanging toe... alles draait met minstens 50 a 60 fps, meer dan voldoende.
Persoonlijk sla ik altijd een een generatie over. Wil op zijn minst 60% meer performance hebben dan mijn oude. Mijn 1080 kan nog wel een tijdje mee. 1440p is goed genoeg.
Precies. Koppel dat aan een g-sync scherm en je kunt nog wel wat langer mee met die kaart.
G-sync heb je niet meer nodig. Nvidia ondersteunt nu ook Freesync van AMD.
Dat is het inderdaad, ik game nog op 1080P schermen met een 980Ti, en ik zie geen enkele reden om in de nabije toekomst te upgraden.

Als ik de overstap naar 4K wil maken (op dit moment), dan kost me dat minimaal 2000,00 EUR voor een leuke setup ... dacht het nog maar even niet :)

[Reactie gewijzigd door Dhrax op 30 januari 2019 09:10]

Ik heb een gtx1060 en 2x 4k schermen. Kan best veel games op 4k spelen, vooral wat oudere en indie games. Die zitten tenminste niet vol met DLCs en pay 2 win crap. Maar met een 4k scherm kun je prima op 1440p of 1080p spelen als dat nodig is.
Maar is het beeld dan niet wazig als je niet op de native resolutie van je scherm speelt? Of is dat intussen ook weeral verbeterd?
Nee helemaal geen last van. De verhouding moet alleen kloppen zolang je een 16:10 resolutie pakt is het goed. Dus 1920 x 1080 en geen 1920x1200.
Komt ook omdat 1080p resolutie exact 4x minder is dan 4K. Is het op 1440p ook niet wazig?
Dit, ik kocht elke ~3 jaar een nieuwe mid/high end videokaart zonder veel na te denken, maar ik denk wel twee keer na nu ik die prijzen vandaag de dag zie, dan ga je toch niet letten op ~20-40% meer FPS maar op welke FPS je nu eigenlijk haalt met je huidige systeem, en dan vind je die belachelijk hoge prijzen het echt niet waard.

Menigeen zit nog steeds te teren op een GTX 970, ik zie in mijn omgeving sporadisch een 1080, maar dan houdt het ook snel op.

[Reactie gewijzigd door xtrmx op 30 januari 2019 00:11]

Waarom zouden ze de prijzen verlagen? Liefdadigheid?
Wellicht omdat men de kaarten links laat liggen?
De belachelijke prijs is een van de hoofdredenen, een andere is het momenteel nutteloze raytracing.
Hoezo is raytracing nutteloos?

het is een van de beste vooruitgangen in eeuwen in GPU land. En het werkt op alle RTX kaarten op 60+ FPS zie laatste review. (Tenzij je met een 2060 verwacht dat je alles op High kunt zetten) En 60FPS was altijd de limiet zeker bij first gen nieuwe features. Kun je de Heavoc kaarten nog herrineren ook 200 euro voor physics.

Alleen de consument is tegenwoordig verwent en wil nu 140 FPS op 4K. Om procentuweel elke keer 10% toe te voegen aan performance moet je steeds meer doen 100->110 is 10 er bij van 110 -> 121 is 11 er bij. Je kunt niet forever exponentieel power toe voegen.
Raytracing is de toekomst maar momenteel heb je er nog niets aan, het is te langzaam.
Dat ze het op 1080p redelijk vlot hebben lopen in BFV (1 game!) is leuk maar wie koopt er een dure GPU om hem vervolgens aan een goedkoop 1080p scherm te hangen?
Performance op serieuze resolutie maakt het momenteel nog niet relevant.
Wat ga jij op dit moment spelen met raytracing?
Wat is de performance hit die je krijgt met raytracing?
Precies, en daarom is het veel te duur.
Elke game die op de unreal engine draait en zich geupdate heft naar de laatste kernel.

Performance hit , zeg ik alles draai boven de 60FPS up ultra.
Omdat het niet waard is!!! kerel we praten over 1300 euro ...1 vid kaart en dan vinden zij het gek dat verkoop tegen valt? hahaha manamnaman.
Nvid denkt zekers dat we de staatsloterij hebben gewonnen.

En er zijn teweinig games die deze techniek gebruiken.
Persoonlijk is het gewoon dom dat ze deze kaarten hebben uitgebracht.
Er zijn schijnbaar gamers die 1200 euro redelijk vinden, anders zouden ze hem niet verkopen. Nvidia hoeft er ook niet veel verkopen, simpele economie leert dat een hogere prijs minder verkopen oplevert, maar minder betekent zelden helemaal geen en met hogere een winstmarge kun je soms ook bij minder verkopen meer winst halen. (zie: smartphones)

[Reactie gewijzigd door Bigheld op 29 januari 2019 22:57]

Blijkbaar verkopen ze hem ook niet, althans een stuk minder dan ze gedacht hadden. De winstverwachting met bijna 20% naar beneden bijstellen is nogal wat.
niet de winst maar de omzet verwachting is met 20% naar beneden bijgesteld.

Dat betekend dat de winst verwachting nog veel meer zou kunnen dalen.
blijkbaar niet, aangezien ze nu lopen te zeuren dat verkopen tegenvallen en de koers daalt.
Verkopen die tegenvallen betekent waarschijnlijk bij nvidia dat de klauwen met geld iets minder snel binnenstromen, maar het blijft veel winst. Als de verkopen écht tegenvielen zouden ze meer doen dan zeuren.

[Reactie gewijzigd door Bigheld op 29 januari 2019 22:58]

Dat heeft niks met de economie te maken.
Voor dat geld heb je complete pc.
Het is van het zotte dat het zo duur is,in al die jaren dat wij pc's samen stellen is de vid kaart nog nooit zo belachelijk duur geweest! en ik ga al jaren mee..... zelfs in de gulden tijd had je niet zo hoge prijzen.

Zij hebben gewoon te hoog ingeschat {nvid}

P.s het is maar wat een gek er voor geeft :) .....deze gek niet :)
Ik heb nog nooit meer dan €100 uitgegeven voor een losse videokaart en dat ga ik ook niet doen. Maar wat je nu ziet aan uitmelken van een steeds kleiner wordende groep gamers is echt weerzinwekkend. In mijn laptop heb ik een Quadro M1000M met 4 GB en dat is genoeg voor hoofdtaken zoals CAD/CAM en AI/ML/DL en af en toe en spel.

Ik ben niet de grootste fan van Intel, maar ik hoop dat ze volgend jaar met grafische chips komen die een groot deel van de chips van AMD en Nvidia verslaan en een stuk goedkoper zijn, want zo kan het gewoon niet langer. Dan kan ik eindelijk ook moderne grafische kaarten in mijn oude computers doen om ze nog een tweede leven te geven, want de onboard graphics zijn wel erg traag geworden nu.
Ach, vroegah waren er ook hele dure kaarten (en schermen, 2500 gulden voor je monitor was niks geks :x ), en ook toen was het prima te doen op midrange spul... leesvoer!
nee revolutionair en visionair.

Als er geen kaarten komen met de ondersteuning komen er geen games met de ondersteuning.

Chicken and Egg.

Gelukkig neemt Nvidia het op zich samen met de kosten om de GPU verder te brengen.
Niet helemaal, als ze nu bij de launch 20 spellen klaar hadden staan die Raytracing hadden. was het mogeljik net wat anders uitgepakt.

nu de paar spellen die gebruik maken van raytracing hebben een FPS die niet om aan te gluren is.

Juist de visionair moet aan het totale plaatje denken ipv een product op de markt slingeren met de reden "dit is de toekomst".

Het is apple een paar keer (ongeveer) gelukt om de consument er van te overtuigen dat ze een product echt nodig hadden, zonder dat de consument dit door had, maar het faalt vaker dan dat het een succes wordt.
En dan kunnen ze nog niet eens het volledige beeld RT'en. De techniek is zodanig belastend voor de hardware dat ze slechts stukken vh beeld kunnen RT'en. Daarom zie je dat de fps nu omhooggegaan is met de nieuwe driver. Een volgende generatie kaarten is nodig om het volledige beeld te kunnen raytracen.

En dat is nu ook net waar AMD gefaald heeft wat het visionaire betreft. Ze dachten dat HBM de toekomst was voor grafische kaarten maar is dat even tegengevallen.

[Reactie gewijzigd door Fredi op 30 januari 2019 20:58]

Daarnaast vielen er behoorlijke wat 2080ti, 2080 en 2070's, zomaar uit. Met artifacts en zwarte schermen als gevolg. Dit heeft volgens mij ook bijgedragen aan de tegenvallende verkopen. Ik heb het misschien gemist, maar volgens mij is er nooit een officiele verklaring van Nvidia geweest dat de problemen zijn opgelost.
Nvidia is een kei in het niet addresseren van dergelijke zaken zie de 8x00-series toen der tijd.
Klopt, of het 3.5GB debacle.

Hier een openhartige video van een Nvidia engineer daarover.
https://www.youtube.com/watch?v=IghcowGhRBc
Ge-ni-a-le vondst. Hoor die gebroken stem van die gast _/-\o_
Volgens mij heeft die tandeloze knar het helemaal niet over elektronica in die gelinkte video. Toegegeven, mijn Spaans is niet geweldig, maar de man verteld een grappig verhaal en heb het idee dat de staat van zijn gebit het verhaal nog grappiger doet overkomen. In elk geval bij de persoon die tegenover deze man zit.

De ondertitels bij deze video kloppen niet. Heb ook het idee dat het videomateriaal is uit eind jaren 80, begin 90 van een Spaanse lokale TV zender. Kwaliteit van de video is niet geweldig, 4:3 beeldverhouding en over het algemeen word er nooit zo scheutig gesproken over hardware welke alleen tweakers en/of gamers interesseert.
Jij stond ook niet vooraan to sarcasme werd uitgedeeld hé haha. Je hoort toch woorden als playa ? ;))
De ondertitels hebben ook niets met de video te maken, het is een grapje ;)
Schijnt een probleem te zijn met Micron geheugen, bij overclock events vielen de op Micron gebaseerde kaarten veel meer/vaker uit waar de kaarten met Samsung geheugen wel goed werkte.

AMD had een vergelijkbaar probleem met de R9 290X, Micron kaarten waren instabiel en konden moeilijk overclocken. Combineerde (CFX) je de 290X Micron met een 290X Samsung en de Samsung kaart was master dan was er geen probleem. Ook waren er voor de 290X Micron kaarten nog bios updates geweest voor stabiliteit problemen op te lossen.
AMD had ook problemen met 280X kaarten met Hynix geheugen, die werden vaak te warm bij veel van haar kaarten, waardoor artifacts (checkerboard patterns) verschenen.

[Reactie gewijzigd door NotCYF op 29 januari 2019 22:23]

Want alles wat op YouTube staat is waar! (en Tweakers ook, uiteraard)
waar of niet waar (of ergens er tussen in) doet er niet echt toe, al die reviewers op YT hebben echt een enorme invloed.
Dat ze een enorme invloed hebben trek ik niet in twijfel. Maar puur omdat een paar YouTubers een mening echo'en wil niet zeggen dat iets de waarheid is.
Het ging toch om een RTX 2080 Ti batch. Ik las al herl snel geen nieuwe problemen meer, dus het lijkt indd op een slechte batch die nu niet meer word verkocht?
Hoge prijzen en een gebrek aan vernieuwing zijn de grote boosdoeners. Raytracing support is op dit moment (en in de nabije toekomst) een lachertje en de performance is, gezien de prijswinnaars, niet zeer groot ten opzichte van de 2 jaar oude voorgangers.

Wil je betere performance dan een 1080ti, mag je gewoon €1100+ neertellen. Dit staat in schril contrast met de prijzen die je voorheen voor een GTX 680/780/980/1080 mocht neerleggen (€550-600) die toch standaard zo'n 20-30% sneller waren dan de 780ti en 980ti. Voorheen was het zelfs zo dat bijvoorbeeld een 970/1070 voor bijna de helft van de prijs de 780ti en 980ti performance boden.

Nu mag je €100-150 bovenop de prijs van een 1080ti leggen voor een 2080 die qua performance gelijkwaardig is aan de 1080ti met als extra's raytracing en DLSS; 2 features die maanden na het uitkomen van de RTX nog steeds nauwelijks gebruikt worden.

Hopelijk weet AMD eindelijk eens een waardig alternatief neer te zetten zodat Nvidia gedwongen wordt hun prijzen aan te passen...
Welke vernieuwing heb je precies gezien dan de afgelopen jaren? Dit is wat mij betreft de eerste generatie sinds jaren die echt iets nieuws introduceert. Ook al is raytracing nog niet wat het hoort te zijn het heeft echter wel een grote meerwaarde en is vernieuwend. Tegenwoordig duurt het ontwikkelen van games al snel 2 tot 4 jaar, het is dus ook niet zo heel raar dat de ondersteuning nog minimaal is.

Waar ik het wel met je eens ben is dat de prijs gewoon te hoog is. Daar waar je 2 generaties geleden nog een geweldige mid-range kaart kocht voor rond de €350,- is dit al bijna verdubbelt. Mensen roepen wel dat het door inflatie komt etc. maar dit is de grootste onzin die er is. De prijzen zijn flink de lucht ingevlogen door de cryptocurrency gekte, maar door het uitbrengen van de nieuwe generatie dacht men de prijzen zo hoog te kunnen laten. Gelukkig blijkt het dat de consument niet mee gaat in hun onzin.

De 10xx generatie en dan vooral de 1080ti is voldoende voor 4k gaming en voor de mensen die niet eens een 4k monitor hebben is de normale 1080 al meer dan voldoende. Er is dus ook geen echte reden om te upgraden, zolang de triple A games nog prima met de oude generatie te spelen zijn hoeft niemand te upgraden.

Ik hoop persoonlijk dat deze trend door blijft gaan zodat men inziet dat de huidige prijzen vooral bij de mid-range kaarten lachwekkend zijn. Nu is Nvidia niet de enige die dit soort praktijken probeert, Intel heeft er ook een handje van.
De aandeelprijs zakte ook meteen ~14%, wat best heftig is. RTX is gewoon geen aantrekkelijke lineup zolang er nog GTX10 series kaarten te krijgen zijn. Ze moeten het vooral hebben van mensen die nog op de GTX9 serie zaten, maar dat zijn tegelijkertijd ook de mensen die op een betere prijs/prestatie sprong hadden gehoopt.

Al met al geeft dit AMD hopelijk wat tijd om een inhaalsprong te maken met Navi. Met gebrek aan sterke competitie verliezen we allemaal.
De GTX10XX kaarten zijn over het algemeen echt niet aantrekkelijker als de RTX20XX kaarten. Redelijk consistent zijn de RTX kaarten gelijkwaardig of iets sneller voor dezelfde prijs.

Punt is alleen dat na 2 jaar zonder enige prijsverlaging consumenten nu met een nieuwe architectuur toch hadden gehoopt dat er een keer iets aan de prijs/kwaliteit verhouding van GPUs ging gebeuren. Maar dat viel behoorlijk tegen. En dan helpt het ook niet dat ze alleen kaarten hadden uitgebracht voor de echt high-end markt (gezien de 2070 de positie heeft die de 1080 ooit had).
Exact, ze hebben alleen het beschikbare prestatie niveau opgekrikt tegelijkertijd met prijs.
Hogere top in een markt die eigenlijk al vrij verzadigd is.

Nu hebben ze ook nog in de voet geschoten met gigantische chips met al die RTX cores.
Exact, ze hebben alleen het beschikbare prestatie niveau opgekrikt tegelijkertijd met prijs.
Hogere top in een markt die eigenlijk al vrij verzadigd is.

Nu hebben ze ook nog in de voet geschoten met gigantische chips met al die RTX cores.
Zodra de oude voorraad op is komt er ongetwijfeld een cut-down zonder tensor cores voor minder dan de $349 van de RTX 2060. Reken echter niet op een hogere prestatie dan die kaart. In ieder geval niet zolang AMD de markt niet in beweging brengt. Nvidia zal RTX graag blijven pushen en dat moeten ze ook wil het een kans van slagen hebben.

[Reactie gewijzigd door sdk1985 op 30 januari 2019 03:54]

Natuurlijk wilt Nvidia RTX pushen, zodat dit de zoveelste "Nvidia only" tech wordt. En ze misbruiken nu hun marktvoorsprong om dat er nu door te drukken.

AMD staat straks weer met een bek vol tanden die niet kan reageren vanwege een te lage RnD.

En uiteraard zijn wij consumenten dan weer de pineut. Wij mogen hogere prijzen ophoesten en de groei in performance blijft een ding uit een ver verleden.
zoveelste "Nvidia only" tech
nVidia's Raytracing is niks anders dan 'Microsoft DXR enhanced with NVIDIA ray tracing libraries' (zoals ze het zelf zeggen). AFAIK heeft elke 'nVidia RTX titel' gewoon een standaard DirectX12 Raytracing (DXR) implementatie en/of een DXR fallback. Enkel features zoals DLSS zijn volgensmij nVidia only.
AMD staat straks weer met een bek vol tanden
Lisa Su heeft al bevestigd dat AMD ook bezig is met raytracing.

[Reactie gewijzigd door hxk-clan op 30 januari 2019 11:51]

Huh. OptiX is de Raytracing engine van Nvidia. Deze kan samenwerken met DirectX12... en Vulkan. Het is niet zo maar een library die ze eventjes tegen een grafische API aanplakken. Het is een compleet framework met hardware implementaties/acceleratie.

Dit is een Nvidia tech net als PhysX, Gameworks, Gsync en nog een stapeltje 'concurentieuitsluitende-technieken'.

En de marketing die Nvidia ertegenaan gooit is ook niets. "Hallo, wij bieden raytracing, onze enige echte manier". Fuck een open implementatie zodat ontwikkelaars maar 1 tech hoeven te includen. Nu moeten ze straks dus voor AMD en Nvidia aparte technieken gaan implementeren?
Als ze 20% winst boeken in performance en dan de prijs met 20% omhoog doen betalen we over 5 jaar 2500+ euro voor een 6080ti..

Ik begrijp best dat prijs van producten stijgt met performance en inflatie maar er zitten grenzen aan.

Waar een groot deel van de gemiddelde gamers een paar jaar terug geld over had om voor 300 euro een 970 te kopen staan er maar een paar mensen te wachten op een kaart van 1350 euro welke je wat meer frames oplevert.
Als iemand die nog op 9 serie zit voel ik totaal geen noodzaak om een 20 serie kaart te halen, al helemaal niet bij deze prijzen.

Tuurlijk, die nieuwe kaarten zijn sneller maar mijn 980ti draait vrijwel alles wat ik speel nog prima op 1440p en voor raytracing in één spel wat ik niet speel ga ik geen 1000+ euro uitgeven.

Tegen de tijd dat raytracing ingeburgerd raakt (als dat al gebeurt) zal je wel een 30 of 40 serie kaart moeten kopen om het een beetje acceptabel te laten werken dus deze serie sla ik fijn over.
wat wil je? Het zijn duurdere kaarten met marginaal betere prestaties en een "killer-feature" waar niemand op zit te wachten en op een enkeling na geen support heeft van ontwikkelaars.
Tel daarbij ook nog eens de ingestorte mining-markt en je weet waar heel die omzetdaling aan toe te schrijven is.
Niemand op zit te wachten ben ik het niet met je eens. Ik vind de technologie juist prachtig en eindelijk eens iets wat innovatief is. Meer fps halen is leuk, maar daar is geen innovatie voor nodig, enkel betere hardware (en dat hebben ze al voor jaren vooruit ontwikkeld).

Het probleem met de RTX kaarten is dat hoewel de tech leuk is, het ondermaats presteert. Je moet je voorstellen dat je eventjes meer dan €1000 op tafel smijt voor een RTX2080, maar met RTX op high haal je de 50/60fps niet eens. Ik begrijp dat de technologie echt nog in de kinderschoenen staat, maar ze hadden misschien beter van te voren de boel fatsoenlijk kunnen ontwikkelen. Want met de release van de RTX kaarten was er nog geen enkel spel die het ondersteunde. Sterker nog, we zijn nu maanden verder en het aantal titels dat er echt gebruik van kan maken is nog steeds maar marginaal. Het probleem nu is dus dat én de performance niet adequaat is met RTX ingeschakeld én er zijn amper games die er gebruik van maken. Waar het daarmee op neer komt is dat de prijs het gewoon niet waard is ten opzichte van de vorige generatie, en dit is een gevolg van AMD die ineens met redelijk goede gpu’s op de markt voor een redelijke prijs. Dit heeft ervoor gezorgd dat Nvidia is gaan haasten (wat Intel ook gedaan heeft) en dus een ongetest bagger product op de markt heeft gezet. Had Nvidia (en Intel ook trouwens) wat meer aandacht aan tests gegeven dan was het waarschijnlijk een stuk beter product geworden, maar dan liepen ze de kans een hoop geld mis te lopen aan klanten die dan maar een AMD in huis halen omdat Nvidia’s kaarten inmiddels al weer een aantal jaar oud zijn. (Niet vergeten dat voor t gros vd consumenten nieuwer is beter betekent, ongeacht de specs).
Niemand op zit te wachten ben ik het niet met je eens. Ik vind de technologie juist prachtig en eindelijk eens iets wat innovatief is. Meer fps halen is leuk, maar daar is geen innovatie voor nodig, enkel betere hardware (en dat hebben ze al voor jaren vooruit ontwikkeld).

Het probleem met de RTX kaarten is dat hoewel de tech leuk is, het ondermaats presteert. Je moet je voorstellen dat je eventjes meer dan €1000 op tafel smijt voor een RTX2080, maar met RTX op high haal je de 50/60fps niet eens.
Een RTX 2080 zit ondertussen op 82,7 fps op HIGH dus dat pleidooi klopt niet. Er is vrij snel na launch een patch gekomen die de performance behoorlijk heeft verhoogd. Zie https://nl.hardware.info/...nchmarks-in-battlefield-v
Ik begrijp dat de technologie echt nog in de kinderschoenen staat, maar ze hadden misschien beter van te voren de boel fatsoenlijk kunnen ontwikkelen. Want met de release van de RTX kaarten was er nog geen enkel spel die het ondersteunde. Sterker nog, we zijn nu maanden verder en het aantal titels dat er echt gebruik van kan maken is nog steeds maar marginaal. Het probleem nu is dus dat én de performance niet adequaat is met RTX ingeschakeld én er zijn amper games die er gebruik van maken.
Sterker nog; niet alleen het aantal games dat mee doet is marginaal, het aantal gamers met een RTX kaart is ook zeer marginaal. Het is te hopen voor Nvidia dat de RTX 2060 aan gaat slaan anders krijgen ze echt een kip-ei probleem waarbij geen enkele developer de moeite wil nemen om DXR te ondersteunen terwijl consumenten de meerwaarde niet zien omdat geen enkele game er iets mee doet.
Waar het daarmee op neer komt is dat de prijs het gewoon niet waard is ten opzichte van de vorige generatie, en dit is een gevolg van AMD die ineens met redelijk goede gpu’s op de markt voor een redelijke prijs. Dit heeft ervoor gezorgd dat Nvidia is gaan haasten (wat Intel ook gedaan heeft) en dus een ongetest bagger product op de markt heeft gezet. Had Nvidia (en Intel ook trouwens) wat meer aandacht aan tests gegeven dan was het waarschijnlijk een stuk beter product geworden, maar dan liepen ze de kans een hoop geld mis te lopen aan klanten die dan maar een AMD in huis halen omdat Nvidia’s kaarten inmiddels al weer een aantal jaar oud zijn. (Niet vergeten dat voor t gros vd consumenten nieuwer is beter betekent, ongeacht de specs).
Ik weet werkelijk waar niet waar je dit vandaan haalt. Het hele probleem van de afgelopen +- 2 jaar was nu net dat AMD niet genoeg videokaarten kon leveren. Kaarten als de RX 580 stonde steevast op weken levertijd óf je betaalde dik 400 euro voor een kaart die een adviesprijs van $199 dollar mee heeft gekregen. Ondertussen heeft Nvidia op de Steam survey een 74.18% marktaandeel terwijl AMD het daar met 15.08% moet doen. Veel problematischer is dat de Polaris reeks nog niet eens in de top 25 voorkomt en dat Vega uberhaupt niet op de lijst wordt vermeld. Let even op dat deze maand zowel de RTX 2070 als de RTX 2080 zijn opgedoken in de steam survey. Er zijn dus nu al meer RTX kaarten bij gamers dan Vega kaarten.

Hoe dan ook, consumenten wilden prima AMD Radeon, maar ze konden de producten niet krijgen of niet voor een redelijke prijs. Ondertussen weten we dat AMD direct aan miners leverde en dit dus feitelijk gewoon gefaciliteerd heeft. Nvidia hoefde zich dus niets aan te trekken van Radeon.

Verder weten we ook dat ondanks dat de RTX release inderdaad heel gehaast overkomt hij feitelijk is uitgesteld omdat er meer GTX 1xxx kaarten onverkocht bleven dan verwacht. Voorlopig is Nvidia nog altijd aan het wachten tot de voorraad van GTX 1050 (Ti) en GTX 1060 kaarten is weggewerkt. Nu voor het eerst ondervinden ze pas tegengas van Radeon. Nu de mining hype voorbij is heeft de CEO van Nvidia aangegeven dat ze veel meer RX 580 in de winkels zagen verschijnen dan verwacht.

Echt zorgen hoeft Nvidia zich voorlopig niet te maken. Nieuwe producten van AMD Radeon zijn in geen velde of wegen te bekennen. In December zou er een 7nm Vega komen, dat werd een aankondiging in januari voor een $699 kostende kaart die volgens de geruchten $650 kost om te produceren en een zeer beperkte oplage gaat krijgen. In die situatie kan zo'n kaart geen voet aan de grond krijgen. Daar is meer volume voor nodig.

Over Navi hebben we op CES uberhaupt nog niets gehoord. Reken de komende 6 maanden van dit jaar dus maar niet op een Navi launch, vermoedelijk is Q3 ook nog te vroeg. Tevens bestaat het vermoeden dat dat Navi een midrange product wordt. Dat past beter bij de strategie van AMD (eerst midrange) en verklaart ook waarom er Q1 van 2019 nog een $699 Vega wordt gelanceerd. Dat ga je niet doen als je juni 2019 met een high-end navi op de markt komt.

TLDR:
Had Nvidia (en Intel ook trouwens) wat meer aandacht aan tests gegeven dan was het waarschijnlijk een stuk beter product geworden, maar dan liepen ze de kans een hoop geld mis te lopen aan klanten die dan maar een AMD in huis halen omdat Nvidia’s kaarten inmiddels al weer een aantal jaar oud zijn.
De AMD kaarten zijn ouder en hebben een dermate beperkte oplage dat Nvidia hier zijn plannen niet op hoeft bij te stellen. Radeon VII zal geen bedreiging vormen en Navi is voorlopig niet in beeld. Nvidia concurreert eerder met zichzelf en maken het zichzelf lastig met de verhoogde adviesprijzen.

Intel draait overigens op maximale capaciteit dus ik weet niet waarom je die erbij haalt maar die kunnen momenteel weinig anders doen dan de prijs verhogen tot de capaciteit is vergroot of de vraag gaat dalen. Ook die hebben nu weinig aan een 'beter' product.

[Reactie gewijzigd door sdk1985 op 30 januari 2019 00:09]

Klopt je hebt gelijk dat de fps flink verbeterd is, maar dan nog te laat. Imagoschade hebben ze er al mee opgelopen. Waar t eigenlijk op neer komt is dat kopers van het eerste uur premium betaald hebben voor een beta test. En ze kunnen t idd oplossen met patches, maar dat begint te lijken op de games markt, eerst releasen dan pas fixen.

En niet om t een of ander, maar Nvidia kaarten waren ook zeer slecht beschikbaar (en dan met name 1070/1080s).

Klopt ook dat de RTX kaarten uitgesteld waren, maar ik vraag me af of de huidige kaarten uberhaupt bedoeld waren voor een 2018 release (naar mijn weten zou RTX later komen maar goed dat kan ik mis hebben). Ik geloof best dat ze nieuwe kaarten gepland hadden, maar of die ook uitgerust zouden worden met RTX vraag ik me oprecht af. Vandaar dat ik denk dat de RTX lijn te vroeg op de markt is gezet.

Dat de FPS nu redelijk prima is (nog steeds niet voldoende voor 144fps en lang niet in iedere game) wil niet zeggen dat de eerste maanden van de kaart gewoon een teleurstelling waren. Genoeg mensen die m teruggebracht hebben en genoeg die er spijt van hebben/hadden.

Neemt niet weg dat ik nog steeds enthousiast ben over de technologie.
Dit verhaal is zoals @w00t00w al aangaf eigenlijk van toepassing op elke launch. Vrijwel niemand was enthousiast over de GTX 1xxx reeks. Het heeft ook een maand of twee geduurd voor je zo'n GTX 1070 voor 465 euro kon kopen. Pre-orderen en direct op launch kopen werkt bij videokaarten vrijwel altijd in je nadeel.

Uberhaupt is niet elke release een even groot succes. Maar was RTX 2xxx echt zo slecht? Laten we even naar de performance (los van de prijs) kijken:
GTX 470: 83% in de GTX 570 review
GTX 570: 75% in de GTX 670 review
GTX 660: 90% in de GTX 770 review
GTX 770: 68% in de GTX 970 review
GTX 970: 60% in de GTX 1070 review
GTX 1070: 75% in de GTX 2070 review

Wellicht lastig te lezen maar de grootste prestatie winst is dus geboekt door de
1) GTX 1070 (+40)
2) GTX 970 (+32)
3) GTX 2070 review (+25) GTX 670 review (+25)
4) GTX 570 review (+17)
5) GTX 770 review (+10)

Dus valt de winst in fps tegen? Nee dat is eigenlijk historisch gezien redelijk normaal te noemen.

Combineren we de prijs erbij dan is de Geforce 2xxx serie kijken dan is dat inderdaad niet iets om naar de winkel voor te rennen. De prijs/prestatie van een RTX 2070 is net beter dan die van een GTX 1070 uit 2016, maar daar houdt het wel mee op. Wie reeds een Geforce 1xxx heeft zal dan ook niet snel naar de winkel rennen. Voor wie nog een tragere kaart heeft kan de RTX 2060 interessant worden.

Maar goed wat ik van de RTX 2xxx serie vindt heeft verder weinig met de redenatie te maken waarop ik reageerde. Bedrijfskundig zit Nvidia momenteel in een luxe positie waarbij de 1xxx serie zowel niet aan was te slepen als een record marge heeft opgeleverd. Ondertussen is Nvidia verdriedubbeld in omzet en hebben ze letterlijk miljarden verdient. Nvidia zit echt in een luxe positie. Het R&D budget van Nvidia is ondertussen gigantisch toegenomen; van 349 in 2015 naar 605 in het afgelopen kwartaal. Dat gaat over 3-5 jaar echt wel zijn vruchten afwerpen. Nvidia heeft een mega succes met RTX 2xxx eigenlijk niet nodig. Dat is het punt wat ik eerder probeerde te maken. Ze hebben de tijd, zeker nu AMD nog niets over Navi heeft losgelaten.

https://www.techpowerup.c...S/GeForce_GTX_570/27.html
https://www.techpowerup.c...A/GeForce_GTX_670/28.html
https://www.techpowerup.c...SI/GTX_970_Gaming/27.html
https://www.techpowerup.c.../GeForce_GTX_1070/24.html
https://www.techpowerup.c..._Founders_Edition/33.html

[Reactie gewijzigd door sdk1985 op 30 januari 2019 03:01]

Eigenlijk moet je dan ook de verkoop prijzen nog mee nemen. En het zou kunnen dat je dan wel een groter verschil ziet tussen de generaties en dat de prijs prestatie verhouding deze keer aanzienlijk slechter is dan gemiddeld.

Want dan zie je dus 329 voor de 970, 379 voor de 1070 en maar liefst 499-599 afhankelijk van de versie voor de 2070.
En ja je hebt wel gelijk dat die 1070 veel te lang ver boven die MSRP heeft gezeten dus die klopt niet en was eerder 450$. De RTX 2070's zitten nu ook op 525-550 euro.

RTX kaarten zijn in verhouding gewoon erg duur. Maar het zijn ook wel grote chips door al die extra hardware die er in zit en het nog op 12nm gemaakt moest worden.
Prijs prestatie verhouding over de jaren heen is heel complex. Want wat is prestatie? Hoe ga je om met launch prijzen tov retail prijzen? Wat doe je met inflatie? Telt performance per watt nog mee? Let ook even op dat je je basis standpunt niet op een uitzondering baseert. Zo was de GTX 970 een bijzonder voordelige x7 kaart met een hele goede prijs/prestatie, maar hier in Nederland hebben we dat niet gemerkt omdat de euro/dollar koers ongunstig was. In de rest van de wereld wel, de GTX 670 en GTX 770 zaten op $399 terwijl de GTX op $329 zat.

Maar goed ik kan het voor deze generatie wel anekdotisch beredeneren voor mijn situatie. Ik heb dus op het 'beste' moment in de zomer van 2016 voor 465 euro een EVGA GTX 1070 FTW aangeschaft. Als ik nu een RTX 2070 zou kopen dan zou die 525,05 kosten. Dan pak ik de review van TPU erbij en dan zie ik de GTX 1070 voor 75% op 1920x1080 staan. Als we dat loslaten op die 525,05 dan had mijn GTX 1070 393,79 mogen kosten. Dat is 72 euro minder dan ik heb betaald. Prestatie per euro uitreken kan ook dat wordt dan 16,2 vs 19 in het voordeel van de RTX 2070.

Kan de RTX 2060 ook wel even doen. Daar zou ik 375 voor betalen en volgens de review staat die op 85% vs 100%. Dus dan zou de GTX 1070 318,75 mogen kosten. Met 465 euro heb ik dan 146,25 te veel betaald. Prestatie per euro is dan 0.26 vs 0.18. (Deze cijfers zijn anders omdat het referentie punt van 100% nu de RTX 2060 is).

In beide gevallen nog steeds niet de moeite om naar de winkel te rennen, maar wel veel beter dan in 2016 (laat staan tijdens de mining gekte).

https://www.techpowerup.c..._Founders_Edition/33.html
https://www.techpowerup.c..._Founders_Edition/33.html

[Reactie gewijzigd door sdk1985 op 30 januari 2019 14:42]

Daar heb je ook zeker wel gelijk in. Mining heeft de afgelopen 4-5 jaar de boel regelmatig goed op de kop gezet. Waar je in het verleden price drops zag als een product ouder was en het nieuwe er aan zat te komen of omdat er gewoon wel conuccrentie was is dat de afgelopen jaren niet meer het geval geweest. Veel kaarten hebben op het moment van verdwijnen nog steeds bijna de MSRP prijs. Bij Pascal was dat helemaal erg. Dus dat maakt het ook allemaal wat lastiger te vergelijken.

Als je nu iets nieuws moet kopen zijn bepaalde RTX modellen prima keuzes. Maar als je als een 10x0 kaart hebt is het niet echt de moeite waard afhankelijk of je meer prestatie nodig hebt.
De mensen die @ launch een 1080 of 1080 Ti hebben gekocht hebben een goede investering gedaan. Normaal lever je er in 2 jaar tijd meer op in.
Klopt je hebt gelijk dat de fps flink verbeterd is, maar dan nog te laat. Imagoschade hebben ze er al mee opgelopen. Waar t eigenlijk op neer komt is dat kopers van het eerste uur premium betaald hebben voor een beta test. En ze kunnen t idd oplossen met patches, maar dat begint te lijken op de games markt, eerst releasen dan pas fixen.
Dit verhaal is van toepassing op praktisch elke nieuwe grafische feature die we nu voor lief nemen. Van anti-aliasing en texture mapping-techieken tot dynamische belichting, particles en schaduwen. Dat waren niet zelden zware, zelfs multi-generationele bevallingen. Ondergaan door hard- en software-ontwikkelaars die de eerste stappen durfden te zetten.
Verschil is de inmiddels vrij belachelijke prijs die we mogen neerleggen om op technologisch gebied in de eerste linie te mogen lopen. En dat we mijn eerste paragraaf zijn vergeten, en in plaats daarvan meteen gaan zitten pruttelen als het allemaal met wat horten en stoten gaat. Het is jammer dat enthousiasme en wat geduld steeds meer plaats maken voor entitlement en geklaag. Het heeft comment-secties een stuk zuurder, en artikelen een stuk oppervlakkiger gemaakt (uitzonderingen uiteraard daargelaten).
Oh nee hoor, ik ben zelf juist razend enthousiast over deze technologie, alleen fair is fair. Dit was er gewoon (op dit prijspunt) niet echt klaar voor. Je hebt ook zeker gelijk dat dit altijd zo geweest is, maar daartegenover staat wel dat de prijzen ook nog nooit zo hoog waren (dit is zelfs niet goed te praten met inflatie). Dit is ook de eerste keer dat Nvidia iets released terwijl er geen enkele game het nog ondersteunde (tijdens de release van de RTX kaarten was er nog niks en zelfs dat heeft nog even geduurd). Bij voorgaande technieken zoals Hairworks was dit al vanaf launch te testen, je kon in een select aantal games al hairworks gebruiken op launchdag. Toegegeven dat het nooit aangeslagen is (wat jammer is, want de film Warcraft heeft er ook gebruik van gemaakt en is imho best een mooie techniek). Maar goed het was er wel. Nu was er niets en dat is het m juist. Je betaalt premium, maar krijgt er niks voor terug.

Zie het als een smart tv kopen (toen dat net in opkomst was), maar dat je dan wel nog een aantal maanden moet wachten voordat je die functies kunt gebruiken. Ik had t overigens een andet verhaal gevonden als ze de RTX als een normale gpu hadden geadverteerd en op een later stadium RTX als optie zouden geven. Want dan beloof je niet iets wat je niet waar kan maken.

Toegegeven dat t nu redelijk werkt, maar neemt niet weg dat ik me de eerste maanden kapot zou ergeren aan zulke performance voor zo’n prijs. En zelf hou ik enorm van nieuwe tech, maar de meeste nieuwe tech die ik binnen haal werken vanaf t begin vaak toch net ietsje beter en voelt niet erg als een Beta test aan. En tbh voelde de RTX2080ti me meer aan als PUBG in de Alpha/Beta fase.
Miijn reactie was absoluut niet persoonlijk op jou gericht hoor - denk gezien de inhoud van je reactie ook niet dat je het zo opvatte, maar ik noem het toch maar even, voor de goede orde :)


Ik zou zelf, gezien de zeer karige ondersteuning van de nieuwe technieken (ray tracing, AI-driven anti-aliasing), overigens ook niet heel gelukkig zijn als ik een RTX-kaart had aangeschaft.

Maar we moeten niet vergeten dat het feit dat er nauwelijks games met ondersteuning zouden zijn bij de launch van de RTX-lijn gewoon publiekelijk beschikbare info is (het is geen sinister, geheimzinnig complot om de consument op sneaky wijze geld uit de zakken te kloppen).
Dus wat dat betreft heb ik geen medelijden met RTX-kopers die hun huis-/leeswerk niet hebben gedaan, maar nu wel lopen te klagen.

Daarnaast betaal je altijd de hoofdprijs prijs als je bleeding edge hardware koopt - je bent niet alleen early adopter, maar feitelijk ook een soort veredelde beta-tester. Als mensen zich daar niet van bewust van zijn, ook niet door het ronkende marketing-gewauwel heen kunnen kijken, desondanks toch dit soort peperdure hardware met unproven technologie aanschaft, en vervolgens gaan klagen. Tja, ook daar kan ik maar weinig medelijden voor hebben....

[Reactie gewijzigd door w00t00w op 30 januari 2019 16:00]

Klopt hoor, ik heb m zelf ook niet gekocht (oh ennuh, no offense taken hoor, daar dacht ik zelf niet eens zo over na haha).

Ik wacht mooi nog een jaartje (of misschien wel 2), ik game nog op 1080p en denk niet dat ik snel ga upgraden. Het werkt naar behoren en (helaas) heb ik niet zoveel tijd meer om te gamen. (Zeker niet nu ik Home Assistant heb gevonden haha)
Hetzelfde voor mij. Heb een paar jaar terug mijn desktop de deur gewezen ten faveure van een laptop (wilde geen apart bureau meer in mijn woonkamer), en game nu een laptop met een GTX1070 en een 4K-paneel. Deze is voorlopig nog meer dan voldoende (afhankelijk van de titel speel ik 1080p Ultra of zelfs 4K "bijna-Ultra"), dus een RTX-compatible GPU komt er ook bij mij pas in als mijn huidige setup het echt lastig begint te krijgen. En dan zijn we inderdaad al snel een, twee jaar verder, en tegen die tijd lijkt me ray-racing ofwel gemeengoed, ofwel stilletjes via de achterdeur afgevoerd.
Zie het als een smart tv kopen (toen dat net in opkomst was), maar dat je dan wel nog een aantal maanden moet wachten voordat je die functies kunt gebruiken
Triest genoeg is dat exact wat er in 2015 met mijn Sony 4K AndroidTV gebeurde. Die zou een dual tuner hebben maar het heeft een jaar geduurd voordat de record functie werkte, ook al zat de record knop op de afstandsbediening.
Nee de AMD kaarten waren nieuwer dan de vorige generatie Nvidia kaarten. Dus nee je informatie klopt niet:

GTX10xx: mei/juni 2017
AMD Vega: augustus 2017

Oh en ik vergeet nog even te vermelden dat Vega in feite pas in 2018 echt leverbaar was. De reden dat ik Intel erbij noem lijkt me vrij duidelijk, zij hebben ook hun lineup naar voren geschoven om niet de boel mis te lopen na alle Ryzen/Threadripper releases. En mensen kunnen t blijven roepen dat ze niet in dezelfde performance klasse zitten en weet ik t wat. Maar t gaat mensen niet enkel om performance, het gaat om prijs/performance verhoudingen en daar verslaat AMD Intel gewoon mee en flink ook.

En nee ik ben geen AMD fanboy ofzo (heb zelf Intel en Nvidia) maar ik snap wel waar t vandaan komt. Nvidia’s laatste lineup is gewoon niet zo spannend evenals die van Intel. Nu zou je kunnen zeggen dat die van AMD dat ook niet zijn, en dat is gedeeltelijk waar. Maar een underdog die zo’n enorme inhaalslag maakt (of in ieder geval nu producten produceert die ook daadwerkelijk een beetje kunnen concurreren) vind ik zeker een knappe prestatie en het spijt me om t te zeggen, maar dit is gewoon terug te zien in de huidige line-up van Intel en Nvidia (Intel zou al 7nm procs op de markt hebben weet je nog? Volgens mij vorig jaar al). Je hoeft t uiteraard niet met me eens te zijn, en ik snap best dat de CEO van Intel en Nvidia wat anders zeggen. Maar geen enkele CEO zal tijdens zijn speech zeggen: pff dit product hebben we maar even snel op de markt geslingerd om AMD voor te zijn.

Overigens is dit bij meer bedrijven zo, zo wilde Samsung destijds de Note7 nog snel voor de nieuwe iphone releasen.
De inhaalslag van AMD aan de cpu kant is zeker indrukwekkend te noemen. Daar zijn we het over eens. Ik wacht ook met smart op de nieuwe 7nm Ryzen, zeer benieuwd of die inderdaad 5 GHz gaan halen.

Aan de gpu kant bestaat die positiviteit echter niet. Als je even door alle advies prijzen heen kijkt en gewoon kijkt naar wat Nvidia onder de streep over houdt dan ga je begrijpen welk spelletje daar gespeeld wordt. Nvidia probeert elke X maanden met een nieuw product te komen dat Y sneller is. Hoe succesvoller de nieuwe architectuur is des te simpeler die kaart gemaakt kan worden. Hier heeft Nvidia speciale simulatoren voor waarbij die kaarten volledig fysiek gevirtualizeerd worden. Op deze manier heeft Nvidia tot heden elk jaar zijn marge kunnen vergroten. Hierbij was de eerste grote doorbraak de Geforce 6xxx serie wat de eerst keer in jaren was dat Nvidia daadwerkelijk winst zag op zijn Geforce lijn. Vroeger was dat namelijk alleen maar quadro. Wat ze feitelijk doen is een mid-range kaart aan hardware verkopen voor high-end prijzen.

Bij AMD Radeon is exact het tegenovergestelde aan de hand. Daar zie je enorm dure hardware voor afbraak prijzen de markt in worden gezet. Het gerucht is dat elke vega AMD maar liefst $100 dollar verlies oplevert. Schattingen gaan zelf zo ver dat een RX 580 ongeveer even duur is om te maken als een GTX 1080. Op het moment dat je je dat realiseert zie je pas hoe enorm groot de voorsprong van NVidia is. Bij de laptops zie je dit eigenlijk ook. https://www.notebookcheck...inst-Nvidia.376061.0.html Kijk ook eens naar de winstcijfers van Nvidia. Het bovenstaande wordt bevestigd in de winstcijfers, Nvidia kan onderhand de retail prijzen halveren en nog winst maken.

Radeon zit momenteel gewoon in zwaar weer. Dit is verder ook helemaal niet raar. Dit zagen we letterlijk al jaren aankomen puur omdat AMD zijn R&D budget elk jaar aan het inkorten was. Daardoor zag je voor Polaris steeds meer rebrands en een steeds tragere 'time to market'. Op basis daarvan heb ik een aantal doemvoorspellingen gedaan die helaas allemaal zijn uitgekomen. De vraag is op welke termijn AMD Radeon weer terug komt in high-end. Zo ver ik kan zien zijn ze pas weer gaan investeren in 2017 dus ik reken eigenlijk voor 2021 niet op een GPU uit de stal van AMD die Nvidia van de prestatie kroon kan stoten. Midrange maken ze eerder een goede kans omdat zowel Nvidia als AMD nu beide bij dezelfde leverancier kopen (TSMC) en AMD minder om marge geeft.

[Reactie gewijzigd door sdk1985 op 30 januari 2019 03:52]

Heb je meer informatie over dat stukje dat een RX580 duurder is om te maken?
Ik vraag mij af hoe dat dan zit. Want de GPU is kleiner dus er passen er meer in een wafer. GDDR5 is goedkoper dan 5X. De cooler is minder complex (in het geval van de RX480) dus ook die is goedkoper.
Dus hoe kan het dan zijn dat een 1080 toch nog goedkoper is om te maken?

Vega is zeker moeilijk geweest want dat zijn erg dure chip door het gebruik van HBM. Die Radeon VII is ook meer een noodgreep om toch nog een beetje in the picture te blijven voor de marketing maar eigenlijk zouden ze die kaarten beter niet kunnen maken en verkopen. En de GPU's voor instinct gebruiken.

Vega is ook altijd voor het datacenter bedoelt geweest en daar zijn de marges wel goed.

Ik ben wel benieuwd wat AMD met Navi voor elkaar gaat krijgen. Het zal een soort van herhaling van Polaris zijn. Maar hopelijk komen ze deze keer wel met een Big Navi chip die er van Polaris nooit uitgebracht is (zouden wel plannen voor zijn geweest maar uiteindelijk hebben ze daar Vega voor ingezet).

[Reactie gewijzigd door Astennu op 30 januari 2019 09:00]

Navi had een extra respin nodig, Dat levered echt geen maanden uitstel op. die komt gewoon ergens deze zomer.

Verder praat je onzin want AMD KAN niet eens rechtstreeks aan miners leveren want ze maken de kaarten niet zelf.

En de steam hardware servey heeft een history van het onder rapporteren van AMD hardware.
kijk de CPU overzicht. nauwelijks beweging. maar als je naar mindfactory verkoop aantallen kijkt dan verkopen ze daar meer AMD 2600 series CPU's als alle intel CPU's bij elkaar. en de 2700 verkoopt ook helemaal niet slecht.

Ja dat is alleen retail maar gamers zijn en heel groot deel van de retail markt.
en verklaart ook waarom er Q1 van 2019 nog een $699 Vega wordt gelanceerd. Dat ga je niet doen als je juni 2019 met een high-end navi op de markt komt.
daar zo ik niet zo zeker van zijn. Ze hadden die GPU al liggen. En ook al is die GPU helemaal niet ontwikkeld voor gaming (een nog gemaakt op 7nm early risk production) nvidia belachelijke prijzen maakt dat ze hem toch in de gaming markt kunnen zetten. Maar het is niet de gpu die ze je echt willen verkopen. Deze is er meer om de benchmarks op te vullen tot die tijd. Raden VII kunnen ze zo weer intrekken en vervangen door een veel goedkopere navi. Kost ze nagenoeg niks.
In December zou er een 7nm Vega komen, dat werd een aankondiging in januari
Opnieuw onzin. 7nm Vega voor gaming is nooit aangekondigd. En 7nm Vega voor professionele toepassingen was al in november aangekondigd en in december gewoon op de markt.

[Reactie gewijzigd door Countess op 30 januari 2019 01:17]

Navi had een extra respin nodig, Dat levered echt geen maanden uitstel op. die komt gewoon ergens deze zomer.
Zonder bron is deze opmerking weinig waard. Is verder ook niet zo relevant voor de discussie of AMD nu in Juni of September met Navi komt. Het punt is dat Nvidia alle tijd heeft om met een <$300 te komen en dus de huidige GTX 1050 Ti en GTX 1060 kan blijven slijten de komende twee kwartalen.
Verder praat je onzin want AMD KAN niet eens rechtstreeks aan miners leveren want ze maken de kaarten niet zelf.
Melden ze zelf tijdens earnings call. Even snel googlen levert dit op, https://fudzilla.com/news...elling-mxm-gpus-to-miners Als je zelf gaat zoeken kom je ongetwijfeld meer bevestiging tegen.
En de steam hardware servey heeft een history van het onder rapporteren van AMD hardware.
kijk de CPU overzicht. nauwelijks beweging. maar als je naar mindfactory verkoop aantallen kijkt dan verkopen ze daar meer AMD 2600 series CPU's als alle intel CPU's bij elkaar. en de 2700 verkoopt ook helemaal niet slecht.

Ja dat is alleen retail maar gamers zijn en heel groot deel van de retail markt.
Denk jij echt dat Vega wel een significant aandeel heeft? Natuurlijk kun je debatteren over de accuraatheid van steam maar het hele product komt niet eens in de lijst voor... Steam heeft hun cijfers overigens vorig jaar gecorrigeerd voor de Chinese internetcafés. Bij een enigszins zinnig volume is dat echt niet mogelijk.

Overigens zijn gamers zijn ongetwijfeld een groot deel van de retail markt, máár het gros van de gamers speelt niet op custom machines. Bij Steam is er bovendien een groot aantal laptops (zie resoluties en gpu's).

Verder zijn die marktaandelen bij steam cumulatief. Dus wanneer mindfactory in één maand 47% van de retail markt zou pakken ( https://hothardware.com/n...s-mindfactory-coffee-lake ) dan is dat een druppel op een gloeiende plaat voor de steam populatie in zijn totaliteit. Dat is immers een optel som van alle systemen en je ziet daar zelfs gpu's als een GT 210 voorbij komen (2011). Dus los van het probleem dat retail die steam markt niet vormt sla je dan in één succesvolle maand geen deuk in een pakje boter. Dan moet je echt systematisch veel en veel meer dan Intel verkopen. Op basis van de omzetcijfers weten we dat dit nog niet aan de orde is, AMD haalt nog altijd nog geen 10% van wat Intel doet. Wat dat betreft is AMD al oververtegenwoordigd onder de Steam gebruikers.
https://ycharts.com/companies/AMD/revenues
https://ycharts.com/companies/INTC/revenues
daar zo ik niet zo zeker van zijn. Ze hadden die GPU al liggen. En ook al is die GPU helemaal niet ontwikkeld voor gaming (een nog gemaakt op 7nm early risk production) nvidia belachelijke prijzen maakt dat ze hem toch in de gaming markt kunnen zetten. Maar het is niet de gpu die ze je echt willen verkopen. Deze is er meer om de benchmarks op te vullen tot die tijd. Raden VII kunnen ze zo weer intrekken en vervangen door een veel goedkopere navi. Kost ze nagenoeg niks.
Maar hij is er nu nog niet (!). Dus hij ligt niet klaar, hij moet nog komen. Combineer dat met jouw mening dat deze zomer Navi er al is en dat jij er blijkbaar vanuit gaat dat Navi dit prestatie niveau gaat overtreffen dan blijft het een zeer onlogische keuze om voor zo'n korte periode een product in de markt te zetten. Vergis je niet dat zelfs in de gesuggereerde oplage van 5000 stuks een verlies van 200 dollar per kaart direct een miljoen kost. Dat even los van de R&D en andere overhead. Verder ga je ook een commitment aan om het product via je drivers een paar jaar te ondersteunen wat ook bergen geld kost. (Kijk maar eens hoeveel gpu specifieke bug fixes er voorbij komen in release notes van drivers). Dat ga je echt niet doen voor 3-4 maanden. Wat mij betreft is dat alleen zinnig wanneer je weet dat je daar minimaal een jaar mee vooruit kan. Of dat zo is weten we volgen jou deze zomer ;).
Opnieuw onzin. 7nm Vega voor gaming is nooit aangekondigd. En 7nm Vega voor professionele toepassingen was al in november aangekondigd en in december gewoon op de markt.
Aangekondigd, officieel niet nee. Over die kaart werd in juni al gefluisterd inclusief het feit dat de gaming variant 16 GB zou krijgen: https://www.pcgamer.com/a...xpect-them-any-time-soon/ Tweaktown wist toen overigens ook al te vertellen dat hij 4096 bit zou worden. De hoop van velen was dat die december zou komen. Zoals gezegd werd dat een aankondiging in januari.

Maar goed, misschien is het handiger gewoon je eigen mening te delen in plaats van gaten proberen te steken in mijn onderbouwing? Jij voorziet wel een dreiging voor Nvidia in de vorm van AMD? Jij denkt dat Navi beter wordt dan Radeon 7? Jij denkt dat Navi deze zomer op de markt is? Jij denkt dat AMD die Radeon 7 kaart binnen 6 maanden weer van de markt haalt? Jij denkt dat het marktaandeel van AMD onder gamers hoger ligt dan de Steam cijfers suggereren? Volgens mij heb ik ze er nu tussenuit gevist, maar dat is allemaal tussen de regels door...

[Reactie gewijzigd door sdk1985 op 30 januari 2019 03:34]

Denk jij echt dat Vega wel een significant aandeel heeft?
vega? polaris. daar zit de markt.
an is dat een druppel op een gloeiende plaat voor de steam populatie in zijn totaliteit. Dat is immers een optel som van alle systemen
Was het dat maar dan was het nog enigszins nuttig. nee het is een (psuedo) random survey die het totaal update. slechts een klein deel van de gebruiker word bij elke update ondervraagt.
Dus wanneer mindfactory in één maand
1 maand? al maanden. al zeker een jaar is AMD's marktaandeel flink aan het groeien. maar steam beweegt nauwelijks.
Maar hij is er nu nog niet (!)
de GPU hadden ze liggen. de kaarten er omheen moeten nog even gemaakt worden met een gamer scroud ect.
Combineer dat met jouw mening dat deze zomer Navi er al is en dat jij er blijkbaar vanuit gaat dat Navi dit prestatie niveau gaat overtreffen dan blijft het een zeer onlogische keuze om voor zo'n korte periode een product in de markt te zetten.
het is AL LANG bekend dat midrange navi dit jaar komt, en big navi iets later, H1 2020. maar ik zie midrange navi ook makkelijk bij het niveau van de radeon VII in de beurt komen.
een verlies van 200 dollar per kaart
kost 650, verkoop voor 700 = verlies van 200?
vervoeren en verkopen kocht ECHT geen 250 dollar.
Dat even los van de R&D en andere overhead.
welke R&D? opnieuw, ze hadden deze GPU al.

[/q]Verder ga je ook een commitment aan om het product via je drivers een paar jaar te ondersteunen wat ook bergen geld kost[/q]

Het is een Vega variant, zeker wat gaming betreft.
Tweaktown wist toen overigens ook al te vertellen dat hij 4096 bit zou worden.
wow! gaming variant van al bekende GPU met 4096bit geheugen bus krijgt 4096 geheugen bus! amazing! dat is pas een sterk staaltje investigative journalism. ja dat bewijst meteen alles natuurlijk!
Jij voorziet wel een dreiging voor Nvidia in de vorm van AMD?
zonder twijfel. 6-9maanden concurreren op de midrange met 16nm GPU's (12nm marketing naam) tegenover 7nm? success.

de enige vraag is welke smerige trucks nvidia uit zijn trukendoos gaat halen om het te bestrijden.
Jij denkt dat Navi beter wordt dan Radeon 7?
big navi? zonder twijfel. midrange navi komt dicht genoeg in de beurt voor de helft van het geld.
Jij denkt dat Navi deze zomer op de markt is?
midrange navi? yup.
Jij denkt dat AMD die Radeon 7 kaart binnen 6 maanden weer van de markt haalt?
nee, hij blijft voor content creators interessant.
Volgens mij heb ik ze er nu tussenuit gevist, maar dat is allemaal tussen de regels door...
ja... daar ben je niet heel goed in.

[Reactie gewijzigd door Countess op 31 januari 2019 11:51]

volledig mee eens, ik heb de 2080ti gekocht maar beetje loos dat ik met battlefield 5 RTS low niet eens 55 fps haal.

Ja hij kostte 1200 euro maar heb er wel jaren plezier van. Mijn vakantie weekje naar new york was 1800 e oid. slechts 1 week fun van.
RTX op low en geen 55 frames? Dat is erg gek, ik haal met RTX aan (medium) +- 80 frames met een 2080..?
4k alles op ultra verder?
2 keer ~600 euro uitgeven had je nog veel langer plezier gegeven. of 4 keer ~300 euro.

een high end GPU kopen voor de toekomst is werkelijk het aller slechte dat je kunt doen naast je geld in de open haard opbranden.
Aantal games waar je flagship feature in te gebruiken is: 1
Aantal resoluties waarop voor het eerst speelbare framerates mogelijk zijn: 0

Daar komt bij dat 9xx naar 10xx een relatief hoge 'gemiddelde FPS toename' was t.o.v. 7xx naar 9xx. Kan is dus groot dat er meer mensen de upgrade van 9xx naar 10xx gemaakt hebben dan van 7xx naar 9xx. De hoeveelheid spelers die in de markt zijn voor een top-range kaart om vanaf 9xx over te stappen zal lager zijn dan toen de 10xx kwam en de mensen van 7xx overstapten.

En dan natuurlijk nog een leuke prijsstijging.

Er komt dus een flagship release (waar de aantallen al niet zitten), tegen een hogere prijs dan ooit tevoren terwijl de winst in FPS door upgrade niet enorm is en er geen nieuwe grenzen doorbroken worden. Daarnaast geen AAA-games die de nieuwe features helpen te verkopen.

En bij de sales afdeling zijn ze verbaasd door de tegenvallende verkopen. Tja.
Aantal resoluties waarop voor het eerst speelbare framerates mogelijk zijn: 0
Dan ben je toch niet goed op de hoogte. De 2080 Ti doet in de zwaarste stand 95,2 fps op 1920x1080. Zo ver ik weet ligt de grens nu bij 1440p. Kijk anders even hier: https://nl.hardware.info/...nchmarks-in-battlefield-v

Verder zou ik overigens ook geen RTX kaart kopen voor die ene game die het ondersteund ;).
Er komt dus een flagship release (waar de aantallen al niet zitten), tegen een hogere prijs dan ooit tevoren terwijl de winst in FPS door upgrade niet enorm is en er geen nieuwe grenzen doorbroken worden. Daarnaast geen AAA-games die de nieuwe features helpen te verkopen.
Klopt ook niet. Zo'n 2080 Ti is toch echt wel een bak sneller dan het oude aanbod, zie https://www.techpowerup.c..._Founders_Edition/33.html Ding gaat dubbel over een 980 Ti. Prijs blijft natuurlijk problematisch, maar over de performance valt an sich weinig te klagen. Nvidia lijkt alle prijspunten gewoon door te hebben geschoven. Als ze de RTX 2060 een RTX 2070 hadden genoemd en de 2080 Ti een Titan dan had vermoedelijk er geen haan naar gekraaid.

[Reactie gewijzigd door sdk1985 op 29 januari 2019 23:36]

Dan ben je toch niet goed op de hoogte. De 2080 Ti doet in de zwaarste stand 95,2 fps op 1920x1080. Zo ver ik weet ligt de grens nu bij 1440p. Kijk anders even hier: https://nl.hardware.info/...nchmarks-in-battlefield-v
Dat is niet wat ik bedoelde...of onze definitie van 'speelbare framerates' verschillen flink. Je moet echt flink gaan zoeken om spellen te vinden waarop de GTX 2080 Ti op 4K 60+ FPS haalt waar de RTX 1080 Ti daar echt flink onder zat. De GTX 1080 Ti maakte 4K speelbaar. De RTX 2080 Ti doorbreekt niet een volgende grens op dat vlak. Degene die persé 4K wilden hebben al een GTX 1080 Ti en voor die groep biedt de RTX 2080 Ti niet bijzonder veel meerwaarde. Ja, een 20%+ FPS in de meeste gevallen, maar in alle resoluties daar onder zit de GTX 1080 Ti doorgaans al op 70+ FPS en dan geldt voor het overgrote deel van de spelers dat de extra frames van de RTX 2080 Ti voornamelijk zichtbaar zijn in de FPS counter en niet meer in hoe vloeiend de beelden op het scherm zijn. Ik ga dan even uit van G-Sync schermen tot 100+ FPS range...als je een xx80 Ti op mindere schermen zit ben je niet echt waar voor je geld aan het halen.

Dan is er nog BF V met Ray Tracing...maar ik denk dat de verkoopaantallen ook niet komen van degenen die daar persé die 95 frames willen hebben en de 70 van de RTX 2070 echt te weinig vinden.

Met uitzondering van 1 spel (wegens Ray Tracing) kon de GTX 1080 Ti dus eigenlijk al prima wat de RTX 2080 Ti nu dus weer wat beter doet. Dit is ook door te trekken naar de lager gepositioneerde kaarten...relatief weinig reden tot upgraden dus.
Klopt ook niet. Zo'n 2080 Ti is toch echt wel een bak sneller dan het oude aanbod, zie https://www.techpowerup.c..._Founders_Edition/33.html Ding gaat dubbel over een 980 Ti. Prijs blijft natuurlijk problematisch, maar over de performance valt an sich weinig te klagen.
Er zit zeker weer een hoop extra performace, sure. Maar 9xx naar 10xx liet over het algemeen een grotere stap zien. Daardoor zullen er dus al relatief veel mensen overgestapt zijn van de 7xx of 9xx naar de 10xx.
Nvidia lijkt alle prijspunten gewoon door te hebben geschoven. Als ze de RTX 2060 een RTX 2070 hadden genoemd en de 2080 Ti een Titan dan had vermoedelijk er geen haan naar gekraaid.
Dat is zonder meer waar, maar dan hadden we de RTX 2060 zoals we 'em nu kennen vergeleken met de GTX 1070 en gedacht hebben 'meh, nog geen 10% winst ten opzicht van de voorganger'.

Overigens denk ik dat de RTX 2060 het wel goed gaat doen...waar de GTX 1060 en de RX 590 op 1440p vaak randje 60 FPS zitten, zit de RTX 2060 daar comfortabel boven. Dat is voor een flinke groep toch best interessant.
Dat is niet wat ik bedoelde...of onze definitie van 'speelbare framerates' verschillen flink. Je moet echt flink gaan zoeken om spellen te vinden waarop de GTX 2080 Ti op 4K 60+ FPS haalt waar de RTX 1080 Ti daar echt flink onder zat.
Die definitie verschilt niet, jij komt nu achteraf ineens met 4K.

Waar wij blijkbaar van mening in verschillen is 4K als de heilige graal voor gaming zien. Wat mij betreft is die 4K resolutie is tof op je TV, niet om op te gamen. We hebben nog zo veel stappen te gaan om richting foto realisme te gaan dat 4x zoveel pixels renderen tov full hd gewoon te vroeg is. Natuurlijk is scherper beeld mooi om te zien maar als ik het naar extremen trek en moet kiezen tussen unreal tournament 1999 in 8K en Unreal Tournament 3 in full hd dan weet ik het wel. Des te meer sinds er tot heden slechts één 4K monitor bestaat die over 1ms en 144 HZ beschikt. Nu op 4K gaan gamen geeft zelfs met de snelste kaart die er bestaat in het gros van de games gewoon een suboptimale ervaring. Alleen de oudere games draaien daar echt lekker op.
Ik denk dat we (deels) langs elkaar heen praten omdat voor mij 60+ FPS de lat voor 'speelbare framerates' is. Voor jou is dit kennelijk 144 FPS en dan praten we inderdaad over iets heel anders. Als we vanuit het 60 FPS oogpunt kijken, is de 4K barrière met de GTX 1080 Ti al geslecht en daar komt mijn opmerking 'de RTX 2080 Ti doorbreekt geen grenzen' vandaan.

Als we 144 FPS op 1080p als grensverleggend beschouwen, wordt er ook geen grens doorbroken; de GTX 1080 Ti kon het niet in de meeste gevallen en voor de RTX 2080 Ti geldt hetzelfde.

Wat resolutie betreft heeft 1440p mijn duidelijke voorkeur voor PC. Ten opzichte van 1080p is alles net even scherper en daarmee een stuk prettiger werken. De 4K zie ik ook het nut niet direct van voor PC.

Maar goed, punt van m'n post was dat er geen grote doorbraken zijn ten opzichte van de 10xx behalve de toevoeging van Ray Tracing en een AA die nergens gebruikt worden (deze regel wordt zoals ze zeggen door 1 uitzondering bevestigd). Het is dus meer van hetzelfde...ja het is een mooie FPS boost maar nee het is geen revolutionaire stap. Dat een CEO / sales dan verbaasd doen over tegenvallende verkopen is of goed toneelspel, of het gewoon niet helemaal snappen.
Mooi zet die 2080ti maar naar 799 :Y)
Zou echt wat zijn geweest als AMD navi nu klaar had. Echt jammer }>

[Reactie gewijzigd door Cyclonic op 29 januari 2019 21:51]

Pfft zelfs dat vind ik nog absurde bedragen. Bij 600 euro ga ik er serieus over nadenken. En bij 500 over de 2080 en 400 voor de 2070
Idd dat zou ik ook correcte prijzen vinden. €400 voor een 2070 zou ik nog willen betalen. En dan nog is dit duur want vroeger zat zo'n kaart rond de €300. Van mij mag het dus nog altijd lager.
Waarom zou AMD navi veel lager prijzen dan de RTX kaarten? Goed verkopen doen ze (waarschijnlijk) toch niet en een hogere winstmarge betekent meer winst, die ze dringend nodig hebben.

[Reactie gewijzigd door Bigheld op 30 januari 2019 00:49]

Goed verkopen doen ze toch niet
want?

En wat ze vooral nodig hebben is meer marktaandeel. en dan werkt lagere prijzen juist uitstekend.

[Reactie gewijzigd door Countess op 30 januari 2019 00:24]

Geschiedenis. Kijk maar eens "the gpu war is over" van adoredtv. Nvidia heeft de afgelopen 10ish jaar min of meer altijd meer omzet gehad dan radeon, ongeacht of hun producten beter of slechter waren. (met (te) kleine verschillen afhankelijk welke van twee het was.)

[Reactie gewijzigd door Bigheld op 30 januari 2019 00:31]

Nvidia heeft het nu echter wel heel erg verkloot.
Nvidia: verkoop van GeForce RTX-videokaarten valt tegen
Ja he he had ook niks verwacht, ze zijn VEELTE duur, €1300,- (toen ze net uit kwamen) voor de Geforce RTX 2080 Ti is echt veel te duur, het had gewoon rond de Geforce GTX 1080 Ti moten zitten, en dat was €900,- en de goedkoopste Geforce GTX 1080 was €750,- toen ze net uit kwamen.

En dan hoor je "maar dat komt door nieuwe techniek", nee dat is onzin, want bijna iedere nieuwe versie Grafische kaart (GPU) heeft nieuwe techniek.

Het heeft er mee te maken dat ze al jaren nu geen concurrentie hebben, ze zijn sinds de Geforce GTX 1080 de snelste, pas 14 maanden later kwam AMD pas met de Radeon RX Vega 64, en toen was de Geforce GTX 1080Ti al lang uit die veel sneller is en bijna net zo duur.

[Reactie gewijzigd door AmigaWolf op 30 januari 2019 02:51]

Het is niet helemaal waar dat het niet door de nieuwe GPU techniek komt.
Deze chips zijn qua die size wel groter dan ooit. Tov de Pascal generatie wel een heel stuk groter.

Maar het prijs verschil is wel veel te groot zo veel duurder zijn ze inderdaad niet.
En Pascal is door mining te lang duur gebleven die zijn eigenlijk amper goedkoper geworden tov de launch prijzen en normaal zie je wel prijs verlagingen.
Het is niet helemaal waar dat het niet door de nieuwe GPU techniek komt.
Deze chips zijn qua die size wel groter dan ooit. Tov de Pascal generatie wel een heel stuk groter.

Maar het prijs verschil is wel veel te groot zo veel duurder zijn ze inderdaad niet.
En Pascal is door mining te lang duur gebleven die zijn eigenlijk amper goedkoper geworden tov de launch prijzen en normaal zie je wel prijs verlagingen.
Ja precies, het is triest als je ziet wat zo goed als geen concurrentie doet.
CPU markt is daar het perfecte voorbeeld van.
Van 2600K tm de 7700K is amper de moeite. Prestatie verschil was geloof ik gemiddeld iets van 30%.

Nu AMD er is met Ryzen moet je zien wat er in 1-2 jaar gebeurd is. Core count bij intel is ineens verdubbeld.
Ik denk nog steeds dat de 8xxx serie geen 6 core had gehad als AMD niet met Ryzen was gekomen en de 9xxx serie zeker geen 8 misschien 6 maar ook dat betwijfel ik want waarom zou intel?
Ik denk zelfs dat die hele 9xxx serie dan niet uitgekomen was.

Gelukkig is AMD daar helemaal terug van weg geweest en hebben ze de papieren om de 9900K van intel dit jaar te gaan verslaan qua perstaties. Juist in multi thread maar misschien zelfs single thread.

Intel moet nu al 2 jaar hard aan de bak om niet achterop te raken en die nieuwe 10nm chips met eindelijk een keer een nieuwe architectuur kunnen niet snel genoeg komen.
Ja precies, de CPU markt is ook een goede voorbeeld, maar de Intel CPU is nog steeds de beste keuze als je op 1080P en 144Hz en hoger Hz gamed.

https://www.guru3d.com/ar..._processor_review,19.html

Ook op de nieuwe high-end CPU's van AMD, maar bijna niemand koopt een 24 core die €1300,- kost om bijna alleen te gamen.

https://www.guru3d.com/ar...per_2970wx_review,24.html

[Reactie gewijzigd door AmigaWolf op 30 januari 2019 15:23]

Ja dat klopt nog wel.
Maar dat kan straks zo maar anders zijn. AMD weet ook wat de zwakke punten van Ryzen waren. En de focus van die architectuur was ook weer gericht op datacenter/server gebruik. En gaming kwam op plaats twee.

Er is ook al gezegd dat er aan de latency issues werkt is en dat heeft invloed op de game perestaties. Dus ik heb hele goede hoop dat Zen2 (Ryzen 3) daar een mooie winst boekt tov de voorgangers en nu wel kan concurreren tegen de 9900K als het gaat over gaming.
Ja dat klopt nog wel.
Maar dat kan straks zo maar anders zijn. AMD weet ook wat de zwakke punten van Ryzen waren. En de focus van die architectuur was ook weer gericht op datacenter/server gebruik. En gaming kwam op plaats twee.

Er is ook al gezegd dat er aan de latency issues werkt is en dat heeft invloed op de game perestaties. Dus ik heb hele goede hoop dat Zen2 (Ryzen 3) daar een mooie winst boekt tov de voorgangers en nu wel kan concurreren tegen de 9900K als het gaat over gaming.
Ik hoop het, maar tot nu toe en dat is al vele jaren zo, is een Intel CPU het beste om te hebben als je 1080P 144Hz of hoger Hz gamed.
Vergeet ook niet dat de prijzen van de vorige generatie zo hard de lucht in gegaan zijn door cryptomining dat de nieuwe kaarten -in vergelijking- toch 'goed' geprijsd staan. Die vlieger gaat natuurlijk niet op voor een markt die geen cryptomining (meer) doet.
En vergeet niet dat bijna een jaar lang de Geforce GTX 1080 onder de €600,- al waren als je kijk naar de grafieken onder de prijs van de Geforce GTX 1080, zo als de Gigabyte GeForce GTX 1080 WINDFORCE OC 8G en Inno3D GeForce GTX 1080 HerculeZ Twin X2 8GB en MSI GeForce GTX 1080 AERO 8G OC en MSI GeForce GTX 1080 ARMOR 8G OC en Gigabyte Aorus GeForce GTX 1080 8G (rev. 2.0) en Zotac GeForce GTX 1080 AMP Edition 8GB en nog veel meer Geforce GTX 1080 grafische kaarten.

categorie: Videokaarten
Het heeft er mee te maken dat ze al jaren nu geen concurrentie hebben, ze zijn sinds de Geforce GTX 1080 de snelste, pas 14 maanden later kwam AMD pas met de Radeon RX Vega 64, en toen was de Geforce GTX 1080Ti al lang uit die veel sneller is en bijna net zo duur.
Dat hebben gamers helemaal aan zichzelf te danken. AMD had generaties lang de betere kaarten. veel betere prijsprestatie verhouding en lager verbruik. veel goedkoper voor 90+% van de prestaties ect.
maar het beste dat AMD kreeg aan marktaandeel was heel even 50%.

geen wonder dus dat AMD daar als eerste is gaan snijden, in de moeilijke tijden voor de release van Zen, en de focus heeft gelegd op CPU's.

[Reactie gewijzigd door Countess op 31 januari 2019 10:54]

De verkopen vallen tegen en men had meer verwacht.
Nvidia steekt met kop en schouders uit boven alles.
Ze hebben gewoon de snelste kaart, simpel.
en nobody cares want dat ding kost 1300 euro.
in de segmenten waarin veruit de meeste gamers kaarten kopen heeft AMD de beste prijs/prestatie verhouding. eigenlijk altijd gehad.
Mag nog wel lager 300-400 euro ofzo en dan verdienen ze er nog dik aan.
Er zijn hele studies over het ideale prijspunt voor iets, en gratis is nooit het juiste punt is gebleken, want dan vertrouwen mensen het niet, zeker niet bij meer ingewikkelde artikelen.

En blijkbaar is de prijs die ze nu bedacht hebben te hoog, want ze verkopen naar hun zin te weinig. Hierdoor lopen ze dus een paar risico's:
1) ze blijven met een te hoge voorraad zitten, wat de winst drukt (opslag kost ook geld)
2) ze krijgen een slechte reputatie (te weinig bang-for-the-buck)
3) ze lijden gezichtsverlies als ze nu al moeten zakken de prijs.

We zien het ook bij intel; die kreeg ook de naam dat ze hebberig zijn door hun tic-toc strategie en marginale verbeteringen per generatie.En die naam werd nog verstevigd doordat amd met multi-core cpu's kwam die nog betaalbaar waren ook.
De enige manier waarop nVidia de prijzen gaat laten zakken is als AMD met Navi iets neer zet wat pijn kan doen en dat ze daar ook genoeg van kunnen leveren.
Tot die tijd is er gewoon zo goed als geen alternatief. De RX580 concurreert een beetje met de 1060 maar die zijn bijna op. Vega 56 met de 2060. Maar dan heb je het wel redelijk gehad. En Vega voor 350 euro verkopen is voor AMD niet ideaal die chips zijn veel te duur.

Dus nVidia kan voor die hogere modellen vragen wat ze willen want 1070 en hogere kaarten zijn al niet meer te krijgen. Wil je iets snellers moet je wel.
De Radeon VII wordt straks nog een optie maar is met 700 euro ook duur en geen 2080 Ti concurrent maar eerder een 2080 concurrent. En ook daar wil AMD er eigenlijk niet veel van verkopen want dat zijn hele dure kaarten door de 16GB HBM2 en de relatief grote 7nm chip omdat er heel veel FP64 compute power in zit voor het datacenter. En bij games gebruik je die helemaal niet.
Dus ook daar is voor nVidia weinig rede om iets met de prijzen te gaan doen.

Ik denk dat we misschien in Q3 of Q4 pas wat verlaging gaan zien.
Vragen is niet de kunst, krijgen is de kunst.

Early adopters kopen het wel tegen gigantische prijzen, maar de grote menigte moet het ook de moeite waard vinden, en daar wringt nu de schoen; die kopen niet, en daarom vallen de verkopen tegen.

Er is nog genoeg te krijgen vanuit de tweedehands markt (die early adopters moeten hun verslaving ook betalen :)) en heel veel mensen wachten tot de prijs eens gaat zakken, of de 580's en 590's gaan overwegen omdat die wel betaalbaar zijn, als ze moeten vervangen.

Zoals ik al zei; het prijspunt is gewoon fout gekozen, en daar hebben ze nu last van.

De problemen bij TSMC komen nvidea nu wel goed uit, want ze kunnen in ieder geval een tekort fingeren.

(typefoutje verholpen)

[Reactie gewijzigd door Little Charlie op 31 januari 2019 12:19]

Ik kan nog altijd niet begrijpen dat AMD zo'n slecht beleid gevoerd heeft door voor HBM te kiezen. Eerst voor Fury, dan voor Vega en nu terug voor de Radeon VII. Daardoor is het snel bergafwaarts gegaan voor AMD. Fury zat rond de €600 en de Fury X rond de €700 als ik het mij goed herinner. Dat waren veel te hoge prijzen voor die tijd en AMD raakte zijn kaarten niet verkocht. Het HBM was veel te duur en moeilijk beschikbaar. Fury kon ook slechts met max 4 GB vram uitgerust worden terwijl Nvidia al aan 8 GB zat. Dat was ook een groot nadeel. Dat is toch zeer zeer slecht beleid geweest van AMD? Hadden ze gewoon voor GDDR gekozen dan was er volgens mij niets aan de hand geweest. Nvidia gebruikt na al die jaren dat HBM voor de eerste keer op de markt kwam nog steeds geen HBM-geheugen voor zijn consumentenkaarten. Dat wil dus zeggen dat het daar nog altijd niet geschikt voor is, anders hadden ze het wel gedaan.

Met zo'n slecht beleid moeten er toch koppen rollen? Ik hoop dat dit met het ontslag van Koduri dan ook gebeurd is en dat AMD met Navi eindelijk weer op de juiste weg zit. Maar het duurt nog lang voordat deze gpu uitkomt. Ik vraag mij ook af of Lisa Su wel capabel genoeg is want zij is toch de eindverantwoordelijke en draagt dus ook schuld.
Voor het data center waar Fiji en Vega voor gemaakt zijn is hbm een logische keuze. Voor gaming kaarten nog niet.

Lisa is juist de juiste persoon. AMD maakt sinds jaren eindelijk weer winst. Vele voor haar is dat niet gelukt.
Lisa heeft er goed aan gedaan focus te hebben en er voor te kiezen gpu op een laag pitje te zetten. Want de cpu markt was juist de mark waar de een goede comeback konden maken dat was in de gpu markt lastiger geweest.

Dus geef het nog een paar jaar. Nu er meer geld binnen komt kan er ook weer meer in de ontwikkeling van gpus gestoken worden. Echter zie je over 2-3 jaar pas resultaat van geld wat nu geïnvesteerd wordt.
Een paar jaar wachten op een concurrentiële gpu van AMD is natuurlijk nog heel lang voor de consument. Die wil nu een antwoord op de absurde prijzen van Nvidia.

Voor datacenter is hbm idd een logische keuze. Maar verkoopt AMD daar veel van hun videokaarten of is het daar ook allemaal Nvidia wat de klok slaat? Daar wordt toch ook gekeken naar het verbruik van een gpu neem ik aan en Nvidia heeft ook Cuda.

Of Lisa de juiste persoon is weet ik nog zo niet. Het is beginnen misgaan met AMD's gpu's vanaf de 290. Ervoor was AMD nog concurrentieel met Nvidia. Mijn laatste AMD-kaart was dan ook een HD7950. Ik denk dat Lisa voor de 290 nog niet aan het roer stond bij AMD, dus.....
Natuurijk wil de consument het nu maar zo werkt het niet. Daarnaast kan het best zijn dat Navi aardig mee kan komen. Persoonlijk verwacht eerst een midrange launch en later (misschien zelfs volgend jaar pas) een high end Navi.

Nvidia zal vast meer voor het datacenter verkopen maar het is een hele lucratieve markt waar hoge marges op zitten. AMD heeft Open L meer dan prima. Super computers gebruiken vaker specifieke aansturing.

Lisa is pas vanaf 2014 ceo. De 290 is van 2013 dus daar heeft ze geen invloed op gehad. En de gpu die er na kwam ook niet want die waren al bijna af of in ontwikkeling. Vega mogelijk wel en Navi ook.
En wat ik al zei ze heeft besloten focus te leggen op cpu en eerst dat goed te krijgen.
AMD heeft veel minder R&D budget dan nVidia of Intel is zo maar een factor 5-10 lager. En voor dat bedrag moeten ze en een gpu en een cpu ontwikkelen die beter zijn dan de concurrentie?
We moeten wel realistisch blijven. Dat ze het voor elkaar gekregen hebben met minder geld de CPU's concurrerend te krijgen is al een wonder. En mede te danken aan Intel die zat te slapen.

Nvidia doet dat niet die zijn vol op bezig. Dus Lisa heeft zeker de goede keuze gemaakt. Als ze beide of alleen gpu hadden beide denk ik niet gewonnen. En dan hadden ze geen of weinig winst gemaakt. En dan komen toekomstige producten onder druk te staan omdat er geen geld is.

Nu gaat het financieel eindelijk goed dus is er meer geld om goede producten te ontwikkelen.
AMD heeft veel minder R&D budget dan nVidia of Intel is zo maar een factor 5-10 lager. En voor dat bedrag moeten ze en een gpu en een cpu ontwikkelen die beter zijn dan de concurrentie?
Dan zouden ze er beter mee stoppen. Ze lopen nu al een hele lange tijd achter de feiten aan dus wat heeft het voor zin.

Je vergeet Fury. Daar is al de miserie mee begonnen omdat AMD koos voor HBM-geheugen. En dan stond Su wel al aan het roer, dus ja zij is verantwoordelijk voor de malaise waar AMD nu inzit. Natuurlijk heeft ze besloten eerst de cpu-tak op orde te krijgen. Ze kon niet meer anders nadat ze eerst de gpu-tak om zeep geholpen heeft. Nu de cpu-tak weer winst begint te maken kunnen ze dit geld weer gebruiken om in de gpu-tak te steken maar dit duurt heel heel lang.

Het is wachten tot Intel met zijn discrete gpu's komt want die hebben wel de financiële slagkracht om het Nvidia moeilijk te maken. Was de release niet voor 2020?
Volgens mij snap je het niet helemaal. Fury X is uit 2016. Ja ze stond toen aan het roer maar de ontwikkeling van die kaart was al bezig toen ze aan het roer kwam en dan kan je maar so mucht aanpassen. Navi is onder haar flag ontwikkeld daar zou je haar op kunnen afrekenen.

En HBM is zeker een mooie ontwikkeling het is super snel compact en efficient. Maar het is heel duur. Fury was ook al een beetje ontworpen als een FP32 reken monster. In het datacenter deden deze kaarten het erg goed. Ook bij Mining doen ze het goed. Maar wederom minder efficient met games net als Vega

En helemaal stoppen is onzin. Alle consoles gebruiken AMD GPU's. En ze verkopen ook nog steeds best wat desktop kaarten. Genoeg dat het de moeite is. Als ze er echt mee zouden stoppen wordt jij daar echt niet blij van. Dan kost een 2080 Ti geen 1300 maar eerder 2600 of zelfs meer.

Intel mag het geld wel hebben maar ik verwacht niet dat die eerste kaarten meteen met nVidia kunnen concureren. Ook die worden vooral voor het datacenter gemaakt en daarnaast willen ze er mee gaan gamen. Ze hebben geluk met Raja die wel van gaming houd dus die zal zeker zijn best gaan doen om er meer gaming performance uit te halen.
Vega is zeer zeker wel onder haar bewind ontwikkeld en was een totale flop, net zoals de VII zal worden.
Als game kaart. Maar niet als compute kaart waar hij ook voor bedoelt was.

En een deels was onder haar bewind maar een gpu ontwikkelen duurt 3 jaar. Dus het begin van Vega heeft zij niet aan kunnen sturen.
Su is CEO geworden in oktober 2014. De release van Vega was 14 augustus 2017. Tel daar 3 jaar van af en dan kom je aan augustus 2014 voor begin van ontwikkeling van Vega. Na twee maanden ontwikkeling kon Su de koers van Vega nog veranderd hebben door niet voor HBM te kiezen omdat het te duur en niet goed beschikbaar was. Zo vroeg in de ontwikkeling kan dat nog. Dat heeft ze niet gedaan dus ja ze heeft er schuld aan.

Het doet er trouwens niet toe wie er juist schuld aan heeft binnen AMD. Feit is dat AMD er een serieus potje van gemaakt heeft, zowel op cpu- als op gpu-vlak. Nu zijn ze beetje bij beetje terug aan het herstellen met Zen. CPU is niet echt hun schuld omdat de node vd Foundries op 28 nm bleef hangen. Intel ging gemakkelijk naar 22 en dan 14 nm.
Dat zou helemaal super zijn.
Ik heb een 2080 Ti en het valt inderdaad een beetje tegen.
Maar wat verwacht je ook als er bijna niets op de markt is die RTX of DLSS ondersteunt.
Valt het alleen tegen omdat er geen voldoende aanbod is in Ray Tracking? Want als ik de benchmarks zie is de kaart aanzienlijk beter dan de RTX 2080 of de 1080 TI
RTX is leuk maar laten we even kijken wat het daadwerkelijk doet , beetje reflecties op het water en wat schadow image op een auto in real time projecteren voor een dikke 500-600 of meer Euro !!, is het dat waard ? , de performance is dan ook belabberd in RTX en boet je bijna de helft van je performance in met ene kaart van 1300+ Euro , nee voor de hype gaming zoals in BFV heb je deze rommel echt niet nodig , ik zie dan ook niet welke games er van gaan profiteren als een shadow render en een beetje reflecties al zo'n impact hebben op de performance van een 2080ti en verwanten.

Voor het non RTX gedeelte is de stijging van 500+ Euro even min het geld waard.

Dus de Prijs/Prestatie is dus gewoon belabberd voor die prijs.
En laten we even eerlijk zijn Nvidia is daar in zijn marketing ook zelf schuld aan , Linux Tech Tips had het gewoon bij het rechte end , geen enkele game kon iets aantonen hoe goed RTX wel zou worden , en BFV is nu ook niet echt over naar huis te schrijven , gezien de kritieken die deze game heeft.
Dus zo gezien is het Nvidia zijn Dikke Bult Eigen Schuld verhaal.
De prijs prestatie van de 2060 rtx is prima, alleen geeft geen reden tot upgrade. Zit je nu te azen op een nieuwe GPU, dan presteert de 2060 rtx, afgezien van raytracing, beter dan een 1070ti voor een vergelijkbare prijs. Heb je echter een 1070/1080 dan is er weinig reden tot upgraden, tenzij je echt behoorlijk in de buidel wilt tasten..
Yup, helaas is het product gewoon te vroeg op de markt geslingerd (ze voelden natuurlijk de hete adem van AMD in hun nek). Maar dat de tech onzin is vind ik dan weer niet. Dit maakt games gewoon een flink stuk realistischer (waar voornamelijk racegames en MMO’s waarschijnlijk van profiteren). Dat het nu niet de prijs/moeite waard is daar ben ik het met je eens. Maar ik zie er zeker potentie in.

Forza zal een stuk mooier zijn met realtime raytracing (alleen ik hoef t pas te hebben als ie dan ook 4k ultra en rtx op ultra met 144fps kan leveren).
Ik ook, maar ik vind het niet tegenvallen. Het is veel geld, maar gamen in 4k met 60 frames per seconde is echt een genot. RTX lijkt me vooral nuttig voor de toekomst en daar betalen wij nu alvast de prijs voor.

[Reactie gewijzigd door NotSoSteady op 29 januari 2019 21:55]

Hardware voor de (verre, lees +2 jaar) toekomst kopen is compleet nutteloos,vooral op het gebied van GPU's. Ontwikkeling in performance gaat zo hard dat je over 2 jaar (wanneer je de extra performance nodig hebt) voor het geld wat je hebt bespaard door b.v. een 1080 Ti of 2070 te kopen, een veel snellere kaart koopt en nog goedkoper uit bent.

Zolang je nu niet op 4k game heeft een 2080 Ti gewoon weinig zin.
(no offence verder, ik heb 2 jaar geleden een 1080 Ti gekocht wat ook niet echt nodig was, wel prettig @ 1440p / 144Hz)

[Reactie gewijzigd door Tortelli op 29 januari 2019 22:07]

Je begrijpt me volgens mij verkeerd. Ik bedoel dat ik met deze generatie kaarten niet zal profiteren van RTX, maar dat je al wel een flink bedrag hebt betaald voor de technologie.
Ik snap je reactie nu ;), raytracing is iets wat over 5-6 jaar pas echt groot gaat worden denk ik. Denk dat 95% van de gamers gelukkig zouden worden met een 2080 Ti zonder raytracing en met een €400-500 lagere prijs.
ik denk het niet. ik vergelijk het een beetje met hairworks..ook iets wat Nvidia bedacht heeft , bergen performance kost en niets tot zeer weinig opbrengt qua grafische pracht en praal. Over 3 jaar hoor je niemand meer over RT.
Dat denk ik niet. Dit is natuurlijk ook niet met hairworks te vergelijken, omdat het een volledig nieuwe manier van renderen is. De voorbeelden die je tot op heden hebt gezien zijn slechts enkele grafische elementen, maar laten niet het potentieel van ray tracing zien. Er is nog een hele lang weg te gaan, maar ray tracing zie ik persoonlijk niet verdwijnen.

https://youtu.be/SrF4k6wJ-do
Maar dat was van te voren bekend. Dus wat bezielt je dan om 1300 euro aan een GPU uit te geven?
De kaarten zijn nu erg duur en de nieuwe features worden nog weinig ondersteund, maar wat moet je als je huidige kaart aan vervanging toe is, en je wilt VR . maar geen energie slurpende AMD kaart.

een 2070 dan maar?
Als je weet wat je doet hoeven de VEGA kaarten van AMD echt geen energie slurpers te zijn. Het is alleen jammer dat dit niet fabriek af zo ingesteld is. Met wat tweaken krijg je betere prestaties bij minder opgenomen vermogen.

[Reactie gewijzigd door _Dune_ op 30 januari 2019 09:18]

Wat je moet doen is 7nm gaming GPU's afwachten. Dan komen de echter verbeteringen, zeker op prijs prestatie en prestaties per watt gebied.

Als je GPU niet kapot is is dat veruit de best optie.
Mijn R9 390 doet het nog wel . Ik wacht even wat de NAVI gaat doen idd
Mijn vorige GPU was een R9 290 en ik heb nu inderdaad de stap naar een 2070 gezet. Nu heb ik de oude kaart nog voor een leuke prijs kunnen verkopen op de tweedehandsmarkt, waar dat volgend jaar waarschijnlijk alweer een pak minder is.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Microsoft Xbox Series X LG OLED C9 Google Pixel 4 CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True