Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia's kwartaalomzet uit gaming daalt met 27 procent

Nvidia's omzet uit zijn gamedivisie daalde in het afgelopen kwartaal ten opzichte van vorig jaar met 27 procent. Het bedrijf meldt dat met name een afname van de levering van desktop-gpu's voor GeForce-kaarten de oorzaak is van de daling.

Nvidia's kwartaalomzet uit gaming bedroeg 1,31 miljard dollar waar in dezelfde periode vorig jaar nog 1,8 miljard dollar omgezet werd. Tegenover de daling van de desktop-gpu-leveringen stond wel een groei in het aantal geleverde notebook-gpu's, meldt het bedrijf bij de presentatie van zijn cijfers over het tweede kwartaal van zijn fiscale jaar 2020. Sequentieel nam de omzet wel toe. Nvidia heeft twee magere kwartalen achter de rug.

De Tegra-soc bezorgde Nvidia in het afgelopen kwartaal een omzet van 475 miljoen dollar, 2 procent meer dan een jaar geleden. Het bedrijf levert onder andere Tegra's voor automotivetoepassingen en voor de Nintendo Switch. De omzet van de divisie Professional Visualization, van de Quadro-kaarten, nam met 4 procent toe tot 291 miljoen dollar, met name door goede leveringen voor mobiele workstations. De omzet uit datacenters daalde echter met 14 procent.

Nvidia's totale omzet kwam uit op 2,58 miljard dollar en dat is 17 procent minder dan een jaar geleden maar 16 procent meer dan vorig kwartaal. Nvidia denkt de weg omhoog weer gevonden te hebben, want in het huidige kwartaal verwacht het bedrijf een omzet van 2,9 miljard dollar te behalen.

Door Olaf van Miltenburg

Nieuwscoördinator

16-08-2019 • 08:08

113 Linkedin Google+

Reacties (113)

Wijzig sortering
Misschien heeft de shift van AAA-games naar games als LoL/Fortnite/Overwatch/Apex/PUBG/Rocket League/Teamfight Tactics er ook wel iets mee te maken. Die kun je gerust op een aardappel draaien en AAA is tegenwoordig toch synoniem voor lootboxes en microtransactions.
Was dit al niet te verwachten met name door de daling van vraag naar GPU's voor mining en de niet zo bijzondere RTX?
Mining is al meer dan een jaar afgelopen. Dat de omzet nu lager ligt dan verwacht komt omdat nVidia zich zwaar misrekend heeft met de RTX reeks.

Men dacht dat de consument, zoals met de Pascal generatie, nVidia zou kopen tegen eender welke prijs. Met Pascal was dat een beetje zo omdat er geen alternatief was in de high-end: AMD had een concurrent met de GTX 1060, maar in de high-end hadden ze enkel de veel hetere, slecht verkrijgbare, en simpelweg t dure Vega kaarten... die ook nog eens trager waren dat de 1070 en 1080. voor de 1080Ti heeft AMD nooit een concurrent weten te maken.

Het treurige is dat het eigenlijk nog niet echt anders is: de nieuwe AMD kaarten hebben met de 5700XT een concurrent voor de RTX 2070/2070 Super (even snel als de 2070, iets trager dan de super), maar de 2080/2080Super/2080Ti blijven onaangetast. nVidia dacht dus: we herhalen wat er 2 jaar geleden gebeurde: de consument koopt toch onze crap.

Maar: nVidia vergat dat ze 'een concurrent' hebben naast AMD. Hun eigen kaarten. Er zijn een heleboel retailers die nog pascal kaarten hebben liggen, en de high-end gamers die wel een RTX kaart kopen verkopen hun Pascal kaarten ook. nVidia zag over het hoofd hoe sterk die invloed zou zijn: bij de Pascal generatie was hetzelfde natuurlijk het geval met de GTX900 kaarten, maar het verschil is dat Pacal eigenlijk nog altijd meer dan genoeg is om op 1080p -nog steeds de meest populaire resolutie- te gamen op de hoogste settings. En zelfs op 1440p kan zelfs een 1070 nog altijd prima uit de voeten. Enkel wie op 1440p/100+fps of 4K/60fps wil game kijkt naar een 2080/2080Ti, maar zelfs die gamers kunnen een tweedehands 1080Ti overwegen.
En daarnaast is er ook nog een verschil met de vorige generatie: de prijzen zijn weer omhoog gegooid door nVidia, dus de lokroep van een goedkopere oude kaart is nog wat aantrekkelijker.

De 'concurrentie' van hun eigen oude kaarten is simpelweg groter dan ze hadden verwacht. En in de volgende kwartaalcijfers, wanneer AMD hun 5700 en 5700XT kaarten goed verkrijgbaar zijn (je kan nog altijd geen custom koeler krijgen atm), zal nVidia dat nog harder voelen. Ze zullen moeten kiezen: weer lager dan verwachtte verkoopcijfers, of prijzen ietsje laten dalen.

[Reactie gewijzigd door kiang op 16 augustus 2019 09:27]

Vergeet ook de uitgebleven doorbraak van VR niet. Voor dat doel heb je echt wel een high-end kaart nodig, waar nVidia waarschijnlijk de vruchten van zou plukken. Kan nog komen natuurlijk...
Ik heb een Rift, en met een GTX 980/GTX1060/RX480/RX580 kan je echt prima VR gamen hoor, zonder enig probleem.
Okee, goed om te weten. Ik wacht even een paar jaar totdat de kinderen de deur uit zijn en ik ruimte heb voor een VR kamer. Tegen die tijd zien we wel wat de stand van zaken is :)
De nieuwere VR sets hebben wel een hogere resolutie, en misschien ook een hogere framerate dan de originele rift, dus dat moet je dan ook even meerekenen natuurlijk.
Maar ook dan denk ik dat een GTX 1070 ruim voldoende is.
Correct, ik zit op 'n GTX1070 en game op een Windows MR headset aan 1440px hoogte per scherm. Lukt perfect op quasi alle games, zelfs racing sims.
Enkel de Valve index wordt wat moeilijker door hogere refresh rate schermen en hogere resolutie dan wat ik nu heb.
Als je alleen cockpit games speelt (flightsims, racegames, e.d.) dan kan je prima af met alleen de VR bril
Okee, goed om te weten. Ik wacht even een paar jaar totdat de kinderen de deur uit zijn en ik ruimte heb voor een VR kamer. Tegen die tijd zien we wel wat de stand van zaken is :)
Het probleem met de huidige generatie VR is niet zo zeer de videokaart: eerder de resolutie op het punt waar je naar kijkt. Die is veel te laag om realistisch aan te voelen.

Zelfs de high-end VR brillen die jij en ik niet kunnen betalen zitten nog niet echt in de richting van wat het oog kan onderscheiden aan pixels...

[Reactie gewijzigd door GeoBeo op 18 augustus 2019 08:43]

Zelfs een GTX 970 werkt nog prima voor de meeste games (alleen de echt zware games worden wat lastiger, maar die ben ik nog niet veel tegengekomen).
Volgens mij de VR hype alweer zo goed als over. Misschien dat het over een jaar of 10 weer met een opmars voordat we er wéér achter komen dat het toch niet zo praktisch en niet meer dan gimmick is.
Ontwikkeling gaat nog altijd hard door en met no mans sky VR is er net weer een titel bij die voor mensen de instap aantrekkelijk maken.

Daarnaast komen deze maand de eerst brillen met de ingebouwde cameras uit. dan hoef je dus niet meer een hoop kastjes op te hangen.
De PC oplossingen zijn nog wel een stevige hap geld, maar voor de meer budget gebonden mensen is Playstation VR heel haalbaar.

Ik wil niet beweren dat VR normale schermen gaan overnemen(binnenkort of zelfs ooit) Maar het is nog steeds een groeiende markt. Alleen mensen lijken te verwachten dat het in een keer moet ontploffen en iedereen het dan heeft maar dat is tot zover niet de wijze waarop het zich ontwikkeld.
>Daarnaast komen deze maand de eerst brillen met de ingebouwde cameras uit. dan hoef je dus niet meer een hoop kastjes op te hangen.
>De PC oplossingen zijn nog wel een stevige hap geld, maar voor de meer budget gebonden mensen is Playstation VR heel haalbaar.

Dit bestaat ondertussen al een 2tal jaar met Windows Mixed Reality brillen, die hebben inside out tracking en zijn verkrijgbaar voor rond de 200-250 dollar/euro. Ik heb er indertijde zoeentje aangeschaft via Amazon in de US, omdat die zo veel goedkoper was dan hier.
De meeste nieuwe VR-sets doen inside out tracking. Dus zonder basestations.
Ik zou een spel als Elite:Dangerous niet meer zonder VR kunnen spelen.

Om het nu zo makkelijk als ‘gimmick’ weg te schrijven... nee.
En hoe mainstream is Elite: Dangerous? VR-brillen zijn en zullen altijd een niche blijven omdat het geen primaire invoersappenraat is, het vereist extra stappen dat de gemiddelde speler niet wil nemen.
Het is soort van Cockpit game en dus ideaal voor VR. De populaire VR cockpit genre zijn toch de Race games. VR is daar grote step up. Alleen de Hardware prijs maakt het grote barrière.
De ontwikkelingen gaan hard, er zitten meerdere bedrijven in qua software en een flinke lijst met bedrijven qua hardware. Er is goede concurrentie en afgelopen maanden is er een hoop uitgekomen. Het is wel allemaal generatie 1.5 en nog niet next gen helaas (geen eye tracking bijvoorbeeld).
Mining wordt nog steeds wel gedaan, maar bij lange na niet in de grootte als voorheen. En vergeet niet hoeveel kaarten er op de markt gespoeld zijn. Ik denk dat dit nog de meeste invloed heeft gehad, ook al is het al weer geruime tijd geleden. Mensen met mining rigs waar 8x 1080TI GPU's op gemonteerd waren. Dit betekend dat er bij verkoop in totaal 8 mensen voor een leuke tweedehandse prijs deze kaarten gebruiken. Die tot op de dag van vandaag goed mee kunnen komen.

Er is maar een klein aantal mensen dat elke generatie een nieuwe kaart koopt. De RTX kaarten zijn zoals je zelf aangeeft inderdaad niet interessant genoeg voor mensen die al een 10xx serie kaart heeft. Maar daarom zijn ze niet meteen hun eigen concurrent. Die kaarten zijn namelijk al wel verkocht en men had kunnen verwachten dat na zulke record verkopen de boel zou inkakken.

Je kunt naar mijn mening nooit je eigen concurrent zijn, je producten zijn namelijk al verkocht. Dit betekend alleen dat de nieuwe producten die uitgebracht niet interessant genoeg zijn. Neem naast de kleine prestatieverschillen ook nog eens de minimale ondersteuning voor Raytracing en vooral de prijsverhogingen en geen wonder dat de kaarten niet verkopen.
Je kunt naar mijn mening nooit je eigen concurrent zijn, je producten zijn namelijk al verkocht.
Dit is een stupide argument dat makkelijk te weerleggen is met een voorbeeld: op het moment dat ik een goed produkt verkoop (een Miele stofzuiger) en die gaat 20 jaar mee, de klant is tevreden en zou zo weer een Miele kopen, dan is Miele wel degelijk bezig met zichzelf te concurreren. Miele heeft daar een simpele oplossing voor bedacht: het product duur verkopen. Zij kunnen dat omdat ze een goede naam hebben.

Ik denk dat er een aantal factoren zijn:

1) Raytracing staat, net als AR/VR, nog in de kinderschoenen en is dus nog lang niet uitontwikkeld. Gevolg: kat uit de boom kijken.

2) 1000 series voldoet nog prima. Gevolg is dat mensen langer hun huidige hardware gebruiken.

3) Gezonde tweedehands markt (heeft Apple ook last van bij iPhone 6/7/8 vs de X-series).

4) Hete adem van AMD in het bottom en midden segment. We wisten lang en breed dat Navi in 2019 zou komen.
Waarom noemt niemand het meest cruciale verschil?

Namelijk het feit dat videokaarten in 1 generatie in prijs bijna zijn verdubbeld. Waar we niet zolang geleden nog 600/800 betaalde voor een top model, moeten we nu ineens 1200/1400 neerleggen (bij release).

Hetzelfde zie met smart phones. De hardware gaat niet langer mee, klanten vinden het gewoon niet economisch verantwoord om ieder jaar 500 euro af te schrijven op een videokaart.
Yep, dat is een goed punt dat je maakt. Ik maakte dat punt deels ook in een eerdere post:

Jerie in 'nieuws: Nvidia's kwartaalomzet uit gaming daalt met 27 procent'

Wat ik daar schreef, sluit mooi aan bij wat jij hier schrijft.

Helaas had ik dat punt er niet bij gezet.

Nog even een nuance:
De hardware gaat niet langer mee, klanten vinden het gewoon niet economisch verantwoord om ieder jaar 500 euro af te schrijven op een videokaart.
Volgens mij zat er steeds ~2 jaar tussen de 900, 1000 en 2000 series. Niet 1 jaar.

Dan nog een belangrijke laatste note: ik durf niet te stellen welke van deze punten het meest belangrijke is en welke het minst. IMO moet je zoiets ook kunnen onderbouwen. Met feiten, bijvoorbeeld marktonderzoek of andere data.

[Reactie gewijzigd door Jerie op 17 augustus 2019 00:01]

Dit is misschien (speculatie) wel de reden waarom die high end kaarten zo duur zijn geworden. Nvidia gaat er vanuit dat er langer met hun producten wordt gedaan om die inkomsten recht te trekken maken ze hun producten duurder dan voorheen.
We moeten tegenwoordig zo aan het milieu denken enzo. Misschien moet Nvidia wel rond alle milieu regels

Kan het verder ook gewoon fout hebben en is het meer, wat een gek ervoor geeft... En lekker geld harken..

Ik zou weleens een artikel willen zien bij tweakers met een goed onderbouwend onderzoek (echte journalistiek) waarom producten zo duur zijn geworden, waar dit vandaan komt met reactie vanuit de fabrikant... Of is dit wishful thinking?

[Reactie gewijzigd door Audione0 op 17 augustus 2019 14:37]

Je voorbeeld is mooi maar slaat nergens op. Je voorbeeld heeft met de levensduur van een product te maken en niet met het zijn van je eigen concurrent. Ik ben zelf ingenieur en wanneer men een product ontwikkeld neemt men een gemiddelde levensduur in acht, hierdoor kiest men voor bepaalde materialen en doet men bepaalde mechanische keuzes.

Het duur verkopen heeft verschillende redenen en niet alleen die jij aangeeft. Het merk "MIELE" is een lang bestaand merk die altijd voor kwaliteit staat en niet de goedkoopste materialen gebruikt. De huidige producten gaan ook niet zo lang meer mee. Dit heeft meer te maken met het gebruik van lichte materialen en slijtage in plaats van het niet willen dat het product zo lang mee gaat. Je wilt jezelf namelijk ook niet uit de markt prijzen door hele zware huishoudproducten te maken.

Miele of welk bedrijf dan ook is niet hun eigen concurrent. Men verkoopt het product uiteindelijk zoals de bedoeling is. Men kent de gemiddelde levensduur en de jaarlijkse verkopen en stelt daar de productie ook op in. Niet elke gebruiker koopt de nieuwe stofzuiger als er een ontwikkeld is, hetzelfde geldt voor videokaarten. Niet elke gebruiker koopt de nieuwe serie videokaarten wanneer deze uitkomen.
[...]
1) Raytracing staat, net als AR/VR, nog in de kinderschoenen en is dus nog lang niet uitontwikkeld. Gevolg: kat uit de boom kijken.
Zo is dat met elke nieuwe ontwikkeling, je hebt de early adapters. Maar met deze serie is niet alleen raytracing interessant. De kaarten zijn ook gewoon sneller, alleen men dacht bij Nvidia dat men door de raytracing de kaarten met 40 a 50% in prijs te verhogen.
2) 1000 series voldoet nog prima. Gevolg is dat mensen langer hun huidige hardware gebruiken.
Wat is dit anders dan wat ik in mijn reactie vermeld?
3) Gezonde tweedehands markt (heeft Apple ook last van bij iPhone 6/7/8 vs de X-series).
Een tweedehandsmarkt is alleen mogelijk wanneer de levensduur het toe laat, zie reactie hierboven.
Daarbij is de vernieuwing bij mobiele telefoons bijna nihil, dus mensen hebben geen reden om voor een nieuw type te kiezen. Dit is hetzelfde als bij videokaarten de 10xx serie. Alleen raytracing is niet interessant genoeg.
4) Hete adem van AMD in het bottom en midden segment. We wisten lang en breed dat Navi in 2019 zou komen.
Er zullen inderdaad mensen zijn die afwachten wat deze Navi kaarten gaan brengen, maar daarvoor heeft men bij Nvidia weer de Super kaarten uitgebracht. En de reviews zijn er ook al weer een tijd.

[Reactie gewijzigd door Andyk125 op 19 augustus 2019 11:16]

Ik zit nog steeds op m'n GTX 1060 (6GB) en kan vrijwel alles nog op erg mooie instellingen, 60fps op 1080p spelen.
Ik gok dat volgend jaar, wanneer Cyberpunk verschijnt, ik pas ga kijken voor een nieuwe.

Zelfs als ik m'n GTX 1060 nu zou verkopen, zou ik er nog 120-150 euro voor kunnen krijgen. Zo gewild en geliefd is dit kaartje blijkbaar. En als ik zo rondspeur online is de GTX1070(ti) en GTX1080(ti) ook nog een enorme knaller op tweedehands sites.

Vandaar dat ik niet snel zie dat mensen "ff" overstappen op een nieuwe kaart.
+ ze hebben toen gesjoemelt met de cijfers van de mining kaarten. Ze hebben altijd beweerd dat ze daar niet zo veel aan verkochten en dst het gamers waren die de kaarten kochten. Maar dat bleek niet waar te zijn er zij gigantische aantallen naar miners gegaan. En als de crypto market in Zakt staat er ineens weer veel Pascal kaarten 2e hands te koop. Op v&a zag en zie je het gelmatig.
Mining is al meer dan een jaar afgelopen. Dat de omzet nu lager ligt dan verwacht komt omdat nVidia zich zwaar misrekend heeft met de RTX reeks.
Je vergeet een aantal zaken (So what else is new... ;-)

De RTX serie werd eind 2018 Q3 (NVidia Q3 look tot 26 oktober) geïntroduceerd, sales van GPUs werden natuurlijk al aan 3e partijen (zoals EVGA, etc) gedaan ruim voor de introductie datum en daarmee dus ook sales. Q3 2018 was voor Nvidia 13% beter dan het jaar daarvoor. Je zou dit natuurlijk kunnen verklaren door early adopters en dat 3en nog steeds met voorraad zaten in de periodes erna die niet zo snel verkochten (als verwacht?).

Echter heeft Nvidia zelf aangegeven NA de resultaten van Q4 2018 dat:
In Gaming, NVIDIA’s previous fourth-quarter guidance had embedded a sequential decline due to excess mid-range channel inventory following the crypto-currency boom.
Bron: http://www.globenewswire....-of-Fiscal-Year-2019.html

En je ziet inderdaad duidelijk dat Q4 2018 een stuk minder is dan Q4 2017, dat betekend dat ALLE resultaten erna daar ook last van hebben. In Q3 2018 gooiden ook velen direct de 1070(ti)/1080(ti) in de 'uitverkoop'.

Nu zal ik je gelijk geven dat de significant duurdere RTX serie zeer zeker voor velen te duur was voor amper prestatie verbetering, maar daartegenover stond natuurlijk een enorme voorraad 2e hands GTX kaarten vanuit het cryptomining gebeuren. Die dingen waren relatief zo goedkoop dat zelfs mensen die dat daarvoor nooit deden, nu 2e hands kochten. Ondertussen is die voorraad enigszins opgedroogd (met een enkeling daargelaten), maar nu zie je dat toch steeds meer mensen een RTX gaan aanschaffen en hun oude GTX in de 2e hands bak gooien.

Ik wil niet zeggen dat RTX een ongekend success was, maar dat de periodes hiervoor te danken waren aan cryptomining. Ga bv. eens kijken naar Q2 2016/2017: https://hexus.net/busines...illion-24pc-year-on-year/
Ik speel 4k/60 met een 1080 in mijn laptop. De TI is niet perse nodig voor 4k
Zeker waar. Ik zelf heb een 980ti. En zelfs die kaart draait eigenlijk alles nog prima op 60fps 1080p. Soms iets wat naar beneden schalen maar niks bijzonders. Laten we hopen dat de volgende generatie kaarten een stuk in prijs daalt.
Kortom, hetzelfde probleem als Apple met hun laatste iPhone reeks: te duur voor de middenstander.
Sure de te dure RTX kaarten hebben ook een beetje invloed op de verkoopcijfers can 1 kwartaal. De grootste oorzaak komt echter meer door dat de markt verzaardigd is. Nog een oorzaak is dat er de laatste 2 jaar maar weinig zware games uit zijn gekomen van de paar AAA titels. De meeste games draaien prima op een GTX1060 of een RX580 op 1080p, hogere resoluties is een niche markt.
en simpelweg t dure Vega kaarten... die ook nog eens trager waren dat de 1070 en 1080
Een Vega 64 kan zich prima meten met een 1070 en in de meeste gevallen ook met een 1080. Duur waren ze wel inderdaad. Een Vega 64 zit ongeveer op de zelfde performance als een GTX1080. Het enige wat AMD fout deed was een te hoge vCore wat de temperatuur en indirect de prestaties negatief beïnvloede.

https://www.gpucheck.com/...el-core-i7-7700k-4-20ghz/
https://www.gpucheck.com/...el-core-i7-6700k-4-00ghz/

En in games zoals Battlefield 5 presteert de Vega 64 opmerkelijk goed. Beter dan een 1080 en net niet zo goed als een 1080ti.

Dus ik ben het niet eens met "trager" eerder "1070 gelijk aan de Vega 56 en 1080 gelijk aan de Vega 64" met een groter energieverbruik en een steviger prijskaartje. Dat is trouwens nu al lang niet meer zo. Een Vega scoor je momenteel voor aardig wat minder dan een 1080.
Waaruit trek je die conclusie uit? Volgens mij is dat de eerste super computer met AMD GPU's die geplanned is. Ik zie in ieder geval in de top 500 super computers niet zo snel een systeem met AMD gpu's, terwijl Nvidia ruim vertegenwoordigd is in de lijst. https://www.top500.org/list/2019/06/?page=1
Waaruit trek je die conclusie uit? Volgens mij is dat de eerste super computer met AMD GPU's die geplanned is.
Dat betekent dus dat het marktaandeel van AMD aan het toenemen is...
Ik zie in ieder geval in de top 500 super computers niet zo snel een systeem met AMD gpu's, terwijl Nvidia ruim vertegenwoordigd is in de lijst
Bestaande systemen leveren geen marktaandeel op op de markt van grafische kaarten. Alleen nieuwe systemen leveren marktaandeel op.
Bestaande systemen leveren geen marktaandeel op op de markt van grafische kaarten. Alleen nieuwe systemen leveren marktaandeel op.
que? Natuurlijk leveren bestaande kaarten wel marktaandeel op. Nieuwe kaarten zorgen ervoor dat een marktaandeel groter wordt van een leverancier. Een marktaandeel wordt nooit berekend uit hoeveel kaarten er in periode X van merk Y zijn verkocht maar simpelweg van hoeveel kaarten er op de markt is.
Ik zie dat in supercomputers meer gebruik wordt gemaakt van AMD gpu's
Dat zou kunnen, maar dan nog heeft dat niets te maken met gaming GPUs.
Dat is een redelijke uitzondering om eerlijk te zijn, ik zie om me heen en bij mijn eigen klanten eigenlijk alleen maar Nvidia GPU's voor Machine Learning en dergelijke.
Zit je toch wel flink naast en niet zo'n beetje ook. Je kunt het ook niet baseren op maar 1 bedrijf die toevallig voor AMD kiest. Nvidia heeft het overgrote marktaandeel van super computers mede omdat tesla kaarten veel sneller zijn dan dan de concurrent.
Was dit al niet te verwachten met name door de daling van vraag naar GPU's voor mining en de niet zo bijzondere exorbitant dure RTX?
RTX Line was ook al veels te duur... To far from Reach.. en ik vergelijk dit met GTX 10xx op launch.

mensen met GTX 10xx heeft niet echt een reden om te gaan upgraden, tenzij jij opeens met een 4k monitor komt
niets met mining te maken
ja dat ook maar amd heeft daar een deel van afgesnoept met hun nieuwe videokaarten lijn.
Ik ben eigenlijk vooral benieuwd of AMD groeit of dat men gewoon geen gputjes meer koopt, of dat de Intel gpu toch afdoende is voor velen :+.

[Reactie gewijzigd door fapkonijntje op 16 augustus 2019 08:18]

Vergeet niet dat die onboard vegas van Ryzen beter zijn dan intel. Iets waar NVIDIA ook last van heeft.

Ik denk ook dat veel gamers al verzadigd zijn met een tweedehands kaart. Ik zelf gebruik een gtx 770 tweedehands, hoewel ik uitkijk naar iets beters.
Mja, een GTX770 lijkt me wel érg oud, maar je hebt helemaal gelijk, ik heb met mezelf afgesproken toen ik mijn 970 kocht (5 jaar geleden) dat mijn volgende GPU 4K HDR 120Hz Ultra moest kunnen, en op die kaart zit ik nog steeds te wachten omdat nVidia al jaren op hun lauweren hebben gerust.

Dankzij AMD komt er nu eindelijk weer eens wat reuring, en nu wacht ik dus op een AMD kaart die dat kan, want ik vind dat zij wél proberen te innoveren, en niet alleen maar winstmaximalisatie nastreven, dus vind ik dan ook dat zij mijn geld beter verdienen dan nVidia.... en ik zie die emotie veel op nieuwssites/fora, dus ja, ik vind het niet gek dat nVidia's omzet wat daalt.....

[Reactie gewijzigd door zion op 16 augustus 2019 08:49]

Vind de opmerking dat nvidia op hun kont zit een beetje vreemd jij verwacht een kaart die 4k 120hz kan doen en dan zeker ook nog betaalbaar.

Dat is net zoiets als hopen op een tesla s 200d voor 20k.
Keep dreaming je kan niet verwachten dat 4k 120hz aan te drijven is met "normale" hardware 4k is al gigantische zwaar op 60hz

4k is 4x 1080p een 970 van 5 jaar geleden kan op 1080p op de huidige games al niet eens meer meer dan 70 fps neerzetten dus je wilt een kaart die 6x zo snel is in 5 jaar tijd ? Onrealistisch.
Het was redelijk normaal dat elke generatie +/- 2x de fillrate had van de vorige, en een omlooptijd van 1,5jaar = 970*2*2*2 in 5jaar = 8* 970 in 5jaar dus ja, ze hebben op hun lauweren gezeten, en winst gemaximaliseerd, en ik speel geen FPS, alleen maar (Actie) RPG, en soms een racespel, en allemaal titels van 1-5 jaar oud, dus dan gaat het sowieso al wat makkelijker, dus was niet een hele onrealistische eis van me.

En wie had het over goedkoop? Ik had zo die € 1000,- neergeteld voor die kaart als de 2080 dat waar had kunnen maken, de monitor die ik er in de geval aan gehangen had kost ook € 1850,- dus waarom niet.

Nu wacht ik wel even op de LG Ultragear FS2 variant met een 5800XT/6700XT (of hoe hij ook mag gaan heten).

@Cergorach url toegevoegd, waar dat redelijk opging totdat nVidia geen concurentie meer had

[Reactie gewijzigd door zion op 16 augustus 2019 11:59]

Nu worden spellen ook wel grafisch een stuk zwaarder om te draaien. Spellen van 5 jaar geleden toen jouw 970 uitkwam kan je prima op 4k spelen met een 2070 2080 of 2080ti.

Huidige spellen groeien net zo snel mee als grafische kaarten of misschien wel sneller. Dus 4k 120 fps zit er bij echt zware spellen gewoon niet in.
Het was redelijk normaal dat elke generatie +/- 2x de fillrate had van de vorige, en een omlooptijd van 1,5jaar = 970*2*2*2 in 5jaar = 8* 970 in 5jaar
Ik zou graag een bron willen zien. Want in mijn ervaring is dat al decennia niet meer zo. Wellicht dat dit speelde een jaartje of 25 geleden, maar dat is zo lang geleden dat ik daar geen gif op in zou durven nemen. Het probleem daar was geen luxe probleem dat een spelletje niet draaide op 120FPS of zelfs 60FPS, maar het draaide niet op 30FPS met meer dan 8bit kleuren. We zaten toen nog ver onder een bepaalde drempel waar we nu allang boven zitten. Ik zit bv. echt niet te wachten op het nieuwste spel op 4k/120FPS te spelen (terwijl ik al 4.5 jaar 4k monitoren heb draaien), zeker niet met kaarten van €1500+, 10 jaar terug had ik dat ook niet gedaan met kaarten van bijna €1000...

Nvidia zet geen $5 miljard om aan RTX2080Ti sales, das een kleine niche. Nvidia doet dat met veel meer GPUs verkopen in een lagere prijsklasse en veel daarvan zal ik de bakken van grote OEMs zitten die aan de zakelijke markt worden verkocht of via bv. de ALDI aan consumenten. Zelfbouwers is een kleine niche, highend kaarten voor zelfbouwers is een significant kleinere niche.
Ik heb eerder het idee dat jij te hoge eisen stelt dan dat Nvidia op hun lauweren heeft gerust.

Verder zie ik AMD op GPU vlak nu ook niet echt innoveren. Nvidia lijkt daar veel meer nieuws te proberen. Realtime Raytracing is daar een voorbeeld van, het staat natuurlijk nog in de kinderschoenen maar is voor consumenten kaarten wel een innovatie. AMD heeft wat dat betreft de laatste jaren eigenlijk niets laten zien, Vega bracht weinig en was veel te laat. Polaris was refresh na refresh. Nu met Navi hebben ze in ieder geval een nieuwe architectuur, maar echt innovatief kan ik het niet noemen.

Nee, waar AMD aan de cpu kant redelijk wat innovatie laat zien kan ik niet zeggen dat ik op GPU vlak hetzelfde zie.

En als we het over winst maximalisatie hebben, dat zal voor AMD niet anders zijn. AMD verkoopt een veel kleinere chip voor schijnbaar bijna hetzelfde bedrag als Nvidia. Terwijl grotere chips normaliter veel duurder zijn vanwege de lagere yield. Nu zullen 7nm chips bij dezelfde grootte wat duurder zijn dan 12nm chips. Maar een Navi die kan bijna 2x in de kleinste Turing die en volgens mij bijna 3x in de grootste turing.

[Reactie gewijzigd door Dennism op 16 augustus 2019 09:50]

Ze zijn wel aan het innoveren, ze moesten alleen van héééél ver weg komen, en dat lukt niet even in een jaartje. Met Navi 20 komen ze waarschijnlijk langszij, en dán pas kan je zien of ze wel of niet afslacken of dat ze nog even over nVidia heen walsen zoals ze over Intel heen zijn gewalst.

En dán zal je ook zien dat de ontwikkelingen bij nVidia opeens óók weer een stuk sneller gaan, en dan heb ik in 2020 mijn 4K-120Hz kaart, en in '23 is er dan opeens een 8K kaart, concurrentie doet wonderen. :Y

@Dennism hieronder: Een compleet nieuw chipdesign? Geen GCN meer maar RDNA, en RDNA2 komt eraan bijvoorbeeld? er is niks meer "gerefreshed"........
De laatste jaren was idd refresh na refresh, allemaal gebaseerd op GCN, maar daar zijn ze dus helemaal los van gegaan.
Moet je voor de gein deze maar even lezen, dan weet je wat ze allemaal innoveren:
https://gpuopen.com/wp-co...A_Architecture_public.pdf
Met dank aan DaniëlWW in CJ's AMD Radeon Info & Nieuwsdiscussietopic deel 143

[Reactie gewijzigd door zion op 16 augustus 2019 12:52]

Waarmee innoveren ze dan? Ik zie ze vooral de laatste jaren refresh na refresh uitbrengen, langszij komen is natuurlijk geen innovatie. Bij innovatie verwacht ik nieuwe (killer) features, gaat bijvoorbeeld naar de chiplet architectuur bij Zen. Dat is in mijn optiek een mooie innovatie. Misschien dat ik het mis, maar ik zie de laatste jaren vanuit de RTG maar weinig innovatie. Misschien de toevoeging van HBM op sommige kaarten, maar dat is het ook wel.

De zoveelde GPU uitbrengen met eigenlijk weer een veel te hoog voltage om net aan te haken bij Nvidia vind ik echt geen innovatie.

Ben het trouwens met je eens dat concurrentie goed is, maar concurrentie an sich is natuurlijk geen innovatie.
Voor mijn gevoel is RTX de eerste keer dat Nvidia eens als eerste iets doet. Laat ze dan ook maar de pijn eens voelen.
Nu kijk ik even terug naar de tijd dat AMD wel genoeg aan R&D kon doen en hadden ze veel meer leukere features met tesselation en Eyefinity.
Nvidia heeft de laatste jaren het geld gehad maar qua features zijn we nauwelijks opgeschoten.
Wat veel mensen wel vergeten is dat games onopgemerkt steeds meer resources vragen. Het lijkt dus of techniek niet vooruit gaat omdat 4k 60fps nog steeds niet kan met de nieuwste kaarten maar we vergeten voor het gemak dat de games steeds realistischer en mooier worden. Games zijn zoals ik wel vaker zeg nog steeds niet zo realistisch als een bluray film op 1080p. We kunnen dus wel steeds hogere resoluties willen maar dit doet aan realisme niets af. We kunnen beter eerst op 1080p 100% realistische game beelden produceren en dan gaan opschalen. Dan zie je namelijk beter wat de performance groei is.
Ik word moedeloos van die nonsense optimisme naar een bepaald merk.
Ten eerste navi(10) is een verdere ontwikkeling van GCN met kenmerken van RDNA (leunend op GCN dus) de volgende kaarten zullen wel raytracing hebben, 3x raden waarom deze kaarten dat nog niet hebben (het is nog geen volledige implementatie van RDNA!)
Zie AMD eigen roadmap, vega was volgens de diehards in het radeon topic ook geen GCN...
De 5700 reeks was ook van origine een 690 reeks. waarbij AMD de naam heeft aangepast en een veel te hoge prijs hanteert voor de kaart.
Elke nieuwe videokaart start deze onzin discussie weer. de 5700xt gebruikt bijna 300 watt op 7nm dat alleen al is een kenmerk van GCN (zie vega)
AMD heeft klanten als Sony en MS die backwards comp. eisen zodat de ps5 ook de ps4 eenvoudig kunnen afspelen. Dat het een GCN doorontwikkeling is kan je zelf opzoeken maar dan moet je wel feiten aannemen ipv wishfull thinking.

2020 komt de eerste (als het een keer goed gaat) echte RDNA kaart = highend navi20. (einde aan de finewine)
Met andere woorden 2 jaar na de 2080ti komen ze misschien met een kaart die de 2080ti aan kan of overtreft.
Nvidia zit momenteel vrolijk nog op 12nm. Nemen we een 2080ti van 12nm naar 7nm, kijkend naar deze grafiek heeft AMD nog wel even werk te verzetten.

Daarnaast is intel niet voorbij gestreefd... AMD totale omzet = lager dan Intels kwartaal omzet van de divisie data centre. En de netto winst is in de single cijfer miljoenen, ze hebben een slag gewonnen maar de oorlog is nog HEEEEEEEEEEEEEEeeeeeeeeeel lang. (mobileeye de kleinste groep binnen intel heeft een winst van 200 miljoen dit jaar....) Intels investeringen is meer dan AMD's omzet, moet ik nog doorgaan?
Daarnaast heeft intel nog een gpu in de pijpleiding komt er nog meer druk op de gpu divisie van AMD. (net te vergeten hoe veel mensen inmiddels van AMD naar intel zijn gegaan, die aan navi hebben gewerkt)
AMD moest twee dagen voor de release van de 5700 series de prijs nog omlaag bijstellen, zo optimistisch is AMD.
Ik zal je verder niet vervelen met de statistieken waarbij AMD de prijzen omlaag moet gooien en zowel nV als intel de prijzen omhoog gooit (lagere omzet, gelijk blijvende winst) want het is overduidelijk dat je niet kijkt naar cijfers maar alles met emotie betoogd.

Laat AMD eerst maar is wat gaan doen aan de drivers, want nu ik weer nV kaart heb merk ik simpelweg gewoon geen crashes meer, gek is dat.

[Reactie gewijzigd door D0gtag op 16 augustus 2019 15:07]

2020 komt de eerste (als het een keer goed gaat) echte RDNA kaart = highend navi20. (einde aan de finewine)
Met andere woorden 2 jaar na de 2080ti komen ze misschien met een kaart die de 2080ti aan kan of overtreft.
Ik had het dan ook over.... 2020. ;) (en belangrijker, dat AMD wel aan het innoeveren is, ik heb de 5700 nooit ter sprake gebracht, alleen gezegd waar ze mee bezig zijn, en dat ze met Navi20 == RDNA langszij gaan komen, dank je dat je dat zelf even beaamt.
Daarnaast is intel niet voorbij gestreefd... AMD totale omzet = lager dan Intels kwartaal omzet van de divisie data centre. En de netto winst is in de single cijfer miljoenen, ze hebben een slag gewonnen maar de oorlog is nog HEEEEEEEEEEEEEEeeeeeeeeeel lang. (mobileeye de kleinste groep binnen intel heeft een winst van 200 miljoen dit jaar....) Intels investeringen is meer dan AMD's omzet, moet ik nog doorgaan?
Intel is technoligisch en qua performance voorbij gestreeft, moet ik echt alless voorkauwen? Nee, financiëel nog lang niet nee, DUH.
Daarnaast heeft intel nog een gpu in de pijpleiding komt er nog meer druk op de gpu divisie van AMD. (net te vergeten hoe veel mensen inmiddels van AMD naar intel zijn gegaan, die aan navi hebben gewerkt)
Ja, maar Intel geeft (gaf iig) zelf aan de eerste jaren nog niet te verwachten mee te doen in de top, en zoals ik al zei, concurrentie is goed. :Y
AMD moest twee dagen voor de release van de 5700 series de prijs nog omlaag bijstellen, zo optimistisch is AMD..
Heel normale marktstrategie.
Ik zal je verder niet vervelen met de statistieken waarbij AMD de prijzen omlaag moet gooien en zowel nV als intel de prijzen omhoog gooit (lagere omzet, gelijk blijvende winst) want het is overduidelijk dat je niet kijkt naar cijfers maar alles met emotie betoogd.
Iets met een pot en een ketel en iets zwart zien.
Laat AMD eerst maar is wat gaan doen aan de drivers, want nu ik weer nV kaart heb merk ik simpelweg gewoon geen crashes meer, gek is dat.
Lol, en dan betoog ik met emotie, daar zijn ze al jaren hard mee bezig (met wisselend succes, toegegeven) en mijn nVidia drivers zijn ook hit or miss, honderden topics met mensen die toch maar weer naar hun vorige drivers gaan omdat die stabieler/sneller lopen.

[Reactie gewijzigd door zion op 16 augustus 2019 16:22]

Dus jij weet dat AMD aan het innoveren is op basis van... nog niet uitgebrachte techniek? knap!!
RTX is dan kennelijk geen innovatie, zoals een hardwarematige denoiser.
Intel is technologisch voorbij gestreefd? Intel heeft nog steeds de hoogste IPC clock 4 clock AMD is met zen2 eindelijk langszij gekomen... kauw jij even voor waar AMD, intel is voorbij gestreefd!
AMD is niet beter, het is (aanzienlijk) goedkoper voor bijna gelijke prestaties (de 3700x is nu trouwens duuder dan een intel tegenhanger maar de prestaties ook beter), denk je dat ze een prijs oorlog winnen met intel als die zijn cpu's voor kostprijs gaat aanbieden...
7nm? (komt van tsmc niet van glo.fo.) Intel heeft vertraging op hun 10nm (intels 10nm is nog steeds vergelijkbaar met tsmc/samsung's 7nm) maar komt nu met 10nm producten.
"of dat ze nog even over nVidia heen walsen zoals ze over Intel heen zijn gewalst" Dus Intel voelde een hobbel in de weg en dat noem jij overheen gewalst door AMD?

Pot verwijt de ketel, ik heb een 2700x cpu en zo snel mogelijk mijn vega64 weg gedaan
(vega out->2080ti in).

Concurrentie is goed, maar AMD is nog lang niet iemand voorbij gegaan in innovatie, ze lopen 2 jaar achter op nV die niet eens de moeite neemt om (sneller) te migreren naar 7nm.
Ik hoop dat RDNA iets beter brengt maar doen alsof het weer iets spectaculair anders gaat zijn, ja dat heb ik al 100x gehoord voordat vega gelanceerd werd. RDNA is niet ground breaking, hopelijk halen ze meer performance uit hun 7nm dan dat ze nu doen, want anders is het een heel slecht scenario.
(terecht opgemerkt door ltt)

AMD weet zelf dat hun drivers zuigen.
Wij van WC eend.
Vega was een driver drama. (uit eigen ervaring)
Drivers AMD, (gamers nexus)hier "driver bugs we seen from the past"
Linus tech tip en jayz2cent hebben het ook al meerdere keren gezegd (zie navi filpmjes van ze)
Er zijn nog vele andere bronnen maar de consensus is dat AMD drivers slechter zijn dan nV drivers.

[Reactie gewijzigd door D0gtag op 16 augustus 2019 18:10]

Ik denk eerder dat je 4k 120Hz op de oudere games zal halen..
Ik wil eigenlijk mijn cpu en moederbord en ram eerst vervangen. Ik weet, secundair belang voor gamers, maar een i5 760 begint toch trager aan te voelen in bijvoorbeeld laadtijden, zelfs met ssd.
Probeer eens een overklok. Mijn oude i5 750 heb ik probleemloos van 2.66 naar 3.8 kunnen brengen, sommige chips met geluk van de 750 serie dan konden zelfs 4.0 of 4.2 stabiel draaien. Zo kan je nog een jaartje eruit persen ervan uitgaande dat je een degelijke koeler hebt en een moederbord met genoeg stroomtoevoer. Het verschil is enorm.
Wat ook meespeelt zijn de diverse grote bugs die de prestaties hebben doen laten dalen van de oudere generaties intel CPU's.
Die beveiligings mitigaties, bedoel je? Reden voir mij om AMD te nemen de volgende keer. Minder last van.
Naar mijn weten is zijn CPU de eerste generatie of 2e quadcore, volgens mij zijn die unnaffected?
Vreemde conclusie.
Geldmaximalisering wel voor nVidia maar niet voor AMD?
Dat doen ze beiden. Alleen lijkt AMD sympathieker door hun underdog rol...zowel op GPU als CPU gebied.

Als je toch eerlijk bent naar jezelf, wil.je toch de meeste bang voor je bucks?

Filantropisch kun je beter zijn bij je plaatselijke vereniging.

Al heb ik zelf dat gevoel ook.
Liever AMD dan Intel/Nvidia...
Laat dat ultra toch los, je ziet bijna geen verschil met high maar het vraagt veel meer van je systeem.
Wel leuk om dit van je te lezen, ik dacht inmiddels namelijk zo'n beetje nog de enige te zijn met nog een GTX7XX serie video kaart, maar zo zie me maar weer eens, ik draai hier zelf overigens dan ook nog op een GTX760, en nu ben ik ook niet echt een gamer ofzo, heel soms een keertje Cities Skylines, maar laat die game nou juist heel zwaar op een CPU leunen voor een goeie performance, en niet zo zeer op de GPU, verder betreft het hier alleen maar content creation. Maar hoe dan ook, ook de GPU gaat terzijde tijd nog wel vervangen worden door een AMD 5700 XT of willicht een nog snellere, mochten die er tegen die tijd ook al zijn, ikzelf zit namelijk nog te wachten op uitvoeringen zonder blower style koeler, en die zijn er nog maar nouwlijks. Verder heb ik inmiddels een hagel nieuw systeem hiero op de GPU na dus, en ben daar al erg blij om, ik kwam nog van een AMD FX8350 namelijk.
Speaking about intel...
Benieuwd wat hun invloed gaat zijn als ze hun eerste PCI-E / Xe gpu uitbrengen.
Die gaat ongetwijfeld concurrerend in de markt gezet worden, geruchten zeggen met name AMD / mainstream en middensegment als target (maar met raytracing).

We gaan het zien. De cijfers voor 2020 worden interessant :)
Wat vreemd zeg. Misschien zullen ze weer winst maken wanneer ze de 2070SuperXxxTI+ uitbrengen. Vooral geen interessant vernieuwend aanbod hebben, daar zit toch helemaal niemand op te wachten.
De 2060 en 2070 prijzen zichzelf de markt uit. Zeker met de AMD 5700 serie. De XT met een goede AIB partner koeler erop loopt de 2070 voorbij en wedijvert met de super tegen een gemiddeld lagere prijs. En RTX is amper meerwaarde omdat beide kaarten er eigenlijk te zwak voor zijn.
Misschien zullen ze weer winst maken
Ze hebben meer dan een half miljard winst gedraaid. Dus zo zwaar is het allemaal niet voor ze.
De stap van een 10xx kaart is te klein ten opzichte van de 20xx kaarten.

Heb zelf nu bvb al 3 jaar een gtx1080 vanaf release zo een beetje normaal gesproken kocht ik bij elke generatie op release een nieuwe kaart maar heb deze keer overgeslagen en voor mij voornamelijk maar 2 redenen, A ik vond de rtx kaarten bij release te duur en B het verschil in snelheid was te klein.

Wat daarnaast ook mee speelt is dat ik van origine een battlefield fan ben maar met het gedrocht bfv vond ik een pc upgrade niet noodzakelijk en met de 1080 op low settings zit ik nog steeds op ruim 100+ fps
Precies ook de reden waarom ik de 20xx niet boeiend vind. De 1080 is nog prima zat voor 1440p. Raytracing kan me bij de huidige games niet roeren. Nvidia is een beetje slachtoffer van haar eigen succes op dit moment. AMD heeft in het hoge segment geen antwoord en Nvidia concurreert met zichzelf in die klasse. Dat is nooit gunstig voor de consument.

Al is het bij de CPU's ook een beetje afgevlakt, de stappen die gemaakt worden zijn steeds kleiner aan het worden. Jammer maar te verwachten na het afbrokkelen van Moore's Law.
Gpus zijn behoorlijk parallel opgebouwd dus Moore's Law is niet echt het probleem, probleem is dat nvidia gegokt heeft op tensor cores en deze te kunnen gebruiken voor taken als dlss en raytracing helaas voor nvidia zijn mensen daar niet heel enthousiast op ingesprongen.
Ze hadden ipv de tensor cores ook de core een stuk groter kunnen maken 25% meer transistors? Met kleiner proces zelfde verbruik als voorgaande generatie en met wat optimalisatie 35% performance winst ?

Beetje het idee van de gtx1660ti hoop zelf dan ook dat er een gtx1680ti uitkomt die ongeveer de snelheid heeft van een 2080"ti" voor een prijs van rond de 600 euro zonder rtx zooi.
Moores law spreekt over een verdubbeling aan rekenkracht op eenzelfde oppervlakte, dat een gpu parallel werkt heeft hier dus niet heel veel van doen tenzij je de complete gpu als oppervlakt neent ipv de chip, dan kunnen ze er nog wat bij plaatsen ja maar dat is niet hoe die bedoeld is.
Lees je even in op het artikel gpu VS cpu moore's law cpu's hebben andere beperkingen dan gpu's daarom gaat de wet van moore niet op voor gpu's
Heb zelf nu bvb al 3 jaar een gtx1080 vanaf release
Dat was toen ook al een kaart van €800, niet veel mensen leggen die hoeveelheid geld neer voor een videokaart. Veel van ons kochten bij introductie niet de snelste, maar de een na snelste (Ti kwam vaak pas veel later uit), welke vaak minder dan de helft van de nieuwste bij introductie koste. Zo zit ik zelf nog op een bijna 5 jaar oude GTX 970 te werken, een GTX 1070 was bij introductie ook niet noodzakelijk voor mij, later waren de kaarten zelfs in prijs gestegen (of helemaal niet verkrijgbaar) door de cryptoboon. Als je al jaren gewend bent op een bepaalde kwaliteit te spelen dan hoef je echt niet te upgraden tenzij je vast zit aan die cultuur van altijd de beste te hebben...
Eerlijk gezegd koop ik normaal ook de xx70 series maar kon er toen een krijgen voor de hele crypto hype.
550 euro ongeveer waar een 1070 toen 500 euro koste.

970 heb ik ook vanaf release gehad deze koste toen 325 euro en kon deze ten tijde van de introductie van Pascal voor nog ruim 200 euro verkopen.

Maar als ik deze 1080 voor 350/400 euro kan verkopen en een 1680ti voor 600 kan kopen ben ik snel over.
Mooi, laat maar lekker dalen, hopelijk krijgen we dan eindelijk eens normale prijzen te zien.
Lol. Nogal logisch met hun prijzen. Ik heb altijd Nvidia gehad maar nu stap ik over op AMD. Voor dezelfde prestaties een stuk goedkoper zoals de Radeon RX 5700. Nvidia moet maar eens leren de markt te begrijpen. Plus de kaarten zien er veel beter uit met 1 kleine ventilator in plaats van 2 grote.
pricewatch: ASRock Radeon RX 5700 8G

Puur als voorbeeld deze videokaart.

[Reactie gewijzigd door Reptillian77 op 16 augustus 2019 10:19]

Hoeveel duurder is de goedkoopste RTX 2060 super? Volgens mij amper 20 euro. Dus prijs verschil is behoorlijk klein. Krijg je bij de 2060 super wel veel betere en stillere koeler.
Ik denk dat je even moet vergelijken dan. Goedkoopste.
https://tweakers.net/pricewatch/compare/1422508;1302516/
De Nvidia kan totaal niet tippen eraan. Plus 2 grote fans?

Nu diegene die jij gevonden zal hebben.
https://tweakers.net/pricewatch/compare/1422508;1425772/

Prijsverschil is groter dan 20 euro plus alweer 2 grote lelijke fans op de Nvidia.
Ik vind AMD toch echt beter. Laten we ook dit niet vergeten. AMD heeft de PCI-e 4.0 x16 8-)

[Reactie gewijzigd door Reptillian77 op 16 augustus 2019 14:42]

En wij krijgen de schuld.

Sorry hoor, maar ik upgrade niet elk jaar meer met de huidige prijzen. Ik zit nog met een 1070 sinds release en die gaat nog prima een paar jaar langer mee.

Daarnaast speel ik tegenwoordig alleen maar Retro games want die microtransaction bullshit van nu trek ik niet meer. Dus GPU power heb ik niet nodig.
Opmerkelijke titel: "Nvidia's kwartaalomzet uit gaming daalt met 27 procent". Als ik naar de cijfers kijk dan valt mij op dat de omzet in gaming juist met 24% is toegenomen ten opzichtte van het vorige kwartaal.

Als naar het verleden kijkt dan was dat vorig jaar het verschil tussen Q2 en Q3 een daling van 3%. Deze stijging van 24% geeft aan dat er een enorm herstel van de omzet heeft plaatsgevonden.

Dat er ten opzichte van vorig jaar een daling heeft plaats gevonden is niet vreemd, de cijfers van vorig jaar lagen vol in de mining hype en braken elk record.Als we wat verder terug kijken dan zien we Nvidia tussen 2010 en 2016 langzaam groeien van 3.6 miljard naar 5 miljard euro omzet. Een gezamelijke kwartaalomzet van 1.3-1.4 miljard was heel normaal. Daar kwam in 2016 tot 2018 verandering in toen de kwartaalomzet naar 2 - 3.1 miljard steeg. Een absurde stijging die zelfs een record jaaromzet van 12.2 miljard opleverde voor 31/12/2018.

Het knappe is dat nu ná de mining hype de omzet lijkt te stabiliseren op 2.2 miljard, wat alsnog meer dan 57% hoger is dan het normaal van vóór de mining hype. Nvidia krijgt gewoon 800 miljoen extra binnen. Ter vergelijking; dit is minimaal twee keer meer extra omzet dan AMD met zijn succesvolle ryzen reeks aan extra omzet binnen haalt.

[Reactie gewijzigd door sdk1985 op 17 augustus 2019 02:49]

iets met op de blaren zitten...


Om te kunnen reageren moet je ingelogd zijn


OnePlus 7 Pro (8GB intern) Nintendo Switch Lite LG OLED C9 Google Pixel 3a XL FIFA 19 Samsung Galaxy S10 Sony PlayStation 5 Smartphones

'14 '15 '16 '17 2018

Tweakers vormt samen met Tweakers Elect, Hardware Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True