Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia boekt recordomzet door goede verkoop gpu's voor gaming en datacenters

Door , 92 reacties

Nvidia heeft in het afgelopen kwartaal een recordomzet van 2,23 miljard dollar behaald. De meeste omzet blijft afkomstig uit de verkoop van GeForce-gpu's voor gaming, maar de verkoop van gpu's en accelerators voor servers blijft groeien.

Meer dan de helft van de omzet, 1,2 miljard dollar, kwam uit de verkoop van GeForce-gpu's voor gaming. Het Datacenter-onderdeel behaalde in het afgelopen kwartaal een omzet van 416 miljoen dollar en dat is een stijging van ruim 175 procent ten opzichte van hetzelfde kwartaal een jaar eerder.

Nvidia begon in het afgelopen kwartaal met het uitleveren van zijn Tesla V100-accelerator, het eerste product op basis van de nieuwe Volta-gpu. Ook bracht het bedrijf nieuwe Nvidia DGX-servers uit, die geschikt zijn voor toepassingen rondom kunstmatige intelligentie, zoals het trainen van neurale netwerken. Onder andere Facebook is een grote klant van die servers.

Het onderdeel Automotive behaalde een omzet van 142 miljoen dollar, een stijging van zo'n 19 procent ten opzichte van hetzelfde kwartaal een jaar geleden. In de afgelopen maanden werd bekend dat Toyota en Volvo het Drive PX-systeem van Nvidia gaan gebruiken voor hun zelfrijdende auto's. Datzelfde geldt voor Project Apollo, de naam waaronder de Chinese internetgigant Baidu werkt aan een platform voor autonome auto's.

Nvidia gaf in het afgelopen kwartaal 416 miljoen dollar uit aan r&d. Meer dan in hetzelfde kwartaal een jaar geleden, toen was dat 350 miljoen dollar. De nettowinst van Nvidia kwam in het kwartaal uit op 583 miljoen dollar, omgerekend zo'n 496 miljoen euro. Dat is 123 procent hoger dan in het vergelijkbare kwartaal vorig jaar.

Update 12:49: De r&d-uitgaven waren in het voorgaande jaar in hetzelfde kwartaal 350 miljoen dollar en geen 827 miljoen dollar. Het artikel is hierop aangepast.

Reacties (92)

Wijzig sortering
Mooi, door de populariteit van de consoles, heeft de vooruitgang op dit gebied redelijk stil gestaan. Games hebben in de laatste 10 jaar amper vooruitgang geboekt, zeker grafisch. De spellen van nu zien er niet veel beter uit als Crysis, en dat spel is over 3 maanden 10 jaar oud!

Als er nu toch weer vraag is naar video-kaarten (of dat nou vanwege VR is, voor mining of omdat PC-gaming populairder wordt) is dat alleen maar positief. Dat in de komende 10 jaar maar weer evenveel vooruitgang wordt gemaakt als de 10 jaar voor de afgelopen 10 jaar.

1987:
http://gamesloth-gridfs.h...5d812ce6000311/contra.gif
1997: :)
https://netdna.webdesigne.../2008/11/quake-2-1997.jpg
2007: :*)
https://web-vassets.ea.co...hot0114.jpg?cb=1412974718
2017: :?
http://cdn.gamer-network....017-Preview-Shot-(11).jpg

[Reactie gewijzigd door Devata op 11 augustus 2017 09:50]

De vooruitgang lijkt af te remmen doordat fotorealisme een soort asymptoot is. Men kan als het ware makkelijk 50% fotorealistische games maken, 80% is al veel moeilijker. 99% is zo goed als onmogelijk en 100% kan niet. Het kost dus steeds meer moeite om een stukje betere graphics neer te zetten, wat voorbij een bepaald punt geen toegevoegde waarde meer biedt.
Het wordt zeker steeds moeilijker, maar er is in de afgelopen 10 jaar toch echt erg weinig nog vooruitgang geboekt. De resolutie is hoger geworden, maar daar blijft het dan wel bij.

Geen idee of het aantal polygonen nog echt is toegenomen, maar gevoelsmatig zou ik denken van niet.

In feite is er een techniek waarmee nog een grote stap kan worden gezet op het gebied van grafische vooruitgang en dat is ray-tracing.

Zie een afbeelding als deze: https://upload.wikimedia....e/ec/Glasses_800_edit.png dan kun je echt (bijna) niet meer zien dat het geen foto is.

Nou is ray-traycing zeker een hele zware techniek om toe te passen, maar in de afgelopen 10 jaar hebben we ook op dat gebied vrijwel geen vooruitgang gezien.

Zelf denk ik dat dat toch wel veel te maken heeft met het feit dat investeringen zijn veranderd, niet zozeer alleen omdat het expotenttoneel moeilijker wordt.

Consoles bleven een beetje hangen. (we hebben tussen 2007 en nu eigenlijk maar een echte nieuwe console release gezien, en dat was al niet een hele grote stap. Ontwikkelaars ontwikkelde dus daarvoor en daarmee werd investeren in deze technieken minder interessant.

Mobile devices waren wel ineens hot (2007 was ook de release van de Iphone 1) dus daar gingen alle investeringen heen. Kijk je dan naar de vooruitgang van de afgelopen 10 jaar. Er zijn nu waarschijnlijk smart watches die sneller zijn als de Iphone 1.

[Reactie gewijzigd door Devata op 11 augustus 2017 10:38]

Er zijn toch echt wel grote stappen gemaakt hoor de laatste tien jaar. Niet alleen is alles veel gedetailleerder worden, maar ook de gebieden/ruimtes op zich zijn veel groter nu. Daarnaast zijn bewegingen veel natuurlijker en zeker ook gezichtsuitdrukkingen/spraak ziet er veel beter uit. Ik speel nog veel oude spellen, ook uit 2007 en die zien er idd erg goed uit nog en zijn zeer speelbaar nog, maar de nieuwe spellen zijn wel degelijk een stuk mooier. Tuurlijk gaat de vooruitgang steeds trager.
Het wordt zeker steeds moeilijker, maar er is in de afgelopen 10 jaar toch echt erg weinig nog vooruitgang geboekt. De resolutie is hoger geworden, maar daar blijft het dan wel bij.
De visuele differentie ten opzichte van voorgaande titels lijkt optisch steeds kleiner te worden naar mate games mooier worden maar als ik een game van een decennium terug naast een huidige leg is dat voorlopig gewoon een dag en nacht verschil hoor.
Een game als Witcher 3 was gewoon niet mogelijk geweest tien jaar geleden zoals die nu in elkaar steekt.

[Reactie gewijzigd door Ton Deuse op 11 augustus 2017 11:25]

> Er zijn nu waarschijnlijk smart watches die sneller zijn als de Iphone 1.

De eerste Apple Watch (uit 2015) was ongeveer even snel als de iPhone 4S (uit 2011).
Volgens mij zijn er ook nog andere factoren die ervoor zorgde dat games er de afgelopen 10jaar amper visuele progressie maakten:

- De consolemarkt is de norm en die hardware specs lopen vaak jaren achter op pc's. Waardoor de traagste console bepaalt hoe mooi games er op
Pc uitzien.

Omdat pc's zich dan maar vervelen wordt er 4k, hdr, 3d, VR op losgelaten en plots zijn enkel maar de snelste gpu's snel genoeg om een VR-bril aan te sturen.

- Nvidia is heeft zoals Intel heeel lang alleen aan de top gestaan waardoor er mindee druk was om de technologische vooruitgang te pushen. En zelfs nu kan AMD enkel mee in het middensegment op 1080p.
En de rx Vega dan van AMD die geeft de zelfde prestaties als gtx 1080 van nvidia, dus als de rx Vega er is draaien ze ook mee op het high-endsegment.
De 1080 is gelanceerd in mei 2016 en dus onderhand al een jaar en drie maanden oud. Zodra de Vega uit komt in september komt onderhand de 1180 alweer uit.

AMD loopt qua GPU's gewoon een dik jaar achter.
Ik dacht dat Nvidia naar de 20XX gaat met de volgende generatie GPU's.
zou een beetje raar zijn als ze steeds sprongetjes van 100 maken en ineens een van duizend doen :P.
Nou ja ik geef alleen maar door wat meerdere sites melden.

https://www.google.nl/amp...ws/22739/newsAmpPage.html

Mag jij prima raar vinden.
tja, dan nog is het speculatie, en wordt het idee van een 11xx serie niet huitengesloten, maar goed we zullen maar moeten wachten :).
Maar om nou te zeggen dat bijvoorbeeld een gtx1070 (mid/high-end) zulke hoge framerates haalt? Zelfs op 1080p houdt het bij de 120 meestal wel op.
Dan weet ik niet wat voor spellen je op doelt. Maar mijn 1070 op 1440p trekt toch Overwatch op max settings op 130fps. Spellen als Rust tot 90-100, en uiteraard CS:GO op 300+.
Om een paar voorbeelden te noemen gta 5 51fps op very high en 1080p, of rainbow six siege 87fps op ultra. Overwatch is ook niet zo grafisch uitdagend volgens mij.

bron: https://nl.hardware.info/...re-gp104-benchmarks-gta-v

[Reactie gewijzigd door dikki dik op 11 augustus 2017 15:08]

Volgens mij zijn er uitdagingen genoeg op gebied van 4k, VR, 60/120fps, etc. Betere licht/water/reflectie hoeven we niet echt te hebben (vind ik), dat is nu al van erg hoog niveau als de gamedeveloper een beetje z'n best doet.

Maar we zien dit toch op veel meer gebieden? CPU's worden ook amper sneller/beter, GPU's worden niet zoveel sneller meer... Zou dat niet meer met de beperkingen van onze lithografie-techniek te maken hebben?

[Reactie gewijzigd door Grrrrrene op 11 augustus 2017 10:56]

Hoewel ik op zich wel kan inzien dat het op het eerste gezicht niet meteen veel mooier is geworden de afgelopen jaren, denk ik dat het komt omdat de verschillen nu veel subtieler zijn geworden, maar daardoor niet minder baanbrekend of vooruitstrevend imo.

Als je kijkt naar die plaatjes van 87, 97, 07 dan zie je enorme stappen, klopt... maar tussen 07 en 17 zijn bijvoorbeeld zaken als volumetrische belichting van meerdere bronnen, real time berekening van (self) shadows, rook en particle effecten die real time berekend worden en bijvoorbeeld door wind etc kan worden beÔnvloed in de games etc etc... ik denk dat juist DIE dingen de laatste jaren veel vooruitgang hebben geboekt. Dat is subtieler, maar niet minder indrukwekkend.

Nogmaals, VIND IK dan :P
Prey is grafisch misschien niet de meest indrukwekkende game van de afgelopen jaren. Zet er een screenshot van de The Witcher 3 bij op ultra en het beeld wordt al anders, al moet ik toegeven dat Crysis nog steeds hoge ogen gooit 10 jaar later. Als je toch de grafische toppers van de afgelopen jaren op een rij zet is The Witcher 3 een betere keuze imo. Je kunt uit elke generatie wel een game kiezen die een beetje teleurstelt op grafisch vlak. Uiteindelijk is het gameplay/verhaal dat je bijblijft lijkt me. Puur streven naar grafische pracht is niet heel nuttig denk ik. Crysis was grafisch dan indrukwekkend maar het was vooral ook een hele lekkere shooter. Net zoals dat The Witcher 3 lekker speelt en een heerlijke wereld met geweldige personages heeft om in rond te lopen.
Crysis 1: http://www.abload.de/img/1ag9p.jpg
Witcher 3: https://i.ytimg.com/vi/flGLtkAMD_A/maxresdefault.jpg

Het is zeker mooier (volgens mij voor een groot deel door betere textures) maar toch echt niet vergelijkbaar met de verschillen die we in die 10 jaar ervoor zagen.

[Reactie gewijzigd door Devata op 11 augustus 2017 10:47]

Ik ben het met je eens dat de verschillen in de afgelopen 10 jaar minder groot zijn als je het vergelijkt met de ontwikkelingen in de 10 jaar daarvoor. Het ging mij er om dat als je Crysis kiest als voorbeeld dat een game als The Witcher 3 of Battlefield 1 dan beter vergelijkingsmateriaal is dan Prey.

Edit: Daar komt natuurlijk nog bij dat het jaren heeft geduurd voordat Crysis op de hoogte resolutie enigszins speelbaar was. Ik denk dat CD Projekt Red dat bij The Witcher 3 ook had kunnen doen, technologisch is het vast mogelijk, maar dan was er veel commentaar geweest van gamers die niet op de hoogste instellingen hadden kunnen spelen.

[Reactie gewijzigd door M_Aurelius op 11 augustus 2017 12:22]

Battlefield 1 dan? Heb mijn ogen uitgekeken zowel in singleplayer als multiplayer. Anders dan bij Mass Effect 3 zijn de details als gezichten in BF1 wťl bizar mooi gedaan.
Het was niet echt de bedoeling een hele discussie uit te lokken, gebeurd me wel vaker :/ .

Maar nogmaals, ik zeg niet dat iets van 2017 er niet beter uit ziet als dat van 2007, maar dat de vooruitgang geboekt tussen 2007 en 2017 naar mijn gevoel veel kleiner is als de vooruitgang geboekt tussen 1987 en 1997 en de vooruitgang tussen 1997 en 2007.
Het grote contrast wat je ziet tussen de leuke plaatjes die je post is natuurlijk ook de immense resolutie sprong van 1987 naar 2007. Sinds 2007 naar 2017 is er amper een resolutie vooruitgang omdat 4k gaming sinds kort pas terrein begint te winnen. 2007 en 2017 en er wordt merendeel nog gespeeld op 1080p.

[Reactie gewijzigd door Frag1le op 11 augustus 2017 10:22]

Als ik de afbeeldingen van 1987 of 1997 op 1080p zou hebben, zouden ze er echt niet heel veel beter uit zien kan ik je garanderen.
Wanneer er in 1987 al voor 1080p geprogrammeerd kon worden dan zouden de 2d platform games van toen er toch echt wel iets beter uit hebben gezien. Pixels zijn nu eenmaal kleiner. Uiteraard gaan games met een resolutie van 320x240/640x480 er niet beter uitzien op 1080p.
Het ziet er scherper uit, maar niet beter zoals het verschil tussen de plaatjes die ik linkte.

Het plaatje uit 1987 blijft 2D en de blokkerige omgeving van het plaatje van 1997 blijft blokkerig.
Quake2 zag er ook zo blokkerig uit omdat de toen gangbare resolutie zo'n beetje 1024x768 was, antialiassing etc nog niet werd toegepast en dan moest je nog een flinke computer + 3dfx hebben om het op die resolutie te kunnen draaien. Toen hogere resoluties meer gebruikelijk werden door de betere beeldschermen die er op de markt kwamen kon je Quake2 ook op die resoluties laten draaien en werd het wel degelijk scherper en minder blokkerig, de textures werden er uiteraard niet mooier van. Ik vermoed dat je blokkerig bedoelt door de lage kwaliteit textures die je ziet?
Resolutie gaat daar niet bij helpen, AA tot op zekere hoogte.
Het verschil ik blokkerigheid heeft vooral te maken met de hoeveelheid polygonen.
Zie: http://courses.washington...eshes/alt-res-spheres.png
Wat een onzin, crysis ziet er nu vrij llain uit. Een hoop polygonen maar weinig modern shader werk. Probleem is dat de hoeveelheid extra triangles die nu getekent worden nog nauwelijks verschil maken in beweging. Toch zie je zeer grote vooruitgang in gezichts animatie. Waarbjj crysis 1 nog een beetje cartoony ergens oogt in de gezichts animatie benaderd zelfs de laatste cod game bijvoorbeeld the uncanny valley in gezichts animatie. Bet is dat ik nu op mijn mobiel zit anders had ik voor je opgezocht hoeveel complexer de geometry is geworden in games maar dat het in het oog weinig verschil maakt.
Er is zeker vooruitgang geboekt. Maar in de laatste 10 jaar is veel minder vooruitgang te zien als in de 10 jaar daarvoor, waarschijnlijk door in verschuiving van investeringen. Dat is alles.

Hier een voorbeeld van waar jij het over hebt: http://imgur.com/Ljm6EFi
Was niet di eik bedoelde. Maar het heeft wel hetzelfde ffect. Maar de Facial animatie tech in Crysis is vrij slecht. Een hoop games doen dat nu fors beter.
Ik vond zelf anders de gezichten in Oblivion wel echt al heel bijzonder, hoor, b.v. de Keizer:
http://www.mobygames.com/...creenshot-the-emperor.jpg

[Reactie gewijzigd door Cerberus_tm op 11 augustus 2017 17:49]

Het was een grapje. Ik vond de gezichten van Oblivion al oerlelijk in 2006. Komt ook niet zozeer door beperkingen van software of hardware, maar door de slechte ontwerpen. En je kon als gewone speler, met de gezichtsmaker in de character creation van het spel, zelf al veel betere gezichten maken.
Consoles helpen ook mee :-) de Nintendo Switch heeft een Nvidia-chip (Tegra), en de PS3 had er ook een (RSX).
Ik denk dat je ook niet moet onderschatten hoeveel crypto mining heeft gedaan voor de GPU wereld :)
Denk dat daardoor in ieder geval Nvidia en AMD er weer centjes in zien om te werken aan GPU's
Muah, niet helemaal mee eens. Het is wel zo dat Crysis ver voor liep op de rest wat graphics en de implementatie van grafische features betreft, maar inmiddels zijn we flink wat verder gekomen. Het probleem is echter dat vrijwel alle grote titels multiplatform zijn dus je gaat hoe dan ook tegen de limieten van de consoles aan lopen. Maar als je ontwikkelt voor een krachtige PC dan kun je echt adembenemende plaatjes op het scherm toveren.

Kijk bijvoorbeeld naar deze compilatie van beelden uit Unreal Engine 4. Je gaat niks vinden van 10 jaar geleden dat daar ook maar enigszins in de buurt komt.

Of deze beelden van Unreal Engine 4 waarin Photogrammetry gecombineerd wordt met de nieuwste grafische features.

Er is dus enorm veel mogelijk, maar nog niet in gigantische open werelden omdat we daar simpelweg de rekenkracht niet voor hebben. Al zien games als Horizon Zero Dawn, The Last of Us en Uncharted er ook werkelijk prachtig uit.
"Kijk bijvoorbeeld naar deze compilatie van beelden uit Unreal Engine 4. Je gaat niks vinden van 10 jaar geleden dat daar ook maar enigszins in de buurt komt."

Klopt, maar dat is niet realtime (je zal het dus niet in games terug vinden). Als ik kijk welke stappen er elke 10 jaar daarvoor werden gezet dan zou ik eerder verwachten dat je dit nu wel al realtime zou kunnen, en dus ook in games terug zou zien.

Het tweede filmpje is wel realtime maar zie je momenteel ook nog niet in games.

"Er is dus enorm veel mogelijk, maar nog niet in gigantische open werelden omdat we daar simpelweg de rekenkracht niet voor hebben."
En het punt was nou juist dat dat gebrek aan rekenkracht komt door een gebrek aan investeringen, mede door de consoles die de standaard redelijk laag hielden.

Daarom vindt ik het dan ook goed om te zien dat grafische kaarten nu zo goed verkopen, omdat dat reden kan/zal zijn voor investeringen waardoor de komende 10 jaar we misschien weer voor vooruitgang zullen zien vergelijkbaar met de periode 1997 / 2007 ipv 2007/ 2017
"Er is dus enorm veel mogelijk, maar nog niet in gigantische open werelden omdat we daar simpelweg de rekenkracht niet voor hebben."
En het punt was nou juist dat dat gebrek aan rekenkracht komt door een gebrek aan investeringen, mede door de consoles die de standaard redelijk laag hielden.
Dat klopt. Het waren als ik het goed voornamelijk omdat PC's toentertijd populairder was dan consoles? Ik was begonnen op PC en vond het altijd leuker dan consoles dus interesses in PS en Xbox consoles was -0.0. En nu AMD uit beeld is op gebied van GPU's, hoeft nVidia weinig te doen waardoor er ook niet meer te investeren valt behalve datacenters. Microsoft en Sony hebben nu alleen en enkel interesse in hun portemonnees, dus is PC niks meer behalve hoge resoluties en betere frames per seconde en om hun consoles goedkoop te blijven verkopen, hebben de consoles alleen midrange en of low-range hardware en de game ontwikkelaars hoeven dan ook weinig tijd en geld te steken in hun games waardoor ook weer geen vooruitgang meer is.

Op gebied van CPU hoefde Intel jarenlang ook geen reet uit te voeren omdat AMD buiten beeld was en nu is het helaas alleen nog enkel afwachten tot de CPU prestaties drastisch verbeteren.

[Reactie gewijzigd door SilverRST op 12 augustus 2017 18:53]

Je voorbeelden zijn redelijk gekleurd. Crysis heeft natuurlijk nooit goed gedraaid. Maar al negeer je dat dan kijk je nog je ogen uit wanneer je voor het eerst de ground textures op ultra ziet in Battlefield One. Verder wordt alles steeds groter en worden de open world games steeds gedetailleerder. Vergelijk bijvoorbeeld eens de offroad simpliciteit van Test Drive Unlimited 2 met The Crew. Bij shooters heb je nu bijvoorbeeld Ghost Recon Wildlands met een map van 25 x 25 km.
Als je geen gekleurd beeld wilt krijgen moet je natuurlijk niet een gameplay afbeelding vergelijken met een promotie afbeelding / trailer.
Ik heb beide spellen niet gespeeld, maar als ik naar afbeeldingen vanuit het spel kijk zie ik het volgende:
http://news.softpedia.com...e/TDUtxtscr_004-large.jpg
https://i.ytimg.com/vi/iRuSGnQK22k/maxresdefault.jpg
Wel een verschil, the crew is zeker mooier, maar ook weer niet zo geweldig veel beter.
Dat was geen promo zo ver ik weet. The Crew heeft een photo modus waarbij je de game even kunt pauzeren zonder HUD. Daarnaast ziet de game er bij mij (ultra) nog wat beter uit, hij is later namelijk via patches nog wat opgepoetst.

Wanneer de tijd dit toelaat zal ik hier zelf wel even een screenshot plaatsen.
Veel vooruitgang vind ik het niet eigenlijk.
We maakten 10 jaar geleden grotere stappen voor mijn gevoel.
De crytek engine is altijd al.... bijzonder geweest... Ja het zag er goed uit 10 jaar geleden maar zelfs met de huidige generatie kaarten speelt die game nog niet fijn..
Veel van de focus van Nvidia vind ik verkeerd toegepast..
De markt voor de consument wordt kunstmatig hoog gehouden Door de miners en Nvidia zelf..
Als ze nu eens kaarten zouden maken zonder alle Rambam en gewoon pure compute cards voor het minen dan waren de prijzen voor een normale videokaart nu niet zo hoog.
Ik hoop dat de markt zich nog eens goed de vingers Brand en wellicht dat ze dan gaan inzien dat de consument hun brood is.
Volgens mij is het eerder door ethereum mining. Videokaarten zijn daardoor overal uitverkocht en prijzen rijzen de pan uit. Voor gamers is het nu niet bepaald makkelijk een videokaart te kopen.
Ik vraag me hierbij dan af hoeveel Nvidia en AMD aan kaarten 'achterhouden' waarmee ze zelf aan het minen zijn.
Ik bedoel als je de allernieuwste GPUs produceert (en dus meeste en beste hashrate/watt kunt bereiken) kun je ook zelf flink minen.
Minen kun je enigzins vergelijken met de "Gold rush" vroeger. Wie werden daar echt rijk van? De meeste goudzoekers zelf niet, een paar natuurlijk wel en dat hield de "hype" in stand. De genen die echter de materiŽle benodigdheden voor het goudzoeken verkochten werden er over het algemeen wel rijk van.
Ik denk dat het voor Nvidia en AMD gunstiger (= hogere winst) is om die kaarten gewoon te verkopen.
Het zou me niks verbazen als die duizenden videokaarten tijdens het testen een paar uurtjes op vol vermogen aan het minen gaan hoor..
Geweldige onderdeel van je testcircuit
Ondertussen verdien je er dubbel aan door de kaart daarna als nieuw te verkopen.
Ik denk dat het voor hun meer oplevert om de kaarten direct te verkopen in plaats van een infrastructuur op te zetten om cryptocoin mining er bij te gaan doen. Het zal een keuze zijn tussen instant cash of een langere terug verdien tijd zonder de garantie dat die coins over een jaar ook nog waarde hebben.
Ze kunnen de markt ook niet overspoelen met nieuwe coins, want ook dan daalt de waarde, dus ook al zouden ze op grote schaal minen, dan zal het lastig zijn om dit direct om te zetten naar dollars vermoed ik.
De huidige prijzen voor een leuke gaming kaart zijn inderdaad niet grappig meer. Voor een fanatieke gamer is het zeer pijnlijk momenteel om een kaart te kopen.
Voor de fanatieke gamer is de prijs volgens mij niet zo belangrijk. Die wil toch altijd het snelste, beste hebben. Die koopt ook vaker een nieuwe GPU. Uiteindelijk is het natuurlijk maar wat de "gek" ervoor wil betalen... :o :o
Dat wilde ik vroeger, toen ik dagelijks uren games speelde, ook. Maar even 700+ euro voor een videokaart heb ik toch echt niet even liggen :+
Inderdaad!

een vriend van mij moet gewoon een nieuwe pc hebben, maar door de hoge prijzen van videokaarten wacht hij nog maar even :P
Idem..
Als een 1080ti nu eens 250 euro zakt had ik er denk ik al een.
Maar ik betaal niet omdat de gpu boer lekker rustig aan doet en de prijs hoog houd terwijl er makkelijk sneller en meer aanbod kan komen.
Niet helemaal waar natuurlijk, niet iedereen heeft evenveel geld tot zijn of haar beschikking ;)
Dat valt onder 'gaming' in de tabel. Ze hadden daar beter 'particulier' of 'PC' van kunnen maken imho.
Mining valt denk ik onder gaming dan toch? Zolang er gaming videokaarten gebruikt worden...
Nvidia ziet niet aan de verkoop of de kaarten voor gaming of mining gebruikt worden. Dus die zullen de 'gaming-kaarten' dan ook allemaal onder het kopje 'gaming' schuiven.
AMD wordt gebruikt voor mining omdat die daar veel beter geschikt en goedkoper zijn
En omdat je nu minimaal 3 weken op een betaalbare rx580 moet wachten zijn mensen ook alle nvidia kaarten aan het kopen

en de amd kaarten zijn niet goedkoper, zeker niet als je kijkt welke winkels ze echt op voorraad hebben

[Reactie gewijzigd door Origin64 op 11 augustus 2017 12:58]

Vervelende is dat ik een nieuwe videokaart wil kopen om daadwerkelijk mee te gamen, maar de prijzen zijn bijna hoger dan bij de introductie....dus ik denk dat, net als mening ander, de GPU's helaas niet voor gaming worden verkocht.
Er worden ook veel gtx'en en titans verkocht die gebruikt worden voor "werk", content creation en andere gpu compute zaken. Nvidia zal daar vast ook geen exact inzicht in hebben maar ik vraag me af welk deel van de verkochte "game" hardware dat is..
heb mijn gigabyte aorus GTX1080 TI nu 4 weken voor ahum 829 haha.
was een investering maar ben er wel blij mee
amd had niks en die rx vega duurt ook veelste lang voor dat ie uit was
vandaar deze aanschaf :)
Heeft natuurlijk ook veel te maken met het uitblijven van de VEGA release. Er was gewoon te weinig concurrentie t.o.v. de high end NVIDEA kaarten. Nu de Vega bijna uit is heeft (bijvoorbeeld) de GTX1080 ineens een concurrent erbij. Het is dus ook wel te verwachten dat de komende cijfers iets lager zullen zijn.
Ook al vragen ze 30% meer prijs dan nu zullen mensen het blijven kopen.
en ik blijf maar wachten tot de prijs fatsoenlijk is.....
ja, ik heb mn gtx1070 nu 4 weken denk ik, gekocht voor 490 bij alternate, is nu 540... achterlijk
....grappig, 'vroegah', toen ik de 470GTX kocht, betaalde ik rond de §220 euro voor de kaart. Je zou verwachten dat de 1070GTX zich dam in dezelfde prijs klasse zou bevinden. Niet dus. :/

Eigenlijk ben ik wel blij met mijn PS4 Pro. Werkt goed, games zien er over het algemeen goed uit (doet zeker niet onder aan wat ik destijds gewend ben) en op een paar games na (Starcraft) heb ik er ook een hoop nieuwe titels (FIFA, Assassin;s Creed) voor terug gekregen.
....grappig, 'vroegah', toen ik de 470GTX kocht, betaalde ik rond de §220 euro voor de kaart. Je zou verwachten dat de 1070GTX zich dam in dezelfde prijs klasse zou bevinden. Niet dus. :/
Een GTX 470 was bij launch gewoon dik 400 euro. Maar de grootste vergissing die je daar maakt is je te richten op euro's.De 470 zat op $349 en de GTX 1070 zit op $379. Er is nogal wat veranderd in de euro/dollar koers van toen en nu, de euro is niet meer wat het geweest is.

[Reactie gewijzigd door sdk1985 op 11 augustus 2017 15:22]

Mijn moeder ging vroeger naar de bioscoop kocht een plak caramel en haalde daarna nog een patatje voor nog geen gulden je zou denken dat dat nog hetzelfde zou zijn. :/
10%, dat is nog niks.
Ik heb mijn GTX1080 toen de Ti uitkwam verkocht voor minder dan dat, had hem beter een paar maand kunnen laten liggen 8)7.
Heb mijn 1070 bijna aan jaar nu, voor 525 destijds.
Sinds september heb ik de armor 450 euro destijds. Grappig dat er nog steeds geen dalingen zijn.

Ik vind miners niet meer leuk
Over een jaar of 2 kun je tegen dumpprijzen die kaarten tweedehands kopen, als ze nog niet allemaal stuk zijn gemined
Over 2 jaar wil ik geen 1070 meer. die begint nu al traag te worden :-).

Het is dat ik 'n huis aan 't kopen ben, anders had ik nu een Ti
Heb je een 4k scherm?
Had, maar heb 1440p 144hz met gsync en IPS
gsync en ips maken niet uit voor je framerate :P
Maar de mining kaarten hebben toch geen beeld uitgangen?
Gewone gaming kaarten kunnen ook voor mining worden gebruikt. Er zijn idd ook mining edities met wat aanpassingen zoals het weglaten van uitgangen.
dan zal je waarschijnlijk kunnen wachten op de volgende generatie GPUs want dan pas zal de interesse in het huidige generatie afnemen
koop een 1060 3gb versie, vermijd de EVGA modellen, er zijn genoeg betaalbare
Miners zullen afnemen want je krijgt steeds minder beloning voor het minen en niet meer lucratief in verhouding met de aankoop van hardware en energiekosten.
Heb je ook een bron voor deze claim? Het lijkt me dat je dit alleen kunt claimen wanneer je weet wat de hardware kost, wat de miningdifficulty is, en wat de energieprijzen zijn.
Als een chinese miner nu $100k aan energie moet investeren om er $400k aan omzet te realiseren zal deze miner echt niet ineens stoppen wanneer dit door difficulty stijgingen en/of energiekostenstijgingen ineens een omzet creŽert van $350k. Het is nog lucratief genoeg omdat na de eerste paar periodes de investering vaak al terugverdient is.
http://howtomine.co/2017/...ining-ethereum-july-2017/

https://www.cryptocompare...onsumption=0&CostPerkWh=0 do the math

Na dat er weer wat vrij komt, wordt de beloning lager. Daarnaast zijn er al zat organisaties die dit full time doen en de meeste blocks vrijspelen.
Ik mis een stukje over mining. Daar gaat toch ook een heel groot deel naartoe?
Dat is ook de redenen dat oudere kaarten nu opeens weer veel geld waard zijn.


Om te kunnen reageren moet je ingelogd zijn


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*