Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 72 reacties

Nvidia heeft in het afgelopen kwartaal 14 procent meer gpu's voor geForce-kaarten verkocht dan in dezelfde periode vorig jaar. Het gpu-bedrijf verwacht verdere groei van de markt voor pc-games in de toekomst. Ook verkocht Nvidia meer Tegra-chips voor auto's.

Ondanks de groei van 14 procent van de driemaandelijkse GeForce-omzet, groeide de totale omzet uit gpu's minder: met 5 procent tot 898 miljoen dollar, omgerekend 802 miljoen euro. Hoewel het concern hierover geen cijfers geeft, duidt dat erop dat de omzet uit zakelijke Quadro-kaarten en Tesla-gpu's voor high performance computing minder hard groeide.

Tijdens de bespreking van de kwartaalcijfers sprak de ceo van Nvidia, Jen-Hsun Huang, volgens de transcriptie van Seeking Alpha de verwachting uit dat de markt voor pc-gaming voor verdere groei gaat zorgen, onder andere door de opkomst van virtual reality: "Om van echt goede vr te genieten, heb je 90fps in stereo nodig. Tenzij je iets als een GTX 980 of Titan hebt, is het lastig te genieten van goede vr." Daarnaast zou het goedkoper worden van uhd-monitoren en de komst van Windows 10 met DirectX 12 de groei aandrijven.

De omzet uit Tegra-processors steeg met 4 procent ten opzichte van vorig jaar, vooral door gestegen leveringen aan autofabrikanten. Nvidia richt zich minder op mobiele toepassingen en stopt bijvoorbeeld met zijn lte-tak. Voor het ontmantelen van deze Icera-tak is een last van 100 tot 125 miljoen dollar in de boeken opgenomen. Uiteindelijk kwam de totale kwartaalomzet van Nvidia uit op 1,1 miljard dollar, 4 procent hoger dan vorig jaar. De kwartaalwinst daalde met 2 procent tot 137 miljoen dollar.

Moderatie-faq Wijzig weergave

Reacties (72)

Daarnaast zou het goedkoper worden van uhd-monitoren en de komst van Windows 10 met DirectX 12 de groei aandrijven.
Iemand een uitleg voor me? Ik was namelijk onder de indruk dat DX12 onder andere VRAM-stacking ondersteunde en ook cross-manufacturer SLI/Crossfire (dus een R290 en GTX780 samen). In mijn opinie kan elke high-end gamer dus zometeen uit de voeten met meerdere goedkope/tweedehands GPU's dan dat ze voor DX12 allerlei nieuwe spullen moeten kopen.
DX12 brengt net als Mantle en Vulcan de driver overhead flink omlaag. Het aantal draw calls gaat gigantisch omhoog en kan DX12 tot 6 cpu cores aanspreken waar dit er nu maar 1 is. Daarnaast klopt het dat CF en SLI beter gaan werken en dat de merken door elkaar heen gebruikt zouden kunnen worden. Maar ik ben erg benieuwd hoe dat in praktijk gaat uitpakken. Vooral de latency is van belang die mag niet te hoog worden. En ik kan me voorstellen dat het lastiger is deze onder controle te houden als de GPU architecturen heel verschillend zijn.

Maar DX12 is geen rede om je GPU te upgraden. Alle AMD GCN kaarten ondersteunen al DX12. Bij nVidia in ieder geval de Maxwell kaarten. Dus er is al best wat op de markt wat DX12 ondersteund.

Ik kan me wel voorstellen dat mensen die nog veel oudere kaarten hebben zo iets hebben van we kopen een nieuwe. En als je 4K gaat gebruiken is CF / SLI ook een optie ipv een nieuwe dure single GPU kaart. Want de enige kaart die nu echt lekker 4K kan draaien is de Titan X en straks wellicht de R9 390X maar die is nog niet uit.
Dankzij de 512bit bus van de R9 290 en R9 290x is daarop ook al prima op 4K te spelen. Tuurlijk, je settings gaan omlaag, maar het wil prima
Het gaat er natuurlijk om dat je settings niet omlaag hoeven :) je wilt alles wel op high/ultra hebben anders kan je imo beter 2560x1xx0 gebruiken. Misschien dat andere er anders over denken. Maar dan lever ik graag een klein beetje scherpte in voor meer details en meer special effects. Je kan hooguit een paar extreem zwarte effecten uit zetten. Maar je wilt de meeste dingen wel op High en Ultra hebben.

De Titan X is de enige die dat een beetje goed kan. R9 290X komt een heel eind maar is toch aanzienlijk minder snel en je komt dan niet in de buurt van de 60FPS die je eigenlijk wilt halen. Een ander alternatief is de R9 295X2 die is wel snel genoeg.

[Reactie gewijzigd door Astennu op 8 mei 2015 11:28]

Precies, crossfiren is dan een optie. Hier heb ik zelf goede ervaringen mee. Twee oude miner 290x'en kosten toch maar ¤400 totaal. Da's aardig wat goedkoper dan een Titan X :P
Zolang je maar geen "standaard" AMD koelers, in mijn geval 290's in CF hebt....wat een bak herrie. Doe mij maar liever één hele snelle stille kaart.
Ik heb zelf geen problemen met die standaard kaarten. Voltage een beetje omlaag clockspeeds op max 890 MHz en hij is gigantisch veel stiller (voltage zakt extra als de clockspeeds omlaag gaan).

De R9 295X2 heeft watercooling dus die is out of the box al stil.
De dikte van de kaarten, de weinig ruimte tussen de kaarten en de radiaal koelers vind ik geen goede combinatie voor CF....maar inderdaad een CF 290 of CF290X (of SLI 970's) kan heel interssant zijn. Kans is groot dat ik nog een keer CF ga proberen met 290's maar dan met andere koeling.
ik moet dan ook weer een nieuwe voeding aanschaffen. 750w gold rated gaat helaas geen 2 290's trekken (heb de sapphire tri-x variant) icm 3 hdd's, een ssd en een i7 4790k op 4.5Ghz.
Verder is het inderdaad wel een optie omdat dx12 al ondersteund word en de 4gb op die brede bus prima volstaat.
750w is prima te doen. Volgens mij zal je niet boven de 600w komen. Mijn huidige setup met een 290X tijdens gamen kom ik amper op 300w 😉
En hoe meet je dat? Aan het stopcontact of kan je dat softwarematig ook uit de voeding aflezen? Ik gok het eerste (meter tussen de voedingskabel en mijn surge protector), maar is dat dan direct vergelijkbaar met het geleverde wattage? Ik heb de voeding wel uitgekozen op kwaliteit aan de hand van het onderdelen kiezen draadje. Het is de Seasonic G-Series G-750 750W ATX23

Maar goed, ik ga eens rondkijken dan :)
Ik doe dit op 2 manieren. 1 met een ampere tang, 2 met een stroom meter die je gewoon tussen stopcontact en stekker van PC kan zetten. Software matig gaat dit nooi echt lukken, tenzij u voeding via een usb of dergelijke met u moederbord is verbonden.

Het enige moment dat ik hoger dan 600w ben gekomen is toen ik overklockten met 3 grafische kaarten, dit alles op droogijs, dan kwam ik op een 1Kw piek.
Juist, toevallig heb ik vrij gemakkelijk toegang tot zo'n stroom meter. Tijdens 2 uurtjes counter strike kwam ik single gpu toch al tot de 425w piek. Morgen eens proberen met een zwaarder spel zoals metro, kijken of dat nog wat uit maakt.

Ampère is inderdaad misschien ook nog van belang..

Bedankt voor de info!
Hangt echt van het spel af, ik heb ook een 290 met standaard koeler, en in de simpelste spellen begint hij soms te blazen als een malle, maar bijvoorbeeld bij GTA V, blijft hij verbazingwekkend stil
Waarschijnlijk komt dat doordat je geen V-sync aan hebt staan (dus dat op een simpel spel 300 FPS wordt gehaald wat totaal onnodig is maar de kaart wel opwarmt).

Om energie te besparen en de warmte ontwikkeling laag te houden zorg ik er altijd voor dat de framerate voor een 60 Hz scherm op 63 gelockt is (drops gaan dan naar rond de 60 en er is nauwelijks screen tearing).

Omdat bij GTA V een bepaald onderdeel hard moet werken (en dus ook een lagere FPS) zal de kaart minder heet/verbruiken.
Crossfire geeft je weer hoge frametimes wat neer komt op hetzelfde effect als lage fps.
Sterker nog UHD wordt nog niet ondersteund voor frame pacing dus dan wordt het helemaal dol:
Above are four cards tested at a monitor resolution of 2560x1440 (QHD). You'll notice that here frametime scaling in milliseconds is higher for the slower cards, and lower for the fast cards. Low latency means a graphics card can squeeze more frames into one second. Single card performance wise there are no stutters recorded. This really is as good as it can get. Now Crossfire is showing a little more erratic behavior, but considering where it is coming from it has improved quite a bit. The new drivers support frame pacing up-to 2560x1440, UHD still has to be supported. The small spikes are not noticeable in-game whatsoever. Crossfire is rendering so fast that we are almost closing on on the monitor latency already.

With this chart, lower = better. Huge spikes above 40ms - 50ms can be considered a problem or indicate a low framerate. Spikes that drop down can be considered to be dropped frames.
Een spike van 50ms is überhaupt te vergelijken met 20 fps (1/20e van een seconde).

Al zou frame pacing in de toekomst wel ondersteund worden dan ga je er netto ga je er toch op achteruit want het wordt nooit zo "stabiel" als een single kaart. Een "redelijke" resolutie blijft echt de beter oplossing dan teruggrijpen op Multi kaart setups.

Zelf ben ik overigens erg tevreden met 21:9, zie de 21:9 Ultrawide monitor review.
Gaming on 21:9 is strongly recommended. The impact on your frame rate is manageable and the increase in immersion and utility is definitely worth it. Productivity is greatly increased and 21:9 seems to be a decent alternative to a dual monitor setup.
Zeker als je dan ook nog een curved monitor koopt is het echt genieten.

[Reactie gewijzigd door sdk1985 op 8 mei 2015 16:45]

Ik heb uitgebreid naar crossfire gekeken en inderdaad, frametimes wiebelen meer dan bij een enkele kaart. Dit is natuurlijk titelafhankelijk.

Dit loopt helemaal offtopic, maar ik wil het toch graag gezegd hebben. Crossfire is erg ondergewaardeerd. Vanaf de 6000 serie ben ik af en toe heen en weer gesprongen tussen crossfire en een enkele kaart, en crossfire heeft absoluut mijn voorkeur. De gigantische hoeveelheid power die twee high-end kaarten leveren laat de nadelen in het niet vallen. Crysis 3 op maximale instellingen, 60 fps, op 1440p loopt helemaal perfect, zonder framedrops en stotteren.

Ik ben zelf vrij gevoelig voor stotteren en erger me echt helemaal dood aan framedrops. Dat ik de huidige setup niet de deur uit gedaan heb zegt genoeg denk ik.

Probeer je niet helemaal blind te staren op grafieken en tabellen, maar probeer het gewoon lekker voor jezelf.
Tja vroeger was de micro-stutter discussie gebaseerd op gevoel en meningen. Het werd toen een welles/nietes discussie. Tegenwoordig hebben we FCAT die alle haperingen feilloos registreert. Natuurlijk kan het zijn dat jij die haperingen helemaal niet opmerkt maar in dat geval is het de vraag of je de hogere framerate wel gaat merken of dat het tussen de oren zit. Dat ze er zijn staat in ieder geval vast (FCAT meet de daadwerkelijke output van de videokaart).

Nu we FCAT hebben is Multi-gpu een beetje dood. Tot 2560x1440 zou een single kaart de beste prestatie moeten leveren. Guru3d (die dus een FCAT hebben staan) is het hier mee eens.
Well, if you are going to stick with one monitor then the reality is that with graphics cards as powerful as the R9-290(X) really is that 2-way Crossfire could only be a viable solution with multiple screens, or QHD and Ultra HD.
•Our recommendation as such is simple, with a single monitor setup up-to 2560x1440 you'd honestly be good to go with just one card.
•Now, if you have that nice Ultra HD monitor with a 3840x3160 resolution, that's where a 2nd card will make a lot of sense. Also with three screen Eyefinity setups the same logic applies.
Persoonlijk ben ik overigens helemaal geen fan van de UHD ontwikkeling. Ja mijn One Plus One ziet er met 401 PPI super scherp uit en mijn Surface Pro 2 heeft super scherp beeld met zijn 210 DPI maar games worden er echt niet mooier van. Er is nog een lange weg te gaan naar foto realisme en ik gooi liever niet 300%+ aan rekenkracht weg aan wat scherpere lijntjes. Ik zie liever betere lightning, shadows, textures, reflections, shaders, enz.
FYI met een 970 SLI opstelling haal ik de Ultra Settings in GTA5 in 4K resolutie..
Das een stuk goedkoper dan die TitanX en zeker de meerprijs niet waard.

zie: https://www.youtube.com/watch?v=CpmuXd52Ce0
Dan zijn 2 GPU's. en niet een Het ging over 4K met een single GPU en de enige die dat kan is Titan X. Het ging er niet over wat prijs technisch een betere keuze is.
Ja anderen denken daar toch anders over.
Mijn 8600GT kon crysis 1 niet soepetjes draaien met nette sprcts. Low zag er niet uit.
Farcry 2 daarin tegen zag op low wel goed uit en dan 1920x1200 draaien.
Crysis draaide op mixed medium high setting mooi en soepel op XT2900XT.

Voor grote open wereld game met longrange gameplay. Is groot sherm met hoge resolutie gameplay ondersteunend.

En settings is meer luxe aan wat budged je daaraan wilt blowen.
Een betere sherm zie ik als lange termijn investering en daar trek ik meer budged voor uit, dan een gkaart die sneller achterhaald is dan die mee gaat. Ik trek daar meer budged voor uit maar dan wordt die langer gebruikt.
High-end G-kaart wordt van zelf met de tijd low budged gaming. Zoals ik nog 5870 gebruik
Ja upgraden begint te kriebelen. En R9-390X klinkt aantrekkelijk. Voor vanwege mijn 1440P 32" sherm.
Door de grotere bus komt de R9 290 aardig in de buurt van van de GTX 970 op 4k, de standaard GTX 970 is gemiddeld nog maar 2% sneller op 4k dan de r9 290 waar dat op 1080p gemiddeld 9% is. http://www.techpowerup.co...SI/GTX_970_Gaming/27.html
en kan DX12 tot 6 cpu cores aanspreken waar dit er nu maar 1 is.
Ik weet niet hoe je hierbij komt.
Ten eerste kan DX11 ook meerdere CPU cores aanspreken, ten tweede zit er geen harde limiet op het aantal.
Zie ook hier: https://msdn.microsoft.co...op/ff476892(v=vs.85).aspx

Het is wel zo dat het vanwege het API-model van DX11 wat lastiger was voor driver-ontwikkelaars om meerdere threads efficient te laten werken (de states in DX11 mapten niet voor alle GPUs even netjes op de hardware, waardoor command-queues soms nog wat post-processing nodig hadden op een later tijdstip, als ook andere state-info bekend was).
Vooral AMD heeft dit nooit goed voor elkaar gekregen, waardoor de driver eigenlijk alles gewoon serializet, en de driver grotendeels single-threaded blijft werken.
Intel en nVidia deden dit stukken beter.

Bij DX12 zal multithreading efficienter verlopen, omdat het API-model dichter bij moderne DX11+ GPUs ligt, en de API laat ook meer controle toe over de command-buffers, waardoor dingen beter zouden moeten schalen.
Maar nog steeds moet je geen wonderen verwachten.

[Reactie gewijzigd door Scalibq op 8 mei 2015 13:23]

Kwam uit een review waar ze een test met DX11 en DX12 gedaan hadden en daar kon DX11 amper gebruik maken van een 2e core en je zag dat DX12 tot 6 cores performance winst liet zien.

Hier is een deel te zien: http://www.pcworld.com/ar...mance-leap-is-insane.html

En http://www.legionhardware..._performance_preview.html

Maar die specifieke resultaten had ik uit een andere review die kan ik nog niet terug vinden.

Edit: Gevonden: http://www.anandtech.com/...i-overhead-feature-test/3

Hier is inderdaad niet gezegd dat DX11 niet 4 cores kan benutten. Alleen het doet relatief weinig voor de prestaties. Dus wat je zegt klopt.

[Reactie gewijzigd door Astennu op 8 mei 2015 14:02]

Kwam uit een review waar ze een test met DX11 en DX12 gedaan hadden en daar kon DX11 amper gebruik maken van een 2e core en je zag dat DX12 tot 6 cores performance winst liet zien.
Performance winst zien is niet hetzelfde als cores wel niet (kunnen) gebruiken.
Schaalbaarheid is niet alleen afhankelijk van de gebruikte API, maar ook van de gebruikte code voor een dergelijke benchmark, zowel de applicatie zelf, als ook de drivers, en de gekozen GPU.
Je kunt code schrijven die heel goed schaalt naar veel cores (ook in DX11), of code die compleet GPU-limited is, waarbij meer/snellere cores geen winst laten zien.
Die link laat ook mooi zien wat ik al zei: bij nVidia is de driver voor DX11 een stuk sneller, en weet wel winst te boeken bij gebruik van multithreading.
Dat zet ook het verhaal van Mantle in een ander licht: AMD vergeleek altijd Mantle alleen met hun eigen DX11-drivers/hardware. Zoals je ziet kan nVidia ruim twee keer zoveel draw calls verwerken met DX11 als AMD. Dat is nogal een verschil. Bij AMD doet multithreading helemaal niets in DX11, zoals ik al zei (bij 2 cores is het zelfs iets trager vanwege de extra overhead).

[Reactie gewijzigd door Scalibq op 8 mei 2015 14:12]

Inderdaad dat is duidelijk zichtbaar. Ik ben wel benieuwd wat game dev's straks kunnen met die extra draw calls. Ik kan me niet voorstellen dat games ineens 3x mooier gaan worden.

Maar het zal vast gaan schelen.
Ja, dit is natuurlijk een synthetische test. Het geeft aan dat je veel meer calls kunt doen, zolang die calls natuurlijk weinig of niets hoeven te doen qua GPU-load.
Een nieuwe API maakt de shader processors of het videogeheugen niet sneller natuurlijk. Dus een hoop dingen gaan met DX12 nog exact even snel als met DX11.
Dat zag je met de praktijktests van Mantle in BF4 en Star Swarm ook al: het verschil is in de praktijk een stuk kleiner dan in een synthetische test.
Maargoed, alle beetjes helpen. Ik denk vooral dat we langzaam maar zeker evolueren naar een andere manier van engines schrijven en levels designen. Star Swam was hier een voorbeeld van: Ipv het groeperen van calls om het efficient aan de API aan te bieden, werd ieder ruimtescheepje gewoon bruteforce in een aparte call verstuurd.
Met DX11 zou je daar een betere oplossing voor kiezen, maar met DX12/Mantle hoeft dat niet. Dit werkt goed genoeg.
Maar DX12 is geen rede om je GPU te upgraden. Alle AMD GCN kaarten ondersteunen al DX12. Bij nVidia in ieder geval de Maxwell kaarten. Dus er is al best wat op de markt wat DX12 ondersteund.
Ook de kepler en de fermi kaarten.
Ook Intel ondersteunt DX12 vanaf Haswell.
Daarnaast klopt het dat CF en SLI beter gaan werken en dat de merken door elkaar heen gebruikt zouden kunnen worden. Maar ik ben erg benieuwd hoe dat in praktijk gaat uitpakken. Vooral de latency is van belang die mag niet te hoog worden. En ik kan me voorstellen dat het lastiger is deze onder controle te houden als de GPU architecturen heel verschillend zijn.
Wat er gebeurde en dat was wel heel interessant dat je gpu op je cpu ook gebruikt werd om te renderen. dit was gedaan door bepaalde taken onder te brengen bij de 2de zwakkere gpu.

Dit had in een demo 10% winst tegen over alleen de addin gpu.

bron: http://blogs.msdn.com/b/d...king-it-work-for-you.aspx
Klopt. Volgens mij hadden ze de post processing op een IGPU gedaan. Alleen was de latency wel veel hoger. En de vraag is of je dat wil. Ik denk dat ik liever een lage latency heb met een lagere fps dan andersom.
Maar DX12 is geen rede om je GPU te upgraden. Alle AMD GCN kaarten ondersteunen al DX12. Bij nVidia in ieder geval de Maxwell kaarten. Dus er is al best wat op de markt wat DX12 ondersteund.
Dank je voor deze aanvulling; dat is dus precies wat ik probeerde te zeggen/vragen. Er zijn al kaarten die DX12 ondersteunen; mensen hoeven dus geen nieuwe kaart te kopen bij Nvidia om zometeen te genieten van DX12 en aanvullende features; al helemaal niet als je makkelijker meerdere kaarten kan combineren in een machine. De voorspelde groei, uit het artikel, is misschien wat positief ingeschat door de GPU-fabrikant.

Natuurlijk zijn nieuwe resoluties nu of zometeen een uitdaging om aan te sturen met een voldoende hoge framerate maar DX12 lijkt me niet de reden voor de grootste hoeveelheid gamers om ook maar meteen naar UHD te gaan en twin-Titan X ofzo.
als de uhd monitoren goedkoper worden is er meer kracht nodig voor de gpu's momenteel is er nog geen enkele gpu die games kan draaien op de hoogste setting op uhd (zonder aliasing) op 60fps.

hierdoor zal er dus sneller voor 2 gpu's gekozen worden (vaak mid-range), DirectX12 zorgt ervoor dat het misschien toch mogelijk word om 1 gpu te gebruiken (high end) om toch goeie frames te halen om uhd.

maar het is meer door de komst van uhd zullen er loop der tijd meer videokaarten worden versleten dan normaal gesproken! DirectX12 zorgt alleen voor de beste ervaringen en optimalisaties! Maar zonder DirectX12 zullen er minder uhd monitoren worden verkocht omdat grof weg geen enkele single gpu dat aan kan op de hoogste settings. Daarom is het voor alle fabrikanten eigenlijk een voordeel om DirectX12 door te zetten. (Heel misschien lukt het de nieuwste Titan wel, maar dat kost voor de consument gewoon veel te veel geld ;))
Nou HBM geeft dat een push. En is dus voor UHD gaming een inovatie die nog verder kan schalen. Alleen nog een GPU met heel veel cores en sloot TMU en ROP om dat goed te benutten. En extra veel geheugen.
De R9-390X is stap in die richting.
En twee daarvan in crossfire. Kom ook al een eind op weg. Met optioneel een gtx980 erbij. Voor nv HBM die komt met pascal een gen later. Op kleinere procede. Voordeel is veel meer cores gekoppeld aan HBM. Mischien wel de grens om met 1 kaart klaar te zijn voor UHD.
Of VR. AMD zal dan ook volgen met hun HBM 2 gen. En dan 8GB leveren.
Ook tijd om te kiezen tussen welke VR bril.
Ik denk dat W10 en DX12 mooi meegenomen is, maar dat de meeste hardcore PC gamers daar nog helemaal niet aan denken, W10 is nog niet officieel uit en er zijn nog geen DX12 games uitgegeven. Tegen de tijd dat dit wel het geval is, is er een nieuwe generatie GPUs uit.

Persoonlijk was ik eind vorig jaar op zoek naar een nieuwe moderne kaart met drie aansluitingen voor 4k schermen, ik ben al een aantal jaar niet te spreken over de AMD/ATI drivers, dus een Nvidia (GTX970) is het geworden. Ik begin niet aan 2e hands hardware voor een workstation en eigenlijk ook niet voor mijn prive PC gezien de prijzen en de risico's.

@ChAiNsAwII:
Precies, dus je heb geen setup gekocht in het afgelopen kwartaal, waar dus meer is omgezet. dx12 en W10 waren toen niet eens stabiel.

[Reactie gewijzigd door Cergorach op 8 mei 2015 15:17]

Nou daar denken we wel aan, dx12 en win 10 wordt de reden om een nieuwe sli configuratie te bouwen, nog ff de nieuwe kaarten afwachten..
je zegt het zelf al... Mensen kopen dan dus 2 of meer videokaarten, ipv dat ze met 1 genoegen nemen op medium (dat kan 1 uitleg zijn).
En natuurlijk zeg je dat je groei voorziet als bedrijf...

En DX12 ondersteunt het... maar dan moeten game-ontwikkelaars het nog wel implementeren.
Die goedkope/tweedehandse GPU's gaan ook vervangen worden, denk ik.
(Ik denk niet dat er zoveel DX12 kaarten gewoon stof liggen te vangen...)
Het is weer een beetje zoals met dx11, als je battlefield 3 speelt op een dx10 kaart gebruik je wel de dx11 api, die fundamenteel beter is, maar je hebt geen tessellation.

Samen met dx12 worden ook weer wat nieuwe grappen gelanceerd, zoals conservative rasterisation, komen ook in dx11.3, maxwell kan conservative rasterisation, ouwere kaarten niet, maar met ouwere kaarten heb je nog steeds de lagere cpu overhead van dx12. De nieuwe eyecandy is misschien toch een excuus om te willen upgraden.
Simpel gezegd, de marketingmachine kan weer gaan draaien. Na jarenlang duimendraaien met GPU's die eigenlijk geen toffe nieuwe games hadden waarop ze hard moesten werken, is er nu weer enorm veel beweging in de markt.

- UHD, QHD, TN-gaming monitoren, Gsync etc.
- Nieuwe sloot console ports
- VR

Allemaal redenen voor marketing om zijn werk te doen, simpelweg het feit dat er nieuwe dingen op de markt komen is genoeg reden voor veel PC gamers om te gaan upgraden. Al is dat wellicht niet nodig, maar je weet hoe dat gaat. Upgrade-itch... Als ik zie hoeveel GPU's er elke dag op de V&A staan... 'nuff said'.

[Reactie gewijzigd door Vayra op 8 mei 2015 12:08]

Vraag me sowieso af hoe groot de markt voor in-car GPU's gaat worden binnenkort. De grote 3 fabrikanten uit Duitsland (VW / BMW / Mercedes) zijn namelijk officieus bezig om Nokia Maps over te nemen. Als je bedenkt dat ze toevallig alle 3 een mooie groei hebben doorgemaakt de afgelopen jaren waaronder Mercedes-Benz een topjaar had in 2014 met bijna 900.000 verkochte auto's.

Je wil een produkt als Maps natuurlijk mooi, scherp en universeel kunnen weergeven in alles van een VW Up tot een Benz S600 en hiervoor zou een groot conglomeraat een mooie deal kunnen maken met leveranciers van SoC of GPU's zoals een Nvidia.
Nu auto's verplicht worden om het alarmnummer te kunnen bellen in het geval van een ongeval, is het dan wel verstandig om hun lte-tak te verkopen als ze meer soc's voor de autoindustrie willen gaan verkopen?
En zullen auto's in de toekomst niet vaker gebruik gaan maken van mobiele diensten zodat een modem in de chip wenselijk is.

Ik begrijp dat de tak verliest maakt, maar ik vraag me ook al of verkopen of ontmantelen slim is?
Mag ook wel, de huidige generatie grafische kaarten is dan ook zo veel energie zuiniger en levert zo veel meer performance voor een lagere prijs.

Mijn GTX970 toen voor 350 kunnen kopen, als je dat dan vergelijkt met een GTX970 dan betaalde je daar toch echt wel 100 meer voor.
Ik vraag me af in hoeverre de "miners" invloed hebben gehad op de cijfers.

Het is geen geheim dat een totaal verzadigde en ingestorte 'markt' aan altcoins (waar bij tijdens de 'hoogdagen' er soms 5 copy-pasta coins per dag uitkwamen) de vraag naar AMD GPU's sterk heeft doen dalen in dat milieu. Er is zelfs een tijd geweest waar er tekorten waren aan bepaalde AMD GPUs. Nu zit menig miner met zijn hardware die niet meer gebruikt wordt omdat het totaal onrendabel is geworden, ook zonder algo's waar geen ASICs voor bestaan. En als je dan kijkt hoeveel tweedehands AMD kaarten nu te koop zijn...
Ik heb meer Nvidia kaarten gehad dan AMD kaarten.

Maar door het hele 970 debacle heb ik besloten dat mijn volgende kaart 1 van AMD zal zijn.

Ik hou niet van bedrijven die klanten voorliegen, of het bewust of onbewust is geweest dat er andere specificaties van de kaart werden gemeld dan het daadwerkelijk waren (Het laatste lijkt mij erg sterk).
AMD is gewoon heer en meester in de midrange met ouwe rebrands. Begrijp me niet verkeerd, ik ook heb AMD het is wel gewoon de waarheid :)
Daar heeft NV echt helemaal niets wat dezelfde performance heeft voor die prijs.
En dat blijft nog wel zo, ik zie nl helemaal geen goede midrangers komen. Vroeger hadden ze nog de GTX 760 wat een bang for your buck kaart was en die liep volgens mij ook echt goed vwb verkopen. Nu hebben ze een GTX 980ti klaarstaan om de highend mee terug te kunnen pakken.
Het lijkt ook niet zolang geleden dat de GTX 660ti ook vrij populair was.
In de high end zit helemaal geen groei meer voor ze, dat begrijpt Intel ook, maar die heeft als voordeel dat de i3 snel genoeg is vwb gamen dat zich daar voorlopig geen zorgen over hoeven te maken.
Ik denk dat NV wel degelijk een probleem heeft, als ik AMD een beetje ken zullen ze met de komst van de nieuwe kaarten 1 gedeelte gaan uitfaseren en het andere gedeelte opnieuw rebranden en in een lager segment stoppen.
Het enige wat NV dan kan doen is of de prijs van de GTX 970 laten zakken of de verkopen daarvan gaan kanibaliseren.
Verbaast me niet zo veel. de gtx 960 is voor een prijs rond de 200 te krijgen, en speelt alle huidige games op ultra met minimaal 30 á 40 fps.
http://tweakers.net/price...rce-gtx-960-2gd5t-oc.html

wat dacht je van de strix versie van de 960?
tweakers.net/productrevie...ix-gtx960-dc2oc-2gd5.html

Voor zover ik weet zal Amd het niet voor elkaar kunnen krijgen(correct me if i'm wrong)! (de strix heeft fans die op sommige momenten niet eens draaien zo koel is de 960)

Alhoewel ik echt een budget gamer ben, die zelf niet zo veel game-d, en liever zo weinig mogelijk uitgeeft aan zijn grafische kaart, ben ik na lang wikken en wegen tussen de r9 270, en de gtx 750 ti voor de 750 ti gegaan. Om het simpele feit dat de 750 ti zo koel is, en zo weinig energie trekt dat hij niet eens een power connector nodig heeft, maar gewoon gevoed word door het PCI-slot!

ik was zo onder de indruk van deze kaart, dat ik ondanks dat deze aanzienlijk minder presteert voor zijn geld dan de r9 270, toch de 750 ti koos.

Ik had mij nooit kunnen voorstellen dat ik nog eens een nvidia kaart zou kopen. om het simpele feit hun prijzen af en toe echt extreem hoog zijn. Maar de laatste tijd doen ze het echt goed!

Ik zou zeggen: 'Nvidia ga zo door!'
niet zo heel gek zonder concurrentie... amd neemt zijn tijd en geeft marktaandeel weg en om dat weer goed te maken moeten ze of extra snelle kaarten op de markt brengen of tegen dump prijzen verkopen.
ik hoop op het laatste. scheelt weer geld.
Denk dat hun marktpositie nog wel zo blijft, nvidea heefy veel betere kaarten inprincipe en daarmee kunnen ze makkelijk zoveel voor een kaart vragen. Zie alleen al de titan x. Nvidea heeft ook een veel groter r en d en reclame budget.
Nvidea heeft eigenlijk onder de r9 290 geen goed antwoord op amd kaarten. En de reden dat de 970 populair is komt vanwege het stroom verbruik/geluid dat de 290 maakt.(met aftermarket koelers eigenlijk geen probleem meer)
amd heeft ook geen slechte kaarten alleen is nvidia sterker maar je betaald er ook meer voor en lang niet alle kaarten van nvidia zijn even goed.
'nvidia is sterker' Bron?
ik had er bij moeten zetten persoonlijke ervaring. en dat kan voor iedereen verschillen en misschien is het bad luck aan mijn kant maar mijn amd video kaarten gingen sneller stuk dan de ene nvidia kaart die ik nu heb.
Och, elke fabrikant heeft z'n sterke en zwakke lijnen. Als je kijkt naar de GTX8000 lijn van een tijd geleden dan was je met nVidia bijzonder slecht af. En daarnaast geven die paar AMD kaarten die je had, en die ene nVidia kaart die je nu hebt, absoluut geen goede afspiegeling van de 'sterkte' van de fabrikant.
idd ja, mijn 8800gts hield er veel te vroeg mee op. Verder nog een 1900xt gehad die niks meer deed na een heat sink wissel. De rest van mn GFX kaarten nog niet kapot gegaan.
Je zit bij nvidea meestal ook goed dat games er beter voor zijn geoptimaliseerd. ( best lelijk dat nvidea daar de ontwikkelaar voor betaald maar goed.)
Als nVidia eraan mee sponsort wel ja. Maar AMD doet dat net zo goed met het Gaming Evolved programma. Dat is hun goed recht, als ze daarmee de ontwikkelaar sponsoren om een betere game neer te zetten, toch?
Nee nV was ermee begonnen, en toen dat vruchten afwierp moest AMD ook mee. En toen kwam GITG vs TWIMTBP
Ondertussen heeft het beestje een andere naam.
Afhankelijk van kapitaalkracht. De voordeel voor nV kan je er veel resources in stoppen. Zo hebben ze ook Cuda keihard gepushed.

Met DX12 vervalt veel van de driver invloed. Gezien je veel directer met de hardware werkt. In is optimalisate meer de developer voor verantwoordelijk.
Dan dev en driver team die naar mekaar toe optimaliseren.
Met game profielen en detectie.
*nVidia...

Maar even serieus: Waarom vinden de meeste van jullie het nou zo belangrijk over welke kaart beter is, welk bedrijf beter is en wat dan ook beter is?

Koop gewoon een kaart die voldoet aan je wensen en eisen, ongeacht merk/type/soort of wat dan ook.

Ik gebruik nu zelf een GTX760, geen idee welk merk/type/soort. I don't care. Ik kan er spellen mee spelen, kan er mee surfen en alles wat ik maar wil.

De reden voor de GTX760? Was/is een leuke kaart voor een leuke prijs toen ik een nieuwe kaart nodig had/wilde.

Robin
Doe eens niet zo dom. Het is NVIDIA met hoofdletters. Zie ook nvidia.com waar alle NVIDIA woorden in hoofdletters staan.
Het was/is officieel nVidia, de "n" en "vidia" zijn samengevoegd. Later is daar NVIDIA/nvidia van gemaakt en aangehouden, omdat dat "makkelijker" is.
Nee dat is niet zo. Stop met onzin te verkopen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True