Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 125 reacties

Nvidia zegt dat de goede verkoop van Maxwell-gpu's zijn omzet omhoog helpen. De omzet van de verkoop van GeForce-gpu's is gestegen met 38 procent ten opzichte van vorig jaar. Dat komt ook door de groeiende gamingmarkt. De omzet uit Tegra-chips voor smartphones en tablets daalde.

De stijging van de verkoop vindt plaats bij losse kaarten en laptops; de markt voor kant-en-klare desktops daalde volgens het chipbedrijf. Volgens de ceo van Nvidia, groeit de gpu-markt voor laptops zelfs met 100 procent per jaar. Verder meldde Nvidia dat er inmiddels meer dan 50 miljoen gebruikers van de applicatie GeForce Experience zijn, waarmee gamers hun pc-instellingen kunnen optimaliseren.

In het vierde kwartaal van 2014 daalde de omzet uit Tegra-chips met 15 procent, terwijl de verkopen van die chips voor de autoindustrie en de Shield-apparaten wel steeg. Die groei was echter niet genoeg om de daling van de verkopen voor smartphones en tablets te compenseren, aldus Nvidia.

De totale omzet van de gpu-tak, waarbij ook de Tesla- en Quadro-modellen vallen, steeg met 13 procent in het vierde kwartaal, maar het waren vooral de verkopen van de GeForce-videochips die voor omzetgroei zorgden. De omzet hieruit groeide met 38 procent ten opzichte van een jaar eerder.

Uiteindelijk kwamen de kwartaalomzet en -winst van het bedrijf uit op respectievelijk 4,68 miljard en 631 miljoen dollar, omgerekend 4,13 miljard en 557 miljoen euro. Dat was achtereenvolgens 13 en 43 procent hoger dan in 2013.

Moderatie-faq Wijzig weergave

Reacties (125)

Niet om AMD gebruikers aan te vallen, maar Nvidia heeft op dit moment wel de krachtigste Single GPU´s op het moment. Op het moment dat AMD met de nieuwe 290x aan kwam zetten had nvidia hun GTX780Ti zo goed al als klaar liggen. Het top segment domineren ze. Ze moeten het absoluut niet hebben van prijs. Daar zijn ze gewoon ontzettend duur. De budget kaarten, ongeveer 200 piek(wat eigenlijk al veel is) scoort AMD op prijs gewoon veel beter. Nu Nvidia is gekomen met de nieuwe Maxwell serie zijn ze ook aan het scoren op energie gebied. Nvidia gaat gewoon een erg goede kant op. Mooi om te lezen dat het goed gaat met het bedrijf gezien ze geen deal hebben met Microsoft of Sony om een GPU van hen daar in te zetten.
Absoluut. Na het GTX 970 debacle zocht ik een andere high-end GPU, dus ik keek (ontevreden met de GTX970. In tegenstelling tot wat nVidia beweert merk je het WEL bij nieuwe games, ook in 1080p: framerate is gemiddeld wel ok, maar dipt om de zoveel tijd onder de 40fps, omdat hij dan even iets uit de 'trage' 0.5GB moet halen) meteen naar AMD. Helaas is de enige degelijke optie dan een GTX 980. In het high-end segment heeft AMD momenteel gewoonweg geen enkele GPU die de 970 aan kan, laat staan de 980. En zelfs als je de performance van AMD's snelste kaart genoeg vind, dan is er nog het feit dat hun GPUs een PAK meer verbruiken en heter worden.

Ik heb nu dus een GTX 980. Voor wie een high-end kaart zoekt en enkel naar de performance kijkt, is er gewoonweg geen alternatief.

Edit: nee, ik wil AMD niet bashen: het is normaal dat de GTX900 serie van nVidia beter is dan AMD's huidige lineup: nVidia kwam later met de GTX 900. Het enige dat ik AMD zou verwijten is dat hun product refresh nu wel erg lang duurt (nu al bijna anderhalf jaar?). Ik wou dat de 300 serie al uit was, dan had ik meer keuze gehad en miss geen 980 gekocht.

[Reactie gewijzigd door kiang op 12 februari 2015 15:32]

Hangt er weer van af waarom je zo een zware kaart nodig hebt? Ik zie soms mensen 980's kopen om dan te gaan gamen op 1080p ( 60Hz monitors ) en zo van die toestanden.

Je moet niet de R9 290X onderschatten. Heb mij een ASUS R9 290x ( custom cooler ) kunnen aankopen "2de hands" voor 250¤ ... nog geen 5 maanden oud. Eigenaar wou een "upgrade" kopen blijkbaar ( ik neem aan een GTX 980. Een GTX 970 is meer een zijsprong ).

De GTX 980 is 30% sneller ( in optimale geval ) dan een R9 290x ... maar die persoon zal dan bijna dubbel moeten betalen. Nu, ik klaag niet. Is een goede deal voor mij. :) En dat de R9 290x meer stroom zuipt. Who cares ... dat is een paar euro op jaar basis. Het is niet alsof de meeste mensen 24/7 gamen.

En grappig genoeg is de R9 290x stiller dan men oude SLI 660 ( ondanks dat deze ultra zuinig waren in energie gebruik ), maar wegens de hitte dat zuigt in de top van de onder GPU, beginnen de ventilators luider te draaien ( en dan met 4 fans dat lucht inblazen in de case ) in zo een SLI setups. Dat was voor mij de hoofd reden om die SLI setup buiten te smijten. En het feit dat niet alle games goed werken met SLI ( end dat je soms driver updates moet hebben voor SLI in bepaalde games = iedere update kan weer instabiliteit of problemen introduceren ). SLI is echt iets dat goed is als je tegen de nadelen ervan kunt. Persoonlijk vind ik één kaart oplossingen beter.

De GTX 980 is idd de snelste op dit moment maar als men geen 4K monitor heeft of 1080p @ 144Hz monitor heeft het weinig nut. Dan was men beter even te wachten op AMD hun 300 serie en zien hoe de markt reageerde ( drop in prijzen ). Altijd al gezegd dat het niet goed is te kopen wanneer één partij de top kaart heeft en er geen directe concurrentie is op die kaart.

Ben persoonlijk zelf verbaast over hoe stabiel AMD hun drivers geworden zijn. Dat was in het verleden een punt waar ik minder tevreden over was. Maar ze zijn rock solid ( draai mijn systeem 24/7 ). Kon hetzelfde niet zeggen van Nvidia hun drivers. Sommige Nvidia drivers waren ook rock solid maar soms om SLI werkzaam te krijgen in bepaalde games moest je upgraden naar drivers dat af en toe je pvd deden crashen. Denk dat de meeste mensen geen probleem mee zouden gehad hebben maar in mijn geval met 24/7 systeem.

En energie verbruik in idle tussen de AMD R9 290x en de SLI GTX 660 is nehil ( de 660's draaide met een paar wat meer verbruik in SLI ).

Ik raad al lang mensen aan te kopen me welk doel ze in hun kop hebben. En niet enkel op de specs / prijs. Was vroeger ook altijd zo ... laatste van het laatste, premium prijzen, ... maar dat was in de tijd dat games enorm snel evolueerde. Tegenwoordig met al die console ports koop je een kaart en ben je jaren zoet. In mijn mening is de 980 te duur voor de extra kracht en zijn mensen beter af met de 970. Maar dat geheugen probleem kan mogelijk een probleem zijn voor de toekomst ( omdat veel console port's nu enorm wat GPU geheugen eisen ).
Sli heeft weinig nadelen qua lawaai als je Watercooling hebt :) (behalve dat je twee waterblokken moet hebben).
Ja, maar dan moet je wel nogal een dure oplossing hebben.

Twee waterblokken, vrij grote radiator ( zeker met SLI ), pomp, tubes enz... En dan moet je waterblokken gemaakt zijn voor die kaarten want je wilt je geheugen ook wel cool houden. En dan spreken we nog niet over de rest dat eigenlijk geen koeling meer heeft wegens het ontbreken van de luchtstroom.

Heb lang gewerkt met watercooling in de oude dagen. Maar het is een systeem dat regelmatig lastig is doet. Je zit met het risico dat als een pomp uitvalt dat je massieve schade krijgt aan je systeem.

Een gebarsten water leiding. Het lastige om te upgraden want zodra je één component moet veranderen dat je gans je leidingen moet leeghalen en terug primen ( lucht eruit krijgen ). Soms componenten met verschillende diameters.

Persoonlijk mis ik watercooling niet. Tegenwoordig met de low flow fans / grote fans dat bijna geen lawaai maken. Vroeger was watercooling een goede oplossing aangezien de meeste lucht coolers lawaai maakte zoals een jet. Maar die dagen zijn al lang voorbij.

En dat verhinderd niet de negatieve SLI effecten zoals bepaalde games dat driver updates moeten hebben, of niet deftig met SLI werken. Ik zal het in de toekomst misschien nog eens overwegen als ik te veel geld heb. *lol*.

Of als AMD die techniek kan toepassen waarbij men bij SLI niet meer 2GB + 2GB = 2GB toepast. Gelezen dat AMD in die richting aan het werken is.
Ik weet niet hoor maar een 980 met een full HD scherm op 60hz heeft wel degelijk zin. Veel mensen zullen het verschil niet merken tussen 120 of 60 fps op een 60hz scherm. Maar hoe je het ook went of keert bij 60 fps in bf3 en bf4 merk ik een gigantische delay in mijn input op de muis en output op het scherm. Dis heb ik niet op 120+ fps. Ik heb een sli config die even snel is als een Titan. Ik draai Bf op ultra met 120 fps minimaal. Dit is ook het minimale aantal frames wat ik wil hebben. Alles daaronder is (althans voor mij) merkbaar. Niet zo zeer omdat het beeld niet vloeiend is maar omdat er een vertraging ontstaat in je input - output.

Ik persoonlijk vind 200 fps geen overkill bij een shooters. Dan ben ik er namelijk van verzekerd dat wat er ook op het scherm gebeurt ik altijd een super snelle output op het scherm heb.

Maar dit is heel persoonlijk... De meeste mensen spelen een beetje voor de lol en zullen het nooit merken. Ik heb nu een 1500 uur zitten op bf3 en ik merk het al als bf3 lager speelt dan 80 fps. Dan wordt het voor mij onspeelbaar. Zonder dat ik de fps zie kan ik bij iemand anders op de PC met 1 keer de muis bewegen voelen of hij onder de 80 fps speelt. Ongeacht wat voor monitor. Je merkt het gewoon al kun je niet aangeven waaraan het ligt
De 290(x) naast de 970/980 leggen is een beetje krom vergelijken. De 290(x) is al veel langer uit dan de 970/980. De 290x en 290 zijn gereleased in respectievelijk oktober en november 2013, terwijl de 970 en 980 pas in september 2014 uit kwamen. Daar zit 11 maand tussen! Iedereen weet dat 11 maand een erg lange periode is in de IT wereld.

Destijds, bij de release van de 290 en 290x was iedereen helemaal weg van AMD, en kon Nvidia er absoluut niet aan toppen, getuige de reviews van de 290 en 290x, en comments bij de aankondiging.

Ik verwacht dat dit bij de release van de 3xx serie van AMD niet anders is :) erg benieuwd naar die kaarten. Ook benieuwd wat de prijzen van zowel AMD als Nvidia dan gaan doen.
Je hebt gelijk dat je hieruit niet moet afleiden 'AMD SUCKS NVIDIA RULEZ', maar dat bedoelde ik ook niet ;) Natuurlijk is de GTX900 serie beter als ze zo veel nieuwer zijn.

Maar, Ik wilde NU een nieuwe GPU kopen, en dit is helaas het aanbod dat AMD nu heeft. Ik kan niet blijven wachten: de huidige serie is nu al bijna anderhalf jaar oud, en nog geen nieuws over de nieuwe reeks!!!


Je hebt gelijk dat de 300 serie wss de rollen weer zal omdraaien.

Maar MOMENTEEL is nvidia de beste degelijke high-end optie, en blijft AMD niet een beetje maar VER achter.

[Reactie gewijzigd door kiang op 12 februari 2015 16:22]

Persoonlijik denk ik dat vanwege het hele cryptocoin gebeuren, nu iets meer dan een jaar terug, zoveel AMD kaarten in het hogere segment zijn verkocht dat deze nu tweedehands voor best aardige prijzen te koop zijn.

AMD doet het rustig aan, denkt dat de massa's 290(x) kaarten nog lang gebruikt gaan worden omdat veel mensen er intussen misschien wel twee van in hun systeem hebben zitten. Deze kaarten een tweede leven hebben gegeven zeg maar.

Als je met twee 290's AAA-titels als BF4 voluit met minimaal 150 fps kunt draaien ga je niet op korte termijn weer in nieuwe kaarten investeren. Laat de gameindustrie eerst die hardware maar eens harder pushen.
Op 1080p misschien ja. Alleen spelen tegenwoordig toch al best veel gamers op (veel) hogere resoluties. Denk aan 4k schermen die betaalbaar worden, setups met 3 1080p monitoren en 1440p schermen die geen drol meer kosten. Zelfs het 1440p (factor 1,8 afgerond) scherm vraagt al bijna dubbel de rekenkracht van een 1080p scherm...

Daarbij is battlefield 4 al lang niet meer de zwaarste titel. Ik heb zelf 3 GTX 780 kaarten in SLI draaien, maar hou voor bepaalde titels niet bepaald over op 1440p met alle toeters en bellen ingeschakeld. Sterker nog, moet anti aliasing soms uitzetten...
Ja er zullen best veel mensen zijn die op een hogere res spelen dan 1920*1080 maar dit zal over het totaal gezien nog steeds een vrij laag percentage zijn.

Over tijdje zal er weer een grote jump komen in prestaties wanneer men met kaarten komt welke stacked-ram hebben.
Al eens aan geheugenbandbreedte gedacht? :)
3x 780 is nog steeds maar de bandbreedte van 1.
En ja, dat ga je merken.
Nee het geheugen is effectief als die van 1 , grof gezien het verschil zijn de render buffers op welke kaart die bevinden.
Textures en meshes zijn gecopieerd locaal.

Maar de bandbreedte iswel meer. Omdat het werk verdeeld wordt en elk deel taak gehele GPU met mem bandbreedte beschikbaar heeft.
Precies, en dat is wat er (hopelijk) altijd blijft gebeuren. Dat AMD en Nvidia elkaar steeds naar de kroon blijven steken. Is goed voor de marktwerking, en zal beiden hopelijk in goede staat van leven houden.

En dat was precies mijn punt, ze wisselen de kroon steeds uit. Nu is het Nvidia, straks weer AMD :)
Van wat ik te horen kreeg is dat de 300 series kaarten maar marginaal sneller zijn. De gpu zal gewoon een limitatie op de kaarten zijn qua performance.

Het zal mij benieuwen.
Ja het zou geloof ik geen echt nieuwe gpu zijn maar een aangepaste versie van de huidige.
Maar deze zou dacht ik wel stacked-ram hebben.

Nvidia komt daarna pas met stacked-ram maar dan wel met een volledig nieuwe GPU.
Ik hoop van niet. Maar de huidige van AMD hebben al veel meer bandbreedte dan de concurentie. Dus is eerder het problem dat de GPU wat tegenvalt.

Als 4K gemeengoed gaat worden dan heb je wel de mem die voorziet in bandbreedte. Maar zonder een GPU die daar volledig van gebruikt maakt kan het wel eens tegen vallen.

Ik kijk ook meer uit naar de GPU spects dan de mem.
Is ook wel zo, de 900 serie is ook wel veel nieuwe, maar dat is het snelste wat AMD heeft: de 2xx serie. Daarom worden die twee met elkaar vergeleken. Ik kocht toendertijd een 4890, en ben daarna overgestapt op de 6950. Daarna de 580 (veel Nvidia spellen) en nu een tevreden gebruiker van de GTX780 OC.
En wat houdt AMD tegen tegelijkertijd met Nvidia een nieuwe kaart uit te brengen? Nvidia had namelijk wel meteen de 780ti klaarliggen als antwoord op de 290x.

Ik ben helemaal niet zo merkentrouw (heb van beide merken meerdere generaties gehad), maar de laatste jaren is Nvidia in het high end segment toch echt AMD's meerdere. Naast de beste performance bieden ze ook nog is gunstiger energieverbruik en een degelijke standaardkoeler. (Triest dat je AMD borden niet eens met fatsoenlijk reference cooler krijgen kan voor multi gpu setups.)
De 290(x) naast de 970/980 leggen is een beetje krom vergelijken. De 290(x) is al veel langer uit dan de 970/980. De 290x en 290 zijn gereleased in respectievelijk oktober en november 2013, terwijl de 970 en 980 pas in september 2014 uit kwamen. Daar zit 11 maand tussen! Iedereen weet dat 11 maand een erg lange periode is in de IT wereld.
Dat is waar.

Maar het is wel de enige zinnige vergelijking die je als consument kan maken. Je vergelijkt immers producten die je op dit moment (zeggen en schrijven) kunt kopen.
Destijds, bij de release van de 290 en 290x was iedereen helemaal weg van AMD, en kon Nvidia er absoluut niet aan toppen, getuige de reviews van de 290 en 290x, en comments bij de aankondiging.
De performance ten opzichte van wat nVidia te bieden had verschilden nogal per game en de per game gebruikte settings. En de resultaten per site en per testmethode wilden ook nogal verschillen.

Dan daarbij kwam nVidia na de release van de R290(X) héél snel met de GTX780Ti die nVidia in de meeste situaties weer de performance kroon terug bezorgde. Het is duidelijk dat de GTX780Ti Keppler bij nVidia destijds al lang op de plank lag in afwachting van waar AMD mee ging komen.

Ik keek destijds behoorlijk uit naar de R290(X) maar ik kon voor mezelf alleen maar vaststellen dat het een redelijke teleurstelling was ten opzichte van wat de concurrent te bieden had. De performance van de R290(X) was in eerste instantie na een tijdje van opwarming behoorlijk gelimiteerd door de overdadige warmteontwikkeling en de daarvoor niet toereikende heatsink+fan oplossing die AMD op de stock kaarten leverde. De kaarten klonken als een stofzuiger, produceerden relatief veel warmte, vraten veel energie, en voor dat alles presteerden ze niet beter dan een GTX780Ti.
Ik verwacht dat dit bij de release van de 3xx serie van AMD niet anders is :) erg benieuwd naar die kaarten.
Ik hoop dat je gelijk hebt.

Anderzijds kijk ik met iets andere verwachtingen naar de aankomende 3xx release.
Ik verwacht eerder een herhaling van zetten zoals we ze de vorige cyclus gezien hebben. nVidia heeft met hun huidige Maxwell high-end duidelijk veel headroom en uitgeschakelde elementen op de GPU beschikbaar. AMD's 3xx zal heel goed uit de verf moeten komen om te voorkomen dat nVidia met de te verwachten GTX980Ti ze niet weer de wind uit de zeilen neemt.
Ook benieuwd wat de prijzen van zowel AMD als Nvidia dan gaan doen.
Kijk naar wat de prijzen van beiden de afgelopen jaren gedaan hebben gedaan en trek je conclusie.
Zo heel krom is dat niet, als je bedenkt dat de 980 met de de helft minder stroom hogere prestaties weet neer te zetten.

Laatste generatie AMD kon mij absoluut niet bekoren aangezien ik een GPU niet nodig heb om mijn huis te verwarmen ;)
+1 voor wat?

als je info wil geven moet je die ook kunnen staven. in max load gaming is het verschil maximum ongeveer 20%. is dus ver van de helft en kan je beter die verwarmings quote ook weg laten.

http://www.anandtech.com/...x-970-review-feat-evga/15

betere performance? ja, maar dan nog zijn het marginale verschillen zeer afhankelijk van specifieke games die enkel statistieken waardig zijn.... het typische wie geeft het langste balkske princiepe. (fanboyisme)

al bij al perf/verbr idd momenteel de betere keuze, maarja als je er dan ook een jaar na datum op moet wachten zal er altijd wel iets beter zijn............................

laatste generatie niet kunnen bekoren om dat hij maar 2/3 van de prijs was van een 780 en betere perf had? hahaha uw statements zeggen meer dan genoeg.

Het is trouwens helemaal kort door de bocht om te denken dat deze revenue komt van gaming kaarten. alles wat in profesionele doelen verkocht wordt brengt veel mee rop en daar is de nvidia brand heel sterk.

[Reactie gewijzigd door duploxxx op 12 februari 2015 13:15]

En volgens een andere bron:
http://www.pcworld.com/ar...ng-hardware-compared.html

Zit er wel daadwerkelijk een groot verschil in het gebruik van stroom namelijk gewoon 50% meer stroom verbruik. Het aankaarten van 1 bron met een enkele setup betekent natuurlijk niks. Waarschijnlijk zit het voor de meeste gebruikers tussen de 20 en 50% in en dan zal het ook nog verschillen met welke games en andere applicaties worden gedraaid. Mij zal het een worst wezen hoeveel stroom ik verbruik, als ik een kaart koop van ~400/500 euro dan zal het mij ook niet uit maken dat de energie rekening met een paar tientjes omhoog gaat.

Het is een feit dat de nieuwe kaarten beter zijn dan wat AMD verkoopt. Maar dat is niet raar als je kijk naar wanneer de kaarten zijn uitgebracht. Er is niets fanboy-achtigs aan, op het moment heeft AMD geen kaart tegenover de gtx980.

Ik heb zelf geen idee over hoe de 970 presteer en er was natuurlijk laatst nog dat bericht over dat hij vertraagde bij bepaald vram verbruik? Ik heb een 980 en heb er in ieder geval geen problemen mee.
brakke review sites zijn er natuurlijk altijd

oko toms hardware komt met dezelfde conclusie als anandtech, laten we stellen dat deze eerder te vertrouwen zijn :)

http://www.tomshardware.c...-970-maxwell,3941-13.html
Dat is natuurlijk ook mogelijk, dat een bron onbetrouwbaar is. Maar dan zullen hier argumenten voor moeten worden geleverd die kunnen aantonen dat deze bron niet onbetrouwbaar is. Het tonen van andere bronnen die tot een andere conclusie zijn gekomen tellen niet. Aangezien er teveel variabelen zijn: verschillende type componenten, andere condities en alleen al het feit dat er onderlinge variaties zijn in de grafische kaarten.

In het testen van hardware zijn er nu eenmaal variabelen. Stellen dat een bron onbetrouwbaar is ondanks dat er een stap voor stap uitgelegde benchmark wordt beschreven is onterecht. De enige manier om te stellen dat de benchmark niet klopt is door hetzelfde systeem samen te stellen en daarna dezelfde test te draaien.
Komen er dan grote verschillen in resultaten kan het altijd nog gewoon zijn dat ze een slecht exemplaar hebben gehad.

Beetje simpel om te stellen dat pcworld een brakke review site.
Je statistieken laten de load van het gehele systeem zien. Het verschil tussen de twee in dit overzicht is dus op basis van alleen een videokaart icm met hetzelfde systeem en trek je dat verbruik eraf, dan is het verschil wel wat groter dan 20%.
De 970 en 980 series liggen heel dicht bij de 290 en 290x series. De AMD's schalen wat betere op hogere resoluties door de hogere bandwidth van het geheugen. De Nvidia kaarten zijn zuiniger. De 980 is niet echt veel sneller dan de 780ti maar vooral efficienter.
Ik moet zeggen dat zelfs met het probleem dat de GTX970 heeft, de kaart nog altijd zeer goed is. De kaart blijft ondanks het kleinere bruikbare VRAM nog altijd redelijk goed waar voor je geld. De prijs zal wel wat mogen zakken en NVidia moet misschien maar beter gaan adverteren met 3 of 3,5 GB VRAM, of NVidia moet een oplossing vinden en ALLE 970 bezitters tegemoet komen (onwaarschijnlijk), maar het blijft een goede kaart.

Ben op dit moment wel blij dat ik voor de 980 ben gegaan, maar ik ben niet van mening veranderd dat de 970 een prima kaart is.

NVidia heeft gewoon een uitstekende GPU geleverd en dat valt terug te zien in de winstcijfers. Misschien kan AMD nu juist beter even wachten en langer onderzoek doen naar een optimale chip. Zo is het prestatieverschil misschien een stuk groter tussen de 900 serie en AMD's nieuwe GPU's. Dat kan AMD ook flink wat opleveren.

Als AMD het zelfde kan doen als NVIdia (minder stroom, betere prestaties) dan liggen de twee weer mooi op ramkoers en gaat er in de toekomst weer een AMD kaart in.
Jij beloont Nvidia dus met hun 970 flop door de duurste Nvidia kaart te kopen.
Flop valt ook wel mee. Het is knap moeilijk om die 4GB vol te krijgen.

En de kaart (970) is niet ineens langzamer geworden door het "debacle" van die laatste bank die maar op een fractie van de snelheid werkt als de overige 3,5GB.
Voor het "debacle" was het een hele goeie kaart, maar nu ineens niet?
Gewoon nog steeds een prima, hele snelle kaart, zuinig, en scherp geprijsd.

"Ja maar, later!" geldt ook niet echt, want dan heb je toch al weer een nieuwe.
één kaart maakt het verschil toch niet, en zoals hij al aangaf: Hij heeft geen alternatief.
niet alle 970`s zijn een flop en de 980 is echt een super kaart
4gb of 3.5 hij blijft sneller dan een 290 x
ben zelf ook de eigenaar van een EVGA gtx980 en ben zeer tevreden. monsterlijk snel en stil :)
de snelste GPU is van AMD Kiang....het is namelijk de R9 295X2 8GB dus alternatief is er wel.

pricewatch: Sapphire R9 295X2 8GB
Tot je een spel speelt dat geen crossfire ondersteunt.

Als je naar multi-GPU osptellingen gaat, kan je beter 2 GTX970 kaarten nemen, die slaan de R295X2 verrot en kosten minder.

[Reactie gewijzigd door kiang op 12 februari 2015 10:58]

Enigste alternatief is 290x. En echter scoort die vrijwel overal slechter op.
Vergelijk die dan met 2x GTX980.
dat is een dual gpu en we hadden over single gpu kaarten, ik weet zeker dat er een snelelre kaart is van Nvidia want die heeft er namelijk al 1 met 12gb
Dat is geen single gpu.
Een GPU is een Graphics Processing Unit, een chip dus.
Je komt hier met een kaart met twee GPUs. Die kaart is misschien wel sneller dan single-GPU kaarten, maar dat maakt de gebruikte GPUs nog niet de snelste.
Als gamer cq consument koop je geen GPU maar een G-kaart waar zoiets of paar in kunnen zitten.
Zelf heb ik niks met CF of SLI en ga liever voor single GPU. Maar daar kies ik bewust voor.
Mijn punt is dat een GPU en een videokaart niet hetzelfde zijn.
Als je het hebt over een dual-GPU kaart, kun je natuurlijk niet spreken van "de GPU".
De rest interesseert me echt niet. Ik word alleen een beetje moe van mensen die GPU en videokaart steeds door elkaar halen.
Nee, de R9 295 KAN de snelste kaart zijn. Moet het desbetreffende spel echter wel crossfire ondersteunen. Doet de game dit niet, dan is het dag met het handje tegen de R9 295.... ;)
Desondanks zou ik toch altijd voor een amd kaart gaan ten opzichte van een nvidia kaart.

Ja de 290x slurpt iets meer stroom , maar op linux werkt deze kaart zoveel beter ten opzichte van elke nvidia kaart die ik tegen ben gekomen , en veel minder gezeik mbt rare dingentjes (zo had ik met mijn laaste nvidia kaart steeds last van een glitchie cursor).

uiteindelijk gaat het toch om je persoonlijke voorkeur.
Ik hoop dat kamp amd weer eens nvidia gaat wegblazen met hun nieuwe kaarten , dat verdiend amd echt.

Het grootste nadeel van nvidia vind ik dat ze gewoon niet lekker over te clocken zijn , bij amd heb je heel vaak batches van bv een 290 die je dmv een firmware flash unlocked naar een full 290x (inc alle shaders etc). Dat zie je bij nvidia niet.

Qua energie gebruik heb je gelijk , amd is daar echt heel erg slecht in , maar toch blijf ik liever het rode kamp supporten en die paar euro extra per jaar maakt dan ook niet uit.

Een 290 kaart is echt geen stofzuiger , je moet alleen gewoon de tools even goed instellen en zorgen dat je koelpasta op de kaart fatsoenlijk is. Kan echt een temp of 10-15 schelen.
Als je linux wilt hebben voor Nvidia zal je de closed drivers van Nvidia moeten gebruiken dan werkt het wel goed.

Dan nog even over het overclocken. Hoezo overclockt Nvidia niet goed over?
Ik heb zelf ervaring met een GTX780TI en ik kan je vertellen dat mijn exemplaar super overclocked.

Ik heb een pricewatch: Asus GeForce GTX 780 Ti 3GB .
Deze loopt standaard op 876MHz met boost tot 928MHz. Op mijn exemplaar heb ik een modded bios draaien en mijn kaart draait nu met overvolt op 1320MHz zonder problemen. Geheugen is met 300MHz overclocked. Oké hij is watercooled d.m.v. een H55 en een Kraken G10, maar dit noem ik toch bijzonder goed overklokken. Dit zou hij ook lucht aan moeten kunnen met goede temperaturen maar ik houd van stille kasten. Dus als het om overclocken aan komt is het geen reden om juist niet voor een Nvidia te gaan.
Ja jij hebt 1 van de weinige enigsinds overclockbare Nvidia kaarten.

Elke dedicated AMD video kaart kun je overclocken. Ik heb een GTX 760, is _theoretisch_ over te clocken door te gaan lopen fucken in de firmware van het kaartje, mij niet gezien.

AMD komt met AMD Overdrive wat met een druk op de knop je GPU en CPU kan over of under clocken.
Mijn ervaring (wel een twee jaar+ oude) is dat NVidia altijd een stuk minder ellende qua drivers was dan AMD, het duurde een eeuwigheid voordat mijn 6850 mobile ondersteunt werd en toen ook nog aardig wat gekloot mee gehad. De onboard Radeon 3200 op het moederbord van een homeserver ook vrij veel ellende mee gehad en in beide geval moest ik de drivers manueel downloaden/installeren wat bij een kernel update betekende dat je zonder desktopomgeving zat.
Deden de onboard NVidia en GT520 het een stuk beter, minder ellende mee gehad alhoewel ik met de onboard nvidia nog wel even heb zitten rommelen met files omdat de benodigde resolutie niet via VGA wou omdat mijn monitor ID niet werd herkend.

Ik heb van AMDs dual monitor cursor glitch van 2006 tot 2014 kunnen genieten gebruikmakende van verschillende videokaarten op verschillende systemen (Dat is 8 jaar!). Bij NVidia geen issues met de cursor gehad.

Geen aanval op je post, viel me gewoon op hoe haaks die is op mijn eigen ervaringen :)
Zelf andere ervaringen, vorige kaart was een AMD, op enkele borked updates na nooit gezeik gehad met dat kaartje. Kan de crashes door de drivers op 1 hand tellen over zijn hele levensduur.

Mijn GTX 760 daarintegen, duurde verdomme 4 maanden na release van die kaart voordat Nvidia eindelijk eens een keer met een stabiele niet elke 3-6 uur crashende drivers op de proppen kwam.
ben nu een Nvidia GPU eigenaar maar hiervoor had ik een Ati radeon Hd 6950 met een bios switch. dat was even schakelaartje overhalen met trixx voltage hoger zetten en gaan met die banaan. dat was inderdaad wel heel simpel. toch ben ik nu meer tevreden met mijn Nvidia kaart , die is zo snel dat ik nog niet eens aan overclocken heb gedacht :)
Dat mag dan zo wezen maar zolang Nvidia geen open standaard voor 3D gaat ondersteunen kunnen die kaarten wat mij betreft 10 keer beter zijn dan die van AMD. Ik wil ze dan even goed niet.
Eh, Nvidia ondersteunt OpenGL al heel lang en dat is voor zover ik het weet toch wel een open standaard.
Ik bedoel stereoscopisch 3D. Amd werkt met elk willekeurig 3D scherm of tv.
Daarbij zijn nvidia kaarten vaak wel zuiniger dus op ten duur zijn de nvidia kaarten wel goedkoper dan de kaarten van amd.
zuiniger en stiller.... Dat laatste speelt ook wel mee hoor, die 290 serie kaarten worden met regelmaat vergeleken met stofzuigers...
Nu Nvidia is gekomen met de nieuwe Maxwell serie zijn ze ook aan het scoren op energie gebied.
Al voor de Maxwell generatie liepen de nvidia kaarten ruim voorop wat betreft energie-zuinigheid....
Nou nee de reference kaarten.
De customs zitten ook stille onder.

Mijn R9-290X Lighting is stiller dan mijn 5870
Ik ben dan ook erg benieuwd naar de release van de upcoming R9 3xx serie van AMD en de reactie van nVidia hier op. Het zal mij dan ook echt niks verbazen als blijkt dat nVidia een GTX980Ti 'klaar' heeft liggen om het op te nemen tegen de nieuwe AMD R9 390(X).
En ook dan ben ik zeer benieuwd naar de onderlinge strijd!

24 Oktober 2013, artikel van Tweakers dat fabrikanten hun eigen versie van de R9 290X kaarten aankondigen: Fabrikanten kondigen hun AMD Radeon R9 290X-kaarten aan.
29 Oktober 2013, artikel van Tweakers dat nVidia hun GTX780Ti aankondigt en prijsverlagingen van GTX780 en GTX770: Nvidia kondigt prijs GTX 780 Ti en prijsdalingen GTX 780 en 770 aan

Om nog maar te zwijgen over het 'High Bandwith Memory' (Stacked RAM) dat AMD wil gaan gebruiken in haar nieuwe R9 385X, 390, 390X en 395X2.
(Zie ook dit artikel van Mei 2014, is dus later geworden.'AMD-gpu's krijgen eind 2014 stacked dram')

Volgens onderstaand artikel (de tabel hierin) zal het HBM komen met de nieuwe serie videokaarten van AMD (385X, 390, 390X en 395X2).
De R9 390X en de 390 komen aan het eind van het tweede kwartaal van 2015, als de geruchten kloppen, en deze modellen worden van een Fiji-videochip voorzien. Al deze kaarten gaan over HBM beschikken: gestapeld dram dat voor meer bandbreedte en een lager verbruik zou moeten zorgen.
(Gerucht: AMD Radeon R9 380-kaarten krijgen 'Grenada'-gpu)


Edit: linkjes e.d.

[Reactie gewijzigd door Vickiieee op 12 februari 2015 12:00]

AMD is sinds kort weer goed winstgevend dankzij de nieuwe strategie die ze ingeslaan zijn, ze laten de (moeilijke) concurrentie met Nvidia momenteel achterweg.

Ze zijn dus meer winstgevend in andere sectoren (servers, xbox deals, ...) en voorlopig lijkt het goed voor hen.
Waar baseer je dat op? AMD leed $403 miljoen verlies over 2014.
Het is vaak zo dat op het midden segment de gene domineert die als laatste een nieuwe serie uitgebracht heeft.
Of AMD werkelijk zoveel beter in de prijs/prestatie verhouding presteert zou ik ook niet willen zeggen het zijn gewoon goede concurrenten in dezelfde prijsklasse, bijvoorbeeld de R9 285 en de GTX 960 iets in het voordeel van de NVIDIA, en bij de R9 270 en GTX 750 Ti iets in het voordeel van AMD.
Carparison: Bugatti heeft met de Veyron Super Sport nog altijd de snelste productie auto, wat wil dat zeggen? Dat een Porsche 911 nu geen fatsoenlijke auto meer is? Niet iedereen heeft het snelste nodig om lol te hebben.

[Reactie gewijzigd door GewoonWatSpulle op 12 februari 2015 15:02]

De r9 280x is toch echt sneller dan die magere vertoning van een 960.
Hij gebruikt dan ook niet minder dan twee keer zoveel energie 250 watt tegenover 120 watt, dat is nog al wat. 8)7
Niet om AMD gebruikers aan te vallen, maar Nvidia heeft op dit moment wel de krachtigste Single GPU´s op het moment. Op het moment dat AMD met de nieuwe 290x aan kwam zetten had nvidia hun GTX780Ti zo goed al als klaar liggen. Het top segment domineren ze. Ze moeten het absoluut niet hebben van prijs. Daar zijn ze gewoon ontzettend duur.
Vorig jaar, waar dit bericht over gaat, had Nvidia juist een flinke "win" in het onder segment. Namelijk de GTX 750 (Ti) van 100-130 euro die zich kon meten met de R7 260X. Sterker nog de prestatie per euro lagen gemiddeld gezien wat hoger. Maar het bijzondere aan de kaart was dat hij zo zuinig is dat er helemaal geen powerconnector op zit.

Ter herrinering: http://www.techpowerup.com/reviews/ASUS/GTX_750_OC/25.html

De 200 euro die jij aanhaalt valt eigenlijk onder medium range. Dat is immers het terrein van de x6x serie. Ook die kaart (GTX 760) had goede value for money. Zeker als je gebruik gaat maken van de ingebouwde x264 encoder met bijvoorbeeld streaming en shadowplay.

[Reactie gewijzigd door sdk1985 op 12 februari 2015 14:44]

Nvidia gaat een erg goede kant op? Je bent op de hoogte van de hele GTX 970 gebeuren? Dure high-end videokaarten uitbrengen met langzaam VRAM vind ik nu niet echt de goede kant te noemen. Zeker aangezien dat probleem alleen maar erger wordt na verloop van tijd als games meer VRAM gaan gebruiken.

En ik snap dat in the grand scheme of things dit maar een incident is, maar wilde het toch even kwijt.
nVidia heeft voor het eerst in vele (5?) generaties weer eens als eerste een nieuwe generatie high end kaarten op de markt gezet ja.

end volgende maand heeft AMD dat echter al weer ingehaald. nvidia heeft er vaak veel langer over gedaan. ze hebben dus hun antwoord op nvidia ook klaar liggen.

het is eerlijk om te zeggen dat nvidia eindelijk weer bij is wat release schema betreft.
980 is een prima kaart (in tegenstelling tot de 970), maar met de r9 380(x) zo dicht voor de deur zou ik nu nog niks gaan kopen. ik ben erg benieuwd naar wat die HBM modules kunnen doen.

[Reactie gewijzigd door Countess op 12 februari 2015 16:37]

De pc gaming markt is blijkbaar gestegen. Gaat dit dan ten koste van de current gen consoles of is daar OOK een toename te zien?

Maw, zit de gamingmarkt over de volle breedte in de lift of valt current gen toch een beetje tegen nadat t eerst zo gehyped is?

[Reactie gewijzigd door fre0n op 12 februari 2015 11:06]

Denk dat veel 'lastgen' games juist nu investeren in een gamepc i.p.v. de huidige generatie consoles. Dat heeft ermee te maken dat veel titels ook naar de pc komen, en dat de pc superieur is op gebied van grafische capaciteit. De huidige generatie consoles valt eigenlijk best wel tegen.
Nee hoor, als er een nieuw game apparaat in huis komt is dat gewoon de laatste playstation/xbox. Ik wil geen gezeik met grafische instellingen, altijd het risico moeten lopen dat de game niet fatsoenlijk kan draaien op mijn systeem of iedere 2 jaar mijn GPU te moeten upgraden.

Aan dat alles is nog geen steek veranderd. Het is niet zo alsof de consoles er zo slecht uit zien. Ja, met een PC kun je heel wat meer. Zolang je er ook maar heel wat meer geld in stopt. Kijkend naar de prijs/kwaliteit verhouding zul je toch altijd op een console uitkomen.
Het is maar hoe je tegen dingen aankijkt. Jij noemt het gezeik met grafische instellingen, ik noem het controle hebben over hoe de game runt. Jij noemt het iedere 2 jaar moeten upgraden, ik noem het zelf kunnen bepalen hoeveel je aan hardware uitgeeft en je systeem voor jouzelf op maat kunnen maken. Ik doe relatief veel video editing en weinig gamen, dus neem ik een goede cpu en mindere videokaart.

Wilde ook even kwijt dat jouw stelling dat je altijd op een console uitkomt als je afgaat naar prijs/kwaliteit ONZIN is. De initiele aanschafprijs van een goede game PC is gebruikelijk 2x zo hoog als een console, maar je vergeet wel even dat je goedkopere games hebt, oude games kunt blijven spelen, geen kosten hebt voor online gamen, significant goedkopere games hebt en er op de consoles geen equivalent bestaat voor gratis games als LOL en Team fortress 2. Om vooral niet te vergeten dat je op een game PC veel meer mogelijkheden hebt als op een console, denk aan video editing, photoshop, internet browsen, office, noem maar op. En mods, zoveel enorm goede mods die gewoon 100% gratis zijn en je games zo kunnen verbeteren, heb je allemaal niet op een console.

Het is niet zo simpel en zwart/wit als jij het stelt.
Systeem op maat maken is leuk wanneer je kapitalen voor over hebt. Maar men roept altijd: "PC is grafisch veel beter!". Ja, wanneer je om de 2 jaar minimaal een dikke 300 euro uitgeeft aan een grafische kaart. Gek heh.

Console games zijn over het algemeen 10 euro duurder dan pc games. Voor de prijs van een nieuwe videokaart zijn we alweer 30 games verder, wat de meeste console eigenaren niet eens halen.

Oude games kan ik nu nog steeds spelen? Die houden er niet ineens mee op hoor. Nee, je hebt geen backwards compability voor andere systemen. Maar daar zit hem ook in, andere systemen.

Geen gratis games op consoles? Start er voor de lol eens eentje op en je wordt doorgetrapt met gratis games.

We hebben het over game pc, leuk dat je overige taken met een PC kunt doen. Ik kan op mijn Xbox ook internetten, wil nog niet zeggen dat ik hem daarvoor gebruik.

Gratis online op de PC? Scheelt nogal per game. Er zijn er zat waarbij je een dikke 10 euro per maand moet neerleggen. Voor een enkel spel. Ik betaal nu 3 euro per maand, voor alle spellen. Daarnaast krijg ik voor dat bedrag nog iedere maand 2 gratis games.

Leuk dat jij het onzin vind, het zijn voor mij nog steeds terrechte en ondebouwde redenen waarom ik geen games meer speel op de PC.
Dat is al ruim 6 jaar niet meer het geval. Games worden al die jaren altijd gebouwd voor de consoles en dan geporteerd naar de PC. Soms zijn er voor PC wel iets betere grafische instellingen mogelijk waarvoor je een betere kaart zult moeten hebben, maar als je het gewoon standaard op HD 60fps wilt spelen zoals op de consoles kun je net zo lang met je PC doen als dat je met je die consoles zou doen.

Voor 400 euro heb je ook een zeer nette 'steambox' waarop je current-gen games prima kunt spelen totdat de volgende next-gen uitkomt.

Maar dit alles is geen antwoord op mijn originele vraag/opmerking :p
(Zit de hele gamingmarkt in de lift of alleen PC gaming?)

[Reactie gewijzigd door fre0n op 12 februari 2015 15:58]

Lijkt mij dat steeds meer mensen toegang krijgen tot dit soort producten ( vooral oosten ) en andere achter liggende landen.

Nu china ook toegang krijgt tot de console markt zal dit waarschijnlijk behoorlijk explosief gaan groeien in aankomende jaren.

PC zal denk ik stabiel blijven.
in dat geval zou je toch juist geen toename in de verkoop van nvidia GPU's verwachten? Tenzij het dus over de hele breedte stijgt omdat bv azie is gaan gamen (maar dat deden ze volgens mij al lang)
PC's met nvidia gpu's blijven duur helemaal in dat soort landen, ik zie opkomende landen dan ook sneller overstappen richting consoles voor spelletjes dan naar pc oplossingen hierdoor. Natuurlijk moet er wel het een en ander op de consoles van vandaag veranderen.

Echter zijn PC's volgens mij en nvidia gpu's in die landen gewoon legaal te verkrijgen terwijl de huidige westerse consoles zoals in landen in china verboden zijn tot kort.

Ik zie daarom ook meer interesse in consoles dan pc hardware in dat soort landen in de toekomst. Tenminste in het uitbreiden van markten.
Vroeger hadden de consoles een voorsprong qua hardware (vooral door een compleet ander platform te gebruiken, en ontwikkelaars zich daarin moeten opleiden) en die voorsprong duurde een jaar of wat...

Echter tegenwoordig (zijn de consoles Intel hardware) was op het moment dat de PS4 en de X1 uitkwamen..de hardware al verouderd tov PC hardware...dus nieuwe PC hardware is VEEEEEEEEEEEEEEL sneller dan de huidige consoles.

[Reactie gewijzigd door bArAbAtsbB op 12 februari 2015 16:36]

" Verder meldde Nvidia dat er inmiddels meer dan 50 miljoen gebruikers van de applicatie GeFroce Experience zijn, waarmee gamers hun pc-instellingen kunnen optimaliseren."

Ik gebruik ook Geforce Experience, maar toch zeker niet om mijn games te optimaliseren. Ik gebruik het meer om mijn FPS weer te geven en af en toe met Shadowplay een clipje saven. Ik vraag mij af hoeveel mensen hun games laten optimaliseren.
Ik deed het met mijn GTX580 voor Farcry 4, nu ik een 780 OC heb is het echt niet meer nodig om ook maar één optimalisatie uit te voeren. Die blaast toch alles op ultra op 1080p. Geen probleem.
Denk toch wel best veel aangezien niet iedereen een tweaker is. FGE werkt voor mensen die gewoon direct een redelijk goed resultaat willen krijgen zonder tweaken.
Weet je wat ik jammer vindt?

Dat Nvidia veel monopolie positie heeft.
Nvidia heeft op niet eerlijke wijze deze positie geclaimd.
Zoals in laptops zie je alleen maar Nvidia tja en hoe zou dat komen?
ik vindt de kaarten van AMD wel mooie kaarten als ik toch kijk naar de prijsverhouding dan blijf ik AMD steunen... ooit komen ze nog wel wie weet.
Zou het zo kunnen zijn dat Nvidia GPU's maakt die minder stroom gebruiken en dat dit nu juist een groot punt is voor laptops? Zomaar een gedachte.

Verder is het Intel die verreweg het grootste marktaandeel in GPU's heeft, zo'n 67% dus waar praat jij nu eigenlijk over? Als er sprake zou zijn van een monopolie dan zou dat een Intel monopolie zijn. Als we alleen naar Steam (en dus gamers kijken) dan heeft Nvidia ongeveer 50% marktaandeel tegenover een kleine 30% voor AMD, dus ook daar geen monopolie.
Hoe lang ga je dat volhouden, als je ziet hoe Nvidia bezig is om goede en vooral zuinige kaarten te maken. Ik vind het knap.
Kan je aantonen hoe ze deze positie hebben gekregen dan? Ik kan me niet anders herinneren dat vroeger (lees tijdspanne 10 jaar) het altijd nek aan nek is geweest. Maar de laatste tijd Nvidia gewoon wint op snelheid en zuinigheid
Heb nu een laptop met een 8870M van AMD. Ik heb nu gewoon geen behoefte meer aan een AMD gpu in mijn laptop. De drivers zijn ronduit bagger. Er zijn een hoop bugs en de prestaties zijn niet geweldig. In theorie zou deze GPU het nou aardig goed moeten doen in deze klasse. Maar door drivers wordt dit teniet gedaan.

De nieuwe 295 mobile van AMD presteerd ook gewoon minder dan een 970M van Nvidia.
Dat zijn toch mooie resultaten aangezien het overgrote deel van de CPU's geïntegreerde GPU's hebben en ze geen deal hebben met de consolebouwers voor custom GPU's.
Inderdaad erg mooi. Tot hiertoe alle berichtgeving dat PC gaming dead zou zijn _/-\o_ Al zijn er dunkt me ook vrij veel mensen die dit soort kaarten kopen voor video editing/photoshop achtige praktijken.
PC gaming is nooit dood geweest, dat was een oordeel die mensen hadden gemaakt die geen kennis hebben van de markt.
Het gene wat daalde was de verkoop van desktop PC's alleen je zag wel een groei in de verkoop van losse onderdelen, zoals je ook in dit artikel kan lezen.

Conclusie is dus, zelfs de domste PC gebruiker heeft het op een keer door dat de PC behoorlijk modulair is en dat je die makkelijk zelf in elkaar kan zetten, of voor een kleine prijs door een winkel kan laten doen.
VDI oplossingen zijn vooralsnog ook alleen op NVIDIA gpu's te realiseren imho. Voor citrix en xen dan in ieder geval.
Ik vindt het echt jammer dat er helemaal geen concurrentie meer is in de laptop gpu segment. De R9 M290x van AMD scoort een tikje lager dan de 780m en dan is er nog is de 960m/980m waarbij AMD helemaal niet meer aan kan tippen. Geen wonder dat nvidia 100% beter verkoopt in de laptop segment.
Zeer jammer want ik had graag een laptop met een amd kaart gehad maar in deze afgelopen 2 jaren had ik gewoon geen keus om voor een beter nvidia kaart te gaan. 8)7
amd's lopen ook behoorlijk warm, wat je in een laptop niet zo goed kunt hebben. Bovendien is nvidia zuiniger
Enige grote voordeel wat Nvidea in mijn optiek heeft is dat veel games beter ondersteund worden op o.a. het physx gedeelte. Maar om die paar kleine glassplintertjes wat beter te kunnen zien ga ik nou geen 200 euro extra bij betalen als je al een dikke Radeon kaart voor de helft hebt.

In principe krijg je hetzelfde verhaal als op de console markt.>'' Als het maar naam heeft nemen we het zeker in huis en betalen we er ook voor''.
Door de steeds meer groeiende Steam client zullen er ook steeds meer main stream of ex-console gamers zich aansluiten bij de PC markt, wat een dik voordeel oplevert wat betreft losse gpu-units.
Wel ben ik bang dat AMD steeds meer strijdvlak verliest, omdat NVidea gewoon de naam heeft en veel mensen er ook blindelings voor gaan. 8-)

Dit komende van iemand die in het verleden alleen maar high-end Geforce kaarten heeft gebruikt.
alleen suggestief naar de titel starend zal ik het volgende melden: 'goh das niet zo moeilijk Nvidea.. als je gemiddelde kaart 360 euro kost!'

op de vraag van ati/nvidea.. dat is altijd al een kat en muis spel geweest WIE is er sneller.. nu spreekt (bijna) iedereen vol lof over Nvidea en zn maxwell gpu's (de ram issue van de laatste Nvidea kaarten daar gelaten)

en over een jaar of eerder heeft ATI weer betere kaarten... en zo gaat t klokje weer rond
Toch wel een beetje jammer dat deze omzet gerealiseerd wordt door verkopen die ontstaan zijn uit MISLEIDENDE informatie ten tijde van de de verkoop van de GTX970!!

Nvidia heeft nog steeds niet fatsoenlijk gereageerd....(ja dat simpele persberichtje waarmee men aangaf dat de specs nou eenmaal zijn zoals ze zijn, en dat dus van te voren bekend was....)
Voor de uigebreide reactie verwijs ik je graag naar de link in de post hierboven van SinergyX.
ja lachen....maar er is nog steeds geen oplossing voor de problemen, leuk dat mensen daar leuke filmpjes over maken.....maar niet als je zelf t probleem hebt...dan is vooral de verwijzing naar zo'n filmpje op een reactie zoals die van mij....gewoon kinderlijk flauw!
Helemaal mee eens, dit is gewoon zwaar not-done. De microstutter die het veroorzaakt is onacceptabel bij zo'n dure videokaart.
I say...ik had een simpel videokaartje van ATI in mijn computer zitten. als ik netflix fullscreen heb, en ik lock het scherm, dan werd het scherm zwart (maar hij stond nog wel aan!) van de week omgeruild met een simpel, vergelijkbaar kaartje van nvidia, en heb dat probleem nog niet gehad.straks nog maar even in ubuntu koekeloeren, want ook daar had het ATI kaartje moeite met Variety, je weet wel, dat tooltje waarmee je plaatjes download van een RSS feed en vervolgens als achtergrond insteld? De hele machine stotterde. kijken of Nvidia dat probleem kan oplossen.
Ik had ook altijd problemen met die ati kaarten. Tenzij de kaart een stuk meer performance bied, een stuk minder energie + lawaai geeft en erg goedkoop is koop ik ze niet meer.

Veel mensen zullen het hier niet mee eens zijn, maar ik heb een stuk of 3-4 kaarten van ze gehad en dat gaf mij elke keer een slechte ervaring, van kleine dingetjes zoals jij aangeeft tot grote problemen waardoor ik elke keer weer drivers eraf moest halen en opnieuw erop moest zetten voor verschillende spellen om het goed te laten werken.

Ik denk dat dit voor veel mensen te veel gevraagd is. Nu helemaal als je een kaart krijgt die het geluid heeft van een straaljager, slechter performance neer zet, veel features mist en nog is aardig wat energie extra weg eet.

Ik zit op het moment nog op een 580gtx 1,5gb. omdat ik op de 900 series aan het wachten was van nvidia, maar de performance gain is in mijn visie het nog steeds niet waard om up te grade. Vooral omdat alles nog gewoon goed speelt op mijn videokaart. Ik ben erg teleurgesteld in de 900 series kaarten en vindt het maar weer een kleine stap vooruit.

Ik hoop dat de volgende lijn van nvidia echt is een goed stuk meer performance geeft tegen een betaalbare prijs.
Ik vind vrijwel dezelfde prestaties (in sommige gevallen zelfs beter) met een pak minder energieverbruik toch wel een redelijke stap vooruit...Ja als je gewacht had op puur meer performance kom je een beetje bedrogen uit, maar om nou te zeggen dat het een kleine stap vooruit is...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True