Nvidia ziet omzet uit Geforce GTX-gpu's met 57 procent stijgen

Nvidia heeft zijn omzet en winst weten te verhogen door goede verkopen van zijn GeForce-gpu's en Tegra-processors voor mobiele apparaten en auto's. Vooral de verkoop van high-end Geforce GTX-kaarten zat flink in de lift.

De gpu-tak van Nvidia, die voor meer dan 80 procent van de omzet zorgt, zag zijn omzet met 14 procent stijgen ten opzichte van vorig jaar. Wat betreft de Geforce GTX-verkopen, steeg de omzet zelfs met 57 procent. Volgens Nvidia liggen vooral de goede verkopen van high-end kaarten en die de nieuwe GTX 750-serie met nieuwe Maxwell-gpu ten grondslag aan de omzetstijging.

De vraag zou in alle markten hoog zijn. De markt voor notebook-gpu's krimpt wel, maar een groeiende vraag naar high-end notebook-gpu's zou dit compenseren. "Dit toont aan dat er blijvende vraag is naar mobiele technologie voor high-end performance gaming", aldus Nvidia in een toelichting op de kwartaalcijfers.

Daarnaast maakte Nvidia bekend dat de in maart aangekondigde Titan Z in het huidige kwartaal van dit jaar beschikbaar komt. Volgens Videocardz had de kaart eigenlijk in april uit moeten komen, maar werd na uitstel ook de nieuwe releasetijd van 8 mei niet gehaald. Onbekend is wanneer Nvidia de kaart met twee gpu's nu gaat uitbrengen.

De omzet uit Tegra-verkopen steeg met 35 procent ten opzichte van vorig jaar. De groei komt uit verkopen voor smartphones, maar vooral ook op het gebied van automotive. Nvidia ziet dit als een groeimarkt en de omzetgroei van 60 procent voor de automotive-tak lijkt dit te bevestigen. Onder andere Audi voorziet een aantal modellen van Tegra-chips en Nvidia wil zijn positie hier met de Tegra K1-soc en bijbehorend Jetson-ontwikkelbord flink uitbreiden.

De totale omzet van Nvidia steeg in het afgelopen kwartaal met 16 procent ten opzichte van vorig jaar tot 1,1 miljard dollar, terwijl de winst uitkwam op 137 miljoen dollar, een stijging van 75 procent.

Door Olaf van Miltenburg

Nieuwscoördinator

09-05-2014 • 12:58

94 Linkedin

Reacties (94)

94
89
59
14
2
13
Wijzig sortering
Verwijzen naar een vage link waar iemand de projection over Q1 2015 van Nvidia interpreteert van maanden terug.

"Wij van WC-eend verwachten VEEL WINST te maken in 2015"

Verwacht je een ander verhaal dan dat van een groot bedrijf?

Laten we kijken naar de echte verwachtingen van Nvidia zelf. Daar is om te beginnen de omzet Q1 2014 dus 954 miljoen dollar. Voor Q2 zitten we ook ver onder de 1 miljard dollar. Nog minder dan Q1 is de verwachting:

http://nvidianews.nvidia....rter-fiscal-2014-989.aspx

In hun projecties van februari 2014 daar klopten de verwachtingen van 2015 ook van geen meter, want ondanks allerlei inflatie (door geld drukken FED) en toegenomen onkosten voor Q3 en Q4 van 2014, daar verwachten ze ineens dan stevig minder in 2015.

Die oude verwachting is hier:

http://nvidianews.nvidia....-and-Fiscal-2014-ab0.aspx

Daar zien we dan het getal 1.14 miljard dollar waar aantal lieden het hier over heeft als zijnde gerapporteerd, maar da's Q4 2013 en dat is al maanden oud bericht, namelijk februari 2014.

Daar staat ook verwachting in over 2015 waar de vage link van tweakers 't over heeft.

Per saldo is de totale omzet dus teruggelopen van Nvidia en verwachten ze dat ook voor Q2 2014.
De oude omzetten van boven 't miljard lijken voorlopig weg, ondanks stevige inflatie.

Geen positief nieuws dus voor Nvidia.
Ik snap waar je verwarring vandaan komt, maar nVidia's boekjaar is geen kalenderjaar, de resultaten die nu gepresenteerd worden (1.1 mld omzet, 137M winst) zijn van Q1 van hun fiscale jaar 2015, dat loopt van 27 Jan tm 28 Apr 2014.

Om de seizoensinvloed eruit te halen (tweede helft van het jaar is veel beter vanwege de feestdagen) vergelijkt nVidia net als alle chipbakkers year-on-year, dus hun Q1-2015 (1103M omzet) met Q1-2014 (954M omzet), niet met Q4-2014 (1144M omzet)

De voorspelling die nVidia voor Q1-15 gaf in Februari (bij de vorige cijfers) was $1.05 mld. Daar zijn ze dus iets overheen gegaan.
De oude omzetten van boven 't miljard lijken voorlopig weg, ondanks stevige inflatie.
Zoals in het persbericht staat, nVidia voorspelt zelf voor het volgende Q2-15 een vrijwel ongewijzigde omzet van $1.1 mld +/- 2%.
Die "stevige inflatie" in de VS van 1.5% op jaarbasis zal niet echt enorme invloed hebben op nVidia (die sowieso >70% van hun omzet buiten de VS haalt).

[Reactie gewijzigd door Dreamvoid op 9 mei 2014 18:04]

Fijn dat ze winst maken. Zou nog fijner zijn als ze wat prijsverlagingen door voeren zodat wij er ook iets van terug zien. Maar ik gok dat dat hem niet gaat worden.
Ik denk dat Nvidia flinke reserves moet gaan aanleggen. De huidige 3d kaarten gaan de nieuwe consoles qua prestaties al flink voorbij. Ik denk dat mensen straks erg lang op de 600-700 series kaarten gaan blijven "plakken" omdat er weinig games zijn die meer eisen.

Tuurlijk, high end zullen ze zeker wel wat blijven verkopen voor de mensen met bovengemiddelde eisen, maar als de game makers niet meer van de kaarten gaan vragen, heb je kans dat de vraag naar nieuwe kaarten straks flink in gaat storten.
Anoniem: 591901
@pboelhouwer9 mei 2014 13:14
Ik zou het zelf ook prima vinden als ze die extra winst in R&D stoppen. Laat de komende GTX 800 series de huidige gpu's maar lekker omver blazen :9 Ik vind gpu's trouwens al best betaalbaar, kijk wat je tweedehands voor 100 euro kunt krijgen.

[Reactie gewijzigd door Anoniem: 591901 op 9 mei 2014 13:15]

Ik denk dat je Volta bedoeld, ik vermoed dat Maxwell al compleet ontwikkeld is en hoop dat ze nu met testen en alle andere rompslomp bezig zijn.
Kan niet wachten op de 860/870
Ik denk niet dat de titan z voor een boost in omzet zal zorgen. zag toevallig dat die momenteel op 4launch staat aangeboden voor een slordige 2700 euro... dan moet je wel echt niet meer weten wat je met je geld moet doen als je zo'n kaart koopt als consument!
ze hebben zelf ook gezegt dat het meer een kaart voor renderen is en die zijn meestal duur (quadro lijn bijvoorbeeld)
De vraag is of deze winststijging van 75% hier ook door wordt veroorzaakt. Zo groot zijn de marges op videokaarten nu toch ook weer niet? Vind het wel opvallend dat er zoveel high-end kaarten verkocht worden.
Of de marges niet groot zijn weet ik niet. Echter als je kijkt naar de topmodellen denk ik dat je kan stellen dat er zeker een behoorlijke marge op zit.
In dit geval pakken we de Kepler GK110

GTX 780 (€ 430)
GTX 780TI (€ 600
GTX Titan (€900)

Allemaal dezelfde chip dus ik denk zeker dat hier een hele hoge winstmarge opzit. Hoe het natuurlijk met de medium kaarten zit is het natuurlijk een ander verhaal die moeten echt concurreren.
Ze gebruiken dezelfde chips, maar in de praktijk zijn niet alle chips die gebakken worden even goed. In de praktijk zullen ze nagenoeg allemaal goed genoeg zijn voor de 780, een kleiner gedeelte is goed genoeg voor de 780Ti en een nog kleiner gedeelte is goed genoeg voor de Titan. In die zin is het verschil in prijs wel logisch (even los van de marges). Als de vraag naar de Titan te hoog zou zijn en naar de 780 te laag, dan zouden ze blijven zitten met chips die niet goed genoeg zijn voor de Titan.

En los daarvan moeten de ontwikkelkosten ook terugverdiend worden. Het is dus belangrijk om marges op videokaarten te hebben. Ook voor toekomstige investeringen. Ga na dat op 1,1 miljard omzeg 'slechts' 137 miljoen winst gemaakt wordt.

[Reactie gewijzigd door Luuk1983 op 9 mei 2014 13:31]

Winst draag je belasting over af en hoeveelheid winst heeft sterk te maken met hoeveel personeel je wel niet hebt in 1e wereldlanden.

Het bedrag van 137 miljoen geen idee waar je 't vandaan haalt. Ik ziet enkel 146 miljoen over "3 months ended" dus bijna Q4 2013 op vreemdsoortige wijze gerapporteerd (unaudited).

Da's teruggang want het was 173 miljoen dollar 't jaar ervoor.

De weblink van tweakers heeft 't over 2015 continue en het is 1 of andere vage website, dus doorspoelen.

Ook NVIDIA's manier van rapporteren ziet er vreemd uit en alles is unaudited.

Dus een winstwaarschuwing lijkt dan op zijn plaats.

Ze zullen personeel d'r uit moeten gooien in 1e wereldlanden, want met de huidige enorme inflatie lopen die personeelskosten enorm op natuurlijk, terwijl hun projection in toekomstige kosten voor Q1 2015 niet realistisch lijken. Namelijk ze rapporteren een toename in kosten in 2014 en hadden ook enorme toename kosten november, december en grootste gedeelte van januari 2014. De geprojecteerde kosten over eind 2014 liggen ook stuk hoger, maar voor 2015 projecteren ze stevig lagere kosten.

Dat kan niet kloppen natuurlijk...

http://nvidianews.nvidia....-and-Fiscal-2014-ab0.aspx
Relax dude, je kijkt bij het verkeerde financiele jaar ;) Fiscal Year 2015 moet je hebben.

[Reactie gewijzigd door Dreamvoid op 9 mei 2014 18:07]

Is revenue geen omzet, ipv. winst? ah ik zie de tabel nu, my bad

[Reactie gewijzigd door crazylemon op 9 mei 2014 16:51]

natuurlijk zit er geen verschil in snelheid, specs en natuurlijk is het geen commercieel bedrijf dat winst wil maken :P
Ik heb zo het subjectieve idee dat vooral die 780's en 780 Ti's buitengewoon goed verkocht hebben (voor high-end kaarten). Voor veel gebruikers van oudere kaarten was het namelijk wel een heel erg goede upgrade. En zoals de first post al meldt is het imago van de R9 290(X) in de VS gewoon verpest door te slechte koelers, niet leverbare aftermarket modellen (waarvan er ook maar een paar goed waren), vervolgens een tekort aan alle kaarten door mining en veels te hoge prijzen (op Newegg is een R9 290X 900 dollar geweest...). (Het had natuurlijk niet gehoeven, had AMD maar gewoon een fatsoenlijke koeler op de 290 gezet en er genoeg kunnen leveren...)
Nu zijn de prijzen van de high-end kaarten van AMD weer enigszins normaal in de VS, maar tot die tijd waren de nVidia kaarten gewoon vaak een betere deal, als je iets in die range zoekt. Stiller, beter verkrijgbaar, goedkoper... En nVidia heeft er goed geld aan verdiend.

Dus, goede verkopen en hogere prijzen voor bijvoorbeeld de 780 Ti ivm met vorige generaties, en dan vind ik het niet zo bijzonder dat nVidia goed winst draait.
De marges op high end videokaarten zullen allicht hoger zijn dan die uit de Tegra business, de markt voor smartphone chips is bijzonder competitief, zeker voor relatief kleine spelers als nVidia.

En nVidia draait een ongeveer 12% netto marge (137M nettowinst op 1.1 mld omzet), dat is voor een chipfabrikant niet schokkend veel. Intel, Qualcomm en Mediatek bijvoorbeeld draaien richting de 40%. Maar de winstgevendheid van nVidia hangt heel sterk af van de omzetgroei - hun brutomarge ligt boven de 50%, dus bij een beetje tegenwind in de verkopen verdampt de winst al snel (en vice versa, als het mee zit stroomt de cash rap binnen).

[Reactie gewijzigd door Dreamvoid op 9 mei 2014 13:47]

Bruto winst over november/december 2013 en eerste gedeelte van januari, wat NVIDIA noemt "three months ended period", was gestegen tot 619,242 miljoen dollar.

Dat is 100% * 619,242 / 1,144,218 = 54.1%

http://nvidianews.nvidia....-and-Fiscal-2014-ab0.aspx

Tweakers en economie is vloeken in de kerk joh. Kijk naar de vage link waar tweakers naar verwijst :)
Uhm, dat zeg ik toch? "Bruto marge boven de 50%". Tweakers meldt hier de nettowinst van 137M.

Overigens kijk je bij het verkeerde jaar, je moet Fiscal Year 2015 hebben.

[Reactie gewijzigd door Dreamvoid op 9 mei 2014 18:05]

Ik denk dat het komt door de veruit superieure performance per watt van de gehele gtx line-up.
Het groene kamp is ook daadwerkelijke 'groen' ( iig groener dan het rode kamp).
Ben benieuwd of AMDs komende generatie een beetje in de buurt kan komen van maxwell op dat gebied.


Edit: even verduidelijkt aangezien begrijpend lezen lastig blijkt.
Ter illustratie:
http://www.techpowerup.co...GTX_780_Ti_Gaming/25.html
http://www.techpowerup.co...50_Ti_StormX_Dual/26.html

IMO is dit toch echt rondjes lopen om.
offtopic:
AMD fanboys much?

[Reactie gewijzigd door eL_Jay op 9 mei 2014 13:21]

GTX 770 vs R9 280X, twee kaarten die erg vergelijkbaar uit de lineup komen:
http://www.anandtech.com/bench/product/1041?vs=1037
Zo superieur is de GTX toch niet?
Ware het niet dat GTX770 al een half jaar eerder op de markt lag.
Ware het niet dat de R9 280X een omgekatte Hd 7970 is die gelanceerd werd in januari 2012, 14 maanden voor de GTX 770. Wat is je punt?
rebranding hebben beide kampen wel een sterk handje van ja
Klopt, uiteindelijk slechter voor de consument tenzij de prijzen geslashed worden.
Best mogelijk hoor, ik vond gewoon "van de gehele gtx line-up" en "daadwerkelijk groen" wat kort door de bocht. De grafiekjes van de 750Ti zijn wel overtuigender, op de grafiekjes van de 780Ti komt de R9 270X er ook gewoon beter uit.

Edit: Furmark kan je echt niet beschouwen als relevant op dit gebied.

[Reactie gewijzigd door Dnomaid op 9 mei 2014 13:31]

Ik bedoelde alleen te zeggen dat straks, snel, hopelijk, de 870 er is. Dan zou de launch van de 280x er bijna midden in zitten. Middel de prestaties van de 870 en de 770 en ik denk, hoop en vermoed dat de 280x weggeblazen wordt. Met alle kuddo's voor AMD voor de prestatie uiteraard
Je bedoelt de gtx680 rebrand? Die op zijn beurt later op de markt kwam dan de voorloper van de 280x, de 7970? De 7970 was juist een half jaar eerder op de markt.
en 45 watt minder verbruikt onder load.
(relevant als je net als mij en mijn matties een itx-rig hebt)

[Reactie gewijzigd door eL_Jay op 9 mei 2014 13:27]

en de 7970 waarvan de 280x eigenlijk maar een kleine refresh is dan?
Voor een kaart die niks meer is dan een 680 met hogere klok , niet slecht toch
en boost 1.0 of 2.0 is of temp of power als indicator/treshhold
Gefeliciteerd. Je ben je ook bewust dat ze pas na de GTX680 echt groen werden ? Tot die tijd had AMD de performance per watt kroon. Maw; straks is alles weer anders.
Ik ben iig blij dat er twee kampen zijn.... :+ stel je voor een 750-Ti voor de prijs van een Titan-zzz
GTX 780 in SLI, werkt als een trein in-game. Zou echter mooi zijn als ze een deel van de winst zouden besteden aan het uitbreiden van het team dat de drivers ontwikkeld zodat er frequenter verbeteringen worden doorgevoerd en meer geluisterd wordt naar de community. Er valt nog veel te verbeteren aan de 2D/3D surround functionaliteit in Windows.
Surround... :'(
Elke keer opnieuw bezel correctie instellen ofniet? Wat hebben ze dat toch slecht voor elkaar, terwijl het zo simpel is (denk ik) om bepaalde instellingen gewoon te onthouden.
Je kunt natuurlijk ook de surround resolutie aan laten staan op de desktop maar dan heb je regelmatig programma's die helemaal (triple) fullscreen gaan draaien, als je ze naar de bovenrand van een scherm sleept bijvoorbeeld. Zeer irritant.
Precies wat jij schrijft. Bezel correctie in blijven stellen, full screen over drie schermen.. Om te janken.. En als ik het zo lees is van deze issues al héél lang sprake (ben zelf vrij nieuw met surround). Maar in-game vind ik het allemaal prima werken en ik wil echt niet meer terug naar 1 scherm :+ Maar nu moeten ze gewoon even met een driver komen die alle bugs oplost en dan ben ik helemaal tevreden.
Nou ik moet eerlijk zeggen dat ik nvidia behoorlijk goed vindt in het ondersteunen van drivers. zelfs voor stok oude kaarten... 2D en 3D surround heb ik eerlijk gezegd niet veel kaas van gegeten
De frequentie van driver updates is op zich prima, ongeveer 1x per maand. Maar de verbeteringen met betrekking tot surround ondersteuning zijn om te janken.. En rerollen naar oudere drivers welke betere ondersteuning zouden moeten bieden is in het geval van de GTX 7** serie ietwat beperkt. Overigens als ze dan toch bezig zouden gaan zou het mooi zijn als ze ondersteuning voor het configureren van profielen in bouwen zoals bij AMD mogelijk is.
Nvidia surround met verschillende formaat/resolutie monitoren zou mooi zijn. maar de drivers zijn altijd goed up to date vind ik.
Anoniem: 590917
10 mei 2014 10:32
Wat high end kaarten betreft kan het wel kloppen. Kijk gewoon maar eens om je heen op het internet dat zegt wel genoeg. Verder zijn de prijzen in de USA heel anders want ik meende dat daar juist weer de AMD kaarten duurder zijn en hier in de EU de Nvidia kaarten.
Klopt, door het hele bitcoin mining gebeuren zijn de prijzen in de VS omhoog geschoten
Dit komt waarschijnlijk door het succes van de 750/750ti
En door de prijzen van AMD gpu's in de USA. Alhoewel die nu weer bijna normaal lijkt.

[Reactie gewijzigd door lani100 op 9 mei 2014 18:07]

Ja volgens mij fantastisch kaartje >Xbone prestaties voor iets meer dan 100 euro :) .

http://www.gamespot.com/a...an-xbox-one/1100-6417813/
alleen jammer dat hij niet sli kan
Inderdaad. Dit was een super gave optie geweest als hij SLI kon, zeker gezien de TDP
Ik ga dan liever voor de AMD Radeon R7 265 of de AMD Radeon R7 270 dan de NVIDIA Geforce GTX 750Ti, is maat ietsje duurder paar tientjes maar wel sneller.

En maar zeggen dat het steeds slechter gaat met de PC, het gaat juist goed, en Game PC's kunnen tegenwoordig lekker klein worden gemaakt, en kosten maar € 744,- en dat is toch wel te betalen.

Logitech Wireless Combo MK330 € 28,98

Seagate Barracuda ST3000DM001 3TB € 93,90

Crucial M500 € 61,49

Intel Core i5 4440 / 3.1 GHz € 149,99

PowerColor Radeon R9 270 TurboDuo € 157,15

Crucial Ballistix Sport 8GB RAM 1600MHz € 62,90

ASRock B85M-ITX € 69,49

Seasonic S12G-450 450W 80 PLUS Gold € 63,98

Cooltek Jonsbo V6 € 57,44

En als je nog geen Monitor heb of TV waar je hem ook aan kan sluiten, heb je all een leuke (BenQ GL2450HE) voor € 137,84

[Reactie gewijzigd door AmigaWolf op 9 mei 2014 20:26]

nee dat heb je fout de hardware van consoles werkt anders dan als je een losse GPU zal halen voor in de computer omdat het anders wordt aan gesproken de XBOX ONE die is uitermate veel sneller en sterker omdat het direct wordt aangesproken
Anoniem: 471038
@Jeroentjeeuh9 mei 2014 15:22
Nee, hij heeft het goed.
De GPU in de XBox One wordt dan misschien wel directer en efficienter aangesproken, maar de 750Ti is een VEEL snellere GPU. In de praktijk is die dus sneller.
hij vergelijkt een losse GPU van een desktop tegen een bestaande chip van een XBOX ONE dusja dan is opzich de 750ti op papier sneller en dus in praktijk niet...
Anoniem: 471038
@Jeroentjeeuh9 mei 2014 15:39
Lees z'n link dan:
While the GTX 750 Ti is a midrange GPU, early benchmarks have shown excellent performance across a range of games. In GameSpot's own testing the card ran the likes of Tomb Raider and Bioshock Infinite at over 60fps on high settings. It also ran the beta of the new mech-based shooter Titanfall at 58fps at 1080p with 2XAA on, a feat not even accomplished by the Xbox One.
Dus, sneller dan XBox One in de praktijk.
we zijn pas bij een begin van een console met een begin van de engines opzich kan je nu nog niet echt zeggen wie of welke het betere is het is allemaal nog in begin fase volgend jaar / 2 jaar komen de echte next gen games en dan pas kan je beetje genieten wat een ps4 en xbox one in huis heeft (xbox one heeft zeker wel meer in zn huis dan wat die nu laat zien net zoals de PS4 ) neem voorbeeld aan infamous second son

[Reactie gewijzigd door Jeroentjeeuh op 9 mei 2014 15:55]

Anoniem: 471038
@Jeroentjeeuh9 mei 2014 15:56
Wow, wat kun jij doorzeuren zeg. Is die XBox One zo belangrijk voor je?
Oh nee, het zal wel zijn omdat het een AMD chip is. *zucht*
Anoniem: 471038
@Jeroentjeeuh9 mei 2014 16:02
Je hebt niet eens gelijk. Je zit alleen maar te brallen over iets wat mogelijk in de toekomst zou kunnen gebeuren.
Het is *nu* een feit dat Titanfall beter draait op de 750Ti dan op de XBox One. Geef eerst maar eens toe dat je daar fout zat.
ik zeg toch we zijn bij een begin van een console en dat de xbox en de ps4 meer in huis heeft...dus in de latere stadion heeft de 750ti geen kans meer omdat de engines niet eens geoptimaliseerd is maar neem een voorbeeld aan Infamous second son laat al aardig wat zien wat zn console in huis heeft dus je moet later niet van uitgaan dat BF 5 of misschien watch dogs al (of andere latere games)dat je het zelfde kan halen met een gtx 750ti op een pc want ik zie mensen nog steeds zeggen over paar jaar ja meer he ik heb een 750ti die is sneller dan een xbox one / ps4 wat dus niet het geval gaat zijn..

[Reactie gewijzigd door Jeroentjeeuh op 9 mei 2014 16:19]

Kijk anders eens op de onderste rij van je toetsenbord, naast de M-toets. Daar zitten van die leuke tekentjes die we de komma en de punt noemen. Nog iets verder naar rechts zit een toets met SHIFT erop. Interpunctie, noemen we dat. Maakt je WOT een stuk leesbaarder.

Daarnaast, optimalisaties in de engine kunnen weliswaar kleine verbeteringen geven, maar als de hardware de helft sneller is kun je optimaliseren tot je een ons weegt...
titanfall zal binnen 2 jaar niet plots een andere engine krijgen, waarbij het beter op consoles gaat draaien :P
Nog iemand gezien die Console graphics met zoveel passie verdedigt.
Ze zijn een half jaar op de markt en ze houden de ontwikkeling al weer tegen, 1080p wordt vaak niet eens gehaald enz.
Er is echt geen reden op exclusieve titels en vrienden na om nog zo'n apparaat aan te schaffen.. De vorige generatie consoles liep voor op PC's, deze generatie loopt nu al jaren achter.
En de pc krijgt naast matle (amd) ook nog directx 12 waarmee de hardware ook directer aangesproken gaat worden en dus ook meer geoptimalisseerd gaat worden....Naast de drivers die anzich altijd al geoptimaliseerd worden op de pc. Zo blijf je bezig met apels en peren... Op dit moment kan je voor ps4/xbone prijs al aardige pc kopen die al in veel games wel al 1080p@60fps aankan en de beide consoles niet....

Daarnaast heb je geen extra online kosten die je op de consoles wel hebt. En nu tegenwoordig met hdmi aansluitingen op tv word het steeds aantrekkeler om een pc te kopen. Nog een voordeel is dat de games anzich ook goekoper zijn. En je ook spelen kan spelen die niet op de console te krijgen zijn. Dit zijn voor mij al genoeg redenen waarom ik primair een pc als gamerig gebruik. Zaken zoals steambox maakt de drempel ook weer lager en lager. Kan ik alleen maar toejuichen.

Kan zelf niet wachten tot er 4k schermen gaan komen met g-sync en meer dan 60hz. Dan gaan we eindelijk weer eens stappen maken. Hoop dat ze op dit gebied eens gaan opschieten. (En schiet ook eens op met die vr bril plz)
zucht... Leest iemand de artikelen nog goed?
waarschijnlijk?
Volgens het artikel zegt Nvidia zelf dat het aan de nieuwe 750 serie ligt.
Ik heb het artikel compleet doorgelezen, maar dat is niet de enigste reden.
Dan heb je de deze regel ook gelezen:
"Volgens Nvidia liggen vooral de goede verkopen van high-end kaarten en die de nieuwe GTX 750-serie met nieuwe Maxwell-gpu ten grondslag aan de omzetstijging."
Ja, dus wat wil je hier mee zeggen?
Dit weet ik maar het komt ook vooral door de hoge prijzen van AMD gpu's een tijdje terug.
Wat ik wil zeggen is dat jij een opmerking maakt die nvidia ook al heeft gemaakt. Alleen dat jij zegt "waarschijnlijk" van iets waarvan nvidia zegt dat het zo is.

Ik denk dus dat je het artikel niet goed gelezen hebt en jezelf een slimme opmerking wilt maken, die ondertussen al in het artikel staat. En als je het goed hat gelezen zou je die opmerking niet gemaakt hebben.

Maar als je het al gelezen hebt kopieer je dus gewoon een opmerking uit het artikel, wat ook een beetje vreemd is.

en met de laatste regel spreek je jezelf weer tegen.
eerst zeg je waarschijnlijk de 750 serie en nu vooral hoge prijzen AMD.....

Ik snap je dus niet helemaal, maar dat kan ook aan mij liggen.
Ik heb in mijn eerste reactie vermeld dat het om de 750 kaarten ging en door de hoge prijs van AMD kaarten. Maar ga nu niet leuk lopen doen en zeggen dat je het allemaal zo goed weet leer eerst maar is typen zonder fouten.

Ik heb overigens geen zin om hier ruzie te schoppen.
Ik zeg ook helemaal niet dat ik het allemaal zo goed weet, en serieus, ga je het over typefouten hebben? want die maak ik zoveel? en dat gebeurt jou nooit zeker?
jij wilt geen ruzie schoppen, dan moet je dit soort opmerkingen juist NIET maken.
maar ik zal nu stoppen, dit levert niets op

[Reactie gewijzigd door gjmi op 10 mei 2014 09:37]

En door het slecht leverbaar zijn van high end AMD kaarten gok ik
Nou het grote probleem vind ik altijd de drivers van AMD, ik heb verschillende series gehad vroeger, waar de meest gekke dingen mee gebeurde met twee schermen, rare interlace lijnen bij films kijken, groene schermen waarbij de drivers crashen en dan weer opnieuw opstarten enz.

Ik was er gewoon helemaal klaar mee, en ben toen overgestapt naar nVidia kaarten, drivers zijn gewoon stukken beter, en ShadowPlay als extra vind ik helemaal geweldig.
Inderdaad, ik herken me daar zeker in. Vroeger ben ik een hele tijd een ATi fan geweest in het radeon 9000 tijdperk zegmaar. Maar op een gegeven moment nam NVidia gewoon een flinke voorsprong.

Op een gegeven moment een HD 6850 aangeschaft voor een 2e machine. (de andere machine had een GTX 460) Ik heb ongeveer een maand later maar een 650Ti gekocht omdat de 6850 gewoon niet beviel door gezeur met instellingen, en grafische gliches in sommige games.

PhysX vind ik ook nog wel een mooi pluspunt van NVidia kaarten met name in de Batman titels voegt het zo enorm veel sfeer toe, als ik het zonder die effecten zie bij vrienden lijkt het bijna een heel andere game qua sfeer, en Shadowplay is helemaal heilig. Toen het werd aangekondigt had ik zoiets van: "pff onzin, waarom zou ik dat nou willen?" maar het blijkt toch wel heel geniaal te zijn als je in een game iets "onmogelijks" doet en het bewijs gewoon kan opslaan.

En dan heb ik het nog niet eens over G-Sync. Eerlijk is eerlijk, ik heb het nog niet. Maar wanneer mijn monitor de geest geeft, gaat dat voor een toekomstig scherm zeker meespelen bij de keuze.
De vraag is even wat Nvidia onder highend verstaat, want ik kom legio GTX videokaarten in pricewatch van rond de €90, dat zijn imho geen highend prijzen. Volgens Tweakers: nieuws: Zeven midrange videokaarten vechten het uit
Zijn videokaarten van onder de $250 en $320 namelijk nog steeds midrange videokaarten...

Das vrolijk nog een GTX760 en lager, dan zou de GTX750(ti) niet de oorzaak kunnen zijn volgens bovenstaand bericht...

Waar ik eerder aan denk is dat het westen eindelijk een beetje uit de financiële put begint te komen en ze heel lang nieuwe aankopen hebben uitgesteld, zeker de minder noodzakelijke aankopen zoals een videokaart voor games. Ik zit nu ook nog steeds met mijn GTX285, zit wel te overwegen om dit jaar een nieuwe aan te schaffen, maar het is zeker nog niet noodzakelijk of zo. Ik denk dat we voorlopig even een opbloei van desktop videokaarten gaan zie qua sales en dat die daarna gewoon genadeloos instorten (langere levensduur, minder snelle groei graphics in games).

In laptops zie ik op de korte termijn juist meer groei omdat het mkb momenteel bezig is met uit het economische gat te klimmen waar het inzat. Veel desktops worden vervangen door laptops. Veel goedkope laptops zijn alleen uitgerust met Integrated Intels, maar de iets duurdere worden geleverd met AMD/Nvidia GPUs, vroeger was dat in een veel hoger prijssegment. Zeker gezien m'n recente ervaring met AMD drivers op laptops en Windows 8.1, zal ik eerder kiezen voor een Nvidia oplossing, zou me niets verbazen als dat de algemene opvatting is van adviserende ITers everywhere ;-)
Ze bezitten op dit moment ook de snelste en sterkste high-end single GPU proc aan. Namelijk de GTX780TI. De high-end kaarten van nVidia zijn op dit moment nog zijn tijd vooruit.
electronica is zijn tijd nooit voorruit, het is gewoon het snelste nu. Nu maar hopen dat deze beter in elkaar gedraaid zijn. Mijn ervaringen met Nvidia zijn niet slecht maar heb toch te vaak gehoord dat de kaart zelf uiteindelijk stuk ging.

Met AMD drivers heb ik nu zelf pas 1 slechte ervaring. De laatste 14.x drivers gaven problemen. Dus ik wacht wel op de update daarvan voordat ik van de 13.x afstap
Anoniem: 590917
@Teigetje!10 mei 2014 10:45
Momenteel is de uitval bij AMD kaarten groter en ik heb het idee dat dat komt vanwege minder kwaliteit componenten.
Onderaan staan de cijfers.
http://www.pcworld.com/ar...ump-amd-video-cards-.html

[Reactie gewijzigd door Anoniem: 590917 op 10 mei 2014 10:52]

Mooi voor ze dat de Tegra business weer groeit, na het succes van Tegra 3 en het uitstel van Tegra 4 zaten ze in een verkoopdip maar het lijkt toch weer door te zetten. Ze kruipen ook dichter en dichter naar AMD qua verkopen (die zaten op $1.3 mld omzet afgelopen kwartaal).

[Reactie gewijzigd door Dreamvoid op 9 mei 2014 13:16]

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee