Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 171 reacties
Submitter: ColinZ

Nvidia heeft in het afgelopen kwartaal een recordomzet geboekt van 2 miljard dollar. Dat is 54 procent meer dan in hetzelfde kwartaal vorig jaar. De hoge omzet is het gevolg van de introductie van de Nvidia GTX 10-gpu's en de op komst zijnde Nintendo Switch, waar een Tegra-chip in zit.

Het merendeel van de omzet haalde Nvidia uit de verkoop van GeForce-gpu's aan consumenten. De Gaming-tak van de videokaartenmaker kon in het kwartaal, dat afliep op 30 oktober, 1,24 miljard dollar bijschrijven. Ten opzichte van hetzelfde kwartaal vorig jaar is dat een stijging van 63,5 procent.

Een andere oorzaak van de groei is de komst van de Nintendo Switch. De Japanse consolebouwer gebruikt voor de spelcomputer die maart volgend jaar uitkom een custom Nvidia Tegra-chip, met een gpu die waarschijnlijk is gebaseerd op de Pascal-architectuur. De Tegra-divisie behaalde een omzet van 241 miljoen dollar, een stijging van 87 procent ten opzichte van vorig jaar.

Nvidia richt zich steeds meer op andere markten dan gaming en ziet ook daarin flinke groei. Zo zag het bedrijf de omzet bij de datacenterdivisie met 192,7 procent stijgen naar 240 miljoen dollar. Ook de Automotive-divisie deed het goed, met een omzet van 127 miljoen dollar en een stijging van 60 procent ten opzichte van vorig jaar. Nvidia maakt de Drive PX2 voor zelfrijdende auto's en Tesla heeft vorige maand aangekondigd deze module te gaan gebruiken in al zijn auto's.

De omzet van 2 miljard dollar is de tweede recordomzet op rij voor Nvidia. In het vorige kwartaal was dat nog 1,4 miljard dollar. In het afgelopen kwartaal kwam de nettowinst uit op 542 miljoen dollar, omgerekend zo'n 497 miljoen euro.

Nvidia GTX 1080

Moderatie-faq Wijzig weergave

Reacties (171)

Nvidia word steeds groter :)
Gezien somige praktijken die ze nu al uithalen (vendor lock-in creëren door SDK's (e.g. GameWorks) te ontwikkelen voor games die slecht presteren op GPU's van concurrentie) weet ik niet of ik dit zo'n goede ontwikkeling vind.
Ben ik helemaal met jou eens, volgens mij gebeurt dit wel door beide partijen alleen wij als consument zijn daar uiteindelijk de dupe van.
AMD doet dit veel minder. Zie OpenCL ipv CUDA, Freesync (AdaptiveSync) vs Gsync, Mantle, Vulcan vs Game works. Zonder mantle hadden we Dx12 misschien nog niet gehad of niet in deze to metal programming vorm. Api overhead is nu veel lager.

Aan de kant van AMD veel open standaarden die nVidia en Intel ook mogen gebruiken.

Daarnaast ontwikkeling van geheugen standaarden zoals GDDR3, 5 en HBM dingen die alle videokaart bouwers gebruiken.

Ik vind dat er wel een heel groot verschil is tussen beide bedrijven. Maar nvidia's aanpak is voor een bedrijf wel slim, het brengt veel geld in het laadje. En je houd mensen die het gebruiken bij je merk omdat je het elders niet kan gebruiken. Dat maakt een overstap lastig.

[Reactie gewijzigd door Astennu op 11 november 2016 10:31]

Zie OpenCL waar eigenlijk niemand graag de voorkeur aan geeft boven CUDA inderdaad. En zie Mantle dat een doodgeboren kind was en noodgedwongen maar is doorgezet naar Vulkan.

Je blijft de sprookjesverhalen herhalen. DX12 is geen resultaat van Mantle, dat was allang in ontwikkeling tbv de Xbox One - een console die nota bene AMD hardware heeft. Toch zie je daar geen Mantle. Ook zie je momenteel bijna geen enkele game die echt beter draait onder DX12, het is eerder andersom.

AMD had de API nodig omdat ze voor DX11 maar matig efficient waren met GPU. Veel CPU overhead. Zeker ook de schuld van Nvidia? Of is het misschien zo dat AMD veel te lang heeft gewacht met het verbeteren en verfijnen van GCN? Want GCN is pas onder DX12 echt concurrerend.

Zet die roze AMD bril toch eens af. AMD is als bedrijf niet slim bezig geweest en dat speelt ze parten. HBM op de Fury heeft ze gewoon geld gekost en Nvidia laat zien dat ze met GDDR5X gewoon een 40-50% snellere GPU kunnen bouwen. Momenteel hebben ze geen high end GPU en boekt Nvidia recordomzetten terwijl AMD geen marktaandeel kan terugwinnen. Wel leuk dat ze die open standaarden hebben inderdaad, maar ik zie gaming er niet beter van worden. Door de vrijblijvendheid weet vrijwel geen enkel hersenspinsel van AMD door te dringen tot de mainstream. Voor physics bijvoorbeeld is er nog nooit een werkbaar alternatief gekomen. Tegelijkertijd weet Nvidia wél meerwaarde uit zijn proprietary spul te persen.

[Reactie gewijzigd door Vayra op 11 november 2016 10:59]

Oei, jij kan verhalen verzinnen!
Zie OpenCL waar eigenlijk niemand graag de voorkeur aan geeft boven CUDA inderdaad.
OpenCL heeft een behoorlijk marktaandeel, namelijk alle software die op meer dan alleen NVidia moet draaien. Verder werkt het ook op FPGAs, DSPs en mobiele GPUs van ARM en Qualcomm op Android.
En zie Mantle dat een doodgeboren kind was en noodgedwongen maar is doorgezet naar Vulkan.
Mantle is door AMD ondergebracht bij Khronos en daar verder ontwikkeld als Vulkan. Het was altijd de bedoeling om de kennis van Mantle te delen.
Je blijft de sprookjesverhalen herhalen. DX12 is geen resultaat van Mantle, dat was allang in ontwikkeling tbv de Xbox One - een console die nota bene AMD hardware heeft. Toch zie je daar geen Mantle.
Omdat MS bij DX wou blijven en daarom de kennis van AMD daar heeft ingevoerd?
Ook zie je momenteel bijna geen enkele game die echt beter draait onder DX12, het is eerder andersom.
Er zijn twee mogelijkheden om van DX11 naar DX12 te gaan. De eerste is de API-calls hetzelfde te houden en dus DX11-calls in DX12 te emuleren. De tweede is compleet herschrijven.
Als je de concepten van Mantle in DX11 en OpenGL toepast, kun je ook flink wat versnellingen krijgen. Bij OpenGL noemen ze dat "modern OpenGL".
Dus je bent gewoon tot de conclusie gekomen dat de meeste DX11 games niet herschreven zijn.
AMD had de API nodig omdat ze voor DX11 maar matig efficient waren met GPU. Veel CPU overhead. Zeker ook de schuld van Nvidia?
Nooit een GPU geprogrammeerd? De GPU werd juist gelimiteerd door de communicatie, wat de CPU slechts gedeeltelijk kon opvangen.
Of is het misschien zo dat AMD veel te lang heeft gewacht met het verbeteren en verfijnen van GCN? Want GCN is pas onder DX12 echt concurrerend.
GCN is inderdaad een echte verbetering tov de oude architecturen. Speel jij nog moderne spellen op een GPU van 2012?
Zet die roze AMD bril toch eens af.
Als jij je beter inleest, zou dat makkelijker gaan.
AMD is als bedrijf niet slim bezig geweest en dat speelt ze parten. HBM op de Fury heeft ze gewoon geld gekost en Nvidia laat zien dat ze met GDDR5X gewoon een 40-50% snellere GPU kunnen bouwen.
Hangt af van het spel, want geheugen is toch een erg beperkende factor. Maar hoe NVidia hun techniek verbeterd heeft is een flinke lap tekst, dus laat ik aan t.net over.
Momenteel hebben ze geen high end GPU en boekt Nvidia recordomzetten terwijl AMD geen marktaandeel kan terugwinnen.
Klopt. De high-end komt veel te laat. Maar wel over 2 maand.
Wel leuk dat ze die open standaarden hebben inderdaad, maar ik zie gaming er niet beter van worden.
Spellen worden duurder als het uitgeprogrammeerd moet worden in meerdere talen, dus in zowel CUDA als OpenCL.
Door de vrijblijvendheid weet vrijwel geen enkel hersenspinsel van AMD door te dringen tot de mainstream. Voor physics bijvoorbeeld is er nog nooit een werkbaar alternatief gekomen. Tegelijkertijd weet Nvidia wél meerwaarde uit zijn proprietary spul te persen.
http://bulletphysics.org/ is een goede, die ook vaak wordt gebruikt. Er zijn er meer!
En och, je weet best hoe NVidia hun onderhandelingen spelen - dat is juist waarom er zoveel commentaar is op dat bedrijf.
Zucht ... 1:DX12 is pas begonnen na Mantle. 2: AMD heeft ALLE gegevens van mantle gedeeld met Microsoft. 3: AMD was vanaf het begin betrokken bij bij de ontwikkeling van DX12. En dan zeggen dat mantle helemaal geen invloed heeft gehad op DX12? Dat is pas een fabeltje ...
Natuurlijk zal Mantle enigszins invloed hebben gehad op DX12. Maar je moet niet vergeten dat zowel AMD als nVidia betrokken waren bij de development van DX12. Anderzijds zal DX12 ook invloed hebben gehad van de ontwikkelingen van Mantle. Maar de roep om een meer low level API vanuit game developers bestond al veel en veel langer.

Wat betreft wie er eerst was?
The question, then, almost asks itself. Did AMD's work on Mantle motivate Microsoft to introduce a lower-level graphics API?

When I spoke to AMD people a few hours after the D3D12 reveal, I got a strong sense that that wasn't the case—and that it was developers, not AMD, who had spearheaded the push for a lower-level graphics API on Windows. Indeed, at the keynote, Microsoft's Development Manager for Graphics, Anuj Gosalia, made no mention of Mantle. He stated that "engineers at Microsoft and GPU manufacturers have been working at this for some time," and he added that D3D12 was "designed closely with game developers."

I then talked with Ritche Corpus, AMD's Software Alliances and Developer Relations Director. Corpus told me that AMD shared its work on Mantle with Microsoft "from day one" and that parts of Direct3D 12 are "very similar" to AMD's API. I asked if D3D12's development had begun before Mantle's. Corpus' answer: "Not that we know." Corpus explained that, when AMD was developing Mantle, it received no feedback from game developers that would suggest AMD was wasting its time because a similar project was underway at Microsoft. I recalled that, at AMD's APU13 event in November 2013, EA DICE's Johan Andersson expressed a desire to use Mantle "everywhere and on everything." Those are perhaps not the words I would have used if I had known D3D12 was right around the corner.

The day after the D3D12 keynote, I got on the phone with Tony Tamasi, Nvidia's Senior VP of Content and Technology. Tamasi painted a rather different picture than Corpus. He told me D3D12 had been in in the works for "more than three years" (longer than Mantle) and that "everyone" had been involved in its development. As he pointed out, people from AMD, Nvidia, Intel, and even Qualcomm stood on stage at the D3D12 reveal keynote. Those four companies' logos are also featured prominently on the current landing page for the official DirectX blog.

Tamasi went on to note that, since development cycles for new GPUs span "many years," there was "no possible way" Microsoft could have slapped together a new API within six months of Mantle's public debut.

[Reactie gewijzigd door .oisyn op 11 november 2016 12:25]

Die laatste opmerking die dik gedrukt is: even een opmerking daarover. Leuk dat MS niet binnen zes maanden nadat Mantle gereleased was geen nieuwe api kan maken. Maar Mantle heeft ook een development tijd gehad. En voordat Mantle klaar was heeft AMD al de data van Mantle gedeeld met MS. Dus AL die tijd dat Mantle nog niet uit was en in ontwikkeling was horen ze ook mee te tellen. Krijg je een heel ander beeld. Nee ik zeg niet dat ze het gewoon gekopieerd hebben maar zelfs als ze allebei tegelijk in ontwikkeling waren (wat niet zo is want the development van Mantle was al begonnen voor DX12 development) dan zouden ze alsnog in meerdere OF mindere mate elkaar beinvloeden. Dat is gewoon een feit. Je bent als dev dom als iets gaat ontwikkelen, gratis en voor niets ideeen van andere programma's kan inzien en daarna zoiets hebt van "meh negeer maar". Of het nou 1% of 99% is maakt niet uit, maar als jij bezig bent gaat met developpen en je hebt daarvoor al wat dingen van iemand anders in kunnen zien waar very likely dingen inzitten die interessant zijn, ga je daar of je eigen versie van maken of je neemt het gedeeltelijk over. Period.

Dus leuk dat ze zeggen : Ja maar we waren al aan het devven voordat Mantle gereleased was, dan vergeten dus leuk de tijd dat ze alle data kregen van AMD terwijl Mantle nog gedevved werd voordat DX12 überhaupt begonnen was.
Waarom zouden ze Mantle ontwikkellen als DX12 er aan komt?
Er zijn ook nog andere besturings-systemen dan M$ Windows.

Mantle/Vulkan draait ook op Linux & Mac OSX, BSD, Playstation, etc.

Er is dus reden genoeg voor andere grafische API's dan DirectX.
Het ontbreekt nogal aan logica. Mantle was dood nadat het in BF4 niet echt veel wist op te leveren, en daarom is het geheel naar Vulkan verhuisd om de miljoenen investering niet geheel te laten verdampen. Natuurlijk zijn er zaken gedeeld, maar DX12 is geen resultaat van de acties van AMD.

Zoals zo vaak in techland waren verschillende groepen met eenzelfde idee bezig, omdat de tijd er rijp voor was. AMD heeft die low level API vele malen meer nodig dan Nvidia omdat hun DX11 implementatie matig was. Dat was de reden voor Mantle. En dat is ook de reden dat de GPUs onder Vulkan en DX12 harder lopen.

[Reactie gewijzigd door Vayra op 11 november 2016 12:37]

Niks ontbreekt aan logica. Nooit gezegd dat DX12 het resultaat was van Mantle. Maar de kans dat DX12 0,0 invloed op wat voor manier dan ook had van Mantle, is onrealistisch. Als je alleen naar de release date van Mantle kijkt sure. Maar Mantle was gedeeld met MS van dag 1 van Mantle's development en niet van dag 1 van release. Dus alle data vanaf dag 1 vanaf Mantle dev heeft MS in kunnen zien. En Mantle dev is VOOR dx12 dev begonnen. E als je als dev gratis en voor niets ideeen van anderen krijgt toegestuurd tijdens hun dev en daarna als jij je eigen dev begint niks mee doet? Ben je niet al te snugger imho.
Dus jij ziet geen verbetering in Freesync? Of Vulkan? Of mantle/DX12?

Jij kan natuurlijk ook je groene bril afzetten. Zonder AMD was gamen een dure hobby geworden hoor.

[Reactie gewijzigd door loki504 op 11 november 2016 11:04]

Jij kan natuurlijk ook je groene bril afzetten. Zonder AMD was gamen een dure hobby geworden hoor.
Dat is natuurlijk een domme opmerking (hij is waar, maar het is een stroman). Niemand claimt dat AMD moet stoppen, want concurrentie is goed. Er wordt alleen opgemerkt dat AMD niet de savior is die veel mensen denken dat het is. Je kunt zelfs het argument maken dat als ze bepaalde dingen handiger hadden aangepakt, de prijs van nVidia hardware nu lager was geweest.

[Reactie gewijzigd door .oisyn op 11 november 2016 12:33]

Precies dit is mijn punt. Ik heb het over bedrijfsvoering, effectiviteit, en het effect daarvan op de mate van concurrentie. Het is veel te makkelijk om steeds maar te wijzen naar 'het budget van AMD". Dat is een kip-ei verhaal, het was AMD die ervoor koos een dure investering te doen en ATI de nek om te draaien. En ook vandaag de dag is nog helemaal niet te zeggen dat GPU het goed doet. GPU doet nu dankzij DX12 eindelijk wat het onder DX11 al had moeten doen gezien de hoeveelheid hardware die er onder de motorkap zit.

Dank je.

[Reactie gewijzigd door Vayra op 11 november 2016 12:18]

Ik heb veel meer respect voor AMD die open standaarden ontwikkelt met hun Freesync en die de markt en consument daar echt mee vooruithelpt. nVidia met Gsync is gesloten en denkt alleen maar aan zichzelf en geld scheppen en daarom staan ze er nu ook financieel beter voor. Jij vindt het dus normaal dat je ¤500 moet betalen voor een GTX1070. Ik niet. Vergelijk dit eens met een paar jaar geleden, wanneer een gpu in de prijsklasse van de 1070 nog ¤300-¤400 kostte, dat was nog te doen.

AMD kon gerust Freesync ook gesloten maken en er geld voor vragen. Maar doen ze het, nee, en voor een bedrijf die er financieel zo slecht voor staat vind ik dat bewonderenswaardig.
Weet je wat zo jammer is, van dat respect gaan je videokaarten niet beter of koeler draaien, worden ze niet goedkoper, en wordt het bedrijf niet gezonder.

Daar heb ik het dan ook over, en het is jammer dat dat wordt gezien als een AMD bash. Zegt erg veel over de lezer.

[Reactie gewijzigd door Vayra op 14 november 2016 10:34]

Ik heb een AMD kaart ja maar ben ik daarom een AMD fan, nee. Ik koop gewoon de kaart die op dat moment het best presteert en ben binnenkort aan vervanging toe en dan wordt het een kaart van nVidia omdat AMD momenteel geen tegenhanger heeft voor de 1070. Maar ik wil wel geen ¤500 betalen voor een graka en wacht tot de prijzen dalen.

Ik kom wel gewoon op voor de underdog want momenteel is het allemaal te veel nVidia en niets voor AMD. Maar Polaris is een stap in de goede richting en ik denk dat ze nog met een revisie gaan komen.
Ik zie geen verbetering in DX12 nee. Ik zie dezelfde game in DX11 exact hetzelfde of beter presteren, een enkele uitzondering daargelaten. DX12 is leuk als je een matige CPU hebt, en dat was het wel - in elk geval voorlopig.

Verder zie ik graag dat AMD betere beslissingen neemt. Polaris laat dat vooralsnog echter niet echt zien. Vega is nog ver weg. Freesync werkt alleen op AMD kaarten en niet op die van Nvidia en is dus effectief hetzelfde als Gsync met een iets lagere bijbetaling en iets minder goede performance, en als je een Free- of Gsync monitor op een Intel IGP draait heb je gaming sowieso al niet begrepen.

GDDR5... hoe lang is dat ondertussen geleden?
Alleen kan Freesync prima werken met je gtx-1080. Als Nvidia dat wil. En dat kunnen ze met alleen een software update doen als ze dat willen. Intel gaat daar graag gebruik van maken.
https://www.extremetech.c...standard-with-future-gpus
Alleen kan Freesync prima werken met je gtx-1080. Als Nvidia dat wil.
Natuurlijk wil nVidia dat niet, als ze een proprietary techniek hebben waar ze licentiegelden voor kunnen vragen en die, laten we eerlijk gezijn, gewoonweg beter werkt (omdat het frames buffert en je dus ook onder de minimale refreshrate van de daadwerkelijke hardware kunt gaan).
Freesync buffered ook sinds een beste tijd.

Kan me niet voorstellen dat je onder een framerate van 35fps zou willen spelen, dus leuk dat G-sync en Freesync dat beide kunnen maar je hebt er geen barst aan. Wellicht dat dit leuk is op de consoles waar Freesync volgens de geruchten ook op beschikbaar komt. Indien ook consoles mee gaan dingen dan gaat g-sync waarschijnlijk een snelle dood tegemoet.

Leuk dat ze er eerst mee waren maar de vendor lock-in zal het waarschijnlijk alleen maar tegenwerken.
Kan, net zoals er zoveel kan in AMD land maar uiteindelijk toch niet gaat gebeuren :) De huidige realiteit is dat het zo is, zoals ik het zeg.

[Reactie gewijzigd door Vayra op 11 november 2016 11:14]

Ja omdat Nvidia alles vendor lock in wil houden. Aan de ene kant roepen we dat Apple niet alles dicht moet houden. En dat het een voordeel is van AMD. Maar aan de andere kant vinden we het niet erg als Nvidia het toepast?
Idd. Freesync zou de standaard moeten worden want het is gratis. Een techniek om te syncen ts je grafische kaart en je monitor moet sowieso een open standaard worden en gratis zijn en niet bijbetalen zoals voor Gsync. Dat moeten wij als consument niet willen. nVidia zou door een softwareupdate gemakkelijk Freesync kunnen ondersteunen. Maar gaan ze het doen, nee natuurlijk niet, het is hun alleen om het geld te doen met hun marktverziekende praktijken. Ik begin echt te walgen van dit bedrijf en zeker nu door dit bericht met hun recordomzet.

Ze hebben nog nooit een open standaard ontwikkeld zoals AMD dit wel doet en dit is in het nadeel van de consument. Het is hen alleen om het geld te doen. Daarom hulde aan AMD die er financieel veel slechter voor staat dan nVidia maar toch blijft vasthouden aan hun open standaarden(Freesync ed.) die de markt echt vooruithelpen. Chapeau!
En hoeveel mensen kunnen 850 euro missen voor een monitor? Maar als G-sync zo geweldig als zij en sommige tweakers claimen dat ze er makkelijk 200 euro meer voor gevraag kan worden. is er toch ook niets mis om free-sync te ondersteunen als extra?
Sommige mensen willen gewoon het beste, en de RX480 kan niet tippen aan de 1070, 1080 of nog ergste Titan X Pascal en aankomende 1080Ti
RX480 is ook geen concurrent voor de GTX1070, zit in een lagere prijsklasse. Dat is Vega wel, maar AMD is gewoon veel en veel te laat.
In principe kan de rx480 daar makkelijk aan tippen. Je heb immers al voor
Minder dan 500euro 2x een rx480 die in meeste gevallen sneller is dan de 1080. Dus de price/perf. Verhouding van de rx480 ligt veel hoger dan de 1080. Nou is die van de 1060 net wat hoger maar daar heeft Nvidia strategisch SLI er uit gelaten om je zo te forceren voor een veel duurdere 1070 of 1080 te gaan. en net als bij Gsync waar je monitor honderden euro's duurder van word, vind ik dit ronduit belachelijk om je klanten op die manier uit te knijpen.
Ja twee RX 480's met alle SLI/CF problemen erbij :+
En wat heb je tegen 1080 of Titan XP SLI?

[Reactie gewijzigd door Koning Willy op 12 november 2016 11:53]

ik heb helemaal niks tegen de 1080 en/of titan (op de prijs na). Maar ik geef alleen aan dat de rx480 makkelijk meekan. En dat Nvidia zijn klant belazerd door sli uit te schakelen om je zo naar een duurdere kaart te dwingen. Je kunt goedkopere en betere performance krijgen door 2x1060 te kopen en dat heeft Nvidia ook door.
Een krachtigere kaart is altijd beter dan heb je ook geen performance problemen ermee, kost minder ruimte, stroom en minder hitte :)
Is free sync echt lag vrij dan? De normale vsync geeft namelijk in alle spellen een belachelijke vertraging tussen input muis en toetsenbord en output op het scherm. Vsync bij bf1 bijvoorbeeld aan maakt het spel onspeelbaar. Zoals het met alle shooters onspeelbaar wordt. Het afstemmen van 2 hardware componenten via een kabel lijkt me altijd vertraging op te leveren. Want 1 van de twee wacht altijd op de ander. Net zoals je met sli ook nog altijd micro stutter hebt bij lagere framerates dan 70 fps.

Maar misschien heb ik het mis hoor.

Ik weet wel dat bf1 een van de eerste games is die ik nu speel die bij 50 a 60 fps soepel en responsive aanvoelt. Meeste games krijgen vertraging tussen de input - output op 60 fps

Maar misschien ligt het aan mij... ik zie zelfs de led achterlichten van voornamelijk volvos ook knipperen. En mijn Amoled scherm van de s7 is ook onrustig bij half brightness

[Reactie gewijzigd door sygys op 11 november 2016 12:45]

Geen ervaring met freesync maar gsync is gewoon super geen tearing en totaal geen merkbare input lag voor mij.
Ja, en screentear doet zich met regelmaat voor bij Nvidia games in mijn ervaring(toegegeven met name oudere games, die ik vaak speel omdat er GEEN moderne alternatieven voor zijn), waar je met Nvidia de keuze hebt door of een framelimiter te gaan rommelen, terwijl het met AMD vlekkeloos werkt out of the box werkt, zonder freesync en/of frame limiters.

Echter is AMD ook geen heilige meer de laatste tijd, de eerste generatie r9 kaarten (2xx(X)) hun drivers bieden steeds minder opties, want de menu's lijken tegenwoordig "simpeler" te moeten. Opties voor VSR, kleurverbetering, software vsync, etc, etc. verdwijnen spontaan uit de nieuwe settings app hun geavanceerde opties. Momenteel moet ik een mix&match van een oude settings app draaien icm de nieuwste drivers... Mijn volgende kaart word wel een Vega iig, want ik ben al zeker 18 jaar in kamp rood te vinden voor mijn eigen builds.

Ik game op een PC, en vind settings tweaken zodat het bij optimaal werkt, desnoods per game en kost het wat uurtjes vind ik dat geen probleem. Ik wil ook de monitor gebruiken die ik de voorkeur geef, niet een die AMD of Nvidia wil dat ik gebruik.

Maar de marktvoorsprong en reputatie Nvidia maar ook AMD hebben opgebouwd, maakt het onmogelijk voor een nieuwe speler om even het veld te betreden.. (Tenzij iemand bij S3(wat ik niet meer zie gebeuren) of Intel's grafische tak het roer omgooit, en miljarden in een nieuwe killer-gpu(die het ook echt doet) gaat investeren die pas over vijf jaar een paar procent marktaandeel zou kunnen krijgen, hooguit.
Ik bespeur hier een te grote Nvidia bril, zie de prestatieverschillen tussen de GTX1070 en FuryX betreffende dx11 en dx12. Bij dx12 komt AMD ineens in de buurt of eroverheen ipv mijlenver achter.

Nu is de GTX1070 overal wel een betere kaart maar het impliceert wel dat AMD DX12 iets beter onder de knie heeft. Oorzaak hiervan lijkt mij toch het hebben van open standaarden waar direct kritiek op geleverd kan worden door een hele grote groep i.p.v. het gesloten Nvidia kamp

Ben een Fury nano bezitter maar zou wel een GTX1070 adviseren aan mijn omgeving voor overall betere performance. Maar voor DX12 achtige games moet je toch bij AMD zijn imo. (Forza test gedaan tussen 1070 en fury nano, doe mij de nano maar.)
Ik bespeur hier een te grote Nvidia bril, zie de prestatieverschillen tussen de GTX1070 en FuryX betreffende dx11 en dx12. Bij dx12 komt AMD ineens in de buurt of eroverheen ipv mijlenver achter.
Je bedoelt dat AMD mijlenver achterlag in DX11 en met DX12 eindelijk bij kan komen? Je kunt je afvragen waarom het verschil überhaupt zo groot is, daar het voornamelijk een CPU probleem oplost, niet een GPU probleem. Blijkbaar komt de FuryX met DX12 beter tot zijn recht. Hij doet nog steeds hetzeflde werk (hij tekent nog steeds dezelfde dingen), alleen wordt hij beter aangestuurd.

De enige conclusie die ik hieruit kan trekken is dat AMD crappy DX11 drivers maakt, en dat nVidia daar toch een stuk beter in is. Het resultaat is dat nVidia hardware dan ook niet zo heel veel baat heeft bij DX12 an sich.

[Reactie gewijzigd door .oisyn op 11 november 2016 12:31]

Komt door betere Asyncronous Compute van de AMD-kaarten, heeft niets met de drivers te maken. Onder welke steen heb jij geleefd zeg.
Async compute heeft op AMD veel meer voordeel omdat een enorm groot deel van de computing power onbenut blijft bij het rasterizen alleen. Dit is pijnlijk duidelijk als je GPU performance captures erbij pakt (vooral de tools van de Xbox One en PS4 laten dit tot in detail zien). Async compute is dus gewoon nódig om de maximale performance eruit te halen. nVidia heeft hier vele malen minder last van, en dus kiezen zij voor een vorm van pre-emptive multitasking.

Async compute is technisch gezien namelijk helemaal geen performance feature - het opent de deur voor rendering-onafhankelijke GPGPU zaken. Zonder async compute belanden compute opdrachten in de rendering pipeline, waardoor je veel te lang op de resultaten moet wachten (omdat die pijplijn ongeveer een frame achterloopt op de game zelf).
Ja dat zeg ik toch ook? Onder DX12 gaat GCN opeens presteren zoals het dat onder DX11 al had moeten doen.

Fury X was een teleurstelling ten opzichte van de 980ti. De verkopen wijzen dat ook uit. Pas onder DX12 begint de Fury X zijn meerwaarde te tonen. Desondanks streeft ie nog steeds de 980ti niet voorbij.
Heb je overige reacties niet gelezen excuses!
OpenCL waar eigenlijk niemand graag de voorkeur aan geeft boven CUDA Inderdaad.
Dat heeft echter ook o.a. te maken met bepaalde praktijken van Nvidia... Lange tijd sleepte Nvidia echt met hun voeten als het op OpenCL aankwam. En nu nog denk ik dat het niet met veel liefde is.

Het is zeker niet enkel hun schuld want de standaard kwam er te laat en AMD had ook hun zaakjes niet op orde op compiler vlak! Dat heeft ook zijn invloed gehad.

Ik heb ook een Nvidia gpu omwille van CUDA, maar ik zou toch veel liever een grotere adoptie zien voor OpenCL.

[Reactie gewijzigd door simplicidad op 11 november 2016 11:49]

Ook zie je momenteel bijna geen enkele game die echt beter draait onder DX12, het is eerder andersom.
Huh? volgens mij draait elk spel dat nu uit is op DX12 beter in DX12 mode dan in DX11 mode (op AMD GPU's iig)
HBM op de Fury heeft ze gewoon geld gekost en Nvidia laat zien dat ze met GDDR5X gewoon een 40-50% snellere GPU kunnen bouwen.
Dat de GPU sneller is heeft weinig met HBM of GDDR5 te maken, maar gewoon met de chip zelf, en HBM is zeker een mooie ontwikkeling en gaat door AMD en Nvidia gebruikt worden
Wel leuk dat ze die open standaarden hebben inderdaad, maar ik zie gaming er niet beter van worden
Jij ziet gaming wel beter worden door wat Nvidia allemaal uit haald? misschien beter voor gamers met nVidia maar zeker niet beter voor de Gaming markt.

[Reactie gewijzigd door Sinester op 11 november 2016 12:00]

Het feit dat je over een Roze bil begint zorgt er al voor dat ik je reactie niet meer serieus neem en er dus ook niet eens de moeite voor ga nemen er op te reageren.

[Reactie gewijzigd door Astennu op 11 november 2016 12:01]

Wat een onzin; het markt aandeel van Nvidia is juist gekrompen de afgelopen periode. AMD daarintegen zit weer boven 20% marktaandeel.
Leuk dat je een ander verwijt dat zij een roze bril op hebben maar je weet blijkbaar zelf de feiten niet eens.
Je mag hopen dat AMD met wat concurrentie komt anders leg jij straks voor je Nvidia kaartje top dollar neer. Zelfde geld voor Intel. Geen concurrentie waardoor vooruitgang gestaagd gaat.

Ik kan een bedrijf als AMD alleen maar toejuichen.
Vulcan vs Game works
Dit kun je niet zomaar vergelijken, GameWorks is een samenraapsel van physics, shaders en meer extras voor rendering. terwijl Vulcan een API is net zoals OpenGL en DirectX.

Verder snap ik wel waarom het niet soepel draait op andere apparaten. Performance heeft een prijs, en die prijs is de bruikbaarheid met andere apparaten.
Klopt AMD heeft geen letterlijke tegenhanger. Maar Vulkan is helemaal gebaseerd op Mantle. AMD was daar in die tijd mee bezig. Vandaar dat ik ze even naast elkaar noem.
Is het hele GPuOpen (www.gouopen.com) programma geen tegenhanger van GameWorks? Met librarys zoals
AOFX, ShadowFX, GeometryFX en TressFX?
De redenen is je opnoemt is voor mij ook de doorslag geweest om een RX470 aan te schaffen. Het open beleid van AMD spreekt mij meer aan!
Daarnaast vergeet je SLI vs Crossfire. https://blogs.nvidia.com/...t-you-got-it-sli-for-amd/ oftwel geen SLI bij AMD chipsets, alleen bij Intel in die tijd. Crossfire werkte bij alle chipsets.
Mantle was practisch AMD only, Vulcan is niet door AMD opgezet, DX12 was al onderweg voordat Mantle bekend gemaakt werd overigens.
Mantle was een open standaard. Ja het was ontwikkeld voor de GCN architectuur maar het is een open standaard die door andere te gebruiken is. Vulkan is in de basis Mantle. Dit is inderdaad door anderen opgepakt. Maar dat neemt niet weg dat de basis er van Mantle is.
DX12 was wel onderweg. Maar ze hebben het wel flink aangepast door de ontwikkelingen rondom Mantle. Ik kan het niet met zekerheid zeggen zo diep zit ik niet in de materie maar ik denk dat als Mantle er niet geweest had DX12 niet zo goed was geweest en het veel meer op 11 zou lijken en dus veel minder draw calls aan zou kunnen.

Er zijn wel mensen die er meer van weten maar die zitten vooral op het forum.
Denk dat je een hoop informatie weg haalt. Er was al een hele ontwikkeling op meerdere vlakken om dichter bij de chip te gaan programmeren om overhead weg te werken. Mantle deed voor AMD GPU's en door het richten op GCN was het gewoon AMD exclusief, dat andere het mochten gebruiken maakt niks uit. Physx libraries kan je ook gewoon downloaden van Github, toch zijn er delen alleen voor Nvidia systemen er in verwerkt.

Vulkan was opgezet als vervanger voor OPenGL origineel en AMD heeft Mantle technologie aan hun uitgeleent dat is wat anders alsof het Mantle 2.0 zou zijn wat het dus niet is.

Het is gewoon een industrie trend en niet zozeer een AMD trend, Apple heeft ook de metal API die een soortgelijk principe heeft opgebouwd bijvoorbeeld.
Vergeet niet dat AMD niks echt bijzonders heeft uitgebracht dit jaar, een Geforce GTX 1060 6GB is in veel spellen (aangezien je een BERG DX11 spellen heb en letterlijk een hand vol DX12 spellen heb) gewoon sneller, en dat een Radeon RX 480 8GB net zo duur is als een Geforce GTX 1060 6GB.

En in DX12: Total War: WARHAMMER en DX12: Ashes Of The Singularity is de Radeon RX 480 8GB maar 1fps sneller dan de Geforce GTX 1060 6GB, dus ze zijn in die spellen net zo snel.

En in DX12: Rise Of The Tomb Raider is de Geforce GTX 1060 6GB weer sneller 4fps ook niks om over naar huis te praten, en in
DX12: Battlefield 1 is de Radeon RX 480 8GB weer 4fps sneller, en in DX12: Gears of War 4 is de Geforce GTX 1060 6GB weer 3fps sneller.

Alleen in DX12: Hitman (2016), en DX12: Deus Ex Mankind Divided, en VULKAN: DOOM (2016) is de Radeon RX 480 8GB +/- 8fps sneller.

Ik kijk naar 2560x1440

http://www.guru3d.com/art...lver_8g_oc_review,12.html
AMD doet dit veel minder. Zie OpenCL ipv CUDA, Freesync (AdaptiveSync) vs Gsync, Mantle, Vulcan vs Game works. Zonder mantle hadden we Dx12 misschien nog niet gehad of niet in deze to metal programming vorm. Api overhead is nu veel lager.
Dat is toch niet meer dan logisch? AMD heeft het ook weleens geprobeerd, denk aan TrueAudio en Mantle. Echter zo lang het marktaandeel te klein is krijg je dergelijke standaarden er niet doorheen. Nvidia heeft de luxe dat ze het grootste deel van de markt beheersen en daarmee elke standaard die ze introduceren daarmee in de basis meteen interessant is voor developers. Dat daarmee niet alles succesvol wordt lijkt me duidelijk. Denk bijvoorbeeld aan PhysX. Ook dat is niet echt omarmd.

Als AMD iets wil proberen dat kans van slagen heeft met het huidige marktaandeel (<24% aldus Steam) dan moet dat wel een open standaard worden. Ook dat is slim zaken doen.

Voorlopig heeft DX12 overigens nog niets opgeleverd. In ieder geval niet voor de Nvidia gebruikers. In Battlefield One kost het inschakelen van DX12 namelijk een flink deel van je FPS terwijl de graphics er niet beter van worden. Zie bijvoorbeeld Guru3d. Zelf merkte ik een verschil van 20 fps op mijn GTX 1070. Voorlopig is DX12 dus vooral nuttig voor AMD zelf (inhaalslag tov de achterstand op DX11) en niet zozeer voor de gaming markt in zijn geheel.

[Reactie gewijzigd door sdk1985 op 11 november 2016 13:09]

DX12 is totaal niet wat men ons voorgeschoteld heeft, liegen en bedriegen noem ik het. Ik hoop dat AMD mantle weer oppakt, want ik vermoed dat microsoft dat ook beoogde dat mantle zou verdwijnen. Wat als spellen in een keer 50% zouden presteren met een andere of nieuwere api? Krijgt microsoft ruzie met veel partijen.
De consument hoort daar niet de dupe van te zijn. De game ontwikkelaar laat de consument daar de dupe van worden. Ergens vind ik het niet vreemd dat, omdat verschillende GPU's nu eenmaal een net even andere architectuur hebben, dat fabrikanten een speciale sdk maken voor hun GPU. Hierdoor laten ze hun klanten niet de dupe worden van de verschillen tussen hun GPU en die van de concurrent. Een sdk/api die op verschillende architecturen moet werken moet vaak toch concessies doen.

In zekere zin had je deze situatie ook al doordat verschillende hardware boeren verschillende OpenGL extensies ontwikkelden en ondersteunden.
Dat zijn we ook Nvidia schroeft de prijzen met pascal lekker omhoog en ze komen er bij gebrek aan concurrentie mooi mee weg.
Het feit dat ze al 2 generaties lang technisch superieure hardware uitbrengen t.o.v. de concurrent zal er natuurlijk helemaal niets mee te maken hebben.

Voor de consument is het balen, maar AMD kan de concurrentie gewoonweg niet bijbenen met hun R&D budget. Als je dan ook nog eens braindrain over je heen krijgt laat de toekomst zich wel raden.

Gelukkig kan AMD op de consoles lekker cashen, want in de PC/Laptop markt is het steeds meer een nichemerk aan het worden en in automotive & servers zie ik AMD ook niet een substantieel marktaandeel veroveren.

Edit n.a.v. hieronder:
Ik heb het over het TECHNISCHE aspect, niet PRIJS aspect.
performance per watt.
Wanneer je een laptop of ultra-compact of zelfs een compact ITX systeem aanschaft wil je zoveel mogelijk prestatie bij zo min mogelijk verbruik/hitteproductie.

Op dit vlak veegt Nvidia al 2 generaties AMD compleet van de kaart. Intel hetzelfde verhaal.
AMD heeft overigens al HBM toegepast in de Fury's, ondanks deze technische vernieuwing waren die geen groot succes (al vond ik de nano zeker een technisch interessant product)

En laat veel mensen nu net die grote towers willen vervangen door iets wat beter in de woonkamer of kantoor past. Daarom zie je steeds meer ITX systemen voorbij komen, komen ook de ultracompacts (NUC, Brix, Zbox,) steeds meer van de grond en schaffen mensen liever een laptop aan dan een midi-tower.

[Reactie gewijzigd door eL_Jay op 11 november 2016 10:40]

Jouw hele 'technisch superieur' is dus afhankelijk van performance per watt. Je noemt het zelf al, maar HBM is technisch ook een innovatie. Om maar niet te beginnen over het werk wat ze hebben verricht met Mantle en de huidige prestatiegains die je ziet met DX12. AMD is op hele andere gebieden superieur, bijvoorbeeld op prestaties per euro.

Je hebt gelijk dat AMD een te laag R&D budget heeft, maar wie zijn schuld is dat? AMD heeft simpelweg niet meer geld.

Intel is een niet vergelijkbare strijd omdat Intel eigen fabs heeft die al op 14nm zitten en AMD tot nu toe op 28nm cpu's moest produceren.
Het feit dat ze al 2 generaties lang technisch superieure hardware uitbrengen t.o.v. de concurrent zal er natuurlijk helemaal niets mee te maken hebben.

Natuurlijk is dat de oorzaak, daar zegt Evo94 toch ook niks over!?
Het is alleen niet fijn voor consumenten als er niks meer te kiezen valt, hogere prijzen, vendor lock-in, etc.
Ik zie juist in de toekomst meer markt voor AMD! AMD heeft betere prestaties wat betreft OpenCL. Ik geloof dat ze juist op het goede pad zitten! Voor het maken van ruwe GPU berekeningen zit je beter bij AMD.
Waar haal jij vandaag dat Nvidia technisch superieur is aan AMD? Veel technische/ nieuwe technolohiën die uit AMD's hand komen wordt dankbaar gebruikt van gemaakt door Nvidia en een Intel of Microsoft. Kijk naar type geheugen of alleen al AMD64. Daarnaast heft Nvidia misschien de snelste grafische kaarten, maar absoluut niet de beste prijs/prestatie in handen.

[Reactie gewijzigd door _Dune_ op 11 november 2016 13:19]

Je bedoelt HBM, Freesync, Vulkan om maar wat te noemen?
Mijn FuryX is toch heel wat innovatiever als de GTX980 of zelfs de GTX1080.

Wat ik wel met je eens ben is dat ik de huidige strategie van AMD totaal niet snap. Want inderdaad is de 4X0 serie van dit moment totaal niet opgewassen tegen Nvidia wat prestatie betreft.
Mijn FuryX is nog steeds hun paradepaardje en wat mij betreft moet daar hard verandering in komen. Want veel mensen maken de fout om de 480 het topmodel te noemen terwijl er echt veeeeeeeeel snellere kaarten zijn van AMD.
Je moet als bedrijf op zoek gaan naar sustainable competitive advantage. Nvdia doet het op techniek van de kaart (at the top of my mind).
Amd zoekt het heil meer in lagere prijzen en software developments (at the top of my mind).
Wat je absoluut nooit moet doen als bedrijf is hetzelfde doen als de concurrent als je het ook maar even kan laten. Want dat is een head to head fight waarin er altijd een afvalt.
Zou ze dan ook niet op hetzelfde criteria beoordelen. Ze bedienen allebei een ander segment. Jij behoort denk ik tot het Performance per Watt segment (al zal de daadwerkelijke segmentatie heel anders kunnen zijn) en daarom val je onder Nvdia iemand die lang wil kunnen doen met zijn oude video kaart heeft liever ATI want die ontwikkeld Mantle en dat soort dingen.

Ben er niet heel erg diep ingedoken. Een daadwerkelijke segmentatie vereist veel meer informatie en tijd om te maken. Dit is gewoon ter demonstratie van dat je een UVP - unique value proposition moet maken anders ga je elkaar afmaken op prijs.
Enige bron waarom zij technisch superieure hardware zouden hebben t.o.v. AMD? Je vergelijkt hierbij het top model van Nvidia tegen het top model van AMD? Die liggen qua prijs bij lange na niet dicht bij elkaar. Uiteraard zal een GPU van 1100+ euro altijd superieur zijn in bouwkwaliteit (althans, dat verwacht de consument wanneer hij/zij zoiets aanschaft).
Prestatie per watt liggen bij AMD helaas al generaties lang lager dan bij de concurrentie. Zowel bij GPU als CPU. Hopelijk gaat ZEN daar eens verandering in brengen.
En hoe belangrijk is dat nu werkelijk. Gaan we nu ineens super groene goeroes worden. Maar vervolgens wel een pick-up truck rijden omdat we het toch wel leuk vinden? Mensen stoppen ook zonder probleem een gtx 980ti in hun systeem die een tpd heeft van 250. Maar een r9 290 die 275 heeft kan echt niet. Dat is veel te veel. Maar de gtx 970 vebruikt weinig. Dus zal de gtx 980ti dat ook wel hebben.
Enorm belangrijk! Het betekent dat je met kleinere chips meer performance levert dan de concurrent.

Polaris 10: 102 dies per 200mm wafer (14.33mm x 16.19mm each). GP106: 119 dies per 200mm wafer (11.67mm x 17.13mm each).

Dus Nvidia haalt 17 MEER dies uit dezelfde wafer, die kleinere dies zijn dus goedkoper, presteren dan ook nog eens nagenoeg gelijk, vaak zelf ietsje beter dan de dies van AMD, en de consument betaalt er vervolgens ook nog eens meer voor. Reken uit je winst!

[Reactie gewijzigd door OriginalFlyingdutchman op 11 november 2016 11:47]

Idd schandalig dat nVidia dan nog zoveel durft vragen voor hun Pascal gpu's als ze goedkoper kunnen produceren.
Enorm belangrijk, het betekent dat je design beter is, dat je kleinere chips kan produceren (dus meer per wafer), dat je dus meer kan vragen per chip want ze zijn sneller dan de concurrent, kortom, dat je meer WINST maakt, wat je weer kan investeren, waardoor de voorsprong op je concurrent nog groter wordt.

HBM2 is natuurlijk een fantastische innovatie, maar als GDDR5x of GDDR5 op dit moment genoeg is voor de huidige GPU's en ze nog geen bandbreedte extra nodig hebben, heb je je onderzoek dus echt op het verkeerde onderdeel gericht, en is het voor AMD zelf een enorme kostenpost en hadden ze beter het geld gestopt in de ontwikkeling van een betere GPU.

[Reactie gewijzigd door OriginalFlyingdutchman op 11 november 2016 11:58]

Die is er niet. En hij is geloof ik even vergeten dat dankzij AMD ze binnenkort ook kunnen genieten van HBM geheugen.
Want AMD heeft in zijn eentje hbm ontwikkelt?
Nee maar heeft er wel een flinke bijdrage aan geleverd. iets wat Nvidia niet heeft gedaan. En zo kwam AMD ook met gddr5.

[Reactie gewijzigd door loki504 op 11 november 2016 10:51]

AMD heeft dit samen met Hynix ontwikkeld, dus ja ze hebben een grote bijdrage geleverd. En nVidia gaat er binnenkort ook van gebruikmaken en ik hoop dat ze er dik gaan voor moeten betalen. Je kan niet zomaar met de technologie van iemand anders gaan lopen.

[Reactie gewijzigd door Fredi op 11 november 2016 22:31]

Ze gaan er niet dik voor betalen. Als de licentie erop peper duur word dan gaat geen hond het gebruiken.
Hieronder je technologische voorsprong. GTX1060 vs RX480, we kunnen het er denk ik over eens zijn dat ze nagenoeg gelijk presteren, maar dat de 1060 een stuk zuiniger is. De 1060 is hetzelfde en vaak wat duurder, maar alleen voor de consument, hij is waarschijnlijk voor Nvidia goedkoper dan de RX480 voor AMD.

Polaris 10: 102 dies per 200mm wafer (14.33mm x 16.19mm each).
GP106: 119 dies per 200mm wafer (11.67mm x 17.13mm each).

[Reactie gewijzigd door OriginalFlyingdutchman op 11 november 2016 11:45]

Uiteraard. Maar we kijken toch als consument naar wat het ons kost. Niet wat het als bedrijf kost? Ik zou juist nog eerder iets kopen waar een lagere marge op ziet. A
die slecht presteren op GPU's van concurrentie
en hun eigen oudere kaarten niet te vergeten. ze benadelen hun eigen klanten om hun nieuwe kaarten er beter uit te laten zien. en mensen pikken het gewoon.

edit : mensen ik heb het NIET over drivers die kaarten langzamer maken, maar over de bewuste ontwerp keuzes die nvidia maakt met gameworks in nieuwe games.

64x tessellation is NERGENS VOOR NODIG. maar nvidia kiest er toch elke keer weer voor omdat dat hun nieuwste kaarten minder vertraag (ja die worden er ook langzamer van) dan hun eigen oudere kaarten of die van AMD.

[Reactie gewijzigd door Countess op 11 november 2016 11:41]

Hou toch op man, ik heb meerdere malen gebruik gemaakt van oudere generatie Nvidia kaarten terwijl er nieuwe beschikbaar zijn en de prestaties werden er nooit minder om. In mijn laptop zit ook een 980M gpu die dus al 2 jaar oud is en presteerd nogsteeds uitstekend (niet opeens minder bij nieuwe drivers), komen driver updates voor uit enzo.

Praat andere niet eens constant na. Kom met harde feiten of laat het achterwege.

[Reactie gewijzigd door Rin op 11 november 2016 11:10]

Hou toch op man, ik heb meerdere malen gebruik gemaakt van oudere generatie Nvidia kaarten terwijl er nieuwe beschikbaar zijn en de prestaties werden er nooit minder om. In mijn laptop zit ook een 980M gpu die dus al 2 jaar oud is en presteerd ngosteeds uitstekend (niet opeens minder bij nieuwe drivers), komen driver updates voor uit enzo.

Praat andere niet eens constant na. Kom met harde feiten of laat het achterwege.
Ze worden er niet minder om. Maar de AMD kaarten worden elk jaar een stapje sneller. En dat is toch wel vreemd te noemen.
Ze worden er niet minder om. Maar de AMD kaarten worden elk jaar een stapje sneller. En dat is toch wel vreemd te noemen.
Sorry hoor, maar dit is gewoon je reinste bullshit. AMD kaarten worden alleen sneller omdat AMD's launch drivers gewoon knudde zijn, en dat het vele maanden duurt voordat ze de drivers fatsoenlijk geoptimaliseerd hebben.

Daarom lijkt het dat je na verloop van maanden "gratis" performance erbij krijgt, terwijl in werkelijkheid het meerdere driver revisies duurt voordat je eindelijk de prestaties krijgt die je bij de betreffende hardware mag verwachten.

Vreemd genoeg hoor je daar niemand over en is ondertussen het fabeltje dat AMD kaarten rijpen als goede wijn de wereld in geholpen.

[Reactie gewijzigd door ColinZ op 11 november 2016 16:01]

Vreemd genoeg hoor je daar niemand over
omdat de kaarten geprijsd zijn op de performance die je krijgt op launch day en de performance verbeteringen dus ook echt gratis zijn.
Nee, die kaarten zijn zo geprijsd omdat ze anders niet zouden verkopen. AMD moet qua prijs onder Nvidia zitten anders zullen ze vrij weinig verkopen.

Nvidia kan bij een slechte generate zoals Fermi terug vallen op hun naamsbekendheid/marketing. AMD heeft die luxe niet, en zal dus op prijs moeten concurreren.
Nee hoor, dat betekent dat Nvidia al vanaf dag 1 grotendeels de drivers op orde hebben (Wat ook niet zo gek is, hun driver team is enorm) en AMD niet. Dit bleek ook uit de verschillen tussen Nvidia en AMD met betrekking tot prestatie wisnten in Vulkan tegenover OpenGL. Nvidia had bijvoorbeeld altijd al de OpenGL drivers op orde en dus een enorm kleine winst zodra Doom Vulkan ging gebruiken. AMD daarintegen kwam toen eindelijk ongeveer op hetzelfde niveau als Nvidia met soortgelijke presterende kaarten.

Maar waar Countess naar verwijst zijn mensen die roepen dat Nvidia express drivers zou saboteren om oudere kaarten MINDER te doen laten presteren. Iets wat niet aangetoond is en waar gebruikers die zich hiermee bezig houden ook niet constateren.
vind jij het niet vreemd dat een mid-range AMD kaart opeens sneller of even snel is als een high-end nVidia kaart na een aantal jaar?

Persoonlijk vind ik dat van de zotte, en je gaat me niet wijs maken dat het enige dat is gebeurd dat AMD de kaart veel sneller heeft weten te krijgen
Nvidia heeft hier zeker ook een handje in

[Reactie gewijzigd door Sinester op 11 november 2016 23:36]

Nee hoor. Want op papier zouden AMD kaarten sowieso beter moeten hebben presteren in die tijd. Qua absolute specs zijn AMD kaarten altijd erg competitief geweest. Eigenlijk gewoon overengineered. Nvidia daarintegen zijn erg geoptimaliseerd voor een bepaald doel en als daarbuiten wordt getreden komt de veelzijdigheid van AMD kaarten naar voren.
Als drivers als vanaf dag 1 op oorde was. Waarom komen er dan tot de laatste dag van de huidige serie optimalisatie toe gepast. Je kan niet optimalisatie toepassen voor een game die nog moet komen. Maar verwacht geen Optimalisatie voor je 970 bij nu nog uit te komen games.
De game ready drivers zorgen ervoor (Tot zover mogelijk) dat de game optimaal op de hardware draait en zo min mogelijk bugs vertoond niet dat er meteen 10% extra prestaties uit de game getrokken worden. Overigens worden voor de Maxwell series ngosteeds optimalisaties uitgevoerd. Zoals ik al zei, mensen die dit beweren mogen wel eens met harde data gaan komen.
Ach, een 960 presteert opeens gelijk met een 780 in jouw wereld?

Wel een leuke cherry pick zo :) Project CARS en een synthetische bench. 8)7

Nu een echte game - volgens jou is de 960 dus net zo snel als een 970? Apart dat er zoveel 970's over de toonbank gingen dan...

https://www.techpowerup.c...SI/GTX_970_Gaming/14.html

[Reactie gewijzigd door Vayra op 11 november 2016 12:53]

Betere voorbeelden zijn al veel vaker gepost maar om ze even te herhalen.

Performance lijstje bij release:
280x = GTX770
290 = GTX780
GTX970 > 290

Als je nu kijkt:
280x > GTX770
290 > GTX780
GTX970 +/- = 290

De 280x zit dichter en wint tegenwoordig van een GTX780.

Kepler zit in legacy, en krijgt geen grote performance updates meer. Het zijn vooral bugfixes.

Klopt wel dat AMD er langer over doet om het maximale uit hun kaarten te halen, nu is het niet in het voordeel van AMD maar als je een AMD kaart koopt weet je in elk geval dat hij net zo goed presteerd als zijn tegenhanger op dat moment en dat hij na 1 of 2 een stuk jaar beter presteerd.
Dit was in het verleden ook al.
Als je bv kijkt naar de X1900 XT vs 7900 GTX 512. Dan is de X1900 XT in modernere games 50-100% sneller dan die kaart. Nu heb je er niet echt veel aan omdat de FPS te laag is maar je ziet wel een groot verschil. In die jaren daar voor liep het verschil ook steeds verder op.

Zo zijn er wel meer architecturen van ATi/AMD geweest die dit hadden.
nVidia had met de 8800 serie echt een steen goede architectuur te pakken. Maar over het algemeen zijn de ATi/AMD kaarten iets meer futureproof gebleken. Maar wij tweakers doen niet zo lang met kaarten.
Zelf ken ik ook nog mensen die tot voor kort met een HD4850 of 4870 speelden en nu pas een upgrade gedaan hebben. Ook mensen die oudere Geforce kaarten hebben. Dus er zijn mensen die meer dan 5 jaar met een kaart doen.
In 1 game die heel erg goed werkt met chroma compressie wat geintroduceerd is in de Maxwell generatie. Daarnaast is er vrijwel geen enkele game waarbij de 960 beter ptresteerd dan een 780.

Leuk selectief geshopped :)
nou ja, ik heb nog een week geleden een game ready driver voor mijn 750 gekregen...
'nvidia drivers op orde'
dit kan misschien waar zijn maar de vervolgconclusie die je trekt, dat hierdoor er weinig/geen boost te bekennen was met Vulkan + nvidia,
heeft geen grond.

de architectuur van nvidia kan niet makkelijk omgaan met bepaalde taskswitches hetgeen latencies veroorzaakten; daardoor kregen ze geen boost in performance. In de oude API's (dx11) was er niet zo een parallele noodzaak. Daar zijn ze recentelijk achter gekomen en krijgen nu dus wel een perf. boost met vulkan met nieuwe drivers.

edit: met architectuur bedoel ik zowel software als hardware. en op software gebied hebben ze dus het een en ander gefixed.
https://www.extremetech.c...-dx12-what-we-know-so-far

[Reactie gewijzigd door ripzor op 11 november 2016 17:01]

Je vergeet een groot gedeelte van het verhaal. De openGL prestaties in Doom op AMD kaarten was echt dramatisch slecht. Terwijl die bij Nvidia al goed waren. Met de Vulkan update kwam AMD op het niveau van Nvidia terecht.
de context van de conclusie was gerelateerd aan nvidia, en mijn antwoord was ook daaromtrent, en niet de context van AMD.

Ik vindt danook de ontwikkeling naar een meer multithreaded en lowlevel API de concurrentie tussen AMD & Nvidia weer iets meer op scherp stelt. uiteindelijk is er voor beide partijen & architecturen een goede winst gemaakt. Zij het dat de architectuur van amd al generaties (HD4800) hetzelfde basis ontwerp hebben en meer profijt hebben van deze API's en fundamenteel slechter werken in oude API's (dx11).

of dan de drivers van AMD slecht zijn en/of Nvidia goed. Keuzes zijn gemaakt in de architectuur en meer viel er niet zo makkelijk te behalen voor AMD, behalve als de API's zouden evolueren, en nu zijn we dan eindelijk daar en veranderd hetlandschap der performance.

[Reactie gewijzigd door ripzor op 11 november 2016 17:58]

Hou toch op man, ik heb meerdere malen gebruik gemaakt van oudere generatie Nvidia kaarten terwijl er nieuwe beschikbaar zijn en de prestaties werden er nooit minder om.
dat is HELEMAAL NIET waar ik doel!

je spring al naar conclusies en begint met persoonlijke aanvallen nog voor je duidelijk hebt waar het om gaat omdat ik DURF te twijfelen aan de superiority van nvidia.

als je ff had gechilled en even nog een keer had gekeken naar de post die ik quote had toch wel duidelijk moeten zijn dat dat niet was waar ik op doelde.

voorbeeld:
nvidia forceert 64x tesselation op hairworks. (nu niet meer, nadat mensen eigenlijk een beetje wakker werden en gingen klagen maar in het begin zeker wel. maar het is alsnog de default en dus de setting die gebruikt word in alle reviews)

maar zoals we al weten 16x ziet er NIKS minder mooi uit.

toch kiest nvidia BEWUST voor 64x tessellation. waarom? omdat hun nieuwste kaarten daar veel minder langzaam mee zijn als hun oude eigen oude en die van AMD.

MINDER LANGZAAM.

16x was prima geweest. had er net zo mooi uit gezien. en zou sneller zijn geweest op ALLE GRAFISCHE KAARTEN, inclusief die van nvidia zelfs, en met name hun oude. maar daar kozen ze niet voor. ze kozen voor minder performance voor iedereen om hun nieuwe generatie er sneller uit te laten zien.

ik heb het dus NIET, nogmaals NIET, over dat de kaarten langzamer worden met bestaande games door drivers ofzo ,maar dat nvidia ze bewust saboteert in nieuwe games met gameworks.

[Reactie gewijzigd door Countess op 11 november 2016 11:51]

Heb al zooooovaak deze discussie met jou gevoerd en elke keer kom je met dezelfde zaken aan betreft cherry picking. Heb al genoeg tegenbronnen gegeven in het verleden en ga die niet nogmaals voor je opzoeken.

Weer kom je met tesselation en dat het nie tmooier oogt, wat het in beweging wel degelijk doet met 64x. Dat je het mind rbelangrijk vind staat daar los van. Komt erop neer dat de hoogste mogelijke beeldkwaliteit gepromoot werd en hier hadden veel kaarten onder te lijden. Maakt het niet opeens tot sabotage. Veel videokaarten gingen ook onderuit bij de eerste variant van TressFX, helemaal niks mis mee, je kan het gewoon uitzetten namelijk. Alsof 4x MSAA de meest deftige anti aliasing oplossing is. Zeur je toch ook niet over? De ene kaart is daarmee ook sneller dan de andere.
wat het in beweging wel degelijk doet met 64x.
ga toch weg man, je ziet niks geen verschil.
Veel videokaarten gingen ook onderuit bij de eerste variant van TressFX,
Een paar tweaks in de driver en het draait op kaarten van beide fabrikanten even goed. (en beter als hairworks)

omdat het goed is ontworpen.

Exact het tegenovergestelde van wat nvidia doet dus.
Maakt het niet opeens tot sabotage.
het is of bewuste sabotage, of onkundigheid.
en je kan veel zegen over nvidia, maar dat laatste niet (meestal)
Alsof 4x MSAA de meest deftige anti aliasing oplossing is. Zeur je toch ook niet over?
staat die default aan, en vast op maximaal, en is het de enige AA oplossing die een game biedt? nee? dan is het dus TOTAAL niet het zelfde.

[Reactie gewijzigd door Countess op 11 november 2016 13:35]

De hairworks tessalations zag je wel degelijk verschil, helemaal in beweging waar het van een brei van beweging een clean ogende haardos leek. Destijds toen je dit eerder naar voren bracht had ik dat ook in links laten zien. Dit is overigens later aangepast en kon je het instellen. Hairworks zelf dtond overigens niet standaard aan, het werd niet geforceerd.

Waarom zou tressfx beter zijn dan hairworks? Het zijn totaal verschillende implementaties en hairworks maakt dan alleen van eem groter pakket uit. Het is ook iets wat je alleen ook maar in een handjevol games tegenkomt dus om er nou ook zo'n groot punt van te maken.
Volgens die logica waren we nu nog Unreal Tournament op 1024x768 aan het spelen. De kracht achter de ontwikkeling is juist dat het allemaal steeds gekker wordt. Ik zag zelf vroeger ook het nut van Ambient Occlusion niet in. Het inschakelen van die feature zorgde dat mijn fps van boven de 60 naar onder de 40 zakte in Saints Row; onspeelbaar! Echter tegenwoordig kan de hardware er beter mee overweg, kost het bijna niets en zou ik het toch echt niet willen missen.

Als je een videokaart koopt dan weet je dat die over 1.5 a 2 jaar verouderd is. De ontwikkelingen gaan altijd al heel erg snel. Dus als er een nieuwe techniek komt, bijvoorbeeld hairworks, dan hoef je niet vreemd op te kijken als jou videokaart dat niet efficient kan verwerken. Zolang je die hairworks gewoon uit kunt zetten is er niets aan de hand.

Toen ik vroeger wat minder geld had was dat ook niet echt een probleem. Dan kocht ik gewoon een midrange kaart en verkocht ik de oude kaart. Zo verkocht ik mijn 8800GTS 640mb voor 100 euro en kocht ik voor 140 euro een nieuwe GTX 260. Die laatste ging ook weer voor 100 euro weg terwijl ik slechts 160 euro kwijt was voor de GTX 460 Hawk (die de performance van een 480 haalde op 960 Mhz).Effectief was ik daarmee tussen 2008 en 2012 100 euro kwijt voor 2 keer een nieuwe videokaart. Aangezien ik opzettelijk mijn monitor toen niet heb vervangen voor een full-hd model was dat prima gamen. Eisen dat de eerste kaart die je in 2008 aanschaft in 2012 ook nog mee doet met de nieuwste ontwikkelingen vindt ik persoonlijk onredelijk. Dat kan alleen als we net zo traag vooruit gaan als in cpu land, daar zit ik zelf niet op te wachten.

[Reactie gewijzigd door sdk1985 op 11 november 2016 13:21]

Volgens die logica waren we nu nog Unreal Tournament op 1024x768 aan het spelen
als je dat denkt dan snap je dus echt werkelijk niks van mijn punt. ik ga de rest niet eens lezen als je mijn post niet begrepen hebt op zo'n fundamentele manier.

[Reactie gewijzigd door Countess op 11 november 2016 13:32]

Ik snap je punt prima. Jij snapt blijkbaar niet wat ik impliceer. Om het even te duiden. Ik zie de redenatie "x16 is visueel toch gelijk aan x64" als enorm bekrompen denken. Je kan dezelfde redenatie namelijk op vrijwel elke ontwikkeling in gpu land ooit toepassen. Het verschil tussen 1024x768 en 1280x1024 was namelijk ook niet overweldigend. Het verschil tussen Company of Heroes in DX10 mode vs DX9 was ook niet om over naar huis te schrijven. Het zijn uiteindelijk al die kleine beetjes die tussen Unreal Tournament 1999 en Battlefield One zitten.

Of het nu over geheugen, gpu's, harde schijven, ssd's of cpu's gaat. Als er iets zeker is dan is de aanhangers van de "640K ought to be enough" mentaliteit gegarandeerd fout zitten. Meer, meer, meer is al meer dan 20 jaar het motto :). Is hairworks op x64 te zwaar? Dan willen we gewoon een snellere kaart die dat fluitend doet. Of je daar nu echt iets van ziet gaat het meestal niet eens om :+ .

[Reactie gewijzigd door sdk1985 op 11 november 2016 13:46]

Wat loki504 zegt klopt gewoon. Over de tijd blijven AMD kaarten over het algemeen meer relevant en wordt hun relatieve performance beter. Kijk maar naar alle moderne reviews waar ze nog de HD7970(Ghz edition) en GTX680 meenemen, of de R9 290 en GTX 780. Ten tijde van de releases was de GTX680 sneller dan een HD7970 en een GTX780 was net iets sneller dan een R9 290.
Tegenwoordig is het totaal andersom. Een HD7970 is in moderne games significant sneller dan een GTX680 en een R9 290 is een stuk sneller dan een GTX780 (zelfs sneller dan een GTX780Ti). Zie bijvoorbeeld deze vrij recente games:

- Gears of War 4
- Tom Clancy's The Division
- Battlefield 1

Wat uiteindelijke de reden/oorzaak is zal een eindgebruiker worst wezen. Of dit nu komt door betere doorontwikkeling van AMD, slechtere doorontwikkeling van NVidia, betere/slechtere architectuur of zelfs moedwillig "saboteren" van oudere kaarten om zo nieuwe kaarten beter te laten verkopen; als puntje bij paaltje komt wil je als klant gewoon de beste performance voor zo lang mogelijke tijd.
Dat heeft niet zoveel met Nvidia te maken maar meer dat AMD altijd meer tijd nodig heeft het onderste uti d ekan te halen. Als je puur specs vergelijking zie je altijd al dat AMD kaarten meer bandwidth bijvoorbeeld tot hun beschikking hadden. Nvidia kaarten zijn erg lean en doeltreffend, zuinig en geoptimaliseerd vanaf dag 1. AMD kaarten zijn niet goed geoptimaliseerd maar beiden wel meer potentie, simpelweg omdat de ruwe specs hoger zijn. Daarnaast een AMD 290X mag dan wel sneller nu zijn dan een Nvidia 780TI, maar het is natuurlijk ook 1 van de meest stroom slurpende kaarten. Performance per watt slaat nergens op bij de 290X.
Nvidia kaarten zijn erg lean en doeltreffend, zuinig en geoptimaliseerd vanaf dag 1
ja de fx5000 serie was precies dat ja.. even als de 4xx en 5xx series.
Ik praat over de huidige acceptabele kaarten. Niemand kan ontkennen dat kepler, maxwell en pascal veel deden met relatief minder vanwege zaken als chroma compressie. Amd is sinds gcn meer de kaarten van rauwe teraflops etc.
In Gears presteren de GTX 680 en de 7970Ghz precies gelijk, net zoals in 2012 toen ze aan elkaar gewaagd waren.

De R9 290 heeft alleen hogere avg frames, de minimum FPS is nagenoeg gelijk. Frame pacing, kom er maar in. Alle 2GB kaarten lopen tegen de VRAM bottleneck aan op dit moment.

Neemt overigens niet weg dat de 7970 een héle mooie GPU was, en is.

[Reactie gewijzigd door Vayra op 11 november 2016 13:04]

Het is inderdaad opvallend dat toen de GTX 680 uit kwam deze significant sneller was dan de 7970 en dat het nu in Battlefield One volledig is omgedraaid.

AMD heeft zelf door laten schemeren dat ze in die tijd gewoon niet goed bovenop de drivers zaten. Met Crimson zou dat veranderen. Dat roept eigenlijk de vraag op of dit fenomeen opnieuw plaats gaat vinden in de toekomst of dat het iets voor dat tijdperk was. Je zag namelijk de RX 480 nu al veel beter presteren in een paar games met DX12/Vulkan. Op basis daarvan betwijfel ik of het verstandig is om er nu al op te rekenen dat dit nog een keer gaat gebeuren. Het is eerder Nvidia die potentieel een gat zou kunnen dichten, daar zou ik dan alleen niet op rekenen tijdens de aanschaf.

Mijn persoonlijke overtuiging is overigens dat je een videokaart altijd voor het moment koopt. De ontwikkelingen gaan meestal zo snel dat je elke 1.5-2 jaar wel kunt upgraden (over 20 jaar pc gaming gezien). Wil je echt lang met je kaart doen, bijvoorbeeld in je oude pc, dan kom je meestal niet bij performance problemen uit maar bij driver support. Ik kan me recent nog wat boze AMD gebruikers herinneren hier op tweakers in het The Division topic. Daarmee is Nvidia niet persé beter, maar opnieuw kun je er gewoon niet op rekenen. Ik zou dus gewoon lekker kijken wat voor jou op dat moment de beste value for money geeft.

[Reactie gewijzigd door sdk1985 op 11 november 2016 13:39]

Ik game nog gewoon op een 650Ti, en die doen het gewoon nog met alle games op het moment hoor. Van alle games die ik er op gespeeld heb is alleen Black ops 3 onspeelbaar (tijdens zo'n gratis weekend op steam eens geprobeerd) verder zijn zelfs titels als BF1 en far cry 4 nog prima te spelen op best redelijke grafische settings. (BF1 loopt zelfs nog op 60+ FPS)
Dat je concessies moet doen met zo'n oude kaart die nieuw al een "budget" kaart was is natuurlijk niet vreemd na een jaar of 5.. de prestatie issues die ik heb komen door technische tekortkomingen (VRAM tekort aangezien 1 GB echt te weinig is om veel moderne games met mid of hoge kwaliteit textures enzo te gebruiken) en niet door de software kant.
Zoals Nvidia op dit moment doet met de GT(X) 4xx en 5xx series en sommige rebrands wat 4xx of 5xx kaarten zijn zoals de videokaart die ik heb de GTX 670M eigenlijk een 570M met iets hogere kloksnelheid maar DX12 kan ik vergeten niks werkt met DX12 in W10 en Forza motorsport 6 apex uit de windows store kan niet instaleren omdat ik geen DX12 feature lever 11_0 heb (wat wel word aangegeven door Nvidia maar geen enkel DX12 programma start op zoals benchmarks (puur om nvidia support te laten zien dat het niet werkt maar geven geen gehoor)
Grappig, want mijn Kepler kaart gaat nog net zo hard als toen die uitkwam en in veel games zelfs 5-10% beter dan tijdens release.

Kraam alsjeblieft niet zoveel onzin uit, dat maakt je zinvolle posts ook waardevoller. Of kom eens met een bron. Want tot nu toe is van jouw stelling geen enkel bewijs te vinden.

[Reactie gewijzigd door Vayra op 11 november 2016 10:50]

dat was niet wat ik bedoel.

Ik quote een post over gameworks. Daar ging het om. De bewuste ontwerp keuzes die nvidia maakt die gameworks voor iedereen veel langzamer maakt als nodig maar minder langzaam op hun laatste generatie.

nvidia maakt mensen lekker met nieuwe effecten en maakt ze zo dat ze alleen bruikbaar zijn op hun laatste generatie (hairworks bijvoorbeeld), terwijl ze prima hadden kunnen werken op kaarten van 2 generaties terug zonder ook maar op enige manier aan kwaliteit in te moeten leveren als nvidia niet bewust had gekozen om dat onmogelijk te maken.

mensen denken dus dat ze een nieuwe (nvidia) kaart nodig hebben terwijl wat ze eigenlijk nodig hebben gameworks software is die de performance niet bewust saboteert.

[Reactie gewijzigd door Countess op 11 november 2016 11:50]

Als je zoekt op Fermi en DX12 zie je zoveel mensen die nog steeds wachten op de beloftes van Nvidia dat Fermi (een werkende) DX12 krijgt.
Volgens de beloftes van Nvidia zijn dit de kaarten die DX12 krijgen.
En inmiddels hebben Fermi kaarten DX12 maar omdat Fermi uit de Cuda SDK is gehaald kan geen enkel DX12 programma starten als je een Fermi kaart hebt (kan zo de bron hiervan niet vinden maar Nvidia ruimt hun forum ook regelmatig op met vragen over Fermi en DX12)
Ok - fair enough. Ze zijn hier laat mee. Tegelijkertijd kun je je heel hard afvragen of het nog uberhaupt wel een doel dient. Fermi op DX12 zal absoluut geen winst opleveren en de DX12 only games vragen 9 van de 10 keer meer VRAM dan je op Fermi kon krijgen.

Is dit niet een klein beetje een non issue?
Voor DX12 only games wel ja zoals Forza via de Windows store is DX12 only en je het laagste DX12 niveau is feature level 11_0 (wat Forza vereist op PC en eigenlijk gewoon DX11 maar verpakt in DX12) Fermi ondersteund DX12 feature level 11_0 maar de Windows store weigert te instaleren of te downloaden dus als de game gewoon DX11 was was er niks aan de hand geweest. (Heb hier meerdere malen contact over opgenomen met Nvidia maar ontkennen alles glashard)
Voor games die zowel DX11 als DX12 ondersteuning hebben maakt het mij niet veel uit maar vooral de games die DX12 only zijn zoals Forza op PC zou ik graag willen spelen maar val helaas buiten de boot
BS... Ik heb altijd al Nvidia kaarten gekocht en hou ze meestal 5 à 7 jaar!! Nooit niets van gemerkt.
Idd, zeer slechte ontwikkeling dit. En het is ook niet moeilijk dat ze een recordomzet halen met hun overpriced Pascal gpu's. Schandalig hoeveel ze ervoor durven vragen, veel en veel te duur. Eventjes ¤500 voor de GTX 1070. Maar ja, ze weten dat de consument het toch zal betalen omdat er geen alternatief is in het AMD-kamp voor de GTX 1070 en 1080.
En dat is niet in het belang van de consument. Fijn voor Nvidia dat ze zo goed verkopen, maar concurrentie is positief voor de consument. AMD mag wat dat betreft best wat groeien en gezond worden, dat is ook in het belang van mensen die Nvidia prefereren.
Uiteraard is meer concurrentie goed,
Maar als ik een videokaart zou kopen, kijk ik altijd naar de beste performance per Watt.
Ik ga geen AMD kaart kopen, omdat dat "beter" is voor de concurrentie.
Wat is er zo belangrijk aan performance per watt? Ja je kan het milieu iets mee sparen. Maar ik vind price per performance belangrijker. Anders moet ik ook mijn 2 plasma's de deur uit doen. En mijn verwarming op 19 graden ipv 21. En ook een zuinigere auto kopen.
Iedereen dient voor zichzelf te bepalen wat de reden is om een videokaart aan te schaffen.
Het kwam erop neer dat ik nog nooit heb gehoord: "Omdat het beter is voor de concurrentie".
Dat je een erg duidelijke voorkeur voor kamp rood hebt is geen probleem, noch dat je er fel over uitspreekt, maar om nu maar even een van de grootste thema's/issues van ons era weg te zetten als insignificant puur en alleen omdat toevallig jouw team er wat minder goed uitziet, vind ik eerlijk gezegd toch redelijk schrijnend en kortzichtig... Dat je de boel meteen in het extreme/belachelijke trekt draagt daar alleen nog maar verder aan bij.
Alleen als je kijkt naar performance per watt. Dan zouden we vrijwlel allemaal bij een 750ti blijven hangen. En nu waarschijnlijk de 1050 of iets dergelijks.

en dit heeft niets met mijn kamp te maken. Maar puur met hoe ik tegen energie verbruik(en dan voornamelijk de schaal) kijk.
Performance per Watt is niet gelijk aan verbruik of opgenomen vermogen.
Als je naar deze grafiek kijkt:
https://www.techpowerup.c.../GeForce_GTX_1070/25.html
Zie je bv dat een 1080 maar 6-7% meer performance oplevert, terwijl het meer energie verbruikt.
Een 1050 zal minder vermogen opnemen, maar de performance zal ook veel minder zijn.
Bij Nvidia is de xx70 range altijd de sweet spot geweest: 770, 970, 1070.

Nieuwere GPU's hebben altijd een verbeterde Performance per Watt, dus de toekomstige 1170 zal ook weer een verbeterde performance per Watt hebben.
En duurder helaas. We hoeven niet meer op prima betaalbare GTX xx70/xx80 te verwachten.
De omzet stijgt niet voor niks. Ook ik was een beetje teleurgesteld over de huidige prijzen. Ik vond de GTX970 nog wel betaalbaar toen voor 364,- euro maar mijn onlangs gekochte GTX1070 van 479,- is toch een belachelijke verhoging.
die smiley is niet zoo goed als dat je zou denken hoor...!!! (concurentie is key nu... <3 amd)
Tis dat de aandelen zo overpriced zijn anders had ik er een paar honderd aangekocht paar dagen geleden. Gaat er vandaag nog eens 30 procent bovenop. Ongelofelijk, 300% stijging in een jaar.

Nvidia is echter een kanshebber om de wereld te gaan domineren met artificial intelligence. Met domineren denk ik dan aan Microsoft / google niveau. Bijvoorbeeld iedere server in het rekencentrum een insteekkaart met dedicated neurale netwerk chips.
Ik heb zelf ook de 1070 en daarvoor had ik de 970 maar het is natuurlijk voor ons als consument niet best. Ik hoop toch echt dat AMD komt met een sterke high-end videokaart die wat meer concurrentie zal veroorzaken.
Alleen kon AMD in tijden van de 970 prima concurreren met de 970. Maar toch heb je geen r9 290/r9 390 gekocht. En had je nu werkelijk een 1070 gekocht als AMD als eerst de rx 490 had uitgebracht? Ik denk het niet. En zo zijn er meer mensen. En dat is niet erg. Alleen de meeste zijn erg moeilijk te overtuigen dat AMD prima kaarten maakt. En de Fury nog prima bang for buck kaart is.
Helaas kan AMD alleen op performance concurreren. Powerdraw en temperatuur (en dus geluidproductie) zijn vaak niet concurerend genoeg.
Powerdraw doen ze het minder(maar is dat echt de enige reden om direct naar Nvidia te gaan). Maar temperatuur en dus geluidproductie is de grootste onzin. Er zijn genoeg r9 290 kaarten die stil zijn. Hanger er maar niet aan welke koeling je er aan hangt.
Ik heb momenteel een MSI RX470, het verbaasde mij hoe stil dat ding wel niet is wanneer het op volle toeren draait! En als de PC niets staat te doen, dan irriteer ik mij kapot aan de stock koeler van Intel. De koeler van Intel maakt dan een irritant geluid (ik zal intel de stock koeler vervangen), terwijl je MSI dan niet eens kunt horen!!

RX470, mooie aanwinst!
Dat is het, neem een GPU waar jij er erg tevreden over bent en goeie ervaringen hebt!
Als je 2 kaarten met dezelfde performance, zeg een 290x vs gtx970 van de msi gaming variant tegenover elkaar zet weet je zeker dat de nVidia koeler en stiller is. Dat neemt niet weg dat er ook stille en koele kaarten van AMD zijn.. en ja, voor nvidia performance betaal je wat meer.. Uiteindelijk is het niet voor niets dat nVidia een flink grotere marketshare heeft, dat is niet alleen maar fanboyism.

Ook ik heb mn fair share aan amd/ati kaarten gehad van x800xt tot 6870cfx tot watergekoelde 7970's. Zal bij een goede AMD kaart zeker overwegen.. nu is dat nog niet..
De 290x presteerd leuk in die tijd maar is geen feest in de zomer waarbij die je kamer toch een stuk warmer maakt. Hij verstook gewoon meer, ook een grotere voeding nodig en meer case koeling.
Zijn vaak niet concurrent genoeg? De HD 3,4 en 5 serie was anders hardstikke concurrerend qua perf/watt. Dat de huidige gcn series het minder doen is jammer.
De reden dat Hawaii niet wilde is omdat het heethoofden waren en daarmee kom je toch wel weer op een perf/watt verhaal terecht. De launch van R9290 was gewoon belabberd met reference kaarten die tegen 95 graden aan liepen, koelers die 46 dB of meer produceerden en problemen met clocks.

Het zijn allemaal dingen die herhaaldelijk voorkomen (Polaris: teveel power draw over het pcie slot) en ook wel weer worden opgelost, maar ze dragen bij aan het negatieve AMD imago.

[Reactie gewijzigd door Vayra op 11 november 2016 16:02]

Dat percentage gaat ook lekker omhoog omdat men wacht met het kopen = minder omzet en dan vervolgens een nieuwe generatie koopt = meer omzet.
De kloof (het percentage) wordt hierdoor een stuk groter.
Ik wacht zelf ook nog even tot er iets meer aanbod is in laptopland.
Gtx1060 nomnomnom
En ik maar denken dat ie prijzen zo ontzettend hoog waren om die Research and Development kosten eruit te halen.. Met meer dan 25% winst konden die bedragen voor de 10x Series volgens mij best wel wat lager.. Jammer dat er geen evenredige concurrent meer aanwezig is, deze ontwikkeling is slecht voor de consument.
De hoge omzet komt door produkten die nog niet op de markt zijn ?
Nee, ze noemden dat in het verslag als highlight voor 2017, hetzelfde als ze ook de 1050ti noemden.

Ik heb net een msi 1070 aangeschaft, ongelooflijk (overklokbaar) topkaartje, een mooie sweetspot die de omzet zal helpen net als de 1060.
Tenzij ze eindelijk Freesync gaan ondersteunen wordt mijn volgende GPU weer een rooie. Shadowplay etc het is allemaal leuk maar die smerige zakenpraktijken van Nvidia blijven me een vies smaakje geven.
Is ook neit zo gekd, de gamelaptop markt groeit namelijk en ze hebben daarbij geen concurrentie. AMD kan op laptop gebied het gewoon totaal niet bijbenen qua prestaties EN verbruik.

NU AMD ook geen kaart tegenover de topkaarten van Nvidia kan zetten nog is de keus voor veel klanten al gemaakt.
Altijd al fan geweest van Nvidia, de CP vind ik wat fijner. Nog niet zo lang geleden waren Radeons zuiniger en sneller volgens mij... O wacht, dat was in de GTX400/500 tijd... Dat is alweer een paar jaar.

High end kaarten koop ik al niet meer sinds de 8800 serie. Ik kies altijd voor de X50 serie, ik ben toch kleurenblind hierdoor is high detail niet altijd even fijn met flares en stuff.

[Reactie gewijzigd door Macboe op 11 november 2016 10:14]

pas bij de gtx7xx serie kwam nvidia weer langs zij. zo lang geleden dus ook zeker niet.
Dacht dat de gtx6xx dat al was?
Was ook bij de GTX6xx serie.
Top voor de PC game industrie, Nvidia met hun prestige en het werkt ook gewoon, zonder Coca-cola (Nvidia) zouden minder mensen cola drinken ( PC gamen)
Zonder Nvidia zou Intel minder verkopen, AMD niet bestaan veel merken die kaarten maken zouden niet bestaan, voedingen, cases you name it. :)
We zouden vast zitten aan crappy consoles. omg
waarom zou AMD niet bestaan ?
Ik zit nog steeds met mijn GTX980 en een 3440x1440 ultrawide die niet volledig op 100fps benut kan worden.. is er al zicht op de GTX1080Ti? Omdat zelfs de 1080 hier niet tegenop gewassen is..
Dan koop je toch 2 voor SLI

[Reactie gewijzigd door matty___ op 11 november 2016 12:10]

Dan moet je weer aan de gang met games die het niet supporten, dan is het ook nog is duur.
Echt precies dit! Ik ga dus no way SLi.. nooit. 1 goeie kaart is 100x beter dan 2 kaarten draaien.. al het gezeik (microstutter, slechte support etc etc) rondom 2 of meer kaarten is het gewoon niet waard.
Met al die half gare Console Ports tegenwoordig zou ik me daar niet aan wagen.
Mag ik vragen welke games je speelt en wat voor framerates je met die 980 haalt op 3440x1440? En is dat met of zonder g-sync?
Mijn 980TI haalt met genoeg games nog niet eens consequent 100fps op 2560x1440. O.a. Battlefield 4/1 :)
Dan moet je maar settings verlagen, ik speel hier letterlijk met low/medium settings in multiplayer en merk er bijna niks van de adrenaline :P

En dan single-player in 5K Ultra settings met 45-50FPS
Heb je je CPU usage ook eens bekeken? Ik merk dat als je je GFX settings verlaagt, dat bij high-FPS gaming opeens de CPU veel vaker een bottleneck vormt. Zo was bij BF4 op 2560x1440 de CPU vaak de bottleneck ipv de GPU, bij mij 4670 (non-K) en een 980TI
^^^ Wat hij zegt. Je kunt het vrij gemakkelijk testen: gooi je resolutie extreem omlaag en kijk wat voor framerate je dan haalt. Als je dan nog steeds de 100fps niet haalt is het verhaal duideljik, en dan gaat een 1080 ook niets helpen.

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True