Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

MSI noemt AMD-gpu's 'ondermaats'

Na op Facebook door een gebruiker naar een standpunt over het GeForce Partner Program gevraagd te zijn, heeft de Gaming-afdeling van MSI gereageerd dat Nvidia voorrang krijgt, omdat gebruikers niets van mindere kwaliteit zouden kopen.

De vraag werd gesteld onder een advertentie voor een gamelaptop van het bedrijf. Reddit-gebruiker pjgowtham beschuldigt MSI, Gigabyte en Asus in een reactie van het aanmoedigen van een monopolie, door mee te doen aan het GeForce Partner Program.

In de reactie claimt MSI Gaming dat Nvidia 'voorligt in de gpu-ervaring' en mensen niets zouden kopen wat daarvoor onderdoet. Op een vervolgvraag of MSI Gaming dan alleen nog maar Nvidia-gpu's in zijn laptops en desktops gaat verwerken, zegt het bedrijf dat wanneer AMD-hardware vergelijkbaar presteert, 'MSI in staat zou zijn om dit te doen'. Wat hiermee wordt bedoeld, wordt verder niet duidelijk gemaakt.

Het GeForce Partner Program kwam de laatste tijd negatief in het nieuws, omdat Nvidia ermee zou proberen om de gamingmerknamen van verschillende bedrijven exclusief aan zich te binden. Zo ontbeert de externe videokaart met AMD-gpu van Gigabyte de Aorus-naam, die wel op de Nvidia-tegenhanger te vinden is en heeft MSI alle Gaming Series-videokaarten met AMD-chips uit het overzicht op zijn website verwijderd.

Door Emile Witteman

Nieuwsposter

24-03-2018 • 11:21

365 Linkedin Google+

Submitter: stin00

Reacties (365)

Wijzig sortering
Wat een onzin, de RX480 en de RX580 waren gewoon beter dan de 1060. Iedereen kocht alsnog massaal de 1060 for w/e reason. We hebben deze onzin geheel aan onzelf te danken. De R9 290x is nu beter dan een 780ti, de 7970ghz is on par met een gtx960 ondanks dat dat ding uit 2012 komt. Enige waar mensen om geven blijkbaar is dat Nvidia de 1080ti had, beste van alle kaarten dus zullen alle kaarten wel beter zijn! AMD is al jaren meester van het midden segment en deed tot 1 generatie terug gewoon mee in het top segment. Mensen zijn te brainwashed over "Bad Drivers". AMD maakt geen kans als mensen weigeren onderzoek te doen naar wat ze kopen.


edit*
De 5000 serie was beter, de 6000 serie was beter, de 7000 serie was slechter op release, maar na paar maanden on par/beter. Lijkt er ook op dat iedereen vergeet wat een toasters de GTX400 tot en met 700 serie waren? Het is volgens mij pas sinds Maxwell dat Nvidia pas echt performance per watt winsten gemaakt heeft tov AMD, kan ik fout hebben.

edit 2*

Vanaf het begin in de meeste benchmarks die ik gezien heb (Hardware unboxed op youtube vooral) was de RX480 al erg interessant in DX12 en Vulkan. de RX480 had een 8gig VRAM en een in mijn ogen betere toekomst dankzij de betere DX12 support. Ik ben zelf een persoon die zo een 3/4 jaar doet met een kaart van 300 euro, dus op die manier keek ik er dan ook naar. En op het moment van release was de kaart nog 10 dollar MSRP goedkoper ook. Helaas uitte dit zich totaal niet in de echte wereld door verkrijgbaarheid. De Sapphire Nitro RX480 kwam uit rond 300 euro en de RX 580 ook voor zo iets. De MSI 1060 6g kwam uit voor 350 euro. Dat was in mijn ogen toch echt een flink verschil. https://www.youtube.com/w...t6QZTDxE&feature=youtu.be

Nu hebben mensen het ook steeds over de TDP en verbruik, ik herhaal wat ik ook gereageert heb ergens in de comments en men kan mij corrigeren waar nodig:

Performance per Watt vind ik persoonlijk alleen te verantwoorden als hitte een probleem kan worden in kleine cases. 60w meer verbruik, en 20 cent per kWu. Dat betekent dat elke 16 uur en 40 minuten dat je dat ding vol aan hebt staan je 20 cent extra betaalt (1000Wu / 60W = 16.66667) tov van een Nvidia kaart. Origineel waren de prijzen 240 dollar voor de 8gig vs 250 dollar voor de 6gig. 10 dollar is ongeveer 8 euro. 8/0.2 = 40 kWu extra te verspillen voor je gelijk speelt. Dat is dan 40x16.6667 = 666.6667 uur spelen voor je uberhaubt meer gaat betalen en daarna praten we dus alsnog over peanuts. Helaas waren availability en prijs stijgingen funest en gaat het niet allemaal meer op, maar dit is de meest basale release vergelijking die ik zo tevoorschijn kon toveren. Later waren de prijzen in NL zo een 330/350 voor de 6gig 1060 en rond de 280/300 voor de 8gig RX480. Uiteraard voordat mining alles verpestte in het algemeen.

Edit 3*

Heb zelf een GTX 960 trouwens. Reden voor koop toender tijd was puur dat ik geen zin had een refresh van een kaart uit 2012 te kopen in de 280x. Stock versloeg de 280x de 960 EN had 3gb vram, terwijl mijn GTX 960 slechts 2gb heeft. Na overclocken verslaat de 960 de 280x dan weer.

[Reactie gewijzigd door Zuury op 24 maart 2018 13:08]

Precies dit. Nvidia stopt veel meer in marketing, en dat slaat aan. Daardoor ontstaat een vicieuze cirkel: omzet = meer marketing = meer verkopen = meer omzet. Nvidia heeft een veel groter R&D budget. En omdat Nvidia meer marktaandeel heeft, zijn de lijntjes met gameontwikkelaars ook directer.

Het verhaal van slechte drivers is inderdaad een fabeltje van jaren geleden wat je nog steeds hoort. Ondertussen komt Nvidia wel gewoon weg met hetzelfde... https://www.gamespot.com/...re-problems/1100-6435657/
Het verhaal van slechte drivers is inderdaad een fabeltje van jaren geleden wat je nog steeds hoort.
Het verhaal van 'slechte' drivers is geen fabeltje, het is een verschil in ontwerp tussen AMD en NVIDIA.

TLDR: NVIDIA gebruikt een softwarematige multithreaded scheduler en verdeelt de draw calls over meerdere cpu threads. AMD gebruikt een hardwarematige scheduler waardoor alle draw calls (in DirectX 11) op een en dezelfde cpu thread zitten, tot overmaat van ramp vaak ook nog in dezelfde thread als de AI, audio, physics, etc.

Dit kost performance in DirectX 11 games, zeker als je geen beest van een cpu hebt of als de game al niet echt multithreaded is. Hierdoor merkten mensen dat in DirectX 11 de AMD driver altijd voor meer cpu overhead zorgde dan de NVIDIA variant en omdat de reden daarachter nooit werd gecommuniceerd gingen mensen er maar vanuit dat AMD geen drivers kon maken.

In DirectX 12 zijn draw calls native al multithreaded en daar heeft AMD dus feitelijk minder cpu overhead, tenzij NVIDIA op termijn de software scheduler verandert.
Het verhaal van 'slechte' drivers is geen fabeltje, het is een verschil in ontwerp tussen AMD en NVIDIA.
Ik moet zeggen dat mijn persoonlijke ervaring al vlot van 25-20 jaar geleden is, maar mijn ATI drivers (uit het Radeon tijdperk) van toen waren een onstabiele zooi. NVIDIA was een verademing daarna, zelfde van mijn dual XP2400 AMD CPUs van 15 jaar geleden, mijn daar op volgende Intel Q6600 was ook een verademing! Als ITer recenter (afgelopen 4 jaar) ook meer gelazer gehad met AMD GPU drivers met laptops en integrated Intel graphics.

Als ik zo de scores tussen een RX580 en een GTX1060 zie, dan ligt het er maar net aan welke game je pakt voor welke sneller is. Het afgelopen jaar zijn RX580 echter niet te krijgen voor normale prijzen, wat nu resulteerd in dat een GTX1060 een paar tientjes goedkoper is.

Waarom moet ik NOG meer FPS in CS:GO? Het is veel interessanter voor de games waar de FPS (voor een bepaalde resolutie) rond de 60fps ligt. Tenzij je op een 120Hz+ monitor gamed, maar dan verwacht ik ook dat je een zwaardere GPU neemt, welke dan waarschijnlijk een GTX 1070/1080/1080Ti zal zijn.

Als voor meer stroom, meer stroom betekend meer warmte, meer warmte betekend meer airflow en in de meeste gevallen meer geluid. Voor mij persoonlijk is ook erg belangrijk wat het stroomverbruik (en geluid) in idle is, want mijn PC staat ongeveer 100 uur per week aan en daar word zeker niet de hele week op gegamed. Extra warmte tijdens de winter is leuk, echter tijdens de zomer kan ik die extra warmte niet kwijt en stijgt de temperatuur drastisch. In het verleden had ik dan ook een vrij lichte PC extra op mijn bureau staan die tijdens de warmste zomer dagen gebruikt werd. Die tijd is echter voorbij met de moderne CPUs en GPUs... En zelfs een paar tientjes op een PC van... Een hoop meer is imho insignificant als je dat al een paar uurtjes werk op 3-5 jaar kan besparen. NVIDIA (en Intel) is niet perfect, maar AMD heeft nog geen product laten zien waardoor ik overweeg om over te stappen. En ik hoef mijn hoofd daar pas over 1.5 jaar weer over te breken...
Mijn ervaring gaat minstens net zover terug als de jouwe en ik kan me totaal niet vinden in
jouw ervaring over "amd driver zooi". Sterker nog, ik ondervond juist meer problemen met Nvidia drivers.
heb mijn gtx1060 ingeruild voor een rx470 en geen spijt van, en ook geen driver issues, prachtig ingebouwd overclock menu ook, en freesync natuurlijk.

Ook zijn de Reyzens een groot succes, meer price-performance dan de intel tegenhangers.
Met Nvidia meer problemen gehad (recent) dan met AMD Radeon in ~2008.

Draaide toen al games over Wine. Wellicht zijn mijn skills in Linux goed, maar kan me niet herinneren dat me dat veel moeite kostte behalve installatie script draaien....

Voor ik Nvidia drivers in Linux werkend had was ik een dag verder. Ook recent in Windows 7, wat een drama! Met AMD, ook openCL zijn mijn ervaringen toch echt een stuk beter.

[Reactie gewijzigd door paradoXical op 24 maart 2018 21:54]

Mijn ervaring was, laatst nog een driver update gedaan.
Ik had een tijdje de pc niet gebruikt en wilde nieuwe drivers voor de simpele sli er op zetten.
Had ik dus elke keer dat windows geladen was er nix meer.
Uiteindelijk met een amd kaart driversweep uitgevoerd, als ik die niet eentje had liggen had ik een probleem.
En dit is mijn ervaring

Nvidia: X afsluiten, op een tty inloggen, ./NVIDIA*.run, next next next en dat was het.
ATI: ... nooit volledig gelukt geweest ... vaak genoegen moeten nemen met de trage opensource radeon (gallium) driver. Fglrx bracht me Artefacts in games, zelfs compleet verloren meshes (lugaru), subpar performance, ...
Het valt momenteel enorm mee, tenzij je een enorme combinatie van experimentele/untested factoren toepast.

Het meest recent nog gezeur gehad met de combinatie DP-MST + Triple Crossfire (R9 290x), maar dat was na een aantal reports en een paar tussenversies weer opgelost. Al gebruikte ik 1 van die beide experimentele dingen niet, was er niks aan het handje (dus of over naar normaal DP/HDMI of CrossFire uit).

Los van zulke issues (wat inmiddels is opgelost) heb ik eigenlijk nog geen goede reden om over te willen; alles wat ongeveer even veel of meer performance moet leveren kost me echt een spreekwoordelijk rib uit mijn lijf.

Het enige mogelijke nadeel is het verbruik :p
Dan moet je maar eens op geforce.com gaan lezen, nvidia drivers is ook al lang niet meer wat t geweest is...
Ik heb gehoord dat nvidia drivers voor intel geoptimaliseerd zijn. Heeft dat er ook mee te maken?

Overigens wou ik dat ik de vega onboard gpu parallel kon zetten met een dedicated vega gpu. Met vulkan en dx12 zou dat aanvankelijk moeten kunnen(zelfs cross-brand), maar dat hebben ze geschrapt.
Ik wissel GPU's een beetje af tussen Nvidia en AMD.

Maar ik gebruik al sinds mijn eerste zelfbouw enkel AMD CPU's.

Nooit problemen mee gehad, ook niet terwijl een goede maat de AMD equavillent had van AMD met dezelfde CPU. Sterker nog, in de meeste games deed mijn GTX het beter en toverde meer pixels op het scherm. En we spelen dezelfde games op dezelfde resolutie.

Nvidia is geoptimaliseerd in de game engines. In Unreal Engine games trek je gewoon bijna 2x zo veel performance uit Nvidia kaarten dan gelijkwaardige varianten van AMD. Bij Unity trek je ook wat meer performance uit Nvidia kaarten. En zo heb je 2/3de + van alle games te pakken.
Als je op dezelfde resolutie gamed kan je GTX niet meer pixels toveren. Ze kunnen wel mooier zijn.
>slechte' drivers is geen fabeltje

Klopt - is inderdaad geen fabeltje... Alleen hebben mensen het omgekeerd.
Het is nvidia met de ondermaatse drivers waarbij ze meermaals drivers hebben uitgebracht die je gpu konden laten opfikken. Maar vanwege het marketingbeeld dat nvidia geschept heeft komen ze hiermee weg, en blijven mensen erop hameren dat AMD slechte drivers zou hebben.
Bron?

Multi-threaded mbv deferred contexts op DX11 waarbij je de verkregen commandlists op de immediate context afspeelt is ook single-threaded op AMD? En wat houdt 'hardwarematige scheduler' in, want het lijkt erop dat je nu appels en peren vergelijkt: drawcall moet worden opgezet in native call en die omzetting kan wellicht single-threaded zijn op AMD (geen idee, vandaar 'bron?' ;)) maar de executie ervan niet uiteraard, dus wanneer die 'hardwarematige scheduler' in jouw verhaal wordt gebruikt is me wat vaag.
AMD drivers zijn een rotzooitje voor Linux gebruikers; de open source drivers zijn stabieler, de proprietary crashen bij de vleet bij normaal desktop gebruik.

Bij nvidia krijg ik een blob die het doet.
Ik erger me anders helemaal kapot aan de NVIdia driver die gewoon echt NIET goed werkt.
Dat de propriatary driver van AMD een hell is klopt, maar AMD investeert tenminste met de community in een goed presterende open source driver. De opensource driver voor de NVidia GPU in mijn laptop presteert vele malen slechter dan de opensource driver voor mijn Intel GPU op de processor en dat mag natuurlijk nooit gebeuren. Tevens ondersteund de MESA driver enkel OpenGL 3.0 dus veel games worden ook volledig foutief gerendeerd. NVidia implementeert echter veel zaken onjuist waardoor je zaken als Wayland niet kunt draaien en ik ook bij KDE graphische glitches krijg zodra ik hun driver gebruik.zoals een vierkant welke achterloopt bij mijn muis en te snel afspelende animaties. Op mijn laptop kan ik hier via Bumblebee nog wel mee overweg gezien dan de meeste taken op een goed werkende opensource driver voor Intel worden uitgevoerd maar op mijn gaming PC kan ik linux met nvidia gewoon vergeten. Ik kan niet wachten tot de GPU prijzen weer omlaag gaan en ik een fatsoenlijk presterende Opensource driver kan gebruiken gezien dat vaak veel stabieler werkt dan de zooi die NVidia mij aan levert.
Ja die open source troep nvidia drivers zijn dus ook niet van Nvidia, vandaar dat Xander2 het over de blob van Nvidia heeft.
Lol. Sorry hoor, maar kijk eens naar jaarcijfers van AMD en Nvidia en verdiep je Łberhaupt eens in deze industrie.
Nvidia stopt meer in R&D dan wat AMD's GPU-tak aan omzet haalt (!!!). Dan kan AMD wel willen: het geld is er gewoon letterlijk niet. Tja, dan loop je 'achter de feiten aan', zo kan je dat ook noemen.

AMD focust zich totaal niet op consoles. AMD kan er weinig aan doen dat Microsoft en Sony het met AMD hebben geprobeerd. Dat is dan ook enkel gebeurd omdat AMD wel wat stabiele inkomsten kon gebruiken. Qua chip is er Łberhaupt niks nieuws geproduceerd, het is gewoon een samengevoegd standaardontwerp.

Maar luister gerust naar de marketingsmachine van Nvidia ;)
Nvidia doet ook gewoon meer R&D omdat het Nvidia is en ze nadenken over de toekomst
Wow, goede argumentatie. Ja, Nvidia geeft meer uit aan research (waarschijnlijk), maar 9 van de 10 "innovaties" zijn proprietary rotzooi a la Gameworks welke Nvidia ism (lees:geld) game developers gebruikt om de concurrentie in een kwaad daglicht te stellen.
Ja, Nvidia biedt high-end performance (voor gaming) waar AMD niet aan kan tippen, maar ik vind de bedrijfstactiek en arrogantie van Nividia zo stuitend dat ik er voorlopig ver van weg blijf. Dan maar een paar FPS minder :Y)
ik hoop dat AMD meer partnerships aangaat met partijen die wel te vertrouwen zijn.
Kan alleen maar beamen dat NVidia drivers slecht zijn.
Met ATI/AMD nooit problemen gehad.
Nu een MSI - NVidia gaming laptop een groot drama. Hoogte punt 10 crashes per uur waarbij de laptop gereboot moest worden. Oplossing: NVidia gaming experience installeren (dus ong 500MB voor een driver fix) en voor de spellen bijna alle optimalizaties/preset opties uitzetten. Nu heb ik nog maar een paar crashes op een dag en nog steeds dat het beeld af en toe voor een paar tellen op zwart gaat. En de noodzaak voor een reboot kan worden voorkomen door de spellen in windowed mode te draaien. Dat ik dat acceptabel vindt geeft wel aan hoe erg het was. Deze "oplossing" moest ik uit de community krijgen, NVidia kon me die niet geven.
Is trouwens een 480MT een kaart uit 2010 en nog steeds geen goede drivers .....
Wanneer ik op dit moment kijk naar de drivers van NVIDIA en van AMD, dan kan ik stellen dat ik over Radeon Software een stuk meer te spreken ben dan over GF Experience of het enorm verouderde instellingenmenu wat je bij NVIDIA af en toe nog moet gebruiken. Radeon software ziet er enorm clean en modern uit en alle functies werken eigenlijk prima. Op dit moment vind ik persoonlijk de drivers een van de grootste pluspunten bij AMD. Ik hoop heel erg dat alle games zsm overstappen op DX12. Dat schijnt nogal voordelig te zijn voor mensen met AMD videokaarten.
Er zit wel een kern van waarheid in Richh, die drivers zijn bij launch niet geweldig geweest. maar nu zie je dingen zoals dit : http://www.overclock.net/...7-11-4-driver-update.html. Je kan er gewoon van uit gaan dat de AMD kaarten na aankoop datum nog een stuk rapper gaan worden door nieuwe driver updates.

Nvidia heeft ook veel samenwerkingen met game makers zoals bij The Witcher, zodat zij zeker weten de eerste zijn die aan de optimalisatie kunnen werken. En dingen zoals gameworks (hairworks) zal goed op de nvidia kaarten draaien en niet op die van AMD zolang het niet opensourced is. AMD heeft dat echter wel zodat Nvidia makkelijk updates kan pushen met performance updates.
Slechte drivers is geen fabeltje, ikzelf heb daar erg veel last van gehad. Dat jij vindt dat het onzin is is mooi, maar er zijn echt veel mensen, waaronder ikzelf, die zelf hebben ondervonden dat het geen onzin is. Het is wel zo dat het al een aantal jaren geleden is, maar net als met VIA chipsets, eens je handen branden aan troep van een bepaald merk en je bedenkt je wel 2 keer voor je weer eens wat van dat merkt koopt.
Wel degelijk een fabeltje.
Welk deel van "ikzelf heb daar erg veel last van gehad" is lastig te begrijpen voor je? Je kunt roepen dat het een fabeltje is, ikzelf heb ervaren dat het niet zo is.
De RX480 en 580 kwamen in een flink aantal benchmarks wel onder de 1060 uit en availability was lange tijd een issue, zeker in het geval van de 580. Persoonlijk koop ik meestal op basis van reviews, benchmarks, prijs en beschikbaarheid, niet op basis van 'brand loyalty'. Toen ik een nieuwe GPU kocht kwam de 1060 gemiddeld genomen als beste uit de test vergeleken met de 580, waren ze ongeveer gelijk geprijsd en was de 1060 beter verkrijgbaar. Dus ik ben voor de 1060 gegaan (waar ik nog steeds tevreden mee ben). Maar daarvoor had ik een 280X van AMD, waar ik ook zeer tevreden mee was. Daarvoor een 6800GT van Nvidia, dŠŠrvoor een HD4850 van AMD en ga zo maar door.

Dat gezegd hebbende: het partnerprogramma, maar ook Nvidia Gameworks zijn funest voor een gezonde GPU-markt. En bij een volgende GPU-aankoop zal de situatie die op dat moment geldt dan ook zeker meewegen in mijn aankoop. Dan ben ik mogelijk bereid wat meer te betalen voor een AMD-kaart zodat ik de praktijken van Nvidia niet hoef te steunen.
Ik heb een VEGA 64 gekocht een paar maand terug en ik moest er al moeite voor doen om eentje te pakken te krijgen. Maar ik wist wat ik wou want ik had ook een nieuw scherm op het oog met Freesync , een combo waar Nvidia kwa prijs niet tegenop kon.

Echter, als ik nu eens rondkijk, dan zijn de prijzen zO de pan aan het uitswingen, en bij AMD nog erger heb ik de indruk. Het enige wat AMD zou moeten doen is ervoor zorgen dat ze aparte miner kaarten hebben en gaming kaarten ongeschikt maken voor mining. Geen idee waar hun verstand nu zit, maar ooit gaat die VGA mining aan zijn einde komen zoals bij het minen van Bitcoins destijds door de opmars van ASIC. Wie gaat dan nog een AMD kaart kopen ? Hoe meer er nu overstappen naar Nvidia wegens prijs/beschikbaarheid, hoe moeilijker AMD het gaat hebben in de toekomst. ( denk ik :) )

Edit : typo

[Reactie gewijzigd door MPAnnihilator op 25 maart 2018 17:30]

en gaming kaarten ongeschikt maken voor mining
Dat argument lees je hier wel vaker, maar dat kan simpelweg niet. Games maken net zo goed gebruik van compute. Het enige wat ze kunnen doen is mining kaarten interessanter maken voor miners, door die dingen een betere hashrate per watt mee te geven. Maar goed, dat lost je probleem niet op, het gaat uiteindelijk om de beschikbaarheid van chips.

En tja, het is misschien niet leuk om te horen, maar AMD is gewoon een bedrijf dat geld wil verdienen, en het mining verhaal legt ze geen windeieren. Door GPU's ongeschikt te maken gaan ze zichzelf ontzettend in de voet schieten.
Volgens mij kan dat wel, de load op een grafische kaart tijdens mining of tijdens het spelen van games heeft toch een ander patroon. De driver zou dat toch kunnen detecteren ?
Je zult vast wel wat patronen kunnen herkennen.
Maar dat gaat vervolgens weer redelijk wat foute detecties opleveren.
Waardoor legitieme games niet meer draaien, En dan krijg je weer het "AMD driver's zijn kut " verhaal.

Daarnaast, vanuit gamer perspectief is het rukt Maar elke verkochte kaart is er 1 bij AMD. ongeacht waarvoor die gaat dienen,
Het patroon is uniek voor elke applicatie. En het is ook vrij simpel dat patroon aan te passen - als GPU mining niet meer kan op gaming kaarten vanwege het patroon, dan zullen er vanzelf aanpassingen aan de miningsoftware verschijnen zodat het wel weer kan.
Ik heb een VEGA 64 gekocht een paar maand terug en ik moest er al moeite voor doen om eentje te pakken te krijgen. Maar ik wist wat ik wou want ik had ook een nieuw scherm op het oog met Gsync
bedoel je niet Freesync? Nvidia gebruikt Gsync namelijk dus een Vega64 werkt niet met Gsync.
Klopt, ik corrigeer het.
Er zijn mining kaarten. Maar ook deze gebruiken gewoon een AMD chip. Allee. Zit daar geen video uitgang op. En het nadeel is dat ze niet meer 2de hands verkopen. Dus is het de investering niet waard.
Jij noemt daar in elk geval 1 heel belangrijk punt: de prijs.

Het is net alsof MSI dat buiten beschouwing laat.
NVIDIA heeft inderdaad vaak kaarten die betere prestaties leveren dan AMD. (Zonder het tegenover andere factoren te zetten.)
Aangezien de meeste mensen toch vergelijken, waaronder ikzelf, is dat wel erg kortzichtig natuurlijk. Prijstechnisch vind ik zelf AMD dan weer een stuk aantrekkelijker.
Dat gezegd hebbende: het partnerprogramma, maar ook Nvidia Gameworks zijn funest voor een gezonde GPU-mark
Mwah, wat dacht je van het inbouwen van een GPU in de CPU door intel, waardoor hun GPUs (als je ze zo mag noemen ;)) het meest gebruikt worden? Het is maar net waar je interesse ligt natuurlijk. PC gaming met high-end GPUs is echt een niche, de meeste mensen gebruiken low/mid-end GPUs en met Intel's nieuwere GPUs in hun CPUs zullen velen ook gewoon zonder extra GPU gamen op hun PC.

Dus of NVidia's programma zo slecht is voor een gezonde markt weet ik niet. Het is ook nog maar te bezien of NVidia's programma zoveel invloed heeft: tegenwoordig zijn erg veel high-end shaders gewoon beschikbaar via andere middelen en heb je geen NVidia libraries nodig .
Kleine nuance. Bij de release in 2016 was de GTX1060 6GB iets sneller dan de RX480 8GB. AMD startte weer eens traag met hun drivers qua prestaties, niet qua functionaliteit. Daar hadden we enkele maanden nodig om iets van 10% meer uit de RX480 te halen. Verder kwam PCPer met hun opgeblazen onzinverhaal over PCI-E standaarden breken en de schade was alweer gedaan. PCPer is toch al hardstikke twijfelachtig aangezien ze daar meer geÔnteresseerd zijn in de zak met geld die ze krijgen dan reviews. Objectief zijn ze vaak niet...

Maar tegen kerst 2016 was het verschil in prestaties al weg. Benchmarkt natuurlijk vrijwel niemand na een paar maanden eens opnieuw waardoor je dit niet zomaar te zien krijgt. Verder krijg je bij AMD wel een veel beter drivermenu en opties zoals Freesync of vanaf eind 2016 ook Chill. Vanaf eind 2016/begin 2017 was de RX480 dus de betere keuze. De echt interessante vergelijking was alleen de RX470 4GB vs de GTX1060 3GB. De RX470 was daar altijd de winnaar, en ook nog eens merkbaar goedkoper. Toen kwamen de miners...

AMD heeft werkelijk alles wat ze kunnen bestellen aan wafers verkocht, maar gamers hebben de kaarten niet gekregen. Marktaandeel van AMD is rap gestegen het afgelopen jaar, maar het is uiteindelijk weer een gemiste kans om Radeon nu eens echt geaccepteerd te krijgen als volwaardige videokaarten voor gaming.

In dit verhaal was MSI echt geen heilige. Een aantal jaar terug waren hun kaarten echt goed, en voor Nvidia zijn ze meestal nog steeds erg goed. Voor Polaris waren ze helemaal niet zo goed ondanks veel positieve "reviews". Zeker bij de RX5xx refresh vielen ze door de mand met relatief dure Gaming X modellen die minder presteerde dan ASUS ROG, XFX of Sapphire Nitro+ kaarten. Waren die laatste twee ook nog goedkoper. Dan heb je nor "Armor" was over de gehele linie varieert van slecht tot heel slecht.

[Reactie gewijzigd door DaniŽlWW2 op 24 maart 2018 12:04]

Eigenlijk wel zonde, want AMD komt op deze manier altijd in een slecht daglicht.
Het is ook hardstikke zonde. Dat ze de drivers niet helemaal op orde krijgen is een probleem waar ze steeds minder last van hebben. Polaris was al veel minder erg dan bijvoorbeeld jaren ervoor met de HD 7xxx serie. Vega had wat kleine stabiliteitsproblemen, maar was qua prestaties eigenlijk vanaf het begin al redelijk goed voor zover ze DX11 games goed kunnen krijgen op AMD hardware. Dat is een bottleneck bij AMD, zeker bij Vega.

Iets anders waar ze zichzelf wel mee in de voet schieten en blijven schieten is het voltage waar de kaarten standaard op lopen. HawaÔ, Polaris en Vega draaien allemaal op veel te hoge voltages voor uiterst geringe prestatiewinst. GCN GPU's zijn hardstikke efficiŽnt als ze maar niet ver over de 1000mv gaan. Voorbij de 1100mv gaat dat mis. Nou heeft AMD voor zowel Polaris als Vega gekozen voor 1150mv, en dat is gewoon dom. Polaris kaarten kan je vaak naar 1050mv downvolten met minimaal verlies in clockspeeds. Je verliest bijvoorbeeld 50MHz en de kaart gebruikt opeens enkele tientallen watts minder.

Vega is helemaal waardeloos. Ik heb mijn RX Vega 56 op 1000mv gezet en haal nu 1500MHz. Met de default haalde ik maximaal 1350MHz en dat liep terug omdat de kaart als snel oververhit raakt. Mijn RX Vega 56 zal nu ongeveer evenveel verbruiken als een GTX1070, misschien iets meer, maar zit qua prestaties dichtbij een GTX1080 en in bepaalde DX12 of Vulkan titels gaat die al richting der GTX1080Ti terwijl die alsnog een stuk minder verbruikt. Dat is iets waar AMD zich wel voor moet schamen want ze hebben hun eigen product zo alweer gesaboteerd in een poging om er een klein beetje extra prestaties uit te halen.
Wat bij drivers wellicht ook meespeelt is de ervaring met vorige kaarten... Misschien wordt hun software nu inderdaad beter, maar persoonlijk heb ik vroeger veel ruzie gehad met AMD software. Ik heb dan toch een vrij overtuigende reden nodig om AMD nog eens een kans te geven, terwijl Nvidia voor mij een 'sure thing' lijkt qua software die 'goed genoeg' is.
Wellicht is dat niet eerlijk, maar ik bedoel het ook maar om aan te geven dat het even kan duren voordat je over zo'n reputatie heen bent. En als ze dan ook zoals jij zegt hun kaarten basically zelf al overvolten waardoor het hotheads zijn, dan zullen ze mensen als mijzelf niet snel over de streep trekken.
De enige kanttekening die ik momenteel bij AMD's Radeon Settings heb is dat je niet de game-scan functie wil gebruiken als je echt honderden games geÔnstalleerd hebt.

Om een-of-andere reden krijgt het programma daarna de neiging om vast te lopen wanneer je het games-overzicht wilt openen (en begint het programma een absurde hoeveelheid geheugen en i/o te consumeren, hier momenteel zo'n 2.4 gig om een lijst van ongeveer 400 steamgames te tracken).
Is gerapporteerd en wordt naar een oplossing gezocht, maar niet makkelijk op te lossen als het eenmaal zo ver is...
Ik ken deze markt niet zo supergoed; maar ik zie geen reden voor MSI om gpu's van AMD slechter te implementeren. Uiteindelijk brengen ze sowieso liever een product uit dat beter is dan de rest dan ťťn dat slechter is dan de rest ;).
Misschien is de oorzaak niet zozeer MSI (Asus, Gigabyte,...), maar de ondersteuning die die OEMs krijgen bij het maken van hun ('custom'?) kaarten. Betere referentieontwerpen en ontwikkelingsondersteuning kunnen er zomaar voor zorgen dat die OEMs een eigen voorkeur hebben, los van de gpu's zelf.
Ik kan me best voorstellen dat Nvidia naast in marketing naar consumenten, ook meer investeert in die marketing (communicatie) naar de OEMs. Die vallen niet zo voor een gamebundel of affiche, maar wel voor mooie documentatie, goeie support, gratis consultancy,... en deals die opbrengen.
Als ťťn supplier je belooft te helpen met het optimaliseren en op de markt brengen van je product (en dat ook doet) en de ander doet dat niet, minder of met wisselende resultaten, dan is de keuze snel gemaakt.
Het probleem is dat Nvidia bedrijven zoals MSI of Gigabyte hun gaming merken heeft afgepakt in ruil voor wat rebates, marketing of een game bundel. Dat is waar GPP op neerkomt. Dat is belangrijk omdat de gemiddelde consument al snel zal gaan voor het merk waar de doos vol met een gaming merk beplakt is. Allemaal zaken die AMD ook aanbiedt net zoals technische ondersteuning voor het maken van custom kaarten. Alleen de marketing zal in mindere mate zijn. Nvidia gaat nu in plaats van alleen haar eigen kaarten, nu ook AIB kaarten promoten. AMD doet dit voor zover ik weet niet.

Verder als we beginnen over reference kaarten dan moet je echt niet bij Nvidia zijn als voorbeeld. Zeker de PCB's van GeForce kaarten zijn in de regel erg matig en voor een custom AIB kaart kan een AIB vrijwel alles weggooien en opnieuw beginnen. Bij AMD zijn de PCB's in de regel totale overkill en zijn de PCB's van de custom kaarten van mindere kwaliteit. In beide gevallen is de koeling slecht bij de reference, hoewel Nvidia net iets beter is. Ook niks dat bij het ene kamp beter kan dan bij het andere. Je kan redelijk onderbouwen dat de AMD exclusieve AIB Sapphire al jaren de beste koelers maakt en deze ook nog eens combineert met in de regel goede PCB's.
Idd, niets weerhoudt AMD ervan om bij verschillende fabrikanten een eigen branding te maken. Dit hebben ze dan ook bij Asus gedaan met de ROG benaming. deze is gestart met AMD kaarten...
Precies dit! Had een 1070, gedowngrade naar de 1060, die verkocht en een (voor een normale prijs) de 580 8gb gekocht. Deze is nu veelal sneller dan de 1060 en nog slechts 10-15% langzamer dan de 1070. Maar heb nu wel een freesync scherm en de beleving is niet minder! Door de updates heb je langer iets aan je AMD kaart.

Het is meer dat AMD gewoon niet verkrijgbaar is.

[Reactie gewijzigd door no_way_today op 24 maart 2018 12:34]

Meer niet verkrijgbaar voor een normale prijs. De 580 was bij uitgifte net iets boven de 300 euro, het is §500 geweest en gaat langzaam weer terug naar de §450. Dat zijn zotte prijzen.
Had m voor 250, in januari, was toen ook al een spotprijs.
Heb nergens cijfers kunnen vinden die jouw bevindingen bevestigen. 10 tot 15% sneller? Ik zie 5% op zijn hoogst.
De 1070 is 10-15% sneller dan de 580 , ik zou niet weten in welk spel het gat maar 5% is, ik ben benieuwd!
Ik bedoel de 580 vs 1060.

De 1070 is wel een heel stuk sneller dan 15% dan de 580. Vrijwel geen enkele 1070 op de markt nu draait op stock clocks namelijk. Mijne tikt out of the box zelfs 1950MHZ aan. Zelfs mijn laptop 1070 gaat standaard 1800mhz.
Daar beweer ik geen gat van 10-15%. Misschien niet goed gelezen?

In mijn systeem 3770 16gb, quad HD scherm, is de 580 sneller dan de 1060. Speel met name bf1 en
Siege.

Oja, dat de 1070 10-15 sneller is (quad HD), hier een voorbeeld, 1070 slechts 10% sneller dan 580, de 580 is echt geen gekke kaart! Hier laat die de 1060 wel met 9% achter zich.

https://nl.hardware.info/...hd-2560x1440-+-frametimes

[Reactie gewijzigd door no_way_today op 25 maart 2018 09:03]

Een standaard reference versie van de kaart ja. Deze kunnen wij niet eens verkrijgen nu zowat. Deze boost maar tot rond de 1600mhz.

Het wordt enit voldoende getest dus het is lastig resultaten in 1 tabel te vinden maar hier zie je de verschillen tussen een reference board en een custom board in eht geval van de 1070ti variant.

https://www.tweaktown.com...s-card-review/index8.html
Zelf lees ik nergens dat deze is gebruikt. Dat kunnen we helaas niet weten. Ref. Kaarten draaien ook 1900+. Maar goed, lees wat je wil lezen.
Ze gebruiken dezelfde scores als hun initiele review.

Reference kaarten in hun review tikten zeker geen 1900 aan, anders scoorden ze geen magere tussen de 60 en 70fps in COD WW2. (Ik tik daar 90+FPS op 1440P 1070GTX),

He ziet zelf in mijn voorbeeld hierboven dat een AIB board van reference board weldegelijk erg veel verschil maakte bij Nvidia.
Wat een onzin. De 480 was minder dan de 1060 en de 580 variant vergelijkbaar. https://www.anandtech.com...n-rx-580-rx-570-review/17

Dat terwijl de 1060GTX ouder is

De 290x is ook alleen vergelijkbaar met een 290x maar daarbij moet je wel hitte en verbruik op de koop toe nemen.

De 7970ghz was de top of the range kaart uit die periode en de 960 een midrange kaart van een generatie erna. Maar weer wel een zuinigere kaart. De 5XX en 6XX serie waren helemaal geen heethoofden zoals jij beweerd trouwens.

Nu heb je de 1070GTX welke net zo snel is als de Radeon 56 (als je custom PCB varianten koopt die fors hoger klokken out of the box) met minder verbruik.

De 1080GTX is sneller in de meeste games en of vergelijkbaar dan de Radeon 64 waarvan de laatste weer duurder is en dan kan je net zo goed dus 100 euro meer uitgeven voor een 1080TI die weer fors sneller dan een Radeon 64 is. Dan nog de factor dat AMD pas een jaar NA de release van de 10XXserie met deze GPU's aan kwam kakken en weer bij hoger verbruik. Wat ook problematisch was dat board partners vrij laat met custom kaarten op de proppen kwamen en de stock koeler van AMD is nogsteeds bar slecht.
https://www.tweaktown.com...-64-review-refined-kinda/
http://www.guru3d.com/art...e_analysis_review,18.html
https://www.anandtech.com...-rx-vega-64-and-56-review

Leuk dat mensen AMD een warm hart toedragen maar objectief met cijfers gezien klopt het gewoon niet wat jij zegt.

Dan mis je nog een enorm grote factor. Gaming laptops hebben de laatste 3 jaar een enorme groei doorgemaakt en bezitten nu een groot segment van de markt voor GPU's. AMD bestaat daar zowat niet in met een handje vol laptops die dan nog eens fors minder presteren, warmer worden etc tegenover welke Nvidia equipped laptop dan ook.

(en zal je zien dat ik weer een-1 krijgt alleen omdat ik niet pro AMD reageer. Ik koop gewoon het beste wat er op dat moment beschikbaar is en heb geen enkel brand loyalty gevoel bij wie dan ook.

[Reactie gewijzigd door Rin op 24 maart 2018 12:23]

Elke game waar daadwerkelijk DX12 word getest, op Gears of war na, wint the RX580 ( https://youtu.be/H6st6QZTDxE?t=1156 ). Het verschil was in het begin ook al te zien wat de kaart zou kunnen als mensen geen DX11 zouden gebruiken. Iedereen blijft heel leuk toch steeds de 1070/1080/1080ti er bij halen en dat omdat die beter zijn nvidia beter is. Precies mijn hele punt.

Dat Vega geheel een faal verhaal is ben ik compleet met je eens. Maar in het midden segment zou objectief gezien AMD het veel beter moeten doen dan dat ze daadwerkelijk doen, zeker met vaak meer VRAM en betere DX12/Vulkan support en freesync. Ik zelf althans koop geen 300 euro video kaart voor slechts een jaar of twee.
Alleen lijkt DirectX12 helemaal geen brede ondersteuning te krijgen vanuit de developers, en in bijna alle gevallen werkt DirectX11 sneller dan DirectX12 zonder visuele toevoegingen bij beiden kampen.
En als dit het geval is, en DirectX12 zorgt ook nog eens voor een kleinere aanspreekbare markt, en daarnaast het ook nog veel meer moeite kost om het goed te doen, dan is de keuze snel gemaakt.

En de enige spellen die DirectX12-only zijn worden door Microsoft uitgegeven, elke andere derde partij developer zorgt dat DirectX11 gewoon beschikbaar is naast DirectX12, tien keer raden wat vaker beter draait, enkele uitzonderingen daargelaten. (bijvoorbeeld Sniper Elite V4)
Ik zou er bijna vergif op durven innemen dat er titels door Microsoft worden uitgegeven die gewoon beter zouden kunnen werken onder DirectX11, denk maar aan Quantum Break.

Wat ook niet helpt is dat DirectX12 OS gebonden is en niet op allerlei verschillende apparaten gebruikt kan worden, op dat punt heeft Vulkan een streepje voor en zullen developers daar ook sneller voor kiezen, dat lijkt me dan ook een logischer keuze.

En gezien DirectX11 een enorm portofolio kent aan al uitgebrachte games moet dit zeker niet genegeerd worden, mensen kopen niet enkel een videokaart om een toekomstige techniek te kunnen draaien, zelfs te meer als de toekomst ervan onzeker is.

Ter illustratie:
https://en.wikipedia.org/...s_with_DirectX_11_support
https://en.wikipedia.org/...s_with_DirectX_12_support
https://en.wikipedia.org/...games_with_Vulkan_support

Zelfs nu komen we nog enkele nieuwe DirectX11 spellen tegen welke wonderbaarlijk net zo snel/sneller functioneren op een GTX780Ti dan een RX580 of Fury X, dat hele FineWine is soms een beetje VinegarWine.

Tegen de tijd dat DirectX12, of liever gezegd Vulkan, zover de markt domineert en boven DirectX11 staat, zijn we wel heel wat jaartjes verder en zijn de huidige videokaarten sowieso niet erg relevant voor die keuze, dan zijn ze wel toe aan een upgrade ook omdat de spellen zwaarder worden.
Tegen de tijd dat DirectX12, of liever gezegd Vulkan, zover de markt domineert en boven DirectX11 staat, zijn we wel heel wat jaartjes verder en zijn de huidige videokaarten sowieso niet erg relevant voor die keuze, dan zijn ze wel toe aan een upgrade ook omdat de spellen zwaarder worden.
Dat is ook gelijk het probleem. AMD voegt zich bij open standaarden of geeft ze vrij na ontwikkeling. Vulkan en DirectX12 zijn een direct gevolg van AMD's investeringen in Mantle. link1 link2

AMD en Nvidia zijn wat dat betreft tegenpolen. AMD is een groot voorstander van open standaarden en open source development. Nvidia probeert daarentegen vrijwel altijd hun eigen standaarden op te dringen. Een mooi voorbeeld hiervan is FreeSync vs G-Sync.
Daarnaast werkt nVidia ook vaak met game developers samen (lees: ze geven een zak met geld) om hun eigen proprietary tech te implementeren (GameWorks :X), met als gevolg dat het vaak nadelige gevolgen heeft voor de concurrentie.
Klopt niet wat je zegt. De Vega56 presteert beter dan de 1070gtx, daarom heeft Nvidia de 1070Ti uitgebracht die weer beter presteert dan de Vega56 en dicht tg de 1080gtx zit. De 1080gtx presteert beter dan de Vega64 met een veel lager verbruik. De Vega64 is eigenlijk een totale flop want veel te hoog verbruik voor niet eens 1080gtx-prestaties. De Vega56 valt nog mee met betere prestaties dan de 1070gtx en een redelijk verbruik.
Tegenover een reference kaart geklokt op 1600mhz boost ja. Alleen tikken non FE kaarten vrijwel allemaal 1900mhz boost aan zonder input van de gebruiker oftewel sneller dan een vega56. Dan heb je nog ruimte om te overclocken en dat laatste valt bij vega heel vies tegen.
De FE kaarten boosten dus niet naar 1860 MHz? Ben je dat zeker?

Trouwens allemaal mooi en wel dat ze boosten naar 1860 MHz maar mijn 1070Ti die ik hier heb is daardoor wel serieus luidruchtig omdat de koeler aan 70% moet draaien om de boel te koelen. Ik heb met MSI Afterburner de Power Limit op 70% gezet zodat de ventilator nu op 50% draait met een draaglijk geluid. Ik vrees nog altijd dat er iets scheelt aan de kaart want een MSI 1070Ti Gaming heeft normaal een stille koeler als je de reviews mag geloven.

[Reactie gewijzigd door Fredi op 27 maart 2018 17:53]

Je kan de FE boards hoger klokken als je fancurve flink omhoog schroeft en er een stofzuiger van maakt.

Geen idee wat betreft jouw kaart. Herken dat niet met custom boards. Mijne draait op 2.2ghz, nauwelijsk fan noise en de temperatuur hangt rond de 72c. Heb dan zelf een EVGA FTW kaart (variant waarbij de VRM's wel gekoeld zijn).Zou verwachten dat jouw kaart stiller zou zijn. Misschien repasten met meer degelijke thermal paste?
De FE kaarten klokken dus niet hoger dan 1670 MHz? Dan kun je geen enkele review nog geloven want die testen allemaal met FE-kaarten.

Ik weet niet wat het is met mijn 1070Ti. Ik heb al gedacht dat het aan mijn cpu-koeler ligt. In zware games wordt mijn cpu belast tegen de 100% en dan moet serieus wat warmte afgevoerd worden door mijn cpu-koeler die denk ik die warmte tg de backplate van mijn videokaart blaast waardoor de gpu te warm wordt en de ventilator rapper moet draaien. De vinnen van mijn cpu-koeler zijn niet open(de lucht kan er niet doorheen blazen) omdat er een alu-blok in het midden zit. Je hebt dus vinnen-alu-blok-vinnen en dan back fan van kast. De warme lucht kan dus niet důůr de cpu-koeler en de back fan de kast verlaten maar blaast waarschijnlijk tg de backplate van mijn videokaart aan. Ik ben van plan om een nieuwe cpu-koeler te kopen om te kijken of dit de oorzaak is, zoniet stuur ik de kaart terug.
In algemeen klokken FE kaarten niet zo hoog nee. Of kunnen de boost niet vast houden. Je kan de chip loterij winnen met een chip die toevallig wel zo hoog klokt maar dat is eerder uitzondering. Vind het zelf ook irritant dat review sites niet ook aftermarket kaarten in de benchmark lijsten erbij houden.
Wat een onzin inderdaad, hoe krijg je het uit je vingers?
De RX480 en RX580 liggen vrij dicht bij de 1060. Sommige games wint Nvidia, sommige games wint AMD. Ja misschien dat AMD een lichte voorsprong heeft maar die is echt niet zo significant dat dŠt de reden moet zijn dat zij winnen. Wat enorm mee zal spelen is dat die kaarten gedurende hun levensduur grote tijden gewoon nauwelijks te krijgen waren omdat ze allemaal door miners opgekocht worden. Dat is voor mij persoonlijk de reden geweest om een 1060 te kopen, want die was wťl gewoon te krijgen. Dat is uiteraard niet AMD's fout, maar daar gaat het ook helemaal niet om.

Verder heb ik zelf me toch wel een aantal keer gebrand aan de software van AMD. Het is anekdotisch en hoeft helemaal niet veel te zeggen, maar persoonlijk heb ik meerdere keren problemen gehad met drivers van AMD, inclusief bugs die ze gewoon jarenlang niet opgelost hadden. Bij Nvidia heb ik zelf nooit problemen gehad, buiten een enkele keer eens een crashende driver (dat klinkt erg, maar die restart zichzelf en 2 seconden later merk je er niks meer van). Misschien heb ik pech gehad bij AMD en geluk bij Nvidia, maar die ervaring betekent voor mij toch dat als ik de keuze heb en er zijn geen andere zwaarwegende redenen, dan ligt mijn voorkeur dus bij Nvidia. Maar nee, natuurlijk kunnen mensen alleen voor Nvidia kiezen vanwege de 1080Ti of hun marketing budget, dat moet het echt zijn, tuurlijk...
ze hoeven niet te winnen, maar een markt aandeel van 20% tov 80% ondanks dat AMD gewoon competative is/was in dat segment samen met de opmerking van deze MSI is eigenlijk te gek voor woorden.
De reactie van MSI is inderdaad wel een beetje vreemd... tenzij ze het specifiek over laptop hardware hadden. Gezien de reactie onder een advertentie voor een gamelaptop stond is dat natuurlijk niet uit te sluiten. Want in laptop land kan AMD volgens mij nog steeds niet echt veel goeds doen.
Eerste deel van je post klopt. Toen ik mijn huidige pc in elkaar stak had ik de keuze tussen een 480 en 1060 (6GB) en ben voor de laatste gegaan alhoewel ik Nvidia maar een rotbedrijf vind. Maar ik ben ook geen AMD fanboy en ben gewoon gegaan voor wat er op dat moment de betere price/performance kaart was. De performance (in benchmarks) lag behoorlijk dicht bij elkaar, bij de ene game won de 480 bij de andere de 1060. Maar de 480 was toen al een stuk duurder dan de 1060 waardoor de keuze rap gemaakt was. De 580 kwam pas 6 maand later uit.

Tweede deel kan ik net zo goed omdraaien naar Nvidia toe. Heb jaaaaren AMD/ATI kaarten gehad en zelden echt problemen met de drivers. Iedereen maar melken dat die van Nvidia beter waren (en dan hadden ze het over het control panel en de opties daarin, niet wat iemand hier in een eerdere post zei over draw calls verdelen over threads). In mijn ervaring crashed het control panel van Nvidia even hard, duurt het nog langer (heb nu een SSD waar ik in tijd van AMD drivers een HDD had) om op te starten en duurt het recoveren van een driver crash (die overigens tot nu toe even vaak voorkomen, en nu gebruik ik eens geen overclock) duurt langer, als het al lukt om ervan te recoveren (al 1 keer gewoon de reset knop moeten gebruiken).
Qua gebruikservaring zie ik dus geen verschil tussen de AMD en Nvidia drivers. De driver versie die ik nu heb lijkt wel wat beter te zijn dan de vorige, het crashen gebeurt nu voornamelijk bij het minen maar ik heb dan ook geen grafisch zwaar game gespeeld in het laatste half jaar of zo (waar de meeste crashes voorkwamen) sinds de laatste update die ik deed.
Overigens kan ik mij wel al 2 gevallen met een aantal jaar tussen herinneren waar Nvidia drivers uitgebracht had die dankzij fanspeed issues een aantal kaarten verbrandt heeft.

Edit: overigens is het pas sinds de 970 (welke het vram gedoe had) en 10xx serie dat Nvidia een goede price/performance wist neer te zetten. De 7xx en de rest van de 9xx lijn was nogal meh qua price/performance. Van 6xx serie en ervoor heb ik niet zo'n goed overzicht, maar de 7xxx lijn van AMD was vrij degelijk, de 5xxx lijn ook.

[Reactie gewijzigd door Nha op 24 maart 2018 17:29]

Ja, zoals ik al zei is mijn ervaring ook maar anekdotisch. Maar mijn bedoeling was meer om aan te geven dat er andere redenen kunnen zijn om voor Nvidia te kiezen dan "in de marketing van Nvidia trappen". Mijn persoonlijke ervaring zorgt er voor dat ik twijfel aan AMD en niet aan Nvidia. Bij iemand anders kan dat inderdaad weer anders zijn.
Wat was er precies beter aan de rx480? Ik heb mijne verkocht, de kaart werd te warm. Het voltage op de kaart was zelf te hoog waardoor het reffrence model ging trottelen. Kaart gebruikt veel meer stroom. En de drivers waren alles behalve stabiel. Zo had ik sinds afgelopen zomer opeens gigantische FPS drops in games zoals Overwatch en Counterstrike zonder verklaarbare reden. Een complete reinstall deed ook niks.

Het eerste half jaar ging bijvoorbeeld me fan gewoon random niet meer aan na het kijken van een Youtube filmpje in me browser, een of andere rare bug met de hardware acceleration.
Daarnaast werden instellingen die je in Wattman deed om de havenklap gewoon wegegooid en mocht je alles weer opnieuw instellen.

Ja de drivers van AMD zijn verbeterd maar als je nu gaat beweren dat het allemaal zonder problemen is dan ben jij de gene die geen onderzoek heeft gedaan.

[Reactie gewijzigd door bloodlynx op 24 maart 2018 12:35]

Het eerste half jaar ging bijvoorbeeld me fan gewoon random niet meer aan na het kijken van een Youtube filmpje in me browser, een of andere rare bug met de hardware acceleration.
Javascripted coin mining vanwege banners op 1 of meerdere websites die je (geregeld) bezoekt?
Nee, bij sommige ging de Fan op 100% omdat ik een aangepast fan profiel gebruikte ging bij mij simpelweg de fan gewoon uit. Zie https://community.amd.com/message/2752025

Edit: Hoe is dit offtopic, maar een of andere speculatie over javacsript coin mining on topic?

[Reactie gewijzigd door bloodlynx op 24 maart 2018 22:33]

En ben je de vele crashes van Nvidia de afgelopen jaar vergeten?
Heb me 1070ti nu 4maanden nog geen crash gehad. Dus mijn ervaring is in iedergeval een stuk beter dan bij AMD.
welke crashes?
Excuses. Ging om memory lock.
Daarom heeft nVidia juist nu toegeslagen hiermee; Vega viel tegen, RX5x0 zijn langere tijd duur/lastig te krijgen door mining en al het andere.
Mooi moment om misbruik te maken van je macht positie. Want ja ze hebben ook gewoon meer geld om tegen problemen aan te smijten.

Al is het ronduit slecht dat een medewerker van MSI dit zo gewoon zegt.
Vraag me af hoeveel dit zegt over 't hele GPP
Als mark beheerst krijg je mogelijk heid om afnemers te sturen. Je krijgt dan ook meer mogelijkheden om de markt te pushen. Je kan dan ook nog beter unieke feature doorduwen.
Vega64 was gewoon ronduit niet te krijgen. Via Zones er 2 besteld in December en dit order vorige week noodgewongen maar naar 2x GTX1080 om laten zetten. Die had ik de volgende dag binnen.

Voor wat ik er mee doe had ik veel liever Vega's gehad (3D scanning) maar als ik ze niet kan krijgen kan ik ze ook niet kopen.

Wat dat betreft boeit de performance geen eens, qua supply chain heeft nVidia het gewoon beter voor elkaar. Dus als je partner bent zoals MSI dan kan ik me heel goed voorstellen dat je gefrustreerd bent door AMD en ze niet meer in je laptops wil hebben. Zeker als ze ook nog eens minder goed presteren en/of meer support hoofdpijn geven door slechte software/drivers.
De RX 400 en 500 series zijn ook wel massaal verkocht, en er zijn ook genoeg mensen die wel nadenken en niet zo maar denken en roepen dat AMD drivers slecht zijn. Aan de andere kant lees je ook het zelfde over Nvidia. Ik denk dus dat het allemaal wel meevalt.
Voor Crypto mining, kan je beter voor een AMD gaan, AMD kaarten zijn krachtiger, alleen hun drivers weten daar niet nee goed om te gaan.
De kaarten zelf zijn niet krachtiger maar de benadering is anders. AMD is raw power, Nvidia gebruikt slimmere algoritmes om meer met minder te doen. Zaken als betere chroma compressie maken Nvidia kaarten sneller bijvoorbeeld.
Performance per watt lopen ze al een flinke tijd achter.
Had RX480 en preteerde onder OpenGL niet soepeltjes, hier en daar glitches. Toen ingeruild voor een GTX1060.
Op basis van gebruikers ervaring, want was ook van meening, mede door reviews, dag AMD beter zou zijn.
Ik vind de 1060 technisch gezien beter. Kleinere chip, minder geheugenbandbreedte nodig, lager verbruik en maar een paar % langzamer dan de 580.

Ik zou voor de 580 gaan vanwege freesync, maar als ik een gewone monitor zou hebben waarschijnlijk 1060, tenzij de 580 een echt betere price/performance zou hebben.
Wat een onzin, de RX480 en de RX580 waren gewoon beter dan de 1060. Iedereen kocht alsnog massaal de 1060 for w/e reason
Dat (RX480) is ook maar net afhankelijk vanuit welk oogpunt je kijkt. In de 'mainstream' games deed de GTX1060 het ten tijden van de release gewoon beter. Wat zijn in dezen de 'mainstream' games?
  • BF 3/4 (DX11, DX12 was nooit daadwerkelijk bruikbaar en stabiel)
  • CS: GO/Source engine
  • League of Legends
  • GTA V
  • WoW
  • Far Cry
  • CoD
  • Unreal Engine games (zie ook nu Fortnite bijvoorbeeld)
Waar waren ze gelijk:
  • Dota 2
Waar was de RX480 beter:
Veel games die niet mainstream zijn en vaak on-edge technology gebruiken om dit te compenseren. Dat zijn er inderdaad nog best wel wat, en er komen regelmatig games bij met een goede implementatie (meestal zijn die games PC-only, wat dus vaak weer de niet-mainstream games zijn) neemt zeker met de maanden toe, maar pak dan de grote review sites erbij en je weet meteen waar het mis is gegaan voor AMD:

TPU:
The GTX 1060 delivers impressive performance that's twice as high as that of the GTX 960, its predecessor, which was released at a lower $200 price point, though. Compared to AMD's RX 480, the card is clearly faster when averaged out over our test suite at 1080p, with a performance increase of around 10%. This means the GTX 1060 nearly exactly matches GTX 980 performance, similar to the R9 Fury and just 8% shy of the R9 Fury X, AMD's current flagship. The GTX 980 Ti is 18% faster and the GTX 1070 beats the 1060 by 34% - overall very good positioning.
HWI:
Met de GeForce GTX 1060 wilde Nvidia een alternatief op de markt brengen voor de RX 480, en dit is ook aardig gelukt. Gemiddeld blijkt hij 20,9% sneller te zijn dan de RX 480.Tegelijkertijd is het stroomverbruik lager dan die van deze twee kaarten. Qua performance per watt heeft Nvidia het dus goed voor elkaar gekregen met deze kaart. In tegenstelling tot de GTX 1070 en GTX 1080 zal er van de GTX 1060 geen Founders Edition verschijnen op de Nederlandse markt, wat geen gemis is, aangezien hij nogal luidruchtig is en niet bepaald goed koelt.
Guru3D:
If Nvidia can get a grip at the price level (as with every release these days the price artificially jumps up so horrendously badly) then the GeForce GTX 1060 is a hit. If you can spot a 6 GB AIB version at 249 USD / 269 EURO and the product suits your needs and requirements, then go for it. You'll play your games up-to 2560x1440 with nice framerates and proper image quality settings. Obviously that 6 GB framebuffer helps out quite a bit and does make your graphics card a little more future proof. The new architecture proves its agility and the die shrink to 16 nm FinFET shows low power consumption due to lower voltages and obviously the high clock-speeds and that 8 Gbps GDDR5 memory offer the product that the GTX 1060 is. The GeForce GTX 1060 is a terrific choice for the ones that game in the 1920x1080 up-to 2560x1440 resolution domain. The card will tweak quite well, we however predict (once again) that any and all cards can achieve a 2.0~2.1 GHz boost clock frequency and for the memory you should be reaching 9 Gbps (effective data-rate) quite easily as well. Here again I predict that all cards from any vendor are going to hover in the 2.0~2.1 GHz range max due to the limiters that Nvidia applies these days. For the bigger part they are in control of your tweak, not you. Still anno 2016 we have 120 Watt GPUs now passing the 2 GHz marker quite easily, and that is impressive at any level. We like the GeForce GTX 1060 a lot, but we do recommend you to look at the Radeon RX 480 as well if you are keen in pricing and budget. Their 4 GB model simply is 50 bucks cheaper while perf wise it's all more or less the same. The AIB/AIC partners are all going to offer tweaked products, meaning you can add another 5 to 10% performance on top of what you have been able to see today. But more exclusive cooling means higher pricing and that is something this product series cannot have as that 250 USD marker really needs to be it. If so, the GeForce GTX 1060 (6 GB version) is going to be a hit alright, we do like it a lot, and certainly would like to recommend the card to any fanatic gamer. Combined with silence and a cool running GPU with a low TDP the 249 USD marker has never been more attractive as it is right now. Highly recommended.
AnandTech:
As for where the previously mentioned competitive landscape fits in, a lot of it is going to depend on what potential buyers are looking to spend. At the GTX 1060’s MSRP of $249, the card is countered by AMD’s Radeon RX 480 8GB for $239. The RX 480 is a very capable card, but the launch of the GTX 1060 puts an end to AMD’s short-lived exclusive to that market. And to NVIDIA’s credit (and AMD’s chagrin), the GTX 1060 is 12% faster while consuming less power at the same time, more than justifying the $10 price difference and giving NVIDIA a legitimate claim as the superior GPU.
PCGamer:
If the question comes down to AMD's RX 480 or Nvidia's GTX 1060, at the suggested retail prices of $200/$240 for the 4GB/8GB RX 480 versus $250 for the GTX 1060, there are a few ways to look at things. For the games we've tested, overall the 1060 beats the 480 8GB by ten percent on average, with a theoretical (for now) price increase of four percent. Winner: GTX 1060. But for a lot of games, there's not a huge difference between RX 480 4GB and 8GB; 25 percent higher price for 10 percent more performance? Winner: RX 480 4GB (provided you can find it for $200). In either case, I'd suggest setting your sights on 1080p Ultra or 1440p High, or you're likely to end up with some stuttering.
Voeg hier het "AMD sucks" napraten aan toe en combineer dat nog eens met het feit dat de RX480 eigenlijk veel te duur was in Nederland (> 300 euro geweest i.p.v. de MSRP) en relatief slecht leverbaar en je kunt wel een redelijke conclusie trekken waar het is misgegaan.

Psst: mijn laatste AMD kaarten waren als volgt: HD4870 1GB, HD5870 CFX en HD6970 CFX en de 4000 serie ontbreekt onterecht in je rijtje ;-).

[Reactie gewijzigd door Vipeax op 24 maart 2018 12:28]

Je kunt ze natuurlijk moeilijk 'gewoon beter' noemen, het is maar net waar je prioriteiten liggen. De 1060 is simpelweg efficiŽnter dan de 480 en de 580. Nu zal dit voor de meeste casual gamers geen noemenswaardig verschil maken op de stroomrekening, maar voor compacte systemen is het wel degelijk belangrijk. Toen ik mijn 1060 kocht waren er Łberhaupt nog geen 480- of 580-modellen in het ITX-formaat. Inmiddels zijn die er wel, maar nog steeds produceren die veel meer hitte, wat in een kleine kast nu eenmaal lastiger af te voeren is. Daarnaast maken ze hierdoor ook meer herrie, wederom iets waar ik niet op zit te wachten omdat mijn pc in de huiskamer staat. Ook vandaag de dag zou ik de 1060 dus boven de 480 of 580 verkiezen. Ik heb het daarnaast nog niet eens gehad over de ontzettend slechte verkrijgbaarheid en de hoge prijzen van AMD-kaarten door de mining-hype. Okť, Nvidia-kaarten zijn daardoor ook compleet overpriced, maar vooral bij de 480 en 580 ging dat nog wel een stapje verder. Er zijn dus wel meer redenen te bedenken om voor Nvidia te kiezen dan alleen de drivers.

Kleine aanvulling: Ik ben overigens tot en met de R9 290 een AMD-gebruiker geweest en ik ben absoluut niet 'groen gekleurd' om het zo maar even te noemen. Toen heb ik echter de overstap van micro-ATX naar mini-ITX gemaakt en ben ik overgestapt naar Nvidia, vooralsnog tot grote tevredenheid. Neemt niet weg dat ik geen fan ben van dit soort 'Partner Programs' om fabrikanten in een bepaalde hoek te dwingen. Ook vind ik FreeSync absoluut interessanter dan G-Sync.

[Reactie gewijzigd door MiBe op 24 maart 2018 12:23]

Dat is ook nog een issue voor AMD, de kaarten worden gewoon een stuk beter nadat ze gereleased zijn. Dit valt niet te zien in benchmarks die gelijk gemaakt zijn wanneer de kaarten uit zijn gekomen. Ik hoop dat AMD het voor elkaar krijgt om vanaf de launch al geweldige drivers te hebben, zodat ze niet slomer lijken bij release.
Nee, sorry. Totale onzin is het toch echt niet en de consument is ook niet zo heel erg gestoord wat dit betreft. Alles wat hier gebeurt is prima te verklaren.

RX480 was een prima release. Niets van te zeggen - launch drivers waren OK, de kaarten kwamen er goed uit qua performance, prijs was adequaat. Maar was het nou een release waarmee AMD echt de markt open kon breken en weer echt marktaandeel had kunnen pakken? De perf/watt ligt toch weer net even iets achter op de directe concurrent, en je zegt de 480 is beter dan de 1060... nou... dan weet ik niet welke bench je hebt bekeken maar dat is niet het geval; de 1060 6GB staat toch redelijk op voorsprong - en doet dat met een lager TDP. En ga je overklokken dan loopt ie nog verder uit, want de 1060 is vťťl consistenter qua clocks en temps dan de 480.

Maar dat is die midrange, en dat was de midrange van meer dan een jaar geleden. We leven inmiddels in 2018, en ondertussen is er een RX580 uitgekomen maar dat was niet echt een '1060 killer'. Ook wederom: niets mis mee, maar er was ook niets bijzonders aan, sterker, het was gewoon een 480 met iets hogere clocks. En daarboven? Feitelijk, realistisch gezien heeft AMD niets te bieden vanaf de GTX 1070. Dat is nogal wat, want dat is wat tegenwoordig als de 'hogere' midrange wordt gezien, nu 4K en hoge FPS een dingetje aan het worden zijn. Dus het gaat zeker niet louter om een 1080ti, dat is voor AMD onderhand een soort unicorn die heel ver in de verte misschien een keer geevenaard gaat worden. Vooralsnog is er nul komma nul dat er op wijst in elk geval. Heel concreet ligt AMD nu meer dan 35-40% aan performance achter op de concurrent en dat is 'shocking'. Niemand is ermee geholpen om dat gegeven te bagatelliseren. Ter vergelijking: als een AMD FX CPU 10-15% achter loopt op de Intel release van dat moment, zijn de rapen al gaar - dat waren ze namelijk ook destijds. We hebben 't hier over bijna het drievoudige 'maar ach, het is maar een 1080ti die toch niemand koopt'... Vreemde gedachtengang als je 't mij vraagt ;)

Alle andere releases van AMD van de afgelopen twee jaar zijn:
- zwaar verouderd of ingehaald door de realiteit (een Fury X die tegen z'n 4GB aan loopt te hikken versus een 980ti met 6GB, en daaronder een serie reeds gerebrande Hawaii spullen die erg warm lopen)

- niet of slecht beschikbaar (Vega is een perfect voorbeeld; bijna de gehele productiecapaciteit wordt verkocht als een MI25 of Frontier versie. En dan was er nog de bait and switch/rare constructie van die introductieaanbieding met FreeSync korting, die vrijwel niemand kon krijgen).

- veel te laat gereleased (Vega en RX580 zijn ondoordachte releases, too little too late heet zoiets)

- niet zonder problemen gereleased (wederom Vega: dť kaart die het Nvidia moeilijk zou moeten gaan maken, komt dermate te kort tegen het beoogde Nvidia kaartje (de 1080) dat ze 'm veel te ver hebben gepushed en reviewers nota bene moeten uitvinden dat een lagere power target tot betere perf leidt. Dat is gewoon van de zotten. En dan heb je nog het primitive shaders verhaal en andere arch. features die niet leiden tot een performance boost, maar wel als zodanig in de AMD slides werden gepresenteerd)

- gekenmerkt door trage of niet-bestaande AIB support (ook voordat GPP een ding was, duurt het lang, en zijn de koeloplossingen redelijk tot matig te noemen. Het kwaliteitsniveau ligt hier aantoonbaar lager dan bij een Nvidia AIB kaartje op gelijk prijspunt. En wat dacht je van Vega, wederom? MŠŠnden heeft het geduurd voordat er wat keus was, en zelfs nu nog komen er mondjesmaat wat Vega kaarten uit)

Nu kan je dit hele lijstje ophangen aan de AIB's die zich maar niet gedragen... maar dat vind ik niet eerlijk. AMD laat hier zťlf een heleboel liggen en dat is zeker niet de eerste keer. En dat is schadelijk voor een fabrikant die al heel wat imagoschade heeft op te poetsen vanuit het verleden. Er gaat zowat geen generatie kaarten voorbij of er is wel een hardware(!) manco met een AMD kaart, of support/driver performance die als mosterd na de maaltijd komt. Het wordt zeker beter de laatste tijd, maar die erfenis duurt toch echt even om weg te poetsen.

Dit alles riep ik een jaar geleden al, zowel voor als nŠ Vega, en ik heb daar redelijk wat minnetjes voor mogen ontvangen, maar wederom: stap even uit de emotie en bekijk de markt voor wat ie is. Er moeten grote sprongen voorwaarts gemaakt worden, en snel. Zo'n GPP doordrukken lukt Nvidia nu alleen maar omdat AMD staat waar het staat. Op goodwill van de community/fans en mooie beloftes kun je geen business bouwen, maar dat doet AMD wel, veel te veel, zonder dan ook te gaan leveren.

Persoonlijk, en dat is hier sowieso geen populaire mening, ben ik er allang van overtuigd dat RTG heel snel moet worden overgenomen door een andere, grote partij zoals Samsung. Een partij die wťl de benodigde inhaalslag kan financieren en de boel strak gaat managen ipv die vreemde capriolen die we Raja hebben zien uithalen. Voor AMD is deze divisie wat het altijd, sinds ATI geweest is: een blok aan het been; en tegelijkertijd moeten ze het toch behouden vanwege hun custom/APU business. Lastig verhaal.

[Reactie gewijzigd door Vayra op 24 maart 2018 13:13]

Het enige waar wij brainwashed door zijn geworden is mond tot mond reclame.... als iedereen zegt, nvidia is beter, wie is pietje puk dan om AMD te kopen. Zolang zoveel mensen zeggen.... NVIDIA NVIDIA NVIDIA. word het geen AMD. ZO ver ik weet ben ik meer aangetast door mensen die zeggen, dan reclame van NVIDIA zelf. Omdat ik weet of hoor dat het beter is....
Dat komt ook omdat het op de kleinere details zo is voor heel veel zaken. En de factor tijd speelt hierin ook een grote rol, zowel vanuit het verleden en ervaringen met een of beide merken, als ook de tijd binnen de huidige, of ťťn GPU generatie. Nvidia is 'first' met zo'n beetje alles wat nieuw is of voelt. Dat geldt voor de Game Ready drivers (alleen de naam al, ook een stukje marketing), maar het geldt bijvoorbeeld ook voor zaken als Gsync versus FreeSync, het geldt nu zometeen voor Ray tracing vermoedelijk weer net zo, maar ook andere kosteloze zaken zoals Shadowplay, in-home streaming via een SHIELD, gebruiksvriendelijke drivers (al vind ik GFE een draak, maar goed, het is er wel) en game-tweaks, en ook de features binnen GameWorks die breed worden gedragen en ook richting AMD kaarten komen... Het zijn allemaal kleine speldenprikjes die dat beeld opbouwen en onderhouden. En vanaf de Fury X is er dan nog het belangrijkste gegeven en dat is de absolute performance en perf/watt.

Begrijp me niet verkeerd ik zie het ook liever meer in balans, maar AMD is hier echt al jŠren zelf bij.

[Reactie gewijzigd door Vayra op 24 maart 2018 13:26]

Performance per Watt vind ik persoonlijk alleen te verantwoorden als hitte een probleem kan worden in kleine cases.
Noise van koeling speelt ook mee. nVidia wint dat wedstrijdje wel altijd.
Wat een onzin, de RX480 en de RX580 waren gewoon beter dan de 1060. Iedereen kocht alsnog massaal de 1060 for w/e reason.
De reden is dat er in heel NL geen rx480/580s te krijgen waren omdat de cryptominers ze allemaal opkochten. Het heeft niet veel met fanboyism te maken.
Zelf heb ik voor de 1060 gekozen omdat de AMDs slecht verkrijgbaar waren en de 1060 3gb goed te betalen was, 230 euro ipv 300.

Ik vind dat je een beetje zit te zeuren.
Wat een onzin, de RX480 en de RX580 waren gewoon beter dan de 1060. Iedereen kocht alsnog massaal de 1060 for w/e reason.
Wellicht handig dat even te onderbouwen want bijvoorbeeld techpowerup had het volgende te melden
Soon, we will be seeing custom design cards for the GTX 1060 (some even today), and custom design RX 480s should be out real soon as well, which could shift the balance slightly, but overall, I'd say the GTX 1060 comes out a winner over the RX 480. All these considerations were assuming that GTX 1060 pricing will gravitate toward the Founders Edition price of $299 - just like it with GTX 1070 and GTX 1080 right now. Should there actually be GTX 1060 cards that retail for $249, any hopes of AMD will be dashed because the GTX 1060 will also beat it in performance-per-dollar, leaving AMD with no real wins with which to convince potential buyers.
De performance summary over is daar ook duidelijk in het voordeel van de GTX 1060 en anno 2018 zijn er nog een aantal games die op DX11 totaal niet lopen, niet alleen gameworks titels bijvoorbeeld ook Civilization VI. Dus nee het was niet zo dat de RX 480 meteen de doodgeverfde winnaar was.

Maar vervolgens kwam het echte probleem. Alleen de orders kort naar de launch zijn voor de beloofde prijs geleverd. Daarna was er een tijd geen enkele RX 480 te krijgen en toen ze terug kwamen waren ze flink duurder. Je was gemiddeld 300 euro kwijt voor een RX 480 en niet de beloofde 199 dollar.

Derde probleem was dat de RX 480 in juni uitkwam maar de custom kaarten pas in augustus. Een blower koeler is echt niet meer van deze tijd. Als jij nu een pascal kaart koopt met een custom koeler dan kun je in belachelijk veel games zonder dat je fan uberhaupt gaat draaien gamen. Sterker nog, er is geen enkele game waarbij mijn videokaart nu hoorbaar geluid produceert (wel een dure Be Quiet Dark Base 700 kast). Dat is in 20 jaar pc historie nog niet voorgekomen.

Uiteindelijk kwamen die custom RX 480's wel, echter dan had je nog een flink aantal nadelen. Je kocht en kaart die nog altijd niet stil was en in DX11 titels (90% vd markt) vaak achter bleef. Voor de prijs hoefde je het ook niet te doen, voor dezelfde 300 euro had je een 1060 armor. EVGA zat er zelfs flink onder.
edit*
De 5000 serie was beter, de 6000 serie was beter, de 7000 serie was slechter op release, maar na paar maanden on par/beter.
Hangt er maar net vanaf naar welke kaart je kijkt. Tijdens de 5 serie ben ik voor de MSI GTX 460 Hawk gegaan. Een chip met een baseclock van 675Mhz die door MSI op 780 Mhz was geclockt en die kon worden overgeclocked naar 950 Mhz. Dat ding kostte $249 terwijl hij sneller was dan de $310 kostende 5850. Met de genoemde overclock zat hij 1 fps onder de $400 kostende 5870. https://www.techpowerup.com/reviews/MSI/GTX_460_HAWK/

Tijdens de Geforce 6xx serie was er ook zo'n topper; de GTX 660 Ti Power edition. Die ging met zijn overclock de $110 duurdere 7970 voorbij. Alleen de $500 7970 Ghz edition bleef sneller.
Lijkt er ook op dat iedereen vergeet wat een toasters de GTX400 tot en met 700 serie waren? Het is volgens mij pas sinds Maxwell dat Nvidia pas echt performance per watt winsten gemaakt heeft tov AMD, kan ik fout hebben.

....

Nu hebben mensen het ook steeds over de TDP en verbruik, ik herhaal wat ik ook gereageert heb ergens in de comments en men kan mij corrigeren waar nodig:

Performance per Watt vind ik persoonlijk alleen te verantwoorden als hitte een probleem kan worden in kleine cases. 60w meer verbruik, en 20 cent per kWu. Dat betekent dat elke 16 uur en 40 minuten dat je dat ding vol aan hebt staan je 20 cent extra betaalt (1000Wu / 60W = 16.66667) tov van een Nvidia kaart. Origineel waren de prijzen 240 dollar voor de 8gig vs 250 dollar voor de 6gig. 10 dollar is ongeveer 8 euro. 8/0.2 = 40 kWu extra te verspillen voor je gelijk speelt. Dat is dan 40x16.6667 = 666.6667 uur spelen voor je uberhaubt meer gaat betalen en daarna praten we dus alsnog over peanuts. Helaas waren availability en prijs stijgingen funest en gaat het niet allemaal meer op, maar dit is de meest basale release vergelijking die ik zo tevoorschijn kon toveren. Later waren de prijzen in NL zo een 330/350 voor de 6gig 1060 en rond de 280/300 voor de 8gig RX480. Uiteraard voordat mining alles verpestte in het algemeen.
Hier lijk je jezelf tegen te spreken. Immers eerder vind je het nog geen probleem dat een kaart meer stroom verbruikt en nu heeft Nvidia ineens toasters gemaakt? Nvidia heeft inderdaad jaren lang terecht de klacht gekregen dat ze power hungry kaarten verkochten. Daar zijn ze mee aan de slag gegaan en daar was Kepler (6xx) eigenlijk al de eerste stap in. Maxwell (750 Ti de eerste) was nog beter. Verschil tussen toen en nu is dat het in die tijd niet zoveel uitmaakte. Of je nu een AMD of Nvidia kocht, herrie had je eigenlijk altijd wel. Sinds 2016 kun je echter semi-passief het gros van je games spelen. Dat kan, als jij daar waarde aan hecht, een verkoop argument zijn.
edit 2*

Vanaf het begin in de meeste benchmarks die ik gezien heb (Hardware unboxed op youtube vooral) was de RX480 al erg interessant in DX12 en Vulkan. de RX480 had een 8gig VRAM en een in mijn ogen betere toekomst dankzij de betere DX12 support. Ik ben zelf een persoon die zo een 3/4 jaar doet met een kaart van 300 euro, dus op die manier keek ik er dan ook naar. En op het moment van release was de kaart nog 10 dollar MSRP goedkoper ook. Helaas uitte dit zich totaal niet in de echte wereld door verkrijgbaarheid. De Sapphire Nitro RX480 kwam uit rond 300 euro en de RX 580 ook voor zo iets. De MSI 1060 6g kwam uit voor 350 euro. Dat was in mijn ogen toch echt een flink verschil. https://www.youtube.com/w...t6QZTDxE&feature=youtu.be
In de regel is het niet interessant 3-4 jaar met een videokaart te doen. Meestal gaan de ontwikkelingen zo hard dat elke 1.5-2 jaar er minimaal 40% performance bij komt. Dan zit je na die 4 jaar op een bijna 2x snellere kaart. Veel tweakers maken dan ook gebruik van V&A om zo tussendoor te upgraden.
Edit 3*

Heb zelf een GTX 960 trouwens. Reden voor koop toender tijd was puur dat ik geen zin had een refresh van een kaart uit 2012 te kopen in de 280x. Stock versloeg de 280x de 960 EN had 3gb vram, terwijl mijn GTX 960 slechts 2gb heeft. Na overclocken verslaat de 960 de 280x dan weer.
De GTX 960 was wat mij betreft een nare streek van Nvidia. Het ding had dezelfde zo niet slechtere prestaties per dollar dan de GTX 970. Normaal krijg je naar mate je meer uitgeeft altijd minder voor je geld terug, diminishing returns. Nvidia heeft door de GTX 960 traag gehouden en vervolgens de GTX 970 heel agressief op $299-$329 ipv $400 (GTX 770) gezet om zo iedereen naar die duurdere kaart te pushen. Dat is gelukt, de GTX 970 werd de succesvolste kaart ooit voor Nvidia en de nummer 1 in de steam survey.

De GTX 1060 3 GB heeft een tijdje voor 220 in de winkels gelegen, dat was IMO wel een leuke upgrade voor de budget range. VRAM is in games zelden een issue omdat je altijd de texture quality omlaag kunt gooien.

[Reactie gewijzigd door sdk1985 op 24 maart 2018 17:54]

Niks met brainwashen te maken maar gewoon feiten en eigen ervaringen.. Als AMD echt beter zou zijn voor hetzelfde of minder geld dan hadden ze nu echt wel marktleider geweest.. Of in ieder geval dichter bij Nvidia gezeten qua verkopen.. Maar het is 'not even close'..

Ik heb vroeger echt wel AMD/ATI kaarten gehad, maar het simpele feit is nou eenmaal dat Nvidia z'n zaakje al vele jaren beter voor elkaar heeft op dit moment, zeker in het hogere segment, en dus gebruik ik ook al een aantal generaties alleen maar Nvidia videokaarten..
Heeft ook grotendeels met voorkeur en marketing te maken. Hetzelfde als Dacia en Porsche samen een auto zouden uitbrengen, maar verkopen het onder hun eigen merk voor dezelfde prijs. Waar zullen er dan meer van verkocht worden?

1 heeft gewoon een veel betere naam opgebouwd omdat het al jaren de performance king is. Maar dat zegt niet meteen dat ze op elk vlak beter zijn.

[Reactie gewijzigd door Crp op 24 maart 2018 12:37]

Drivers zijn probleem niet. NV heeft ook de nodige hardware en driver problemen.
NV is gewoon zeer lang bezig met agresseve marketing maar ook opdringerige onspdersteuningen en stop kapitaen in om met cuda de pro markt te winnen. Wat overigens ool gelukt is.
Daarmee ook de cash reserves om refreshes uit te brengen die gpu zuiniger en betere performance leveren. Ze zich A status aan meten en d markt en massa daar in mee gaan.

AMD Radeon heeft de marketing budged niet een CPU tak die hun naar dal trekt en missen van refreshes.
En dure HBM.

Dus radeon afdeling zal nu afhankelijk zijn van CPU tak of die de reserves kunnen aanvullen en Radeon slagkracht kunnen vergroten in markt waar barrierres zijn opgezet.
Om eerlijk te zijn vond ik het zelf sinds de 900 serie niet meer te verantwoorden om een AMD te kopen juist vanwege de performance per watt. Als je tenminste zelf je stroomkosten betaald. Dit zou ook zeer zeker de reden kunnen zijn waarom mensen de GTX1060 verkiezen boven een RX480 en RX580.
Performance per Watt vind ik persoonlijk alleen te verantwoorden als hitte een probleem kan worden in kleine cases. 60w meer verbruik, en 20 cent per kWu. Dat betekent dat elke 16 uur en 40 minuten dat je dat ding vol aan hebt staan je 20 cent extra betaalt (1000Wu / 60W = 16.66667) tov van een Nvidia kaart. Origineel waren de prijzen 240 dollar voor de 8gig vs 250 dollar voor de 6gig. 10 dollar is ongeveer 8 euro. 8/0.2 = 40 kWu extra te verspillen voor je gelijk speelt. Dat is dan 40x16.6667 = 666.6667 uur spelen voor je uberhaubt meer gaat betalen en daarna praten we dus alsnog over peanuts. Helaas waren availability en prijs stijgingen funest en gaat het niet allemaal meer op, maar dit is de meest basale release vergelijking die ik zo tevoorschijn kon toveren. Later waren de prijzen in NL zo een 330/350 voor de 6gig 1060 en rond de 280/300 voor de 8gig RX480. Uiteraard voordat mining alles verpestte in het algemeen.
Daar komt ook nog het idle verbruik bij en het feit dat je een stillere kaart hebt.
De kaart gaat bij mij zo'n 3 a 4 jaar mee na welke tijd hij inmiddels dus al een stuk goedkoper is dan de AMD. Hierna schuift hij op naar de pc van mijn vrouw waarna hij ook nog 3 tot 4 jaar mee gaat.
Verder heb ik hem ook gekozen vanwege features i.c.m. mijn G-sync monitor en ULMB en gamestream naar mijn shield tablet. Dit is dan echter weer meer een persoonlijke keus.
(Ik heb zelf een GTX970 trouwens.)
Voor deze tijd heb ik eigenlijk altijd ATI kaarten gehad, met 1 keer een uitstapje naar een GTX680 om eens te proberen.
https://youtu.be/H6st6QZTDxE?t=866 Idle verbruiken zijn verwaarloosbare verschillen.
En een RX580 is ook een stuk goedkoper wanneer je de monitor er bij betrekt. G-sync is gewoon duurder dan FreeSync.
De R9 290x is nu beter dan een 780ti, de 7970ghz is on par met een gtx960 ondanks dat dat ding uit 2012 komt.
Dat kom natuurlijk door AMD’s ingebakken FineWine technologie! ;)

[Reactie gewijzigd door Crp op 24 maart 2018 12:56]

FineWine kent enkel zijn bestaan omdat de drivers vaak bij release voor AMD kaarten vrij brak is, of bij de release van een nieuw spel.
Na verloop van tijd worden er inderdaad vaker hogere performance winsten gewonnen dan Nvidia dit doet, maar bij Nvidia halen de kaarten vaak al het onderste uit de kan qua performance, vooral sinds de 'wonder drivers'.

AMD kaarten zijn qua hardware soms net wat beter op papier en in specificaties, maar de software nekt ze, waardoor het constant een gevecht voor performance is wat traag op gang komt, hetzij door de hogere driver overhead op de CPU als voorbeeld.
Het is dus maar de vraag of de gemiddelde gamer wilt wachten tot zulke problemen worden opgelost, want veel gamers willen een nieuw spel spelen in de eerste weken dat deze uit is gekomen, en dat is dan precies de periode waar AMD dan vaker problemen heeft, dat kan best irritant zijn.

Het keerpunt is de ondersteuningstermijn, want AMD kaarten krijgen geregeld minder jaren lang ondersteuning dan bij Nvidia het geval is, tevens worden blijkbaar minder goed lopende besturingssystemen sneller aan de kant gezet. (want ja, budget)

Dat een oude serie Nvidia kaart bij lancering van een nieuwe serie slechter gaat presteren op nieuwe drivers is echt lariekoek van de bovenste plank, en het is ook meermaals bewezen dat dit onwaar is en dat zelfs de performance vaak nog lichtelijk omhoog gaat globaal over de jaren heen.
Soms kan er natuurlijk wel een bug in de driver zitten dat een bepaald spel ineens een performance probleem heeft, dat ben ik persoonlijk echter in meer dan 15 jaar ervaring amper tegengekomen, en het werd wel opgelost.

Mensen zeiken vaker dat hun benchmark score enkele punten lager ligt dan met de oude drivers, maar dat is een margin of error en kan ook aan andere dingen liggen, de meeste die vuil hierover spuwen op forums hebben vaak niet eens heel veel kennis maar kijken enkel naar scores op een niet-geoptimaliseerd ingericht systeem.
Wat een onzin, de RX480 en de RX580 waren gewoon beter dan de 1060
|:( Behalve dat dit niet klopt (RX580 kan net aan een 1060 tippen en een RX480 is net aan vergelijkbaar met een 970) was het doel van die RX580 om het gevecht met de 1080 aan te gaan, iets wat ze zijn verloren.

Die AMD kaarten zijn goed voor streamers en miners, Nvidia kaarten zijn goed voor gamers, en met een 1080 Ti veeg je keihard de vloer aan met enig aanbod van AMD.
Ben ik daar blij mee? nee (want daardoor houd Nvidia de prijzen hoog)
Is het de harde realiteit dat Nvidia momenteel een behoorlijke voorsprong heeft opgebouwd? ja.

Begrijp me niet verkeerd he, ik was behoorlijk enthousiast toen AMD uit de doeken deed wat ze van plan waren met Ryzen en Vega, maar ze hebben hun dromen niet kunnen vertalen van het papier naar de werkelijkheid, beide zijn zeker een goeie stap voor AMD geweest, maar Nvidia en Intel lachen om die hardware, je hebt immers niet zoveel aan een betere cpu/gpu als dat alleen maar in specifieke gevallen opgaat, en je vervolgens (typisch AMD) de kwaliteit niet kan waarborgen.
de RX480 en RX580 zijn nooit tegen de 1070 nog 1080 aangezet. Was altijd bedoelt als midden segment, denk je daadwerkelijk dat ze een 240 dollar MSRP gaan lopen verkopen als een counter tegen een 500 MSRP kaart? Denk even na AUB
Ik denk dat iedereen zijn eigen ervaringen heeft (gehad), en daardoor voorkeuren opbouwt. Maar dat legt de beweging van een grotere massa niet uit (zal wel uitmiddelen..).

Ik denk dat een stukje driver ontwikkeling er mee te maken heeft. AMD kaarten gaan in loop van tijd met nieuwere drivers en game profiles beter presteren (iig historisch gezien meer vooruitgang dan NVIDIA), maar dan zijn vaak reviews allang geschreven en worden maar zelden her-reviewed...
Natuurlijk worden oudere kaartenwel meegenomen in reviews voor de nieuwste generatie, maar waarom zou je dan nog de oude kaart kopen..

Dit kan dan in het voordeel werken voor NVIDIA, zelfs als aan het "einde van een generatie" AMD de betere keus blijkt te zijn dankzij de inhaalslag. Het is alleen vervelend als deze informatie lastig te vinden is.
Er zijn zat amd kaarten die meer raw performance hebben dan hun NVIDIA equivalent. Echter is het NVIDIA (meant tot be played), die mee investeren met devs en sloten develop hardware (early Acces), waardoor games vaak beter optimized zijn. Daardoor scoort inferieure hardware beter in die games.

Dat zag je ook met minig, waar de hashrate hoger lag op AMD kaarten. (Perf/Watt daargelaten)

NVIDIA investeert veel meer in het mee optimized van games.

[Reactie gewijzigd door lodew op 24 maart 2018 12:09]

Maar maakt dat uit? Wat heb je aan raw performance als de game er uiteindelijk niet beter door draait?
Ok als wat Nvidia doet er voor zorgt dat het slťchter draait op AMD, dan zou dat een hele slechte actie zijn, maar volgens mij heeft nog nooit iemand dat kunnen bewijzen (en ik geloof het ook niet). Als Nvidia er voor zorgt dat games gewoon soepeler draaien op hun hardware door de devs te ondersteunen, dan zie ik daar geen enkel probleem in en is het gewoon een voordeel voor de gamer met Nvidia hardware.
Wanneer de devs "kiezen" voor een proprietary oplossing die enkel op 1 van de 2 fabrikanten werkt dan naaien ze gewoon de gebruikers van de andere. Als ze dan nog eens devhulp krijgen (en marketing) wordt het helemaal onnozel. Waardoor het vanzelf slechter draait dus.
Rechtstreeks tegenwerken? Buiten wat SG al aangaf, misschien niet. Maar als je een goed developped game met GameWorks/TWIMTBP tegenover een goed developped game zonder zet, werd het al rap duidelijk dat er eigenlijk niet zo'n hard verschil zat tussen een AMD kaart en Nvidia kaart van ongeveer hetzelfde kaliber. Maar dat vergt dus meer werk (zowel in dev als testing) van de gamedeveloper. En dus meer geld.
Het is niet zo netjes van Nvidia dat ze "zoveel" aanbieden, maar het is nog minder netjes van de gamedevelopers die daarvoor kiezen, want dat is bewust de andere gebruikers naaien. Een dikke middelvinger naar 20% van je klanten is gewoon not done. En toch doen ze het, en graag, en stoefen ze er nog eens over ook.
Tja, zo kun je het zien... Ik zie het meer als dat die dev ook maar probeert om rond te komen. Als Nvidia dan hulp aanbiedt om de boel te optimaliseren voor hun kaarten, die toevallig ook het merendeel van de markt uitmaken, terwijl als je hetzelfde voor AMD moet doen moet jij er zelf een hoop geld tegenaan gooien... vind je het dan werkelijk raar dat ze de hulp van Nvidia accepteren en het voor lief nemen dat AMD dan maar wat minder goed loopt?
En het is niet alsof het slecht loopt op AMD, toch? Tenminste dat is wat alle pro-AMD mensen hier aan het verkondigen zijn, dat games prima lopen op AMD, toch?
Te zien wat je verstaat onder slecht tbh. Een 10% verschil waar er 1% verschil hoort te zijn is behoorlijk wat. En sommige games draaien gewoon wel slecht, maar het voorbeeld dat ik in gedachten heb ben ik niet 100% zeker of het aan de AMD cpu of AMD gpu lag.
Sommige games draaien significant minder goed op AMD dan op Nvidia puur duur Nvidias inmenging. Meestal valt het redelijk goed mee. Stabiliteit is soms een groter probleem.
Keiharde bewijs is onnozel hoge testalate setting voor simple object in gamework game.

Iets dat object mesh balk heeft waar 8 vertices voor nodig hebt even paar duizend van maken
In default setting.
Naai je AMD en ouder NV kaart gebruikers.
Dat is echter wel met regelmaat het geval doordat Nvidia en de ontwikkelaars zo onvriendelijk te zijn Nvidia-only tech in het spel te verwerken op zo'n manier dat je moet weten waar je het uit kan zetten (volgens mij kon zelfs dat af en toe niet). Dan kan een AMD-kaart zo sterk zijn als je wilt, maar dan zal die er ALTIJD moeite mee hebben aangezien er command lines tussen zitten waar het niet mee overweg kan (en vanwege licenties, mag) gaan.
Er zijn zat amd kaarten die meer raw performance hebben dan hun NVIDIA equivalent. Echter is het NVIDIA (meant tot be played), die mee investeren met devs en sloten develop hardware (early Acces), waardoor games vaak beter optimized zijn. Daardoor scoort inferieure hardware beter in die games.
Bron?

Als je kijkt hoe games worden ontwikkelt dan zie je al snel dat jouw verhaal lulkoek is. Games zijn helemaal niet 'geoptimized' voor een bepaald GPU merk. Sterker nog, AMD en NVidia moeten iedere maand nieuwe 'optimized' drivers uitgeven omdat game developers trage HLSL shaders gebruiken die dmv een driver patch on-the-fly worden geoptimized.

Dat een GPU merk gamedevelopers vertelt hoe ze snellere shaders kunnen schrijven waardoor de IL sneller is at runtime is logisch, maar dat is geen black box: veel technieken zijn allang bekend en oeverloos gedocumenteerd en hoe je dingen moet optimizen in shaders is allang geen wizardry meer.
Dus omdat 1 serie beter is dan 1 kaart van Nvidia is AMD opeens stukken beter? Sorry, maar prijs en kwaliteit gezien is het heel simpel dat er voor de 1070 en de 1080 AMD niet eens in de buurt komt en zal komen.

Dus nee, 1 video kaart verslaan in het budget segment maakt je niet gelijk stukken beter dan de concurrent.
de hele RX serie was beter dan hun Nvidia counter. AMD had uberhaubt geen top segment.
Feit is dat hele stammen pc gebruikers niet een 1070 of 1080 kopen... ;)
Dit zou ook te maken kunnen hebben met de samenwerking tussen Intel en AMD. Een ander iets, voor §500 is de 580 wel wat aan de dure kant maar dat komt door al dat mining.
Voor de budget kaartjes geloof ik wel dat AMD voorloopt op sommige kaarten van NVIDIA maar MSI heeft een punt.. niets beat een 1080TI atm en dat is de reden waarom de hardcore pc markt vol op NVIDIA zit...
Ik stond dan ook helemaal klaar om de vega een kans te geven maar niet verkrijgbaar en toen begonnen de prijzen ook snel te stijgen. Maar snel een 1070ti gehaald en voila even week later was die meer dan 130 euro duurder geworden. Jammer want altijd super tevreden geweest over mijn AMD kaarten, meestal met Sapphire cooler. Volgende keer maar weer ^^
Hi, je roept 'is beter is beter' zonder onderbouwing of referentie, ok, je verwijst 1x naar youtube. Ik vindt je betoog zo niet veel waard.
TDP is geen concern van stroomverbruik, maar van hitte. Een laptop is nou eenmaal erg compact en AMD chips produceren nou eenmaal veel meer warmte voor dezelfde prestaties. En dat is precies wat je niet wil hebben in een laptop. En als je daardoor je hardware moet downclocken of nog erger, alles gaat throttlen, dan willen mensen liever nVidia.

https://www.anandtech.com...-vega-64-and-56-review/19
https://www.hardwarezone....nsumption-overclocking-45
Ja vind ik ook ik vind amd /ati de laatste tijd heel erg goed bezig en kan en is een gezonde concurent van intel nvidia geworden, op sommige benchmarks zijn ze gewoonweg sneller en beter.
Ik heb een 280x 3GB met een i7. Kan bij elk modern spel nog bijna alles op ultra spelen op een paar kleine elementen na, die je op 1080p niet eens gaat zien. Oud ding, gaat nog steeds prima mee en daar valt wat over te zeggen.
Even off topic: de videokaarten uitverkoop lijkt te zijn begonnen in de va! Meerdere aanbieders met meerdere kaarten in bezit! Nu vragen ze nog de hoofdprijs, het aantal advertenties neemt toe, dus dat betekend dat de prijzen gaan dalen! Ook moet dit iets met de nieuwprijs gaan doen. Goed nieuws voor gamers die een kaart nodig hebben.
Mensen zijn te brainwashed over "Bad Drivers"
Sorry, ik ben niet brainwashed.
Ik heb daar zelf ervaring mee en geloof me als je een paar keer meemaakt dat je midden in je game tegen een bluescreen aanloopt vanwege een slechte driver dan ben je er helemaal klaar mee.
AMD heeft deze situatie ook grotendeels aan zichzelf te danken door in het verleden met slechte producten te komen. Zo werkt dat in alle markten.
idem; komt er hier gewoon niet meer in; zo veel gezeik, koppijn, rma, driver gejank etc. (dan nog niet eens over linux gehad)
simpele motivatie; drivers ... :Y
Ik vind het tekenend dat je het belangrijkste argument om te bepalen of een kaart "beter" is afdoet als een persoonlijk argument.

Nvidia levert gemiddeld betere prestaties (2%) dan AMD (en dan is dit de 580 en niet de 480)
http://gpu.userbenchmark....-vs-AMD-RX-580/3639vs3923

En dat doen ze met ongeveer 65% van het stroomverbruik van AMD.

Dit is het gemiddelde van 200.000 GTX 1060 benchmarks tegen 20.000 AMD benchmarks. Betere statistiek dan dit gaat het niet worden.

Het ontwerp van NVidia is simpelweg superieur aan dat van AMD. Dat jij persoonlijk daar een andere mening over hebt, doet daar niets aan af.

En o.a. door dit veel lagere stroomverbruik, kun je zeker in kleinere formfactors als een laptop, waar koeling lastig is, dus veel beter een Nvidia kaart stoppen.

[Reactie gewijzigd door OriginalFlyingdutchman op 26 maart 2018 12:25]

Het is helemaal geen onzin nvidia is zwaar superieur kwa performance en al helemaal kwa stroom verbruik.
300watt TDP van AMD Vega 64 vs 180watt TDP van de Geforce 1080.

En de Geforce 1080 Ti die rondjes loopt rond de Vega 64 verbruikt zelfs maar 250 watt.
dat is dus het top segment, waar ik al duidelijk zeg dat Nvidia het wint. Maar daardoor winnen ze ook in het midden segment ondanks dat ze daar helemaal niet "King" zijn. Mensen zien 1080ti is het beste, dus zal 1060 ook beter zijn dan 580, wat uiteindelijk gewoon niet altijd het geval is zeker als men zou kijken naar DX12 benchmarks en Vulkan.
miners undervolten hun kaarten meestal, de cijfers komen gewoon van een wattmeter aan de muur, weet niet wie er leuk aan het wauwelen is. Maar goed, neem je 30w verschil maakt het jullie gezeur over energie kosten alleen maar triester. Neem ik geen MSRP maar daadwerkelijke inititiele sales prijzen van de RX480 8gig en de 1060 6gig zit je op een 50e verschil in het voordeel van AMD, Nvidia 16.67% duurder voor dezelfde performance. Ga je de berekening opnieuw doen word het dus 2x zo lang alleen al vanwege de wattage die volgens jou 30w is ipv 60w, en dan nog is ipv 8 euro verschil 50 euro verschil nog is 6x langer voordat je uberhaubt duurder uit bent door de aanschaf van een RX 480, dit allemaal terwijl je dezelfde performance ongeveer hebt en veel betere performance in DX12 en Vulkan. Dan ook nog is Freesync.

Dus kom maar met je tegen gewauwel
De prijzen die ik gegeven heb zijn de introductie prijzen van de Saphire Nitro RX480 8g en de MSI Gaming X 1060 6g, staat gewoon in de tekst. Zelfs de prijzen die jij geeft blijft mijn punt alleen maar in stand? Een prijs verschil van 40 euro, dat is alsnog een 15% duurdere 1060, voor slechtere performance in DX12, geen freesync en 2gig minder Vram, maar betere performance in DX11.

https://youtu.be/H6st6QZTDxE?t=1111 hier de oude benchmarks, bijna alleen DX11 titels. De enkele DX12 word door de RX 480 gewonnen. Het percentage prestatie verschil is in het begin dus gewoon het prijs verschil. Enkele maanden later opnieuw gebenchmarked, 1% avg verschil met weer vooral DX11.
https://youtu.be/H6st6QZTDxE?t=1157 RX580 Hergetest met DX12 titels waarin deze de 1060 verslaat in allen op Gears of War na. Al die benchmarks van sites zijn vaak met enkel DX11.

Zoals ik ook al eerder aangaf, zelf een Nvidia kaart niets amd fetish, gewoon een hekel aan mensen die onzin verkopen.

Maar ik neem aan dat HWU bij mensen zoals jij weer niet als een "Waardige" benchmarker worden gezien Į\_(ツ)_/Į.
De band tussen MSI en AMD is al heel lang niet wat het geweest moet zijn. Custom Vega heeft MSI nooit gedaan, het heeft enkel eigen blower-koelers die precies op het referentieontwerp lijken geproduceerd. De AM4-moederborden van MSI, en dan vooral de borden die bij de release van Ryzen beschikbaar kwamen, zijn ook niet van de kwaliteit die MSI bij Intel wel laat zien.

Het is jammer dat AMD op deze wijze al gelijk een stap achteruit wordt gedrukt, of dit nou komt door Nvidia's programma of puur de onderlinge verhoudingen tussen MSI en AMD maakt niks uit.
Het monopolie van Intel en Nvidia begint de laatste tijd enorm groot te worden waardoor zowel Intel, Nvidia als AMD in een vicieuze cirkel zijn beland: veel omzet = veel research & development = sneller nieuwe producten = meer omzet, weinig omzet = weinig research & development = later nieuwe producten = minder omzet.
Hebben we toch aan onszelf te danken.

Als Tweakers een poll zou doen, de meeste zullen gewoon een Intel met Nvidia hebben.

De "IT-Nerds" hebben meer invloed op de markt dan we denken. We zijn ook de aanspreek punten voor de henk en ingrids die gewoon geen interesse in al die meuk hebben. En wat raden de meeste van ons al vele jaren aan: Intel + Nvidia.

Als we een gezondere markt willen, moeten we daar even mee ophouden. Tijd om een jaar of wat gewoon blindelings AMD aan te raden en te promoten, tot ze minimaal weer gelijk zijn. De performance verschillen zijn al jaren niet meer zo belangrijk als een jaar of 10-15 geleden. Tijd om bedrijven aan te rekenen op hun beleid. Intel en Nvidia zijn achterdochtige concurentie uitsluitende monopolisten, waardoor we nu al een paar jaar achterlopen op "wat zou kunnen zijn".
Ik ga niet blindelings AMD aanraden. Het hangt van de persoon af. Als iemand wil gamen + streamen dan kan hij voor Ryzen gaan. Als een persoon alleen starcraft 2, of andere oude games die niet goed zijn gemultithread, speelt, dan raadt ik diegene toch echt Intel aan. Ryzen is dan gewoon geldverspilling.

Als het performance verschil bij gpus weinig uitmaakt zoals jij zegt, dan kun je beter het advies geven 'het maakt niet uit' dan dat je AMD gaat promoten uit een soort onderbuikgevoel dat je de markt recht moet trekken. Zo werkt het niet. AMD kan zijn eigen boontjes doppen. Ze zullen ook weer een antwoord vinden op deze trucs van Nvidia. Als ze dat niet konden zou het bedrijf allang niet meer bestaan. Ze kiezen ervoor om de underdog te zijn.

Zoals AMD zelf al eens gezegd heeft: "We could make a cpu thats faster than intel. you wouldnt be able to afford it"

[Reactie gewijzigd door Origin64 op 24 maart 2018 13:34]

Wat een onzin. Oudere games draaien ook prima op een low-end Ryzen dus waarom je dan het dure intel zou aanraden is me een raadsel.
Ryzen is duurder dan Intel i5 als je kijkt naar single threaded price/performance. De goedkope Ryzens hebben zeer lage clock speeds en de dure zijn duur.

Als je of helemaal in het ene, of helemaal in het andere kamp gaat zitten, ben je een fanboy en daar doe je niemand een plezier mee. Ook jezelf niet.

Bij intel zijn het vooral de i7s die zo duur zijn. hyperthreading doet bar weinig in de meeste games. spaar 100 euro uit door een i5 te kopen en ineens is het zo duur niet meer.

Voor goed paralleliseerbaar workloads als video renderen, of bepaalde nieuwe games, zijn de extra cores van ryzen wel doorslaggevend. Dan heeft een goedkope ryzen met lage clock speed de beste price/performance.

[Reactie gewijzigd door Origin64 op 24 maart 2018 13:45]

Mijn punt is als je oude games zoals starcraft 2 speelt dan kom je ook wel weg met een ryzen 3 en dan ben je wel degelijk goedkoper uit met een AMD-systeem.
SC2 heeft verschrikkelijke multithreading en blizzard blijft het spel met elke patch zwaarder maken. Veel mensen die geen up to daye pc hebben krijgen fps drops. Ik zou daarvoor zeker een cpu op 4GHz aanraden.

[Reactie gewijzigd door Origin64 op 30 maart 2018 21:10]

de dure zijn duur.
Meen je niet...
Dat werkt zo niet het blijkt dat AMD langere adem heeft dan Cyrix en S3 en 3DFX en Matrox.
Maar het houd ergens op. Als consument is lastig te zien of ze nog steeds nog aan verzuipen zijn in dal of hoever ze eruit geklommen zijn. En wat voor tegenslagen ze nog kunnen hebben.

Kan zijn dat nu even ivm gebrek aan resources CPU voorrang heeft. En nV daar zwaar misbruik maakt om die markt dan maa dicht te gooien zodat AMD GPU weg blijft.
Door de mining gekte blijft AMD iig nog verdienen aan wat ze nog produceren.

Maar dit doet de gamers markt op langere termijn niet goed.
AMD heeft net een grote slag gemaakt op de cpu markt. De RX580 was competitief met nvidia. niet elke arch die een bedrijf ontwerpt is even succesvol. Het is geen ramp als ze 1x niet de verwachtingen overtreffen.
het is op dit moment ook niet minder dan logisch om AMD aan te raden. op driver gebied zitten zowel AMD als Nvidia gewoon goed. de opties in AMD's driver software staan mij zelfs meer aan dan die van Nvidia. AMD bied simpelweg sterke hardware voor de prijs, die ook in de toekomst goed blijft presteren. het verleden laat zien dat Nvidia minder goed oud wordt dan AMD, mede door de grotere focus op het optimaliseren van software, wat niet vol te houden is voor oudere architecturen.

ik ben bijzonder blij dat ik nu ook op de CPU markt meer heb om aan te raden dan alleen Intel. de oude Bulldozer chips waren al jaren een slecht advies, zelfs op de low-end.
AMD heeft op driver gebied eigenlijk nooit echt achtergelopen. Beide hadden hun voor en nadelen.

Naar mijn ervaring zijn de AMD drivers een heel stuk stabieler. AMD bied ook al sinds ATI veel meer mogelijkheden. Waar je bij Nvidia het jarenlang moest doen met een outdated jaren 90 stijl en optieloze configuratie-achtig schermpje. Kwam AMD met hele toolsets om het uiterste uit je meuk te halen.

Tja die van Nvidia waren/zijn beter geoptimaliseerd, nou en?

Bulldozer is nooit een slecht advies geweest overigens.

Introductie was lastig, Windows, Linux, game engines... alles had patches nodig om het goed te supporten. Zodra dat een feit was. Op ARMA na, draaide alles zeker net zo goed als op de Intels. Buiten dat hebben we voor de gemiddelde gebruiker, gamer en zelfs workstation... al vele jaren een enorme overkill aan CPU power. Het beste is al jaren niet meer nodig.

[Reactie gewijzigd door batjes op 24 maart 2018 13:27]

Intel + NVIDIA hier ja :) meer perfomance = meer fps.. zo simpel
Ik wil best een Vega 56 of 64 kopen maar die zijn zowat nergens te krijgen en als ze wel verkrijgbaar zijn betaal je 1000EUR voor een 600EUR kaart... Ja sorry, ik wil best een AMD videokaart gebruiken maar met de huidige beschikbaarheid/prijs...
Ongeacht wat je voorkeur is (AMD of Nvidia) dit soort praktijken zijn echt funest voor de GPU markt.

Ik snap sommige comments hier ook echt niet, mensen die het dan eens zijn met hoe MSI hier handelt? Really? Het is bijzonder onprofessioneel en bovendien gaat dat hele GPP compleet tegen de keuzevrijheid in die je als consument juist wilt hebben.

Kijk alleen al naar de release van Ryzen, Intel stond gelijk op scherp, de 8 serie kwam eerder uit, de core count ging opeens omhoog en de prijzen bleven binnen de perken. Ik kan er alleen maar van dromen dat hetzelfde gebeurt binnen de GPU markt.
Eens zijn is een groot woord, maar begrijpen doe ik het wel, en het is in mijn ogen gek dat meer mensen dat niet doen. Ik heb al paar keer een uitgebreide reactie getypt dus ik zal het deze keer kort houden, Nvidia heeft geadverteerd voor de gaming gpu's van MSI Asus en noem het allemaal maar op, en deze 'sub merken' zijn bekend geworden mede door de prestaties van de Nvidia hardware erachter, ze hebben dus meegeholpen aan (lees: geinvesteerd in) de branding van deze producten (denk daarbij vooral aan het 'adverteren voor') Is het dus al met al best te begrijpen dat ze niet staan te springen om die branding met AMD te delen, die daar immers niets voor heeft moeten doen.

Het is een beetje vergelijkbaar met dat sony opeens komt met een galaxy s9, omdat beide fabrikanten toevallig foxconn gebruiken en foxconn vond dat wel een leuke naam om meer sony toestellen te verkopen, zoiets zou je natuurlijk bizar vinden, waarom in dit geval dan niet?

Uiteindelijk gaat het hele verhaal om wat kleurtjes, lompe logotjes (oeh aah een draak tribal, lekker interessant) en een kekke naam, geen enkele fabrikant zal er moeite mee hebben een nieuwe stijl te bedenken voor/met AMD.
Wow wat een onzin ... de eerste Asus ROG kaart was een AMD niet Nvidia, bijv. Ten tweede zijn het de AIB's de tijd, moeite en geld hebben gespendeerd aan de marketing van hun gaming brands en niet Nvidia. Die heeft er alleen maar op meegelift.
Klopt. Het fanboygedoe heeft gewerkt. De meeste mensen Willen helemaal geen enkele concurrentie meer, en vinden het prima als er geen innovatie meer komt. Ik begrijp niet zo goed waarom, maar de cijfers spreken behoorlijk voor zich denk ik. Helaas.
Het is echt heel sneu voor AMD, het wordt er allemaal niet beter op.
Geforce programma dwingt game studio's een kant te kiezen en helaas verkoopt Nvidia 8 tegen 2 van AMD gemiddeld ?

Gelukkig doet AMD goede zaken op CPU gebied, maar voor GPU komen ze niet meer in de buurt van Nvidia in het hoger sigment op een paar uitschieters na.

Ik vind het heel erg jammer, en vind de manier hoe het gaat door studio's voor het blok te zetten ook heel erg kwalijk.
Hopelijk vecht AMD zich weer terug op het hoogste platform en zijn ze nog lang niet verslagen.
Maar het moet toch wel erg pijn beginnen te doen zo onderhand voor AMD :(
AMD doet het wel weer goed op de mining markt.
NVIDIA presteert op vrijwel elke coin een stuk slechter vergeleken AMD, kijkend naar de aanschafprijs van de 1080Ti (om nog een beetje performance te krijgen) maakt je niet slim om uberhaupt een NVIDIA te kopen voor mining.

Ik wil niet weten hoeveel GPU's er rond gaan in het mining wereldje. Gelukkig is gaming niet het enige wereldje waar GPU's in gebruikt worden, anders lag AMD nu zo ondertussen al onder de grond op GPU gebied.

Dus geen zorgen, zolang ze veruit heer en meester zijn in de mining wereld, hebben ze niet veel te vrezen. Vergeet dus niet dat er nog genoeg doelgroepen zijn buiten het gaming wereldje.

[Reactie gewijzigd door LopendeVogel op 24 maart 2018 11:46]

RAW power wint AMD het, alleen weten de drivers van AMD daar niet goed mee om te gaan. Er zit een hoofd developer die kennelijk niet het beste uit de kaart weet te persen.
En het helpt niet waneer developers AMD links laten liggen. Zo had Nvidia in verhouding meer tesselation units in gpus dan AMD, Nvidia push dus gamedevelopers om meer tessealtion toe te passen want 70% van de gamers heeft een nividia kaart en als gevolg wordt AMd benadeeld.
Nee, AMD levert minder werk af aan optimalisaties in games voor hun arch. Nvidia zet hier nog langer nog harder op in dan AMD doet.
Het marktaandeel is ook volkomen onvergelijkbaar. Eigenlijk al bizar hoe goed de AMD kaarten zijn met het budget en marktaandeel dat AMD heeft...
Nou, AMD heeft de resources niet om vele individuele GPU's te maken.

Wat ze dus duidelijk doen, ze maken 1 ontwerp. En die werkt zowel voor hun gaming klanten als voor de professionele. Nadeel daarvan is, dat de kaart niet speciaal voor gaming is, en zoals je al aangeeft qua raw performance het veel beter doet als een Nvidia kaart.

Dat helpt je gaming performance echter niet, maar zorgt er wel voor dat als de drivers beter worden de AMD kaarten ook daadwerkelijk beter presteren.
De AMD drivers weten vooralsnog goed om te gaan met mining. Nvidia niet :)
Over spelletjes spelen weet ik het niet, ik ken niemand die hun GPU in de PC gebruikt voor spelletjes.

[Reactie gewijzigd door LopendeVogel op 24 maart 2018 12:01]

Eh.... er minen hele volksstammen op GTX kaarten, ik weet niet hoe oud jouw informatie is, maar de prijs van de GTX 1070 bijvoorbeeld hebben we te danken aan mining, een tijdje terug zat er minimaal verschil tussen een 1080 en een 1070 terwijl je 30% meer perf krijgt. Mining op GDDR5X was lange tijd niet rendabel maar ook dat is nu prima te doen.

[Reactie gewijzigd door Vayra op 24 maart 2018 12:54]

Dat mensen ze (nvidia) kopen om te minen wilt natuurlijk niet zeggen dat AMD geen heer en meester is op mining gebied.
Mensen kopen ook AMD om te gamen, echter in verhouding met NVIDIA valt dat schijnbaar mee (althans, MSI wilt ze ''boycotten'').

En inderdaad hier op tweakers (mining topic) zie je de beginners ook 1070's en 1080(Ti)'s kopen om te minen, ze hebben geen flauw benul met waar ze mee bezig zijn.
Ze presteren gewoon slecht vergeleken AMD en ze zijn in verhouding een stuk duurder (vooral de 1080Ti die net-wel net-niet beter is dan een 290 (nonx)). Energieverbruik is volledig te verwaarlozen in verhouding met de aanschafprijs, dit is dus ook gťťn reden om voor een 10X0 te gaan.

Ik ben een paar dagen bezig geweest met het optimaliseren van de 1080Ti van een neefje (zijn vriendin misbruikt de kaart voor gaming-streaming) voor cryptonight (oa), vergelijking: 1080Ti haal ik 1100H/s.
Mijn 290's zitten op 1050H/s per stuk.
Ik praat hier over circa 1-2 maanden geleden, ik weet niet of er nog cuda updates geweest zijn vanuit w0lf of claymore.

[Reactie gewijzigd door LopendeVogel op 24 maart 2018 13:32]

Zo extreem is het allemaal niet. Check ook de HWI video die hier net afgelopen week over ging. Het is lang niet zo zwart wit als jij denkt.
volgens mij is de enige reden dat er op Nvidia kaarten gemined wordt, dat AMD kaarten zoveel in prijs zijn gestegen. AMD kaarten waren niet meer beschikbaar dus toen zijn ze over gegaan op Nvidia.
Tenzij je een heel klein beetje oplet en een 1080 ti aanschaft voor de prijs van een gemiddelde vega64. Wat me al 2x is gelukt.

Daarna gewoon doorverkocht/geruild. Mijn eerste tegen een 1070+600§ en de tweede verkocht voor 900. Ik was het bij de eerste overigens niet van plan, maar een 1080 ti was too much voor 1440p gaming.

Tenzij je onmiddellijk een kaart nodig hebt kun je rustig een weekje of 2 even voorraad kijken bij de webshops.

Wat ik ook voor de vega64 heb gedaan. Maar die bleef steeds boven de prijs van een 1080 ti.
AMD verkocht afgelopen jaar genoeg GPUs, alleen al aan de miners. Die gaan binnenkort weer op de markt komen, en gecombineerd met de inmiddels uitstekende drivers gaat dat denk ik de GPU-markt op z'n kop zetten. Nieuwe kaarten blijven ook komen, en zo lang alle consoles AMD-powered zijn ben ik niet echt bang voor hun toekomst. In de tussentijd mag iedereen lekker blij zijn dat die prachtige Ti-kaarten onbetaalbaar zijn, en hoop ik dat mensen reviews leren lezen op wat er niet staat.
De Switch is niet AMD powered.
Het enige dat 'minder' is aan de kant van AMD is de DX11 driver. NVIDIA gebruikt een softwarematige scheduler die de single threaded drawcalls van DirectX11 verdeelt over alle beschikbare CPU threads zodat de CPU overhead tot een minimum wordt gereduceerd. AMD gebruikt een hardware scheduler en dus worden alle draw calls single threaded afgehandeld, vaak op dezelfde core als de AI, engine, etc. . Gevolg is dat met trage CPU's je snel op het limiet van de CPU zit en zo de performance van je GPU naar beneden trekt waardoor op een trage CPU een NVIDIA kaart nagenoeg altijd beter presteert in DX11 dan een AMD GPU.

DirectX12 gebruikt native multithreaded draw calls, waardoor AMD dus ineens een enorme boost krijgt in performance en NVIDIA (die dus via een omweg al multithreaded werkte) nauwelijks verbetering kent.

Sterker nog, NVIDIA heeft nog een software scheduler ertussen zitten en heeft dus met DX12 meer CPU overhead dan AMD.
Dus als je op windows 7 zit en geen plannen hebt om voorlopig naar 10 te gaan kun je beter NVIDIA kopen.
Mensen - dit moeten we niet toestaan. Als gamers moeten wij een monopolie voorkomen. Naast geen MSI videokaarten kopen is er ook een andere oplossing, namelijk de overheid inschakelen.
Om het ACM te bereiken moet dit formulier worden ingevuld: https://www.consuwijzer.nl/klacht-indienen-bij-consuwijzer
Het mailadres van de Europese Commisie is: comp-market-information@ec.europa.eu
Dus nu al minimaal geen MSI meer, geen ASUS en geen Gigabyte. En de overige (kleinere) spelers... Die gaan precies hetzelfde doen. Rotzooi.

Ik koop helemaal geen GPU meer voorlopig, maar misschien maar gewoon een PS4 of Xbox. Bah.

(wordt ik nou gedownmod door Nvidia fanboys die graag zien dat er geen andere GPU makers overblijven?)

[Reactie gewijzigd door Arokh op 26 maart 2018 07:39]

Hoe blij denk je dat nVidia is met dat AMD in PS4 EN XB1 zit?
you reap what you sow
Het is ook niet de schuld van MSI maar meer de gebruikers die juist massaal nvidia koopt.
Nvidia doet dan ook zijn best om games te optimaliseren voor hun eigen kaarten. Dat kan Nvidia doen, omdat ze veel groter zijn en dus meer geld beschikbaar hebben.

Als AMD weer nieuwe kaarten uitbrengt worden deze de prestaties middels driver updates nog flink verbetert, maar dan zijn de benchmarks al gemaakt.

Wat mij betreft is dit een zeer slechte zaak en het is slecht dat de fabrikanten hier enkel voor Nvidia kiezen. Straks hebben we als consument niks meer over om te kiezen.
Het is wat dat betreft een wonder dat AMD kaarten op het niveau presteren waarop ze presteren, wat iets zegt over de ruwe rekenkracht van AMD kaarten.

Ondanks de snarky Facebook comment, snap ik het wel van MSI. Het maken van custom GFX kaarten kost ze waarschijnlijk veel geld en als er meer marge te halen valt op Nvidia kaarten omdat het beter verkoopt, dan is het logisch om meer in Nvidia kaarten te investeren.

[Reactie gewijzigd door DwarV op 24 maart 2018 12:15]

Dat AMD meekomt met hun GPUs is inderdaad een behoorlijke prestatie.

Ik vermoed dat de klanten gewoon Nvidia kopen vanwege de merknaam, niet omdat AMD kaarten juist zo slecht zijn. Zoals al gezegd doet AMD het veelal prima qua prijs/prestaties in het midden segment, waar de grootste markt zit. Dat Nvidia dan de topkaart heeft is voor veel kopers helemaal niet zo interessant.
Dat Nvidia dan de topkaart heeft is voor veel kopers helemaal niet zo interessant.
Het hebben van een high-end kaart die heel goed presteert heeft wel effect op die kopers. Fabrikanten zetten modellen als de Titan's, Extreme Editions etc niet op de markt om er veel mee te verdienen of er veel van te verkopen, maar om kopers naar hun merk te trekken.
Het ontbreken van een dergelijk parade-paard bij AMD zal zeker invloed hebben op de verkopen in de lagere segmenten.
Custom kaarten zijn niet meer wat ze ooit waren. Zelfs de stock implementaties hebben genoeg ruimte voor een overclock en voor third party coolers is zon custom pcb meer hinder dan dat het je wat oplevert. Doe mij maar een reference kaart met een goede koeler erop.
Dat is geen wonder kwa knowhow zijn nV en ATI/AMD gelijk.
Maar als kapitaal wel hebt tov concurrent om refresh te doen suptilie verbeteringen in architectuur ten bate van performanc en TDP krijg je een GTX480 ->GTX580 of G80 -G?2 een refresh.
De mogelijkheid is er ook om twee architecturen er op na te houden. Ultra bigchip pro versies.
En gestripte puur gamer architecturen.
Met goed kas teservers kun je dus kwa chip varianten en refreshes meer doen.
Zoals nV ook zich opdringt bij gamedev en pro me support programma en pushen van Cuda.

AMD kan daar gewoon weg niet in mee. De schade door intel is te groot en ATI onder AMD lijd daar ook onder.
Het grappige is dat een fabrikant straks ůůk niets te kiezen heeft. Dus ze zijn dom bezig.
Maar de echte schuld ligt bij de consument. Als de consument zou protesteren, dan verdwijnt een mogelijke monopolie als sneeuw voor de zon.
Sus we krijgen of een monopolie wat ons de consument geld kost (niet dat nvidia zich de afgelopen 10 jaar wat heeft aangetrokken van amd kaarten en prijzen).
Of we moeten een amd kaart kopen die niet echt goedkoper zijn momenteel of zelfs duurder (vega64 vs 1080) en simpelweg niet zo goed. en in sommige dingen meer als 50% slechter.

hoe dan ook de consument betaald en dus kunnen we veter de fabrikanten afstraffen. AMD moet gewoon eindelijk eens stoppen met hypen en gewoon een degelijk product neerzetten net als intel of nvidia.
Vooralsnog maken ze een hoop hype en reclame en dat hebben ze hard nodig want nvidia/intel verkopen gewoon op prestatie.


Het boeit mij niet welk merk er in mijn pc zit (al sluit ik asus door belabberde support op peperdure producten zo goed als uit) maar ik wil gewoon het beste voor het minste en AMD past daar momenteel niet in met de huidige lineup.

[Reactie gewijzigd door computerjunky op 24 maart 2018 13:22]

Dit monopolie bestaat al heel lang en AMD heeft er juist baat bij dat ze maar een kleine partij zijn. De underdog is ook een rol die gespeeld kan worden in een markt.
Altijd excuses en beloftes voor de toekomst, dat is het bekende AMD verhaal en de grootste reden waarom ze al jaren flink achterlopen op GPU gebied voor de PC markt.. Maar wees gerust, op de gameconsole markt heeft AMD een monopolie met zowel de Xbox als Playstation voorzien van hun GPU's.. Daar hoor je natuurlijk weer niemand over..
Als bedrijven groot worden kunnen nog beter vuil spelletje spelen.
Zo heeft intel AMD decade of twee , klein gehouden en nV krijg nu meer mogelijkhedn om hun afnemers in wurggreep te zetten.
Dit komt niet door wan beleid.
Maar als je groter wordt kun je voorsprong behalen in uitrollen van dieshrinks en grote is alles in het uitrollen van procede . AMD probleem is dat hun fabs kwa proced vaker achter liepen en een lange periode heeft AMD op 32nm vs 22 later zelfs 13nm moeten concurreren.
Gezien AMD radeon afdeling afhankelijk is van hoe zit met AMD R&D reserves en budged. Lijd de gpu tak die samen met concurrent bij TMSC shopte ook er onder de laaste tijd veel minder refreshes.

Dan is de schuld geven aan piledriver en buldozer de aller grofste fout.
32 nm krijg steeds extremere TDP handicap ongeacht wat voor achitectuur tegen 22nm en 13nm.

Had AMD wel gelijke tred met intel in procede dan zal piledrive compleet andere chip zijn. Want met 14nm twee jaar eerder kan je veeel meer met transistor budged doen kwa IPC dan met 32nm.
Ook bulldozer series is ook kwa IPC verder geovolueerd. Met meer transistor budged op wel concurerende procede is veel meer mogelijk.

Dan behaal je me 20 stage mindere architectuur allereerst hogere klokken bij redelijke TDP en hogere IPC door vettere cores ivm hoge transistor budged.
En dan uiteraad bij behorend betere ASP en TDP waardoor je voet houd in de TDP gevoelige markten zoals mobile en server.
Dan loop je nog steeds achter maar niet zo extreem. Met ook mogelijkheid dat je juist niet achter loop maar voor loopt.

Dat AMD cpu tak uit dal kruipt ligt meer aan dat global foundry concurrerend is. Concurreren gaat stuk makelijker met gelijkere procede.
Die consoles zijn dan ook gebouwd en ontworpen voordat de kaarten van nvidis betere performance per watt scores hadden.

Dus de komende generatie kan maar zo in het voordeel van intel/nvidia zijn.
Dan ga je er maar even gemakkelijk vanuit dat er niet even specifiek voor nextgen ontworpen wordt. Denk je nou echt dat de huidige deal geen vruchten afwerpt? Als Vulkan ook in de nextgens van toepassing wordt, tja. Nee, je zegt dit veel te gemakkelijk.
Prestatie per watt zou een intel/nvidia combo simpelweg meer power opleveren als een amd/amd combo. Een gtx 1080 is maarliefst 150 watt oftewel 50% zuiniger als de vega 64 voor ongeveer dezelfde prestatie enn in sommige effecten fors slechtere prestatie.

En qua cpu gebruikt intel wel iets meer stroom maar zijn per core fors sneller. (6 core verslaat 8 core oftewel 4 threads minder) dus met downclocken is ie alsnog sneller en zuiniger.

Of ze voor de console ook die route gaan is de vraag maar in theorie best goed mogelijk.
Helaas lijken consoles nog altijd midrange hardware mee te krijgen.
Kan ook zomaar zijn dat AMD GPU's in de ogen van de fabrikant wel degelijk ondermaats presteren, of dat het misschien meer kost om een vergelijkbaar ontwerp te doen van een kaart met een AMD GPU dan die van nVidia. En dat nvidia meer mensen heeft om de games te optimaliseren is dan toch eerder het probleem van AMD zelf, ATI/AMD drivers waren vroeger altijd al een stuk slechter..
Beetje kip/ei dan. Nvidia verkoopt waarschijnlijk ook meer videokaarten (betere merknaam?), dus logisch dat de ze meer mensen hebben.
Uhm toen het nog ATI was waren ze groter dan nvidia, maar hun drivers waren wel ruk
AMD doet het zelfde met games alleen in mindere mate, Far Cry 5 krijgt bijvoorbeeld Vega exclusieve features zodat het beter draait op Vega. Een game die al AMD features ondersteund is Wolfenstein 2. Dat laatste zie ik niet gebeuren want dat mag geloof ik niet volgens de wet?
Nee nvidia doet dat al heel lang en gezien het nv genaai drastische effec had moest ATI AMD daar ook mee beginnen met uiteraard flinke achterstand.
Als gevolg toen daarvan kunnen games ( allergies / prefereren ) hardware merk . Dus moet top prestaties hebben in welke game dan ook zou je als gemiddeld ATI&AMD == nV dan een systeem bouwen per merk.
Ivm uitschieters.

Dat had ik dus lange tijd intel NV bak en AMD ATI dat AMD AMD werd.
Nu alleen AMD met AMD.
Waarom zeg je nee, ik ontken ook niets :P

Ik laat zelf mijn aankopen er niet van afhangen, zelfs niet als ik een Free-Sync of een G-sync monitor heb. Ik heb momenteel een Free sync monitor en een Nvidia videokaart, ik heb wel een G-sync monitor ervoor gehad met Nvidia ;)

Ik kijk zelf altijd naar de meeste prestatie voor x bedrag wat ik er voor over heb als het gaat om grafische kaarten.

[Reactie gewijzigd door Gekke Jantje op 24 maart 2018 14:40]

AMD optimaliseert ook games voor hun kaarten hoor. Dit is al zo oud als de weg naar Rome. Alle gpu fabrikanten die ooit hebben bestaan doen dit.
Was het maar waar dat Nvidia enkel probeert games te optimaliseren voor hun hardware. Ze proberen via games een oneerlijk concurrentievoordeel te bewerkstelligen door devs zooi als GameWorks te laten implementeren in ruil voor een zak met geld.
Wat in feite niets minder is dan sjoemelsoftware.
Feit blijft ook wel dat je met NVidia gewoon betere bang-for-your-buck in huis haalt op het moment. De Vega's hebben dezelfde hoop gekweekt op de GPU markt als de Ryzens op de CPU markt deden, echter in tegenstelling tot Ryzen heeft Vega de concurrentie niet weten te evenaren (nog even los van de discussie in hoeverre Ryzen dat al dan niet heeft gedaan, is onmiskenbaar dat Ryzen AMD weer op de kaart heeft gezet wat CPUs betreft). Voeg daaraan toe dat AMD haar videokaarten op dit moment en masse naar miners ziet gaan en de gamende consument vist wat het rode vak betreft gewoon achter het net. Blijft over het groene vak.

Ik ben overigens zelf fel tegenstander van het GPP, het is een erg smerige manier om de toch al ijzersterke machtspositie van NVidia verder te vergroten. Wat mij betreft mogen hier de verschillende instanties wel op spring want dit lijkt erg veel op ouderwets machtsmisbruik.
Probleem met het GPP is, ik denk dat het een beetje in een Grijs gebied zit.
Ze zeggen niet dat er geen AMD verkocht mag worden, nee het is alleen dat de gaming line nVidia moet zijn. Dus eigenlijk hebben ze het voor elkaar dat nVidia kaarten; mooier verpakt zijn, de leukere ontwerpen hebben (Die ook mogelijk matchen met de moederborden)
En dat is natuurlijk wel waar mensen naar kijken, gamers willen gamer gear.. Hey ik wil ook een videokaart die een beetje bij de rest van me build past..

Maar ze gaan het verkoop van AMD kaarten 'officeel' niet tegen.
Maar het is toch gewoon belemmeren van je concurrentie? Natuurlijk zeggen ze: "Alleen bij onze producten mag je mooie plaatjes gebruiken". Wat ze bedoelen is: "Onze spullen moeten eruit springen, dus je moet andere productaanbieders benadelen."

Het is enkel bedacht om de concurrentie te benadelen, ik zou niet weten waarom dat legaal zou zijn...
Daarom denk ik juist dat het een beetje een grijs gebied is, en dat bij nVidia de advocaten zeggen, hier kunnen ze of niet veel aan doen, of tegen de tijd dat ze onderzocht hebben of het nou mis is, is het telaat en hebben we toch al onze doel bereikt.

Het is en blijft een smerig zooitje achterbaksheid..
Als ik een beetje tussen de regels door lees staat hier het volgende:

Helaas verkopen wij te weinig AMD kaarten om de represailles van Nvidia te compenseren
Dit dus.

En MSI staat vanaf nu dus op mijn do-not-buy-or-recommend lijst ( aka shitlist ) :X

Als het ECHT alleen om 'mensen willen alleen het beste' zou gaan zouden ze alleen 1080ti's verkopen :+
Je gaat dus andere mensen een product niet aanraden wat voor hun het beste zou kunnen zijn omdat je persoonlijk een hekel hebt aan de manier waarop het bedrijf wordt gevoerd.

Is dat niet een beetje egocentrisch?
Nee ik raad mensen geen product aan welke de markt verziekt.

Ow en trouwens, AMD is dus echt wel een legitieme optie in het middensegment, dat Nvidia zoveel betaalt dat fabrikanten nu allemaal in de rij staan om ze na te praten doet daar niks van af.

MSI is degene die egocentrisch is, laten we de zak geld van Nvidia maar aannemen, onzin verkondigen over dat AMD toch niet gewenst is, en dan als er straks een compleet monopolie is en onze eigen winstmarges naar beneden gaan DAN gaan we pas klagen...
AMD is zeker een goede optie. MSI videokaarten zijn ook een goede optie.

Bedrijven met winstoogmerk bestaan om geld te verdienen. Niet om een gezonde markt te creeren. Daarvoor hebben we een overheid. Ik zou eerder boos worden op de concurrentiewaakhonden dan op MSI. Zoals gewoonlijk zullen die pas wat laten horen als het al veel te laat is.

[Reactie gewijzigd door Origin64 op 24 maart 2018 13:53]

Die concurrentiewaakhonden heb ik echter geen invloed op, vandaar de andere stap. Je hebt natuurlijk wel 100% gelijk, maar idealistische overtuiging en 'real life' botsen hier toch wel :(
Bullshit, als MSI met een kaart op de markt komt die beter presteert dan die van de concurrentbmet dezelfde GPU dan sta jij net zo hard in de rij om die kaart te kopen.
:+ jij kent mij beter dan ik mezelf ken toch :+

Wat een onzin opmerking, niet iedereen is zo oppervlakkig als jij blijkbaar bent, Voor mij is geld NIET het enige, sterker nog ik zou liever meer betalen dan mij smerig voelen door dit soort vieze praktijken te ondersteunen door er nog gebruik van te maken ook.

[Reactie gewijzigd door MarvTheMartian op 24 maart 2018 17:59]

Je hebt ook geen invloed op de omzet van MSI. Alle tweakers in NL hebben daar nog geen merkbare invloed op. Ik zou zeggen 'find another hill to die on'
Een waarheid als een koe! Maar toch zegt dat kleine stemmetje in mijn achterhoofd dat ik beter 'iets' kan doen dan niks. Zelfs als dat iets nog minder is als een druppel op een gloeiende plaat.
Dat is ook wel weer zo ja.
Nee, het is niet de schuld van de gebruiker. De schuld ligt bij AMD die al geruime tijd achter ligt met de performance van hun videokaarten. Ik hoop dat AMD net als met Threadripper een inhaalslag kan maken, want concurrentie is goed voor de gebruikers. We hebben allemaal gezien wat het gebrek aan concurrentie met Intel heeft gedaan, Intel was lui geworden, de performance improvements van nieuwe processors was miniem en prijzen bleven hoog. Sinds Threadripper zit er weer een beetje beweging in.
Met die stelling zouden ze dus juist alleen de 1080ti moeten verkopen, want de rest is toch ondermaats 8)7
Maar juist Nvidia heeft een slechte naam met betrouwbaarheid gekregen doordat er geen lood meer mocht zitten in het soldeer tin, hierdoor kont het slechter tegen hitte verschillen. Lastig voor Nvidia was ook dat ze net in die periode oververtegenwoordigd waren in laptops waar dat fenomeen nog erger was.
AMD had hier ook last van, maar alleen met zijn X2 kaarten die toch niet zoveel verkocht werden.

Over het algemeen staat AMD er juist bekend mee dat ze niet beknibbelen op de PCB's en onderdelen en dat ze altijd overgespecificeerde ontwerpen maken.
Op het zelfde gebied zit Nvidia veel meer op het randje. (zelfs Polaris die meer watt uit het PCIe slot trok had zoveel marge dat ze dat met een bios update konden verplaatsen.)

Betrouwbaarheid is het probleem niet en drivers zijn de laatste jaren erg veel verbeterd, zelfs zoveel dat sommige mensen vinden dat de AMD drivers inmiddels beter zijn.

Het enige wat ze dus niet hebben is de efficiŽntie, de prestatiekroon en het marktaandeel.

De efficiŽnte en de prestatiekroon doen er niet toen voor het echte marktaandelen, de prijs prestatie zit namelijk altijd goed bij AMD. Dus dat maakt dit concurentiebeding extra lelijk.

Er is naast marketing eigenlijk geen reden om op het middensegment niet 50/50 AMD/Nvidia verkoop te hebben. Toch is het 30/70 en met deze praktijken gaat dat niet veranderen.
Klinkt eerder alsof je je pc nooit schoonmaakt, nooit goed koelt, waardoor de snellere kaart die iets warmer wordt eerder kapot is gegaan.

Ik heb hier nl nog steeds een 7950 die al 6 jaar draait zonder enig probleem. (ik maak m`n pc wel 2x per jaar volledig stofvrij)
Mijn pc krijgt elk kwartaal een verwenbeurt incl repaste wanneer nodig.

Nee mijn pcťťs zijn schoon daar zou je uit kunnen eten :9
Maar 1 kaart zegt toch werkelijk niks. Er bestaat ook zoiets als geluk/pech.

Ik zou onderzoek wel leuk vinden, ik heb zelf nog nooit een defecte kaart grhad van beide merken. Maar ik upgrade daar denk ik ook te vaak voor.
Dat is toch een beetje nonsens... ook Nvidia heeft te maken gehad met problemen mbt de betrouwbaarheid door het gebruik van inferieure soldeer waardoor videokaarten overleden; door die problemen denken vele 'tweakers' vandaag de dag nog dat ze een videokaart kunnen fixen door deze een korte tijd in de oven te bakken (wat toentertijd een short term fix was voor de soldeer problemen van Nvidia kaarten)

Daarnaast, ik gebruik in een mediaserver al jaren een HD3870 (10 jaar oud) zonder problemen en heb ook nog een HD5770 (8 jaar oud) liggen welke nog prima werkt in een testbak...

Maar hardware kan gewoon kapot gaan, maar tussen AMD en Nvidia is er absoluut geen correlatie dat de hardware van het ene merk een langere levensduur heeft dan het andere... sowieso ontzettend veel verschillende factoren die invloed hebben op de levensduur van hardware, denk maar eens aan slechte voedingen die van ieder stukje hardware de levensduur ernstig kunnen verkorten.
OH was dat vanwege slecht soldeertin. Nooit geweten. Een kennis van me heeft deze fix destijds toegepast op een ATi HD4870x2 en daarbij werkte het ook. Een maand of 2. Toen ging hij weer stuk. Dus het is niet helemaal exclusief voor nvidia.

[Reactie gewijzigd door Origin64 op 24 maart 2018 13:38]

De xbox 360 had daar ook last van.
Ik zie anders nog steeds veel Radeon 9200, 9250, 9550 (deze laatste liggen er nog twee van bij mij op zolder) en zo voorbij komen. Die zijn ook hartstikke oud ondertussen maar werken ook nog steeds.
Ze hebben beiden hun betere en slechtere series gehad. Als ik nu zou moeten kiezen voor een nieuwe, zou ik weg gaan bij nvidia en voor een AMD gaan omdat die in het midden segment beter presteren voor de prijs.
En daarom voel ik ook een leugenachtige ondertoon hier. Maar tegen de tijd dat dit monopolistische gedrag van Nvidia gestraft is is het toch al te laat om AMD te redden wat dat betreft. Dit soort straffen gaan jaren overheen en geen boete bedrag kan amd nog redden dan
Het gaat ook niet om boetes, gewoon zelf onderzoek doen, en kennis verspreiden. Als wij botweg AMD blijven kopen, gaan fabrikanten het vanzelf weer leveren ;)

Punt is alleen dat NVidia bij de start betere drivers levert, en daarna de boel verwaarloost, waardoor de initiele reviews (ook vermoedelijk lichtelijk gestuurd door review-instructies) positief voor ze uitvallen. Dat 2 jaar later de AMD-kaarten alsnog veel beter zijn zie je niet terug in die reviews.

Verder is het een marketing-probleem, ik zie redelijk wat luidruchtige nvidiots die beweren dat er maar 1 merk goed is voor gamers, en that's it. Amdroids komen nu langzaam weer boven water nu de Ryzen-CPUs goed blijken te werken, dus er is nog wel wat hoop.
Veel bedrijven hebben web teams. Die Nvidiots die je noemt zijn regelmatig gewoon reacties van een marketing afdeling. Niemand heeft echt zin in die domme discussie, maar je kunt niet in een reactie zeggen dat AMD superieur is (gelogen of waarheid laat ik nu even buiten beschouwing), zonder dat er een reactie van het Nvidia web team op komt.

Wat er ook gebeurd, en voor de Nvidia fans en AMD fans gelijk, het is het beste voor ons allen als beide bedrijven goed verkopen. Want zonder concurrentie, is er weinig vooruitgang (voor referentie kijk naar Intel die een tijdje geen echte concurrentie had).
AMD hoeft niet gered te worden. Ze overleven dit net zoals ze de vorige 20x dat nvidia dit soort shit flikte overleefden.

Misschien kun je beter gtst gaan kijken dan op tweakers posten. Als je zoveel van drama houdt.
Uiteindelijk zijn de reserves op en dan heb je alleen intel en nV.
echt uit het dal zijn ze nog niet.
Dit is precies zo'n antwoord als Gigabyte gaf door te zeggen dat de RX580 niet op gamers is gericht.. puur onzin en omheen praten dat ze gewoon aan het lijntje zijn binnengehaald door nVidia
Wat NVIDIA hier doet met hun Geforce Partner Program mag helemaal niet. Gegarandeerde antitrust rechtzaak in de komende paar jaar. Het is exact hetzelfde waar Intel al eerder een boete van een miljard+ USD voor heeft moeten betalen. Maar goed, de inschatting zal wel zijn dat het NVIDIA nu meer oplevert dan ze later moeten betalen. En dat is hoe kapitalisme werkt.
Laat ik voorop stellen dat ik dit ook niet toejuich, maar het mag zeer zeker wel.

Jij haalt monopolie-positie aan, maar dat is niet waar het om draait, het gaat er niet over of Nvidia de grootste is, het gaat erover dat bedrijven als MSI Asus Gigabit en noem ze allemaal maar op 'series' video kaarten hebben gemaakt, Nvidia geeft partners al geruime tijd een best vrije hand om te doen met een GPU wat ze willen (meer/minder geheugen, eigen koelers etc) wat heeft gezorgd voor allerlei 'sub-merken' (zoals bijv 'msi gaming') en Nvidia adverteert vervolgens (in eigen site & mails maar ook daarbuiten) voor deze partners.

Die 'sub-merken' zijn dus groot geworden (en daarmee de achterliggende fabrikanten als MSI Asus etc) met Nvidia hardware & Nvidia marketing, dat is een ding wat gewoon vast staat. Vervolgens is recentelijk bij allerlei van dit soort bedrijven AMD in diezelfde serie gefietst, en dat is eigenlijk best vreemd. Nvidia heeft dus letterlijk die series succesvol gemaakt (door ze zelf aan te merken als 'deze partij maakt toffe kaarten met onze hardware' en mee te betalen aan het marketing budget) en dan is het inderdaad een beetje lomp als daar opeens een concurrent de vruchten van kan gaan plukken.

Dat is het hele probleem dus, er werd opeens indirect van Nvidia verwacht even te helpen met het verkopen van AMD kaarten, dat is natuurlijk niet oke, dus zijn de clausules aangepast om duidelijk te maken dat Nvidia er niet van gediend is dat AMD gaat genieten van de branding waar Nvidia jaren aan heeft gewerkt, dat heeft niets te maken met monopolie posities, is gewoon een kwestie van merken beschermen, iets wat niemand ze kwalijk kan nemen.

Dat fabrikanten dit aanpakken om dan maar meteen AMD helemaal onder het tapijt te schuiven vind ik dan wel weer een heel kwalijke zaak, het zou mooi zijn als AMD en betreffende fabrikanten gewoon om tafel gingen zitten om hun eigen gaming branding te bedenken
Dus nvidia heeft die goede koelers, styling e.d. die bijdragen aan de brand buildup allemaal ontwikkeld :?

En de positieve brandrecognition van de ROG moederborden die bijdragen aan de ROG brand buildup daar heeft nvidia ook de hand in :?

Dus als nVidia de top end niet meer in handen heeft en AMD een tijdje wel dan moet nvidia eigenlijk betalen om onder de AIB gaming brands te vallen ofzo omdat AMD dan het brand gebouwd heeft?

Denk dat je het goed zou doen in de politiek met die geitenpaden.

nVidia heeft zowat nul vrienden in de industrie o.a. door dit soort praktijken. Als die nog eens een keer een zeperd maken dan gaan ze het denk ik nog heel zwaar krijgen.

[Reactie gewijzigd door Help!!!! op 24 maart 2018 18:55]

Dus nvidia heeft die goede koelers, styling e.d. die bijdragen aan de brand buildup allemaal ontwikkeld
Het gaat ze letterlijk alleen maar om de brand recognition, het zal ze echt niets boeien of MSI of wie dan ook dezelfde koelers etc voor AMD kaarten gebruikt, zolang ze maar een andere stijl krijgen (kleur/logos) en dus niet precies dezelfde branding gebruiken.
Dus als ik het goed begrijp zeg je nu dat het hele design van rog, strix, aorus, en MSI gaming kaarten te danken is aan Nvidia? Dat is namelijk totaal niet het geval.

Dit is gewoon de zoveelste keer dat Nvidia op een smerige manier de concurrentie de kop in wilt drukken.

Kennen we Club3D, BFG, ECS, Point of View, Albatron nog? Die kregen allemaal een middel vinger van Nvidia.

En natuurlijk XFX die z'n licentie van Nvidia mocht inleveren omdat ze in gesprek waren met AMD.
Dat het design aan Nvidia te danken is zeg ik niet (en is ook niet wat Nvidia zegt), het is echter wel een 'branding' waar Nvidia aan mee heeft geholpen (door bijv te adverteren voor merk x kaarten) en het hele eieren eten is dat Nvidia vind dat AMD niet het recht heeft te profiteren van die branding, aangezien ze dus niet hebben meegeholpen aan (lees: geÔnvesteerd in) het groot maken van die branding, dat is aan de ene kant een beetje flauw, maar aan de andere kant ook wel te begrijpen.

Uiteindelijk gaat het hele verhaal eigenlijk nergens over, en is het gewoon weer zo'n gevalletje 'laten we er publiekelijk over gaan huilen dan krijgen we aandacht', niets weerhoud AMD ervan om naar bedrijven te stappen en eigen branding te gaan doen, het gaat zoals gezegd immers maar over een paar kleurtjes, een willekeurig logotje, en een kekke naam.

Dat een geÔrriteerde MSI werknemer hierboven (in de fb screenshot) zegt dat AMD dan maar eens met goeie kaarten moet komen heeft niets te maken met het standpunt van MSI en alles te maken met dat zo'n persoon de hele dag door niet-onderbouwde-shit over zich heen krijgt, geloof maar dat MSI (en iedere andere fabrikant) graag met AMD om de tafel gaat zitten om dan een eigen branding te bedenken.
"omdat Nvidia ermee zou proberen om de gamingmerknamen van verschillende bedrijven exclusief aan zich te binden."

Dus als Asus een nvidia chip gebruikt en hun kaart Super Extreme noemt, dan wil nvidia de naam Super Extreme hebben?
Nee,
In het geval van ASUS heeft dat dan voornamelijk betrekking op de merknamen Strix en Republic of Gamers. Dan krijgt de nVidia kaart de naam: ASUS-Republic-of-Gamers-GTX-1080-A8G-Strix,
maar de AMD kaart krijgt gewoon de naam: ASUS-RX580-O8G
Dus nvidia krijgt die namen niet. Maar de namen gaan wel nvidia kaarten kenmerken.
Nou dat haal ik niet uit die quote die ik net maakte. Ik zie ook niet dat nvidia iets aan zich bindt, alleen dat Asus hun eigen rog en Strix erbij plaatst.
HOE wil nvidia dan gamingmerken aan zich binden? Dat kan dan toch alleen als je die naam dan zelf ook gebruikt?
Nee. De kaarten met nvidia chips worden dus nvidia exculsief, en zullen dus de nvidia kaarten kenmerken.
Ze gaan ze niet zelf gebruiken tho
1 2 3 ... 8

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True