Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 151 reacties
Submitter: eiPionezero

AMD brengt alle onderdelen binnen het bedrijf die met graphics te maken hebben onder bij de Radeon Technologies Group. Het gaat om een nieuwe divisie binnen AMD en niet om een spin-off. Er gingen wel geruchten dat AMD een afzonderlijk gpu-bedrijf wilde oprichten.

AMD Radeon Graphics logo (über)Raja Koduri wordt het hoofd van Radeon Technologies Group. Koduri had voor de overname bij ATi al leidinggevende functies op zijn naam staan. In 2009 stapte hij over van AMD naar Apple om daar Steve Jobs te ondersteunen bij het verbeteren van grafische prestaties van Apple-producten. Daar heeft hij onder meer een grote rol gespeeld bij de introductie van schermen met een hoge pixeldichtheid. In 2013 keerde Koduri weer terug naar AMD. Hij legt nu direct verantwoording af aan AMD-ceo Lisa Su.

AMD heeft er in de jaren volgend op de overname van de Canadese grafische-kaartenontwikelaar ATi, in 2006, juist werk van gemaakt om het merk te integreren in AMD; er moest na de overname maar één bedrijf overblijven, en dat behelste ook het uitfaseren van het ATi-merk. Nu wordt er dus weer een aparte graphics-divisie binnen AMD opgezet om "prestaties te verbeteren op de graphics-markten en om het voortouw te nemen in de opkomende vr- en ar-markten", luidt het in de woorden van het bedrijf.

AMD kampt volgens onderzoeksbureau Jon Peddie Research met een sterk krimpend marktaandeel als het gaat om grafische kaarten; 18 procent van de desktops met videokaarten zouden AMD-hardware betreffen en de overige 82 procent zou in handen zijn van de concurrent, Nvidia.

AMD heeft hoge verwachtingen van de markt voor custom chips. Het bedrijf heeft overeenkomsten met Sony en Microsoft om de Xbox One en PlayStation 4 van chips te voorzien, wat in het verleden voor lichtpuntjes bij de kwartaalcijfers zorgde. Reuters bracht in de zomer het gerucht dat AMD overwoog zichzelf in twee delen op te splitsen, maar AMD ontkende dat.

Moderatie-faq Wijzig weergave

Reacties (151)

De percentages die hier worden genoemd klinken als pure onzin. Het lijkt me sterk dat maar 18% van de mensen AMD grafics hardware gebruikt.

Maargoed, mocht het kloppen dat heeft nvidia goed zijn best gedaan!
Het staat er in ieder geval niet goed voor. Ookal is AMD een super alternatief betalen mensen toch meer voor een slechtere nVidia kaart. Joost mag weten waarom maar het gebeurd heel veel.

Als dat zo door gaat gaat de GPU markt net als de CPU markt instorten en krijgen we straks maar hele kleine update van + 10% prestaties omdat nVidia een monopoli heeft.

Ik vraag me af wat er moet gebeuren voordat mensen weer een AMD kaart kopen. Het enige echte nadeel op dit moment is het verbruik. Als je moddellen zoals de Tri-X hebt is geluid geen issue. De prestaties voor wat ze kosten zijn meer dan prima.

Toch worden er vooral nVidia kaarten verkocht. Erg jammer :'(
Het heeft ook te maken met stemmingmakerij ben ik bang. Ik zit zelf al 3 kaarten in het 'AMD' segment. Echter bij mijn volgende update zit ik te twijfelen om te switchen naar een Nvidia. Dit heeft er voornamelijk mee te maken dat de Nvidia software beter lijkt dan het logge CCC. Ook lijken meer games nvidia te supporten t.o.v. AMD met betrekking tot optimalisaties.

Verder heb ik niet heel veel ruimte in mijn voeding voor een veelgebruiker en tevens heb ik een hele dunne (niet geluidsdichte kast) waardoor ik ook liever een stillere kaart heb. En last but not least, het verschil in de bang-for-buck ratio is niet meer zo interessant als dat het vroeger was.
Bij alles wat onder het fury segment zit qua prijs, is AMD momenteel beter.
De 390X is in veel gevallen beter dan de GTX980, terwijl hij minder kost.

Met de opkomst van DX12 ziet het er trouwens een heel stuk beter uit voor AMD.
DX12 kan meer gebruik maken van de pure rekenkracht van een kaart, iets waar AMD veel beter in is dan nVidia (of hoe anders verklaar je het feit dat AMD goed meekan met nVidia, ondanks slechtere drivers)
Nu een kaart kopen ter voorbereiding op DX12 is jezelf voor de gek houden. Over 2 jaar ziet de wereld er weer veel anders uit. De uitdagingen liggen eerst bij de game en driver ontwikkelaars.
Als je op dit moment een nieuwe kaart moet hebben, kun je daar best rekening mee houden. Er komen volgend jaar hoop spelen uit die al gebruik zullen maken van DX12. Hoogstwaarschijnlijk een hele hoop spelen van Square Enix & EA, omdat beide publishers nu al Mantle in hun engines geimplementeerd hadden.

Het argument "Over 2 jaar ziet de wereld er weer veel anders uit." kun je elke 2 jaar herhalen.
Verleden verteld iets anders, dat het meestal niet gaat werken, omdat de game dan veel te zwaar zijn om voluit te kunnen draaien met alle nieuwe toeters en bellen van de nieuwe generatie DX games. Kortom je hebt tegen die tijd gewoon weer nieuwe kaart nodig en bleek dit niks meer dan een verkoperspraatje te zijn geweest.
Bij AMD valt dat meestal wel mee.

De driverupdates zorgen meestal voor genoeg prestatieverhoging om een paar jaar relevant te blijven.
Exact, daarom een kaart kopen die je nu nodig hebt.
Dat laatste ben ik zeker met je eens en is voor mij ook een van de redenen dat ik nu hard aan het twijfelen ben. Het wordt heel erg de vraag of AMD en Nvidia beide goed gebruiken gaan maken van DX12. Gezien DX12 enorm veel potentie lijkt te hebben is dit wel een belangrijke afweging.
het grote verschil op dit moment tussen de featuresets die beide ondersteunen.

AMD gebruikt dx12_0, dat voor prestatieverbetering zorgt (async shaders)
nVidia gebruikt dx12_1, dat voor een aantal grafische effecten zorgt (deze kunnen ook zonder dx12_1 gesimuleerd worden als je een hoge framerate hebt)

Het ziet er momenteel dus iets beter uit voor AMD, maar bij toekomstige grafische kaarten kunnen ze natuurlijk allebei geimplementeerd worden.
Feature levels hebben helemaal niets te maken met Async Shaders. Feature levels moet je los zien daarvan. Async Shaders is ook een optioneel onderdeel van de DX12 specificatie.
Ja hoe verklaar je het je moet eens de rekenkernen per gpu vergelijken bij het groene kamp. Fury x 4096 980 ti 2816 maar dan nog de huidige kaarten zijn maar tussen kaarten pascal staat voor de deur en ik ben rdelijk zeker dat amd ook nog wat achter de hand heeft.
Ik denk dat het vaak eerder onkunde is van eind gebruiker zelf.
CCC op zichzelf werkt prima. Echter misschien heeft het wat voor de "reguliere leek" wat teveel toegang tot gevoelige delen van de HW.

(Lui die eigenlijk geen idee hebben wat ze nou precies aan het doen zijn maar wel de 3D application settings aanpassen en gaan rond sukkelen met Overdrive)

Daarnaast ik zie het meestal fout gaan door. Verkeerd uitgevoerde updates van AMD software pakketten. Ik zie geregeld bijv gebeuren dat men klakkeloos zonder enige voorbereiding (opschonen, oude drivers verwijderen, rebooten, DDU, rebooten)
Zo het pakket installeert. Gevolg is dus dat er her en der left-overs achterblijven.
De restanten van oude installaties blijven actief. En dat gaat dus helemaal mis zodra een 3D applicatie aanspraak maakt op API niveau

Gevolg vastlopende games, BSOD's, performance issues.

Vervolgens lopen ze heel erg hard AMD te bashen voor hun *KUT* producten en drivers. Ik neem even een kijkje achter hun pc en jep... update over update en nog eens een update zonder adequaat verwijderen van voorgaande versies
Vervolgens staan ze wat met een mond vol tanden "van... eeeh... ja... eeeh.. eigenlijk ja... mijn fout maar dat zeg ik niet hardop :+ "

[Reactie gewijzigd door osmosis op 10 september 2015 13:34]

Tja, AMD kan hun software ook gewoon aanpassen zodat hij niet update over update gooit zonder reboots?
Ja en nee was het maar zo gemakkelijk.

Het is niet enkel AMD, maar ook OS-en (van win xp t/m 10)
Om alles fail en fool proof te maken is niet realistisch.
Daarnaast grotere kans dat het juist grotere problematiek met zich meebrengt (AV software die meent dat er een RAT draait of iets dergelijks)

Daarnaast binnen "live environment" kan je maar zoveel.
Het op de correcte manier verwijderen van oude drivers en liefst wat overdone door erna nog eens met DDU bij langs te gaan is echt wenselijk.

Ook ben ik groot tegenstander van het meteen updaten van gfx drivers. Draait alles? Werkt alles? Mooi. Eraf blijven, pas updaten wanneer er een applicatie is die tegensputtert.

[Reactie gewijzigd door osmosis op 10 september 2015 13:48]

Nou, het is wel zo gemakkelijk. Nvidia doet dit toch echt anders en biedt zelfs een 'schone installatie'-mogelijkheid. Heb je achterhaalde dingen als DDU niet meer nodig om zoiets normaals als een driver te updaten zonder problemen.

Het is toch van de zotte dat AMD deze problemen nog steeds heeft anno 2015? Dan kun je wel vies kijken naar de eindgebruiker die gewoon doet wat AMD voorstelt, maar het probleem ligt bij AMD. Als hun software beter in elkaar zou zitten, zou het heel veel gedoe oplossen.

Nee, kaarten bakken kunnen ze als de beste, maar hun driver/software-afdeling heeft echt verbetering nodig hoor.
Alsof Nvidia niet vaak problemen heeft ?
osmosis praat onzin.

AMD eigen aanbeveling is om updates gewoon zonder deinstallatie over de oude heen te zetten.
Dat hebben ze een jaar of 2 geleden veranded, en dat doe ik ook zo sinds dien en nergens last van (en ik heb alle versies gehad)
Ik neem aan dat je Raptr niet geïnstalleerd hebt, ondanks dat dit flink gepushed wordt door AMD.
Raptr vond ik eerst best leuk en potentieel handig. Maar er zijn juist redelijk wat spellen die crashen door Raptr overlay. Ook komt het heel irritant weer terug als je een Update uitvoert.
Nee, die crap hoef ik niet
Dit is van alles behalve de schuld van de gebruiker. in de hoofdzaak geef je nu zelf al aan dat AMD niet eens een fatsoenlijke install/uninstall routine kan schrijven. En vervolgens geen jij de schuld aan de eindgebruiker. Zo werkt het niet. Dat is de omgekeerde wereld.

Ik ben hier zelf ook diverse keren tegen aan gelopen en het feit is: de concurrent heeft dit wel goed geregeld. gevolg: AMD MOET , niet kan: MOET dit ook regelen. GISTEREN!

Er zijn geen domme consumenten. Enkel consumenten. Zij kiezen met hun portemonnee. En als een consument zich 1x heeft gebrand aan domme drivers dan, ja: gebeurd dat geen 2e keer.

Dito voor de vriend/buur/zoon/vader die de PC's/laptops/Windows tablets in de vrienden/familiekring onderhoud: ik adviseer NOOIT meer AMD. NOOIT. waarom? een advies voor AMD betekend dat ik daar binnenkort langs kan vanwege driver gedonder of ander wazig gedoe.
Ik heb wel betere dingen te doen : Fallout4 komt er aan! ;-)
Wat een onzin. driver gedoe? Draai al jaren AMD Radeon drivers en heb zelden problemen. Denk eerder dat jij zelf het probleem bent.
je praat echt, ECHT onzin. ALL mijn familie/vrienden hebben AMD en ik heb NOOIT driver gedonder met ze.

en fuck nvidia en hun markverziekende practikijken. hier komt NOOIT een nvidia kaart binnen. niet tot de markt er RADICAAL anders uit ziet.
Ik heb nog nooit problemen gehad met de beta drivers van AMD(HD7950). nVidia had er anders wel met W10, AMD niet. Beta drivers van nVidia zijn veel minder stabiel dan van AMD. Bij nVidia(8800GTX) had ik regelmatig graphical glitches etc. Volgens mij heeft AMD momenteel geen geld genoeg om whql drivers te maken, maar de beta drivers zijn stabiel genoeg. nVidia en AMD hebben gewoon een verschillende update filosofie.

En wb de AMD driver uninstall: Als ik een nieuwe gfx driver installeer doe ik 'Catalyst Install Manager' wijzigen en dan 'snelle deinstallatie van alle AMD software' en dan reboot, nieuwe driver erop, reboot en klaar. Je moet niet doen alsof dit hopeloos ingewikkeld en veel werk is. Deze methode werkt perfect, nog nooit problemen mee gehad. nVidia heeft het idd iets beter voor elkaar omdat je kunt opteren voor een clean install but who cares. Je moet niet van een mug een olifant maken. Je bent een tweaker of niet.
Daarnaast ik zie het meestal fout gaan door. Verkeerd uitgevoerde updates van AMD software pakketten. Ik zie geregeld bijv gebeuren dat men klakkeloos zonder enige voorbereiding (opschonen, oude drivers verwijderen, rebooten, DDU, rebooten) Zo het pakket installeert.
uhmm, dat is gewoon AMD's eigen aanbeveling en dat doe ik al een 2 jaar zo (nadat AMD hun aanbeveling had aangepast) en ik heb er nog nooit last van gehad.
Ik onder w8.1 ook niet, maar W10 was het al een compleet ander verhaal.
Hoop ellende, dus maar weer de oude vertrouwde soms overdone methode gebruikt.
Leuk verhaal maar WHQL zegt ook geen drol. Laatst hele reeks WHQL geweest van nVidia drivers met de Chrome crash problemen en de windows 10 drivers zijn ook lang niet zo stabiel als het moet(heb regelmatig displaydriver stopped responding op me GTX 970)

Volgens mij brengt AMD nu liever geen WHQL drivers meer uit omdat dat geld kost. Dus dat zegt helaas ook wel wat over de staat waar ze in zitten. Heb hiervoor een aantal AMD kaarten gehad en was daar net zo tevreden over als nu met deze nVidia. blind nVidia kopen is ook gewoon, het scheelt per generatie erg welk kamp het beste is en AMD is een aantal generaties(HD4xxx vs GT2xx bijv) ook veruit de sterkste geweest maar helaas bleven een groot deel fanboys toch blind Nvidia kopen.
With NVIDIA constantly refining and fine tuning its GeForce driver with a constant stream of Game Ready WHQL releases, even for Windows 10 with DirectX 12 support, AMD has fallen behind the ball, big time. "
AMD was niet de gene die BSOD issues had in windows 10 anders. AMD drivers waren gewoon op orde, al voor de launch van windows 10. niks 'fallen behind' dus.

verder is je kritiek niet alleen verouderd hij is ook nog een onterecht, en nvidia zelf heeft het veel erger gemaakt in het verleden met maanden lang alleen maar beta's.

sterker nog nvidia heeft nauwelijks meer driver update gehad als AMD de eerste 6 maanden van 2015. en AMD heeft er de afgelopen 3 maanden meer gehad, inclusief WHQL certified.

De laaste zin in HELEMAAL prachtig. nVidia heeft NOOIT monthly release gehad! maar toch hebben ze kritiek op AMD omdat ze er vanaf zijn gestapt, en op een of andere manier is nvidia daarom beter... 8)7

de nvidia PR machine draait op volle toeren zie ik.

[Reactie gewijzigd door Countess op 10 september 2015 16:21]

Met de Nvidia drivers kon ik amper/niet het scherm oprekken om het hele beeld te gebruiken en zat ik met zwarte randen; bij AMD Catalist doe ik dat al jaren, probleemloos. Gewoon in de settings. Daarom AMD Catalist dus!
NVidia control panel is anders ook niet snel.
Het is natuurlijk ook heel erg subjectief :)
Idd, echter waren het "Nvidia experience" , en "Nvidia contol panel" wel een van de redenen, dat ik na mij gtx 460 naar AMD r9 270x gegaan ben. En was destijds positief verrast ! Ik vind het een geweldige kaart en ben dan ook van plan na de aanschaf van mijn 1440p monitor een r9 390 te gaan halen.

Ik denk dat het negatie beeld van AMD's cpu tak hun gpu tak besmet heeft, en dat is dood zonde, want AMD heeft er echt pareltjes tussen zitten.

Echter , Nvidia is zeker goed in marketing, en weten een soort Premium gevoel bij mensen erin te praten, en ik snap goed dat wanneer je 300 euro voor een kaart wilt neerleggen, dat je dan ook graag het "gevoel" wilt hebben dat je een luxe product in handen hebt. En dat is exact waar Nvidia op inspeelt, ondanks dat AMD ook zeker genoeg premium producten heeft.

[Reactie gewijzigd door holhuizen op 10 september 2015 15:56]

Ik dit jaar veel kaarten getest waaronder:

HD7970 GHz
HD 7990
R9 290
R9 290X
GTX 970
GTX 980
GTX 980 Ti

Ik kan nu niet zeggen dat het een zo veel beter werkt dan het ander. Het heeft allemaal zijn voor en nadelen. Persoonlijk vind ik CCC veel prettiger dan nVidia's control center maar dat is mijn persoonlijke voorkeur.

nVidia heeft iets hogere MAX FPS waardes maar AVG en min ontlopen ze elkaar niet veel (dan heb ik het wel over gelijkwaardige modellen)

Op dit moment heb ik geen nVidia meer en gebruik ik een R9 290X vanwegen een Freesync scherm. Ik zou graag Fury eens proberen.

AMD wordt nu wel iets efficienter zie Fury Nano. Hopelijk zetten ze dat door naar de volgende generatie. Ze moeten dan echt weer een beetje terug zien te komen qua marktaandeel.
Ik snap ook niet waarom iedereen nvidia blijft ophemelen. Overlaatst vroeg iemand op een forum advies voor een grafische kaart en had een nvidia en amd alternatief in gedachten. De AMD kaart was sneller en goedkoper dan het Nvidia alternatief. Maar dan komt men met het argument dat de nvidia kaart beter geoptimaliserd is voor enkele games, en dan denkt men, "ah dan toch maar de nvidia nemen", terwijl AMD het in alle andere 99% van de games gewoon beter doet...
De feiten worden enorm verdraaid in het voordeel van nvidia.

[Reactie gewijzigd door shier50 op 10 september 2015 12:06]

Als het net die enkele games zijn waarvoor die persoon de kaart koopt is het een logische keuze. Nvidia lijkt wat dat betreft ook vrij agressief in het ondersteuning verkrijgen voor hun kaarten van AAA-games. Zo heb ik dit jaar een GTX 970 genomen vooral om The Witcher 3 goed te kunnen spelen. Als dit spel beter op AMD kaarten zou draaien had ik waarschijnlijk voor het rode kamp gekozen.
Tja, en een paar maanden later en wat patches van Project Red en AMD en de peformance tussen 970 en 390 is nagenoeg gelijk!

Zie benchmark resultaten

Ofwel, zoals Sinester onder al zegt je keuze is een beetje voorbarig en vreemd.

Als je argumentatie was geweest, warmte productie / efficientie van de kaart dan was ik het wel met je eens, maar kiezen naar aanleiding van 1 spel met niet geoptimaliseerde benchmark resultaten vind ik vreemd.
Zelf de keuze ook gemaakt voor een gtx 970 ivm the witcher 3, tevens meegenomen dat ik maar een 500watt voeding heb. En de 970 een stuk minder energie slurpt. (strix variant) en heb zelf een voorkeur voor nvidia doormiddel van persoonlijke slechte ervaringen met amd. (dit is natuurlijk persoonlijk)

Zou zeggen ieder zijn keuze, de één wil nike schoenen de andere voldoet met een eigenmerk van scapino.
Ik zeg exact wat jij voor argumentatie geeft in mijn bericht...
Paar maanden later pas ja... Daar had ik weinig aan op de releasedate. Niks vreemds aan dus.
Wel als dat je ENIGE reden is, die geldt nu dus niet meer...
Waar heb je t over? Ik wilde dit spel gewoon op max. settings spelen op t moment dat t uitkwam. Wat heb ik dan aan benchmarks van maanden later met een videokaart die ook nog eens een maand later dan t spel uitkwam?!
Relax. Ik koop een kaart voor toekomst perspectief. Niet voor 1 enkele game, is gewoon minder zinnig. IMO
Veel plezier daarmee. Vaak zijn er patches nodig om het spel uberhaupt goed te kunnen spelen }:O
Offtopic: Dit gaat niet over algemene bugs en het nut van games pre-orderen, dit gaat over optimalisatie voor bepaalde kaarten.

Ontopic: Voor AMD kaarten was dit duidelijk het geval ja. Bij mij draaide het probleemloos. Ik heb het ook niet verzonnen dat spellen voor een bepaald kamp (rood danwel groen) geoptimaliseerd worden. Ik heb liever ook meer keuze. Maar als ik zo lang heb uitgekeken naar een spel, is het dan gek dat ik voor safe ga en de in mijn ogen op dat moment meest geschikte kaart koop?
Keuze is alles behalve voorbarig geweest.
I.t.t. de 390 is de GTX 970 is flink te OCen, de grootste drempel is de power limit die helaas gecapped is op 110% in de standaard drivers.

Ten tijde van de witcher 3 release heeft hij m.i. een goede keus gemaakt. Zat w3 trouwens niet als voucher daarbij?
Zie dus ook mijn bericht...
Zo heb ik dit jaar een GTX 970 genomen vooral om The Witcher 3 goed te kunnen spelen
Vind ik nogal een rare methode om je grafische kaart te kiezen, een GPU gaat jaren mee, een spel niet, dus waarom zou je dan op basis van 1 spel (zeker een singleplayer game) je GPU kiezen?
Omdat het zeker niet de enige reden was maar wel een belangrijke. Bovendien ruil ik die 970 net zo makkelijk weer in voor een ander bijv. via V&A. Ik hoef er echt geen jaren mee te doen.
Zelf heb ik voor een 970 gekozen omdat het een makkelijke kaart was om over te klokken en zelfs met overklok zuiniger was dan de AMD tegenhanger. De kaart blijft stil in idle en de koeler van MSI is toch een stukje verbeterd i.v.m. de 200 reeks van AMD.

Ook was de 2de hands waarde van de 970 veel hoger, terwijl de meeste 290x voor rond de 200-250 euro al van de hand werden gedaan (dit waren dan veelal wel kaarten zonder garantie). Terwijl de Nvidia varianten nog voor 340 euro van eigenaar wisselde (nieuwe waarde was ongeveer 370 euro voor beide kaarten).

En Nvidia had gewoon met compressie en andere zaken de kaart beter voor elkaar dan AMD. Nu heeft AMD met Fury en met Dx12 blijkbaar wel weer mogelijkheden om het gat weer dicht te maken alleen kon ik met de aanschaf van mijn kaart niet inzien wat er met dx12 zou gebeuren.

Misschien ben ik er ook wel in getuimeld, omdat Nvidia de kaarten aan het promoten was met Dx12 support terwijl de AMD kaarten al langer uit waren ben ik dan voor een 970 gegaan.

Al met al zoals de zaken er nu voor staan weet ik niet precies wat ik zou kiezen, maar een paar maanden geleden lag AMD wel veel achter, zeker met de Dx11 support voor games wat Nvidia beter voor elkaar heeft.

Nu ben ik geen fan van beide bedrijven en lees ik nu steeds meer over het rare gedrag van Nvidia 'game(niet)works', dus mijn volgende kaart zal waarschijnlijk weer van het rode kamp zijn.
En Nvidia had gewoon met compressie en andere zaken de kaart beter voor elkaar dan AMD. Nu heeft AMD met Fury en met Dx12 blijkbaar wel weer mogelijkheden om het gat weer dicht te maken alleen kon ik met de aanschaf van mijn kaart niet inzien wat er met dx12 zou gebeuren.
Niet alleen de Fury kaarten presteren beter onder Directx 12. Dit geldt ook voor de 200- en 300 serie van AMD.
Ik heb bijna altijd alleen maar AMD gehad maar het afgelopen jaar was het wel zo brak voor mij dat ik naar het groene kamp ben gegaan (doet nog steeds pijn). Crossfire werkte niet of slecht in spellen waar het normaal gewoon werkte. Eyefinity deed het niet of vertoonde vreemde kuren. het werdt gewoon te irritant om fatsoenlijk te kunnen spelen. Dit alles over meerdere herinstallaties van Windows btw. Dan installeerde je weer een oude driver en dan werkte het soms wel, maar in nieuwe spellen dan natuurlijk weer niet.
switchen van 2 7970's naar 2 r9 290's verbeterde het ook niet.
ze zouden volgens mij nog heel veel winst kunnen halen uit het terugdringen van het verbruik en het verbeteren van hun drivers (die laaste gaf mij zo veel problemen).
Ik heb jaren plezier gehad van AMD dus ik zal bij mijn volgende video kaart het waarschijnlijk weer proberen, al is dat nog een tijdje weg.
Ik gebruik zelf amper CF en Eyefinity dus ik kan daar niet over oordelen.
Me broer heeft wel af en toe wat gedonder met Eyefinity gehad maar nu met zijn GTX970 heeft hij ook wel een mot met surround gaming. Het lijkt er op dat het beide niet perfect is.
Ik gebruik al een poosje CF met Eyefinity (3x 20"schermen) en heb eigenlijk nooit echte problemen gekend, eerst met twee Sapphire Vapor-X 5770 kaarten, om een half jaar geleden overgestapt te zijn op twee Sapphire TRI-X R9 290 kaarten.

[Reactie gewijzigd door _Dune_ op 10 september 2015 15:28]

Ik denk dat het aan de kabels / splitters lag. En soms bij het switchen van standaard naar eyefinity mode ging het niet goed.
Bij nieuwere drivers deed Eyefinity het ook niet altijd. Maar dat was volgens mij door de gekozen bekabeling want toen die later verandert was werkte het wel.
Ik heb er nog geen problem mee gehad zover, nou ja de game moet natuurlijk zelf wel die beeldverhouding en resolutie ondersteunen :P
Het probleem was bij mij voornamelijk dat het in spellen waar het normaal zonder problemen werkte het ineens niet meer werkte (dingen werden uitgerokken of je interface stond niet meer op het middelste scherm). Ik heb zo ongeveer elke bedenkbare oplossing geprobeers maar het werkte bijna nooit.
Crossfire was al helemaal niet te doen. van de ong 15 spellen (die ik regelmatig speel) die crossfire ondersteunde en het ook gewoon deden werkte het afgelopen jaar er nog maar 3. De rest vertoonde of vreemde kuren of je draaide alleen maar minder fps als crossfire aanstond.
over 2 jaar nog maar eens opnieuw proberen en hopen dat het beter is.

[Reactie gewijzigd door RacerBas op 10 september 2015 12:50]

Ik herken deze issues persoonlijk helemaal niet i.c.m. mijn 2 R9 290 CF en 2x 1080p eyefinity setup... Aan de andere kant heeft een vriend van me de nodige problemen ondervonden met zijn 2x 780Ti SLI en 3x 1080p surroundview setup, waarbij meerdere malen SLI niet te enabelen was of er in een zeer specifieke volgorde geswitcht moest worden tussen 3x1 en 1x3 omdat anders de driver volledig over z'n nek gingen...

Al met al zal je bij beide kampen de nodige horror verhalen tegenkomen als je er naar op zoek gaat.

Ik heb van zowel nVidia als AMD kaarten in gebruik en heb in beide gevallen de nodige driver problemen ondervonden...

Toch gaat mijn persoonlijke voorkeur juist uit naar AMD.
Het verbruik is juist waarom ik voor nvidia heb gekozen voor m'n laatste kaart. Wil geen herrie, en m'n kamer wordt al warm genoeg zonder een loeiende computer.
"betalen mensen toch meer voor een slechtere nVidia kaart"
Is een subjectief statement, vermomd als objectief. Ja, ik had voor minder geld meer performance kunnen krijgen als je dat bedoelt. Een koeler systeem is mij een meerprijs waard.
Ik snap helemaal niet waarom dat verbruik steeds een struikelblok is. Het is het maximale vermogen dat opgenomen kan worden, bij maximale performance. Hoevaak komt dat verhoudingsgewijs voor? Dit zal zeker niet vaak zijn. Het energie verbruik is gewoon verwaarloosbaar om daar een kaart op te selecteren.

Als ja dan een merk kiest welke aftermarket keeling op de grafische kaarten drukt dan is herrie ook geen enkel punt. Ik heb twee Sapphire Tri-X R9 290 kaarten in mijn Pc zitten en die twee zijn niet de grootste herrieschopper als ik aan het gamen ben, dat kan ik je verzekeren. Zij komen niet boven mijn headset of audio installatie uit.
Hoger verbruik betekent meer warmte en dus meer geluidsproductie. Meer herrie en hogere temperatuur in de kast en ook de kamer waarin dir staat.
Ik heb daar problemen mee, jij niet. Is iets persoonlijks, let's agree to disagree.
Ze maken geen herrie met een goede cooler.
Er zijn genoeg kaarten van AMD die beter presteren tegen een lagere prijs.
Het is niet voor alle kaarten zo maar AMD heeft een paar goede bang for buck kaarten.
Ondertussen, met mijn HD 6950:
Displayport is niet bruikbaar omdat deze random disconnect.
Artifacts wanneer de kaart koud is vanwege slecht soldeerwerk.
Springt willekeurig naar idle-clock in-game, wat stutters en vaak crashes veroorzaakt (oplossing was het aanpassen van het profiel en de minimum kloksnelheid gelijk maken aan de maximum kloksnelheid).

Joost mag weten waarom mijn volgende kaart weer een Nvidia wordt (zodra we van 28nm af zijn...).

Edit: Lol @ 3 ongewenst beoordelingen. Off-topic, uiteraard, maar ongewenst? :p
Eerste kaart ging RMA vanwege problemen, vervangende (huidige) kaart kwam na 2 maanden binnen (Sapphire staat nu op mijn zwarte lijst). Deze had out-of-the-box die issues al, maar omdat deze allemaal op te lossen waren met enkele tweaks (VGA aansluiten, fans uitzetten in idle, kloksnelheid constant op max) en ik geen zin had om weer 2 maanden te wachten, heb ik eieren voor mijn geld gekozen.
Ik ben zeker niet ontevreden met het ding, ik geniet er namelijk al 4 jaar van, maar de regelmatige crashes, dagen van Googlen naar en proberen van oplossingen, brakke OpenCL en de rampzalige support in Linux maakt me wel huiverig om weer een AMD te nemen met het risico dat deze ook dergelijk divagedrag gaat vertonen. Al moet ik zeggen dat driversgewijs ze het tegenwoordig stukken beter doen.

Mijn reactie slaat er vooral op dat Astennu er zo stomverbaasd om kan/kon zijn dat AMD niet van meer succes geniet.
" Ookal is AMD een super alternatief betalen mensen toch meer voor een slechtere nVidia kaart. Joost mag weten waarom maar het gebeurd heel veel."
Persoonlijk heb ik de energie niet meer om te kloten met brakke kaarten. Als de huidige lineup van AMD beter is, prima, maar ik hecht waarde aan eerder opgedane impressies.

[Reactie gewijzigd door ffha op 10 september 2015 13:19]

zo je hebt 1 slechte kaart. Of in elk geval, het is al een oud beestje... ligt het niet daar aan?

Owja en kijk eens bij nvidia, hoeveel coilwhine issues er zijn met de nieuwe kaarten.. of vergeet je dat ook?
Ondertussen, met mijn HD 6950
Of in elk geval, het is al een oud beestje
Gevalletje pecht natuurlijk, ik heb hier al vanaf het begin een 6950 draaien, zonder enkele problemen, draait spellen nog steeds op redelijke hoge settings
Ja dat bedoel ik ook, met ouderdom slijten producten ook, soms heb je pech en regelmatig blijft de boel gewoon netjes draaien. Maar het is een gegeven dat oudere producten natuurlijk een groter risico lopen om kuren te vertonen dan nieuwe producten.

En dan bedoel ik niet DOA producten, waarbij het al vanaf dag 1 raak is natuurlijk. Maar een kaart van een half jaar oud die al 6 maanden zonder problemen draait die loopt minder snel kans op falen dan een kaart die 3-4 jaar draait.

Het moet haast wel door ouderdom kwaaltjes (pech die er bij komt) komen, want als je de problemen ervaart die ffha zegt te ervaren. Als die problemen al LANG spelen, waarbij de kaart dus een stuk jonger was, dan had ik allang een andere kaart gehaald. Want dit is natuurlijk geen doen.

Ook is het blijkbaar buiten de garantie gebeurd, anders had je de kaart kunnen terug sturen. Dus heb je vrij lang van je kaart kunnen genieten zonder problemen. Vervelend natuurlijk dat je dit nu ervaart.

[Reactie gewijzigd door legendareN op 10 september 2015 13:07]

Laten we vooral de GTX8000-serie van nVidia niet vergeten, welke allemaal kapot gingen vanwege bijzonder slecht soldeerwerk.
Houtschroeven, GTX 970 3.5GB memory design flaw, GTX 590 kaarten die zichzelf opblazen, GTX 480 kaarten die kunnen dienen als kookplaten.

Jammer dat Intel geen dedicated GPU kaarten maakt :')
(Linux drivers zijn echt heerlijk voor die integrated dingen)
Jep Nvidia heeft ook rotzooi geleverd, en rebrands met prijsverhoging.
Los van het 3.5 GB + 0,5GB probleem (hoe slecht kan je communiceren) is Maxwell 2 een schot in de roos geweest.

Helaas zijn het vooral door kokende AMD kaarten en een shitload aan rebrands waardoor Nvidia er beter uit komt.

Lees voor de objectieve beoordeling de links in het artikel eens. Wellicht saaie kost, maar cijfers zeggen zoveel meer.
Blijkbaar heb je dan een peg gevalletje te pakken gehad. Ik heb hier nog HD2xxx tm HD6xxx kaarten die prima werken.

De HD5870 en HD6970 zijn hier heel lang in gebruik geweest in een 2e machine.

nVidia heeft in het verleden meer problemen gehad met slecht soldeerwerk dan AMD.
Imo is het niet eerlijk en slim om je ervaringen van een kaart bindend te laten zijn over je oordeel van een merk.

Hoe oud is die 6950 inmiddels? had je die problemen in het begin ook? De HD69xx serie staat niet bekend om solder problemen.
De clockspeed problemen ken ik ook niet. in het verleden wel eens gehad dat Flash de UVD clocks vast zette maar dat is al heel lang niet meer zo.
Ik gok dat het meer te maken heeft met oem's die chips kopen. Laptops hebben over het algemeen geen AMD gpu of cpu.
Het 1440p segment is spot on voor de Fury X kaart. Zou 1440p het nieuwe basissegment worden, 1080p vervangende, dan zou de Fury X een goede markt kunnen aanboren.

Kijkende hoe goedkoop 1440p en 4k monitoren nu al zijn moet deze markt gaan aanjagen. Voor een kaart als Fury X is dat goed nieuws. Ze is op het goede moment op de juiste plaats. Hopelijk geeft AMD haar kaartenbouwers wel wat meer armslag in het maken van eigen oplossingen. De restrictie, hoe begrijpelijk ook (HBM), die AMD oplegt kan naar mijn idee verkopen remmen.

Hopelijk kan AMD nog wat meer variatie toelaten in haar Fury producten, dat zou verkopen kunnen helpen. Mijn hoop is daarbij op wat meer HBM geheugen om de discussie over het huidige maximum te ondergraven.

edit: typo's

[Reactie gewijzigd door teacup op 10 september 2015 17:29]

Het staat er in ieder geval niet goed voor. Ookal is AMD een super alternatief betalen mensen toch meer voor een slechtere nVidia kaart. Joost mag weten waarom maar het gebeurd heel veel.

Heeft dat niet méér te maken met heft feit, dat er op nVidia kaarten meer marge zit voor de verkopende partij? Bij Intel (processoren) speelt dit zeker, ook al is de verkoper er zich niet bewust van. Niet bewust betekent in dit kader dat Intel wordt verkocht als een "betere" optie dan AMD. Dit "beter" bestaat niet, als je niet benoemt wat er dan daadwerkelijk "beter" is (bijv. sneller/goedkoper/zuiniger).

Verkopen ís een vak apart. Toch heb ik de indruk dat verkopen meer een spel is (lees: knikkers/knaken :o ), dan dat het om inhoud gaat.

[Reactie gewijzigd door Janbraam op 10 september 2015 13:21]

Dat is een mooi fanboy verhaal, maar misschien hebben andere mensen gewoon andere eisen? Ik heb nu een AMD, mijn vorige was een AMD, en als ik nu een nieuwe zou kopen, zou het een Nvidia worden. Waarom? Stil, zuinig, en goedkoper.

Voor je me gaat vertellen dat AMD goedkoper is bij gelijke performance (klopt gemiddeld genomen, ietsjes goedkoper): Als ik een gelijkwaardige AMD nu ga kopen aan een 970 moet ik een nieuwe voeding kopen. Als ik een 970 koop hoef ik geen nieuwe voeding te kopen.

Overigens zal je het beetje dat AMD goedkoper is over zijn levensduur ook weer gedeeltelijk kwijtraken aan energiekosten.
Ik heb ooit van student-developers gehoord dat het ook een beetje aan de interpretatie van code ligt.

Op school moesten ze machines met nVidia-kaarten gebruiken om te coden en daar kwam dan een bepaalde hoeveelheid code uit, maar met een kaart van AMD werd de code zo versimpeld dat de helft van de code op een nVidia-kaart voor niets was geweest. Of zo werd het mij uitgelegd.

Een beetje zoeken op teh interwebz geeft aan dat in het verleden, drivers voor kaarten van ATi en wellicht nog steeds, flink onderdeden voor drivers van nVidia. Daardoor draaiden games beter op kaarten die daarvoor geoptimaliseerd waren. Ik noem met opzet geen bron, omdat het voornamelijk fora zijn waar dit genoemd wordt.

Tegenwoordig hoor je juist veel dat mensen een CPU kopen van AMD omdat die beter geschikt zouden zijn voor gaming. Wellicht dat AMD de GPU-divisie op die manier ook aan het optimaliseren is.
Voordelen, mij maakt het persoonlijk niet uit welke kaart ik heb mits ze goed presteren, het aantal watts maakt mij ook weinig uit.

NVidia heeft Physx, en als je spellen speelt die Physx hebben en je speelt het met een AMD kaart is het lelijker (als hij uit is) of Veel frames drop (Als hij aan is). Dit is vrijwel niet tolerant, echter heeft alleen een bepaald selectie spellen dit, dus dit valt op zich wel mee.

De Radeon heeft een slecht tot vrijwel geen Linux Drivers, dit is ook weer een nadeel waarom mijn voorkeur blijft voor Nvidia.

Als ik moet kiezen tussen goedkope tweedehandse kaartjes, dan zou mijn voorkeur waarschijnlijk zijn bij R9 290's.

Maar ze hebben beide goede kaarten, alleen door die nvidia closed source snufjes en betere software, maakt nvidia toch nvidia beter dan AMD in mijn opzichte.

[Reactie gewijzigd door ilaurensnl op 10 september 2015 14:43]

Het hele beter/slechter verhaal daar laat ik me even niet over uit (dat is toch erg moeilijk om objectief te beoordelen gezien iedereen andere eisen heeft). Maar het is wel een feit dat Nvidia meer aan marketing doet en beter klanten met zich weet te binden (door betere support op bepaalde populaire games te geven). Borderlands, The Witcher 3, World of Tanks en Project Cars zijn bijvoorbeeld populaire games die vaak net even wat beter op een (vergelijkbare) nVidia kaart draaien. Ik heb sinds dat ATI AMD is geworden altijd een beetje het gevoel gehad alsof AMD de GPU tak minder serieus nam en vooral op gebied van marketing alle takken (CPU, GPU APU etc.) er onder leden.

Veel kaarten (overigens was dit bij Nvidia ook een poos zo) waren rebrands en gewoon niet erg spannende kaarten. Dit neemt niet weg dat veel rebrands gewoon erg goede kaarten zijn maar veel mensen zijn nou eenmaal gevoelig voor marketing en "nieuwe" snufjes (niet elke gamer is ook een tweaker of iemand die veel verstand van hardware heeft).

Ik hoop ook dat AMD het wat beter gaat doen want net zoals jij zegt is een monopolie nooit goed. Maar ik heb gewoon het idee dat AMD in het verleden hun grafische tak te kort heeft gedaan (vooral marketingtechnisch) en daardoor de verkopen erg tegenvallen.
Wat een fanboy praat, sorry dat ik het zeg. Maar naast dat je Nvidia gebruikers aardig aan het denigreren zijn is er meer dan puur raw power.

Ik wil geen 700watt verstokende voeding in me PC om een videokaart te draaien die misschien max 5% beter presteerd in diezelfde prijsklasse. Ik draai zelf een mATX systeem met een 500watt voeding en een Geforce 970. De temepratuur die het uitblaast, geluid etc zijn gewoon optimaler dan met een 390.

Daarnaast blijf ik er bij en spreek ik uit eigen ervaringen maar wat ik ook op fora zie zijn AMD drivers gewoon neit altijd optimaal en gameready drivers zijn vaak niet op tijd af waardoor je weer paar weekjes moet wachten om optimaal te genieten van een PC game.

Daarnaast, maar dit is meer voor de Tweakers, de overlock range is gewoon een stuk groter op Nvidia kaarten. Ik heb vanaf base clock mijn 970 25% kunnen pushen waardoor het uiteindelijk toch beter presteerd dan de gelijkgeprijsde AMD kaarten. Eeb hoop populaire games draaien overigens ook beter op Nvidia kaarten zoals project cars en the witcher 3.

Ik hoop dat AMD wat sterker in de markt weer komt te liggen want monopolie is voor niemand goed. Maar een hoop gebruikers waaronder ik maken echt wel weloverwegen keuzes betreft welke kaart ze kopen.
Mensen die andere fanboy's noemen zijn zelf vaak fanboy's. Je eigen bericht vind ik ook niet zo objectief geschreven. Dus wellicht eerst naar jezelf kijken voordat je andere van iets gaat beschuldigen?

Dingen die je claimt over 700 watt verstokende voeding voor +5 extra prestaties zijn totaal niet waar.
Als je zoekt naar problemen met drivers vind je nVidia ook vaak genoeg terug daarnaast zijn er genoeg mensen waar de AMD drivers prima werken. Ik heb zelf met beide merken geen grote problemen gehad met drivers. Beide werken ze prima.

Overclocken is wel een punt maar daar heb ik het niet over gehad. De nVidia kaarten clocken verder. Maar het verbruik stijgt dan ook behoorlijk. Efficientie gaat omlaag als je niet met de voltages aan de slag gaat (is bij AMD ook als je gaat overclocken) kortom in het kader van zuinig zijn wil je dit eigenlijk niet? Of moet je een combinatie van Undervolten en OC gebruiken. Dat lukt erg goed bij een Haswell 2 kaarten (heb daar zelf behoorlijk wat mee gespeeld)
Oh laa tmaar zien dat het neit waar is dat je een goede 600watt tot een matige 700watt voeding voor deze kaart moet hebben?

Hier zie je een overzicht
http://www.guru3d.com/art...aming-8g-oc-review,8.html

De kaart gebruikt onder volledige lood tegen de 260watt. Dan meot je het hele systeem zelf nog draaien. Guru3d geeft zelf 550 tot 600watt voor deze kaart aan. Maar genoeg voedingen die niet zo optimaal zijn (als in volledige 600watt bijvoorbeeld op 12v kunnen doen).

Betreft de prestaties https://www.youtube.com/watch?v=k9cKZiJw6Pk

In dit filmpje zie je dat een 390 een tikkeltje sneller is dan de gelijk geprijsde 970gtx. Met nadruk op tikkeltje sneller. Clock dan de 970gtx flink over en dan vallen die verschillen gewoon totaal weg. AMD kaarten hebben wel 1 troef achter de handen en dat is 4K gaming vanwege het enorme geheugen wat ze altijd hebben.
Over de PSU het verschil met de GTX970 is 100 watt dus als je voor de GTX970 een 500 watt PSU pakt is bij de R9 390 een 600 voldoende. Zelf heb ik ook kunnen gamen met een oude 430Watt PSU en een R9 290. Ik zou dat niet aan raden maar als ik kijk wat mijn Systeem load uit de muur trekt hebben we het over +-450 watt. met een rendement van 92% (platinum PSU) Dus een 500 watt PSU van een goed merk zou voldoende moeten zijn. Mijn systeem heeft 2 SSD's een 4790K op 4,5 GHz en een geluidskaart. Als je iets meer marge wil pak je een 550-600 watt PSU. Dus ik kan me wel in die aanbeveling van Guru 3D vinden. Dat is een veilige waarde en heb je nog power over als je meer aan je Systeem wilt toevoegen of wilt overclocken.

Ik kijk dan liever naar sites zoals:
HardOCP, Anandtech, Computerbase enz dan naar iemand op youtube:

http://www.computerbase.d...60-1440-normale-qualitaet

Of om je eigen test van Guru3D er bij te halen:
http://www.guru3d.com/art...ming_8g_oc_review,15.html

http://www.guru3d.com/art...ming_8g_oc_review,19.html

Bij The witcher 3 is het verschil 1 FPs op 42. En bij BF Hardline is de 390 bijna 20% sneller. Dus zo slecht doet die het nog niet. Computerbase laat ook zien dat hij overall over alle geteste games wat sneller is.

Hier zie je dat hij ook net ietsjes sneller is vooral op 4K:
http://www.techpowerup.co...r/R9_390_PCS_Plus/30.html

Kortom op 1080p zijn ze aan elkaar gewaagd. Op 2560 is de 390 iets sneller en op 4K is hij duidelijk sneller.

De 970 is beter overclockbaar en verbruikt minder. Dus als overclocken je ding is (er zijn mensen die het perse niet willen doen) is dat een groot voordeel voor de GTX970.

En de toekomst zal leren wat wie de beste keuzes heeft gemaakt qua DX12 implementatie. Er zijn op dit moment nog te weinig games uit die daar gebruik van maken dus we kunnen daar nog niet genoeg over zeggen. Maar voor DX11 maakt het elkaar in ieder geval weinig uit. Afhankelijk van welke games je speelt moet je je keuze maken. DX12 zou alles kunnen veranderen.
Je hebt voor een 390 helemaal geen 700watt voeding nodig. Een 500watt doet het daar ook gewoon prima bij.

En met de temperaturen onder load met een aftermarket koeler is een 390 helemaal niks anders dan een 980. Sterker nog:

http://www.guru3d.com/art...390-pcs-8gb-review,9.html

de 390 is koeler dan een 970 en 980 onder load.

En qua geluid is het ook helemaal niet zo erg als wat jij omschrijft. Ga eens naar het noise tabje.

[Reactie gewijzigd door legendareN op 10 september 2015 13:29]

Ja, als je een voeding van rukkwaliteit hebt gaan die verliezen inderdaad rechtstreeks van het leverbare vermogen af, daarom gebruiken kwaliteitsfabrikanten zwaar overkill onderdelen, het is niet gek om componenten in een 500w voeding te vinden die makkelijk 1kw aan zouden kunnen.

Overigens is het eigenlijk ook al een fabeltje op zich zelf dat onderdelen zoveel verliezen, ja, een slechte voeding wellicht, maar een kwaliteitsding? Die levert na 10 jaar gewoon hetzelfde als op dag 1.

Kijk eens in het voedingentopic, en je ziet dat 90% van de systemen met een R9 290/390 een 450w voeding krijgen.

100w extra in je kamer is peanuts. Een menselijk lichaam straalt al veel meer warmte uit, dus tenzij je in een zeer kleine en of zeer goed geisoleerde kamer zit, is die 100w extra verwaarloosbaar,. Pas bij uren achterelkaar kun je een verschil gaan merken.
Je maak aannamens. Elke capacitor verliest vermogen of deze nou van uitmuntende kwaliteit is of niet. Dat is gewoon een vergelijkbaar process als wat er gebeurd bij lithium accu's.

Wat jij zegt is piek vermogen maar reken er maar op dat het zeker geen constant vermogen is. De voedingen gaan niet voor niets op volle touren draaien qua fans om deze koel te houden. Dit is ook het moment wanneer het meer gaat slijten.

Prima dat anderen het op 450watt draaien. Maar dat is dan gewoon een echt barebone systeem.

Daarnaast je zegt dingen maar kan dit niet onderbouwen. Mensen klagen al over opwarming van hun kamer met een gaming laptop. Deze draaien maar al vaak max op 180watt totaal tdp.
Prima dat jij daar niet voor kiest toch.

En 64 graden onder load, is dat zoveel erger dan een 970 of 980 met aftermarket koeler dan?

http://www.hardocp.com/ar...ard_review/9#.VfFq9BGqpBc

Zo zijn er meerdere reviews natuurlijk van verschillende merken met aftermarket koelers.

Over de temp die er uit word geblazen daar kan ik niet omheen natuurlijk, de 390 verstookt idd meer.

[Reactie gewijzigd door legendareN op 10 september 2015 13:38]

Ja maar hoe luid is het? Soortgelijke koelers zijn gewoon stiller op Nvidia systemen. Al zijn ze allemaal neit echt luid. Het gaat mij inderdaad mer om de warmte die de kast uit geblazen wordt.

De 3 slot koelers zijn wel echt nodig bij AMD, wat ik persoonlijk jammer vind en ook gewoon niet te doen voor een mATX systeem waarbij je nog andere PCI express sloten wilt gebruiken.
Eerste link kan je ook navigeren naar geluid niveaus. Kaart is onder load vrij stil.
Mijn ervaring is dat op nvidia vrijwel alle nieuwe spellen meteen goed draaien....dit is bij ati wel wat anders....

Onlangs nog met project cars....kameraad van me kon amper spelen omdat het op zijn 7990 amper draaide..

Maar ze hebben hun drivers tegenwoordig wel wat beter op orde dan vroeger...

prijs/kwaliteit kijkt iedereen anders tegenaan....is maar net wat je te besteden hebt

[Reactie gewijzigd door Mr. Detonator op 10 september 2015 18:56]

Geen idee waarom je eigenlijk een +2 krijgt.

Je laat niets zien met je " Ookal is AMD een super alternatief betalen mensen toch meer voor een slechtere nVidia kaart." Dat is natuurlijk lang niet in alle gevallen zo. Wanneer je bijvoorbeeld de GTX970 tegenover de R9 290 en 290x zet (de eerste zit er een paar tientjes onder, de laatste een paar tientjes boven, wat on release een groter verschil was) blijft de GTX970 nog steeds de beste keuze.

Wanneer je als AMD zijnde peperdure kaarten released die je stopcontact haast droog zuigen en vervolgens door een goedkopere,stillere en zuinigere kaart van Nvidia uit het veld geslagen wordt... ben je dan een "super alternatief"?
Ik snap niet waarom dit een +2 moet zijn.

Je presenteert je eigen mening als feit, en blijkbaar trappen er mensen in.

Nvidia en AMD hebben op bijna elk prijsniveau nagenoeg vergelijkbare kaarten. Ze zullen misschien 10% max verschillen qua performance.

Bij AMD moet je al een goede koeler zoeken, en de reviews erbij pakken. Bij een GTX960 of GTX970 weet je gewoon dat je een stille kaart krijgt. Pak daarbij dat sommige mensen verbruik wel belangrijk vinden (niet alleen omdat je kaart minder warm wordt, maar ook omdat er minder warmte afgevoerd hoeft te worden in de kast) en je ziet dat Nvidia echt geen "slechtere kaarten" heeft dan AMD.

Wat er moet gebeuren voordat mensen weer een AMD kaart kopen?
Een goed alternatief voor de leegte tussen de GTX960 en de GTX970 zou mooi zijn. Liefst lekker zuinig, en stil.
Er zijn zat kaarten met een goede cooler out of the box die ook stil zijn. Dus geluid productie is het issue niet. Het hogere verbruik is wel een minpunt maar dat geef ik zelf ook al aan. Dus hoezo trappen mensen daar in?

Een goede kast kan die warmte prima afvoeren en als warmte echt een issue is moet je inderdaad een 960tm 980 of een Fury Nano nemen. Maar de meeste mensen hebben niet van die specifieke MATX of Mini ITX builds waar dat een probleem is.

Ik weet nog wel in de tijd van Fermi dat mensen de hitte van de nVidia kaart geen probleem vonden en die mensen roepen nu het hardste dat verbruik en geluid belangrijk is.

Natuurlijk heeft een lager verbruik bij hogere prestaties altijd de voorkeur. Maar omdat het verbruik wat hoger is maakt het niet meteen een slechte kaart.
Jij zegt dat AMD een "super alternatief" is, maar Nvidia maakt "slechtere" kaarten.

Waar zie je dit in terug?

Als ik ze namelijk vergelijk, dan zie ik kaarten die bijna altijd aan elkaar gewaagd zijn, waarbij het mensen natuurlijk vrij staat om een tientje meer te betalen voor een zuinigere kaart. (Niet alleen in ITX builds overigens. Ik ben van een 560Ti naar een GTX960 gegaan, en ik merk duidelijk in de temps dat de kast minder warm wordt, en de casefans dus ook wat zachter kunnen)

AMD heeft ook series gehad waar ze wel flink succes mee konden boeken in de BBG's, bijv de 48xx serie.

Maar momenteel is voor veel mensen een andere kaart gewoon interessanter.
Slechtere is een verkeerd gekozen woord geweest. Waar ik eigenlijk op doelde is minder goede prijs prestatie verhouding. Technologisch gezien zijn ze natuurlijk niet slechter. Ik ben er ook niet overtuigd van dat ze veel beter zijn.

Ja zuiniger ja DX12_1 featurelevel. Maar ze missen bv DX12_0 dus in dat opzicht ontlopen AMD en nVidia elkaar niet veel.
Let wel op de mensen die intel geïntegreerde graphics gebruiken.
De 18%, zoals aangegeven in de tekst, gaat om het aandeel van discrete grafische kaarten. Maw specifiek over de insteekkaarten zonder de IGP van een CPU mee te tellen.
Maar horen hier ook low-profile insteekkaarten voor bv OEM`s bij.
Wat wordt precies aan de onderkant van de markt verstaan onder "discrete kaart", zijn dat bv ook multimonitor kaarten voor bedrijfscomputers.

Dan kunnen de percentages snel vertekenen.
Al hoort dat erbij, je moet onthouden dat die kaarten ook geld opleveren..

En dat is het grootste probleem bij AMD.. geld..
En momenteel doen ze het in alle gebieden niet bepaald goed..
als ik zo rond mij kijk, en kijk naar de laptops en desktops die in de winkel verkocht worden, lijkt mij dat percentage nog helemaal niet zo onrealistisch, als ik een laptop met nvidia wil, loop ik de eerste de beste computerwinkel binnen, als ik een laptop met specifiek AMD graphics wil hebben, moet ik echter al sterk gaan zoeken, hetzelfde voor desktops, zowat alle pre-build laptops komen met nvidia graphics of intel HD
als je kijkt naar de steam hardware survey, ligt het iets verdeelder, echter heb je dan enkel gamers, die vaker zelf een PC samenstellen, maar ook daar ligt het percentage nvidia-kaarten dubbel zo hoog als het aantal AMD kaarten

[Reactie gewijzigd door jeroen7s op 10 september 2015 11:34]

Probeer eens een laptop met AMD processor EN AMD dedicated graphics te kopen in een fysieke winkel :+
Als je bedenkt dat elke medion PC o.a. met een GeForce 710 etc wordt uitgerust, dan worden die wel meegeteld. Een AiO met onboard Intel dan weer niet.

Kijk je naar puur game-pc's dat de verhouding iets anders ligt, maar heel veel zal het niet schelen (het is geen 50/50).
18% van de totale markt misschien, maar wat iets beter beeld schets is Hardware- en software-enquête van Steam: August 2015 daar zie je dat de verdeling ~ 52% NVIDIA en ~ 27% ATI is, wat ook geen denderende verhouding is.
Vergeet de OEM markt niet he, vrijwel alle POS, info en kantoor computers zijn met intelhardware, geen aparte VGA dus een intel HD.

Zelfs op consumentenmarkt heeft AMD heel veel markt verloren, waren ze in de athlon XP tijd nog zeer aanwezig, in de huidige markt zie je ze maar weinig, laptops zijn daar een perfect voorbeeld van.

Ook ik was altijd AMD fan (van de thunderbird tot aan de phenom X4) maar ben nu toch ook over gestapt op een i5. (laptop)
Gewoon omdat de huidige hardware van AMD helemaal niet interessant is. Hoog stroomgebruik, prestaties vele malen lager dan concurrentie, prijzen die lang niet meer zo laag waren als vroeger.

Met huidige radeon kaarten heb ik geen ervaring, maar als ik daar zo naar kijkt lijkt dat nog redelijk gelijk te lopen met nvidia.

En apple, daar zit ook altijd Intel hardware in.
Volgens mij gaat het hierbij om verkoop volume's dus alleen nieuwe aankopen tellen mee.
De steam survey (geeft natuurlijk een vertekend beeld, want gamers) toont 52.21% nVidia GPU's tegenover 26,96% AMD GPU's.
http://store.steampowered.com/hwsurvey/

Als we alle desktops in rekening gaan brengen, blijft intel veruit de marktleider, en haalt AMD aardig in op nVidia. Dit omdat AMD ook APU's heeft, in tegenstelling tot nVidia.
http://finance.yahoo.com/...er-graphic-180601456.html
(wel iets oudere gegevens, maar de trend zal wel vrij gelijkaardig blijven)
Nee dat klopt idd niet.

Wat het waarschijnlijk moet zijn is verkochte videokaarten in het laatste kwartaal, maar dat is natuurlijk totaal iets anders als marktaandeel.
Het percentage klopt wel, de beschrijving echter niet. Die 18% is de 'market share this quarter'. Hoe Tweakers daar dan van maakt dat AMD 18% van de desktop in handen heeft, is me een raadsel.
Deze percentages zijn waarschijnlijk inclusief IGP, en heeft intel verreweg het grootste aandeel.
Als je alleen naar de dedicated gpu's gaat kijken was het lange tijd +/- 50-50 voor AMD/nVidia. Vaak net iets in het voordeel van nVidia.

Sinds de GTX9xx serie zie je dat steeds meer verschuiven in de richting van nVidia. De voornaamste reden hiervoor is de perfomance/Watt wat bij nVidia op dit moment gewoon beter is, al kan de Fury redelijk meekomen. Echter zie je in DX12 dan weer dat de AMD kaarten mogelijk de overhand nemen op pure performance, maar de uit eindelijke winst zullen de eerste echte games moeten uitwijzen.

Een ander veel gehoord argument zijn de "suprieure" drivers van nVidia.
Hoewel dat vroeger wellicht het geval was merk ik persoonlijk weinig verschil meer tussen beide kampen als het aankomt op non-legacy windows drivers (oftewel >90% van de userbase).
Ondanks dat blijft het "smet" van de slechte drivers plakken aan de naam AMD waardoor mensen eerder nVidia adviseren ten opzichte van AMD, ondanks dat AMD een betere performance/euro weet neer te zetten.

Uiteraard zijn er nuances aan te wijzen in specifieke (prijs) regionen, maar bovenstaande is wel het algemene beeld wat er heerst.
Je maakt aannamens. Maar drivers zijn nie taltijd optimaal en het duurt lang voordat ze wel goed zijn voor bepaalde games. Daarnaast, voor notebooks is het helemaal dramatisch, heb een laptop naast me Geforce equiped laptop met een R7 270m gpu en ik heb nog nooit zoveel moeten vechten met drivers. Dan heb ik nog een machine die optimaler met AMD drivers omgaat want sommigen zijn afhankelijk van third party fabriekanten die de AMD drivers aanpassen.

Laptops zijn nu een grote chunk van de markt. Hier loopt Nvidia sowieso een stuk voor bij.

De cijfers van Nvidia VS AMD zijn nu trouwens gewoon van wat er verkocht is het afgelopen jaar. Om Steam kan je er ook een hoop data van terug vinden.
Het is voor een groot deel persoonlijke ervaring inderdaad.
De tijd dat laptop fabrikanten zelf de drivers voor AMD kaarten moeten aanleveren ben ik "al lang" niet meer tegen gekomen. Toegegeven dat destijds drivers een drama konden zijn.

Maar zelf herken ik je verhaal totaal niet bij mijn laptop met HD5870m, en kan ook gewoon de reguliere AMD laptop drivers gebruiken zonder problemen.

Daarbij heb ik van beide kampen desktop kaarten naast elkaar in gebruik en mijn ervaring is dat het verschil in drivers tegenwoordig miniem is.
Ja mijn laptop kan het ook als 1 van de weinige. Maar toch kom ik keer op keer problemen tegen. Na reinstalls ook. Als je de intel drivers update werk de brightness weer niet, dan loopt de combinatie weer vast, glitches in games etc. Naast dat het verbruik ook schandalig is in vergelijking met Nvidia gpu's voor laptops. Ik kan het nu niet aanraden. Iets wat ik overigens wel graag zou willen, want niemand is gebaat gewoon bij een dominerende Nvidia die kan doen met de prijzen wat ze willen.
Ik vind de cijfers niet heel erg gek eigenlijk. Kijk eens naar de Steam hardware survey: http://store.steampowered.com/hwsurvey

Daar heeft AMD een aandeel van 26%, maar dat is in de echte 'gamer' markt. Als je alle discrete GPUs mee rekent, bijvoorbeeld Matrox kaarten in zakelijke PCs dan lijkt het me niet heel raar als het onder de 20% zakt.
laat me raden, jij hebt een AMD kaart...
Vergeet niet dat de meesten mensen tegenwoordig Intel gebruiken (Integrated GPU) en dus helemaal geen AMD / nVidia kaart hebben (dat is anno 2015 alleen voor de mensen die dermate zwaar grafisch werk doen dat een Dedicated GPU nodig is)

[Reactie gewijzigd door Pyrone89 op 10 september 2015 19:21]

Als Radeon (aka ATI) er nou voor zorgt dat hun hardware 100% compatible is met Linux.
Nvidia zorg er voor dat broncode beschikbaar is, waardoor hun hardware heel goed ondersteund wordt op Linux. En je dus ook zonder proprietary drivers kan werken.

Dus Radeon, staap af van proprietary meuk.
Euhm, er is juist betere documentatie beschikbaar voor AMD kaarten, verkrijgbaar zonder een NDA te tekenen. De open source linux drivers voor AMD kaarten zijn prima. Closed source linux drivers is een heel ander verhaal, daar hinkt AMD nog steeds achter nVidia aan.
100 % mee eens. Ik erger me dood aan mijn AMD chip icm met Ubuntu :/

overigens is in de Linux groep natuurlijk weinig markt te behalen .
Eigenlijk is het juist andersom nVidia is closed source AMD werkt met open source community.
http://www.pcworld.com/ar...est-for-linux-gaming.html
Alsof dat de acceptatie van AMD kaarten echt zo enorm zou laten groeien..
De open source drivers worden beter en beter. (Kijk maar eens op Phoronix)
Voor de 285, 380 en Fury's is er een nieuwe driver (AMDGPU) uitgekomen. Natuurlijk nog toekomstmuziek, maar ze zijn er in ieder geval mee bezig. :)
Nvidia zorg er voor dat broncode beschikbaar is,
dat doen ze helemaal niet. Ze kregen ook niet voor niks 'the finger' van linus. nvidia heeft redelijke closed source drivers, maar de open source drivers zijn bagger wat performance betreft.

De open source drivers van AMD gaan daar in tegen met sprongen vooruit, en weten met de laatste patches de closed source drivers bij te houden of zelfs voorbij te streven
Elke keer als Nvidia een nieuwe generatie neerzette, ook al was het het een kleine stap vooruit kreeg je bij AMD een rebrand van dezelfde chip. Bij mij is het afwisselend AMD en Nvidia geweest maar de laatste is weer een Nvidia geworden omdat ik geen rebrand van een 3 jaar oude chip wilde. Ik was echt hoopvol aan het kijken naar Fury X en dan brengen ze dat ding uit met maar 4GB geheugen? Tja, hoe zou het komen dat Nvidia het grootste deel van de markt in handen heeft op die manier....

[Reactie gewijzigd door VTOLfreak op 10 september 2015 12:11]

Jij klaagt over rebrands bij AMD, terwijl Nvidia de uitvinder daarvan is? :? Nee rebrands zijn vrij normal in de electronica wereld, overigens zijn het vaak geen één op één rebrands, maar zijn er wel degelijke verbeteringen doorgevoerd.

@CEx, exact hetzelfde was een aantal jaar geleden bij Nvidia gaande, ik kan mij er niet echt druk om maken. Je koopt toch maar eens in de paar (3/4) jaar een nieuwe Grafische kaart? Ik persoonlijke wel en soms gaan ze nog wel langer mee.

Als je iets nieuws koopt moet je er gewoon even in verdiepen wat je wilt en gaat kopen, dat mist vaak bij veel personen.

[Reactie gewijzigd door _Dune_ op 10 september 2015 14:33]

Nou Nou, de uitvinder van rebrands ligt al jaren onder de zoden.
De aversie tegen rebrands is al jaren langzaam aan het groeien, zelfs opvolgende producten die niet veel extra bieden t.o.v. hun voorganger worden krijgen veel tegenwind. (zie recente iPhone 6Sen.)

De laatste rebrand ronde van AMD kreeg zo ontzettend veel commentaar omdat bestaande kaarten minimale upgrades kregen en voor meer geld in de winkel kwamen te liggen. Tevens zitten op sommige low budget kaarten nog veel ouder chips, zelfs een Bonaire.
Ja toevallig had elke keer als ik een nieuwe kaart nodig had Nvidia net iets nieuw. En deed AMD de zoveelste rebrand. Maar ze kunnen er inderdaad beide wat van, zeker bij de midrange kaarten.
De GTX980 heeft ook maar 4GB geheugen. Daarnaast is 4GB zát voor de komende tijd. Rebranden is een marktstrategie. Ik wil het niet goedpraten, maar je moet je wel voorstellen dat nVidia een R&D budget heeft dat vele malen groter is dan dat van AMD. En toch weet AMD meerdere GPU's op de markt te hebben die zelfs na 3 jaar nog prima mee kunnen (HD7970 chip bijvoorbeeld)... ;)
Als ik van een kaart af kom die al 3GB heeft ga ik wel op zoek naar een vervanger met 6 of 8GB. Zeker als die kaart meerdere jaren moet meegaan.
Want? Als dat gewoon onnodig is, waarom zou je? Een GPU wordt niet beter als deze meer VRAM kan aansturen? Je kunt ook een GTX760 met 4GB kopen, maar dit zou geld weggooien zijn...

Meer is niet altijd beter. :?

[Reactie gewijzigd door Esumontere op 10 september 2015 22:43]

De fury x heeft hbm geheugen en hbm geheugen is 4gb vram het hoogst. Hbm 2 ondersteund meer dan 4gb
Wauw, dat i.c.m. de recente kapitaalinjectie doen bij mij wel alle alarmbellen rinkelen.

Een sterfhuisconstructie met daarin de CPU/APU divisie en de wat succesvollere GPU divisie in een nieuwe B.V. die dan makkelijk kan worden ingelijft dor een Apple/MS/IBM/Intel/MediaTek/Samsung (en waarop de partij achter de kapitaal injectie waarschijnlijk speculeert).

Het jaarverslag stemt ook alles behalve hoopvol.
http://ir.amd.com/phoenix...4093&p=irol-reportsannual

[Reactie gewijzigd door eL_Jay op 10 september 2015 11:41]

Een sterfhuisscenario is misschien wel het zwartste scenario, maar ik kan mij ook niet aan de indruk onttrekken dat AMD flexibiliteit inbouwt om te kunnen bewegen als het moeilijk gaat worden. Toch kan het ook goed zijn dat de grafische divisie een eigen koers kan varen en niet ondergeschikt gemaakt kan worden aan de afgelopen tijd wel heel dominante CPU/APU divisie. Afzonderlijke divisie betekenen ook gescheiden en afgeschermde budgetten. Dit is goed voor het waarborgen van de ontwikkelkosten van nieuwe grafische kaarten.

Interressante vraag is nog waar de patentrechten van HBM ondergebracht zijn. Zou dit (deel)patent bij de grafische divisie liggen, dan zou de CPU/APU divisie kosten aan de grafische divisie moeten betalen om HBM te kunnen gebruiken in haar APU ontwerpen. De vraag is dus waar die patentrechten binnen AMD precies naar toe zijn gegaan.

Edit: typo's

[Reactie gewijzigd door teacup op 10 september 2015 17:31]

AMD had al aangegeven dat HBM vrij te gebruiken was. AMD maakt van nagenoeg al hun standaarden een open standaard.
Er zijn wel patenten, niet zozeer op het geheugen zelf, maar als ik het mij goed herrinner, op de communicatie van en naar het geheugen. In een topic over de het gebruik van HBM door nVidia heb ik dat toen eens uitgezocht (reactie). Als je met een juridische blik naar een statement als "AMD had aangegeven dat HBM vrij te gebruiken was" dan is er een grote ruimte voor interpretatie. Ik zeg hiermee niet dat wat je stelt niet zou kunnen gebeuren. Ik ben alleen kritisch of wat er gezegd wordt ook precies zo zal uitpakken als wij het ons voorstellen.

Of het binnen AMD tot transacties gaat leiden is natuurlijk ook maar de vraag. AMD grafisch is geen nVidia.

[Reactie gewijzigd door teacup op 12 september 2015 00:34]

Wat mij altijd opvalt bij benchmarks, is dat amd kaarten het minder doen dan de nvidia kaarten op full hd, maar vaak beter op 1440p en 4k. Het lijkt dat amd zich op hogere resoluties richt, iets dat wellicht vooral ingegeven wordt door de technische kant van amd in plaats van de marketingkant.

Marketing technisch is full hd op het moment toch beter, de meesten zitten immers nog op full hd voor zover ik weet.
Volgens TPU die vrij accurate cijfers heeft is de R9 390 maar 1% sneller op 1440p en op 4k 6% maar wie gamed er met een R9 390 op 4k :? Ik denk dat je gewoon het merk moet kopen met de games die je wilt (of zo mogelijk gaat) spelen in je achterhoofd, evt uitgevers van de spellen die jij leuk vindt of die meestal voor nVidia optimaliseren.
https://www.techpowerup.c...r/R9_390_PCS_Plus/30.html
De GTX970 is gemiddeld sneller op alle resoluties dan zijn vorige concurrent de R9 290 dus ik denk niet dat AMD beter is op hogere resoluties persé.
https://www.techpowerup.c...SI/GTX_970_Gaming/27.html
de 970 is inderdaad een goede kaart. En je hebt gelijk dat amd niet veel sneller is op hogere resoluties, maar relatief gezien presteren ze beter dan nvidia vergeleken op fullhd; amd kaart bv 10% langzamer op fullhd en maar 2% langzamer op hogere resoluties (verzonnen percentages, maar dit geeft aan wat ik bedoel).

Op het moment lijken of blijken de nvidia kaarten de betere keus, zeker als je stroomverbruik ook nog meeneemt
En volgend jaar heet het weer ATi. ;-)
En gaat ATi door en wordt AMD van de hand gedaan.


OEM's (de grote afzetmarkt) gebruiken gewoon geen AMD.

Als je in de Pricewatch kijkt naar laptops is het Intel waar je ook kijkt. Misschien kan AMD niet genoeg/goedkoop leveren, maar het is een feit dat ze in de mainstream absoluut afwezig zijn.

-Edit:

Jezus jongens, hoe is dit -1? Je kunt het zelf checken in de Pricewatch of je lokale PC toko. Hoeveel PC's staan daar met AMD en hoeveel met Intel Inside?!

Downmodden omdat je de realiteit niet onder ogen kunt zien. Spijtig.

[Reactie gewijzigd door Jeroenneman op 10 september 2015 12:38]

Als je in de Pricewatch kijkt naar laptops is het Intel waar je ook kijkt. Misschien kan AMD niet genoeg/goedkoop leveren, maar het is een feit dat ze in de mainstream absoluut afwezig zijn.
Ik vermoed dat het probleem vooral is dat AMD CPUs minder zuinig zijn dan die van Intel; een zeer belangrijk aspect voor laptops, waar accuduur een belangrijk verkoopargument is.
Eerste wat ik dacht ja.
Ik denk eerder Radeon. Of misschien wel Samsung Radeon of Lenovo Radeon :p
Een reden kan zijn dat naar wat ik gehoord had bij techfoundry is dat AMD kaarten over het algemeen een sterkere CPU nodig hebben vergeleken met Nvidia videokaarten om het maximale eruit te halen.
Een andere reden kan zijn dat Nvidia vaak voor net wat beter net wat meer geld vraagt en mensen liever daarvoor gaan, zoals bij de r9 270(x) en gtx 760 toendertijd. Ook zoals hier al genoemd is, is het snel releasen van compatible drivers en support aan Nvidia's zijde misschien een reden. Ik vind dat rebranding van AMD helemaal niet zo erg je koopt toch niet elke generatie een nieuwe videokaart? En dan word er toch wel wat verandert 'under the hood' zie 390/390x. Als er iemand is die goed aan branding doet is het Nvidia, mja ik ben ook AMD boy als het om desktops betreft. Toevallig zo gelopen denk ik, vind de verschillen niet groot zoals bij CPU's.
Redenen waarom ik NVidia gebruik:

Betere drivers over het algemeen (AMD en vroeger ATi zijn hier niet echt goed mee bezig, al jaren).
Iets minder stroomverslindende en luide hardware (alle NVidia's die ik had zijn toch echt wel een stuk stiller dan de AMD's).
Meer compatibiliteit met oudere games en linux (met dat laatste doet AMD vrijwel niets).

Ik heb de afgelopen 13 jaar steeds om en om een NVidia en ATi/AMD gebruikt. Het was steeds weer hetzelfde: De NVidia presteert goed, maar wanneer ik bij een upgrade uitkom ziet de AMD/ATi prijs/kwaliteit verhouding er weer iets beter uit. Ik haal die kaart, ben er een maand tevreden mee tot ik alle kleine puntjes merk waarop het altijd weer in het honderd loopt. Bij de volgende upgrade ga ik dan weer gewoon voor NVidia en heb geen klachten tot ik bij de volgende upgrade weer verleid wordt...

Over het algemeen ben ik toch altijd weer iets meer tevreden geweest over de groene kaarten dan de rode. Dat zijn wel alleen mijn eigen ervaringen, maar toch.
wat voor soort kleine puntjes heb je het dan over? ik kan me namelijk werkelijk niks bedenken.

en vanaf de hd4xxx tot aan met de hd7xxx was AMD toch echt zuiniger (en veel goedkoper, en maar een heel klein beetje trager, bij design.).
Deze generatie is nvidia vooral zuiniger omdat ze enorm gesneden hebben in de double precission preformance van hun kaarten. tot 1/32 van de single precission performance voor de titan en 980ti. (en AMD deed het zelfde bij fury tot 1/16 en ze zijn bijna net zo zuinig.)

en zoals gezegd AMD is veel meer een echte supporter van open source. nvidia heeft er drivers voor maar daar houdt hun support compleet op. de open source nvidia drivers zijn bagger en gaan voor geen meter vooruit, terwijl AMD's open source drivers met de laatste patches de closed source drivers bij houdt of zelfs inhaalt. en dat is zo omdat AMD de specs van hun kaarten heeft vrijgegeven. en dat is echte linux support.

geen 'support voor linux', maar support van linux dus.

[Reactie gewijzigd door Countess op 11 september 2015 09:06]

Mja, daar heb je wel gelijk.

Verder heb ik nogal vaak problemen gemerkt met AMD/ATi kaarten met vooral de wat oudere games. De OpenGL support vooral is niet de beste (daar scoort NVidia toch echt beter). Dat was één van de redenen waarom ik toch weer een nvidia heb gepakt recentelijk ipv amd.

De 400 serie nvidias was ook bagger trouwens. de 500 en 600 waren ook niet de zuinigste inderdaad. Maar de amd hd6000 was echt niet zuinig.... iig niet de 6970 die ik had. Stofzuiger van de bovenste plank ook nog eens ;p

Qua open source heb je wel helemaal gelijk. Nvidia heeft wel betere linux drivers, maar closed source. Ik ben ook niet echt een fan van g-sync, gewoon freesync gebruiken.
http://nl.hardware.info/r...bruik-en-geluidsproductie

toch beduidend zuiniger als de vergelijkbare nvidia's van dat moment.

[Reactie gewijzigd door Countess op 16 september 2015 16:14]

Meer compatibiliteit met (...) en linux (met dat laatste doet AMD vrijwel niets).
Daar zijn ze nu juist hard mee bezig. (Zie Linux Kernel 4.2)
Eerste downmod voor mij.. Mja, zal wel niet zo passen in een artikel wat eigenlijk over AMD gaat. Was ook eigenlijk bedoeld als reactie op een eerder comment :/

En ik ben wel eens benieuwd naar de linux support, maar echt optimisch ben ik nog niet.

[Reactie gewijzigd door ChromeBallz op 10 september 2015 14:50]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True