Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 382 reacties

AMD heeft tijdens de Computex-beurs in Taiwan zijn eerste gpu in de nieuwe 'Polaris'-generatie geïntroduceerd, die op het 14nm-finfet-procedé gebakken wordt. De gpu in de RX480-videokaart is volgens AMD snel genoeg voor het draaien van vr-games en kost 199 dollar.

AMD RX480De gpu van de Radeon RX480 beschikt over 36 compute units, die goed zijn voor een rekenkracht van meer dan 5Tflops. Dat bevestigt het eerdere gerucht dat de RX480 een rekenkracht tot 5,5Tflops zou hebben. Hoewel Teraflops niet direct gerelateerd zijn aan prestaties in games, valt de rekenkracht van de RX480 tussen die van de Radeon R9 390 en 390X in. Gezien het feit dat de 390X niet de snelste videokaart van de vorige generatie is, ligt het voor de hand dat AMD in de toekomst snellere videokaarten op basis van de Polaris-architectuur uit zal brengen.

De RX480 wordt uitgerust met 4 of 8GB gddr5-geheugen, dat met de gpu communiceert over een 256bit-bus en een bandbreedte heeft van 256GB/s. De kaart krijgt een tdp van 150 watt, waardoor een zespinsvoedingsaansluiting genoeg moet zijn om de kaart te voeden.

AMD RX480AMD RX480AMD RX480

Tijdens de introductie liet AMD weten dat de RX480 bedoeld is om het spelen van vr-games mogelijk te maken voor meer mensen dankzij de lage introductieprijs van tweehonderd dollar. AMD toonde tijdens de presentatie een benchmark waarin twee RX480-videokaarten sneller blijken te zijn dan een enkele GeForce GTX1080 in Ashes of the singularity.

Vanaf 29 juni zal de RX480 in 4GB-uitvoering te koop zijn voor 199 Amerikaanse dollars. In hoeveel euro dat bedrag zich vertaalt, is nog niet bekend. De 8GB-variant is waarschijnlijk iets duurder, maar AMD noemt in zijn persbericht geen adviesprijs.

Update 11.43 uur: TechPowerUp heeft persafbeeldingen van de RX480 gepubliceerd. De website toont ook een foto van een scherm waarop te zien is dat de snelheid van de gpu 1266MHz bedraagt.

Persafbeeldingen AMD RX480Persafbeeldingen AMD RX480Persafbeeldingen AMD RX480Persafbeeldingen AMD RX480Persafbeeldingen AMD RX480

Moderatie-faq Wijzig weergave

Reacties (382)

-13820368+1136+215+32Ongemodereerd190
1 2 3 ... 6
Hier word ik blij van! Leuke periode op gpu gebied! :)
Er zijn/komen nu veel leuke opties
- RX480 voor ¤225.
- Tweedehands 970/390 moeten daardoor < ¤225.
- GTX1070 moet wel met een prijsverlaging komen, anders is de RX480 koning.
- Twee RX480 à ¤450 die ongeveer gelijk presteren met een 1080!
De 1070 hoeft/moet in prijs zakken als blijkt dat de rx490 voor veel minder over de toonbank gaat. De 480 is natuurlijk geen concurrent voor de 1070. de 490 moet dat wel doen.(ook kwa prijs)
Qua prestaties is de RX480 inderdaad geen concurrent voor de GTX1070, maar als je kijkt naar de prijs/prestatieverhouding dan is de RX480 een hele interessante kaart.
Er is overigens al wat bekend over de prestaties. Doordat TechPowerUp heeft bevestigd dat de Graphics Chipset van de 480 overeenkomt met 67DF C7 (zie foto van updated artikel) kunnen we nu met zekerheid het 3DMark resultaat linken :)

http://content.hwigroup.net/images/news/polaris3dmark.png

De 480 haalt hier 18K, dus evenveel als de normale Fury en meer dan de 390X en de normale 980. Een erg knap resultaat voor die prijs, features en verbruik als je het mij vraagt!

Overigens staat hier ook een 67DF C4 op, welke nog ruim 1000 punten meer scoort dan de 970. Waarschijnlijk wordt dit de 470?
De hoogste score is voor crossfire. De laagste zou idd de 470 kinnen zijn. De c7 is de 480 zoals ook al bevestigd in de foto van TechPowerUp .

[Reactie gewijzigd door PuzzleSolver op 1 juni 2016 17:01]

Er staat boven dat het om de R480 en de R480X gaat.
De C7 zal de R480X zijn en de C4 de R480.
Lijkt me sterk. Overal staat dat performance tussen 970 en 980 zal zijn. Dus zou eerder verwachten dat de C4 de 480 is.
Een van die features, is dat ze nu eindelijk ook hardware offloading voor H.265/HEVC hebben ingebakken. :)
Neem aan dat de budget kaarten/IGP's vanaf nu dat ook krijgen.
Dit had mij met de vorige generatie weerhouden om voor AMD te gaan mbt meerdere builds en upgrade adviezen tot aankoop. En dus telkens genoodzaakt was om voor NV te gaan.

Ik voorspel dat AMD sales gaan stijgen. O-)
Uiteraard. ze mikken beide op andere groep gamers. Alleen zie ik niet direct een reden om in prijs te zakken. ze zullen wachten tot de 490 er is. En daar dan hun prijs op afstemmen.
maar je weet niet wat de 1060 gaat doen want die zit in dezelfde prijsklasse als de RX480,
dus ik denk dat je eerder een battle tussen die 2 kunt verwachten.
Ik denk dat veel mensen bereid zijn om tevreden te zijn met 15-20% minder performance, als ze dat 50% oftewel ¤200 scheelt in aanschaf van een videokaart.

Natuurlijk zijn er een hoop nadelen met multi-gpu oplossingen, maar het lijkt erop dat twee 480's net zoveel gaan kosten als een 1070. Dan hoeft die tweede kaart maar een klein beetje extra performance te genereren terwijl je dan meer performance hebt.

Daarnaast is het meer dan logisch dat AMD de Vega kaarten eind dit jaar (RX 490) echt niet veel duurder kan maken dan Polaris. Ik verwacht ze vanaf 299 afhankelijk van de performance, anders zit er een enorm gat in de prijzen van hun productportfolio.
Nvidia zal de de GTX 1060 op diezelfde 299 pricetag moeten plaatsen om hun eigen productrange vol te houden. AMD weet die performance nu al voor 199 in de winkel te leggen.

Nvidia moet dus echt drastisch met de prijzen dalen om competitief te blijven.
De reden om voor een multi-gpu setup te gaan is een fijnere spelervring. Dat wordt bereikt door een hogere FPS. Echter we weten dat FPS niet het hele verhaal vertelt. Net zo belangrijk is de stabiliteit van die framerate, de zogenaamde frametimes moeten stabiel zijn. Dat is dan ook de reden dat een race game op een console op 30 FPS prima speelbaar kan zijn (heel stabiele frame pacing) terwijl het op de pc heel raar aan voelt.

Bij AFR (alternate frame rendering) heb je per definitie meer last van variantie in je frametimes. Je games komen daardoor stotterig over, ook al is je FPS counter hoger.

Het advies is daarom, sinds Scott Wasson, om nooit voor een multi-gpu opstelling te gaan zolang er nog een snellere single kaart oplossing beschikbaar is.

[Reactie gewijzigd door sdk1985 op 1 juni 2016 14:10]

Alles is relatief. Ik heb zelf twee R9 290's en dat was, by far, de goedkoopste manier om fatsoenlijk 4K/60 gaming waar te maken. Ja, je hebt meer last van stuttering, maar dat neem je op de koop toe. Ik zegt niet voor niks dat er een hoop nadelen zijn met multi-GPU oplossingen.
Dat advies bestaat trouwens helemaal niet sinds een of andere benchmarker dat zegt, dat advies bestaat al sinds multi-GPU uberhaupt een ding is.

Desalniettemin: we hebben het hier over zo ontzettend veel meer prestaties per euro, dat je voor dezelfde prijs véél meer performance per euro kan krijgen dan bij Nvidia. Er zijn nog geen benchmarks, maar als ik wat natte-vingerwerk mag toepassen: stel dat de 1070 in game X puur stabiele frametimes heeft van 16ms voor 60fps. En twee RX480's hebben onstabiele frametimes van 11-8ms. Dan zet je toch gewoon je V-Sync aan en heb je in ieder geval dezelfde performance (en wellicht zelfs meer) voor minder geld?
Hmm nee voor Scott Wasson/FCAT inzichtelijk maakte hoe dramatisch laag de effectieve fps van Crossfire en SLI wel niet waren was het redelijk normaal om twee budget kaarten te overwegen in plaats van één dure. We hebben zelfs standaard van die X2 kaarten gehad met 2 chips op één kaart (denk aan de 4870X2). Achteraf had niemand daar aan moeten beginnen.

De 4K 60 fps optie is een logisch gevolg van wat ik hierboven vermeldde. Als de snelste single gpu dit niet aan kan dan blijft alleen multi-gpu over. Optimaal gaat het echter nooit worden. Je moet je wat mij betreft dan ook afvragen of 4K het echt wel waard is. Voor mij niet, ik heb liever 120 fps. Mijn tv is wel 4K (jah ik heb er ook content voor met hoge bitrate :P ) :).

[Reactie gewijzigd door sdk1985 op 1 juni 2016 14:31]

Het is in ieder geval voor mij altijd een duidelijke overweging geweest :p

Ik heb mijn twee R9 290's gehaald voor 225/stuk, tweedehands. Ze zijn samen een stuk sneller dan een enkele GTX980, en die kaart is eigenlijk net te weinig voor 4K. Dan scoren mijn twee 290's een stuk beter in GTA V in 4K. En ze hebben mij letterlijk 150 euro minder gekost.

Je zal mij nooit horen zeggen dat multi-GPU een optimale keuze is. Verre van, zelfs. Maar met deze prijzen... ik zou het zeer zeker overwegen, omdat de performance wellicht beter is.

Ik zou mijn (gewonnen) 4K scherm per direct inruilen voor een 21:9 1440p-display als ik enkel zou gamen (en die dingen niet zo foeilelijk duur waren), overigens ;)

[Reactie gewijzigd door Richh op 1 juni 2016 14:35]

Ik heb het zelf niet geprobeerd maar in theorie kun je op een 4K scherm op 1920x1080 gamen zonder dat het blurry wordt, omdat het precies 4x Full HD is.

Of valt dat in de praktijk tegen?

Ik heb zelf nu een 27 inch 21:9 monitor met 2560x1080 en dat is een beetje de middenweg tussen gamen (betere fov en goede fps) en werkruimte (600 pixels). Zie 21:9 Ultrawide monitor review.

Voor puur werk had ik liever 3440x1440 gehad. Dan kun je net wat meer naast elkaar wegzetten. Nu heb ik alsnog een tweede monitor ernaast :+ .

[Reactie gewijzigd door sdk1985 op 1 juni 2016 15:34]

Dat valt in de praktijk zeer tegen. Scalars van monitoren gaan daar toch iets anders mee om dan dat (ook mij) logisch lijkt.

De werkruimte van 4K is fenomenaal, daarom wil ik 'm ook niet kwijt. Zeker niet als je kijkt hoeveel ik nog moet bijleggen voor een fatsoenlijk 34" curved (het liefst met Freesync natuurlijk...).
Zover ik heb ervaren gaat dat prima. Op een laptop werk ik op 1080p ipv 4k en dat gaat prima, geen gezeur met rare schalings problemen in Windows icm multiscreen.

Ook met gamen gaat dit goed, alles blijft scherp (tenminste zo scherp als je van 1080p kan verwachten :p).
1 Woord: VR (oké, dat zijn 2 woorden :) )
Vier woorden, een link en een quote:

Single Pass VR rendering: https://developer.nvidia....g-nvidia-geforce-gtx-1080
Traditionally, VR applications have to draw geometry twice -- once for the left eye, and once for the right eye. Single Pass Stereo uses the new Simultaneous Multi-Projection architecture of NVIDIA Pascal-based GPUs to draw geometry only once, then simultaneously project both right-eye and left-eye views of the geometry. This allows developers to effectively double the geometric complexity of VR applications, increasing the richness and detail of their virtual world

[Reactie gewijzigd door sdk1985 op 1 juni 2016 21:30]

"De 480 is natuurlijk geen concurrent voor de 1070" Hoezo niet?! De 480 wordt toch juist gepositioneerd naast de 1070?
Nee de 480 is/gaat de tegenhanger van de 1060 worden. de rx 490 gaat de strijd aan met de 1070. en de rx 490x met de 1080. net zoals de 380 tegen de 960 bokst en de 390 tegen de 970 nu het geval is.

[Reactie gewijzigd door loki504 op 3 juni 2016 20:51]

Ja sorry maar AMD geeft dit aan dat de 480 tegen de 1070 wordt gepositioneerd.
Maar oké zal wel.

- "de rx 490 gaat de strijd aan met de rx 490" Foutje?
Waar geven ze aan dat ze met de rx 480 de strijd aan gaan met de 1070.

En ja was een foutje |:(
Dat is de 970. wat natuurlijk overeen komt met de performance. En ziet er naar uit dat hardware info dat zelf heeft bedacht.
Klopt, je hebt volkomen gelijk, ik heb er over heen gelezen 8)7
" Vanaf 29 juni zal de RX480 in 4GB-uitvoering te koop zijn voor 199 Amerikaanse dollars. In hoeveel euro dat bedrag zich vertaalt, is nog niet bekend. De 8GB-variant is waarschijnlijk iets duurder, maar AMD noemt in zijn persbericht geen adviesprijs. "

heb het idee dat 90% dit niet heeft gelezen...
En dan als nog maakt het weinig uit. Als ik meer fps als mij huidige r9 290 moet ik of wachten op de rx 490(x) Of de 1070/1080 kopen. Dus waarom zou nvidia dan de prijs dan moeten verlagen? Ze liggen in totaal andere performance en ook prijs.
Inderdaad! Wat een klepperrrr van een kaartje voor deze prijs!

Zoals te lezen wijst de eerste benchmark (wellicht twijfelachtig qua betrouwbaarheid, maar desalniettemin een goede indicatie) uit dat deze kaart 7% sneller is dan de GTX 980! Dat betekent dat zelfs de GTX 980 moet zakken in prijs van ¤480 - ¤ 500 naar ¤225.

Dit is wel een hele lekkere move van AMD. Alle mensen die nu een GTX 960 of R9 380 hebben kunnen voor een bescheiden prijsje hun GPU prestaties bijna verdubbelen. Ik ben zeker van plan om mijn R9 380 4GB voor een zacht prijsje van de hand te doen en dan te upgraden naar deze kaart.

Maar uiteraard wel eerst de reviews even afwachten. :)

[Reactie gewijzigd door Tsux op 1 juni 2016 15:04]

En dat komt op een mooie tijd voor mij. Ik ben toch aan een nieuw graka toe. En aangezien mijn systeem volledig op een AMD platform is zal het prima werken. Dus ook ik ben heel tevreden hiermee. :D
Ik denk dat het in de benchmark tegen de 1080 om de iets duurdere 8gb versie gaat. Er staat ook bij, sub 500 dollar prijs. Anders hadden ze wel 400 neer gezet. Maar dan nog, heel goed te betalen.

[Reactie gewijzigd door Countess op 1 juni 2016 12:15]

Inderdaad.
Het 8GB model gaat US$229 kosten, dus US$30 meer voor 8GB i.p.v. 4GB. Bron.
Wat dan volgens google neerkomt op +-250 euro incl btw
wat dan weer fout is want 1 dollar is 0,89 euro dus kom je uit op 205 euro exclusief belasting? invoerrecht? andere kosten?

Correctie, ik zie dat je gelijk hebt met een belasting van 21% :P

[Reactie gewijzigd door MessiW op 1 juni 2016 14:33]

Dat is alleen natuurlijk niet het hele verhaal; invoerrechten, de neiging van bedrijven om niet eerst even om te rekenen en alleen het dollar teken te vervangen, etc.
Invoerrechten hebben ze in de VS ook, enige verschil is de BTW/vat etc.
Probleem zijn de importeurs, gemiddeld kost hardware hier al gauw 10-30% extra zonder de belasting mee te rekenen.
Vroeger was dat overigens meer (in de jaren '90 was dat soms al meer dan 100%), de extra winstmarge die europese importeurs pakken is vaak net niet zo hoog (meer) dat het interessant is om hardware uit de VS te halen.
Inderdaad. Dat gaat omgerekend naar euro's waarschijnlijk eerder richting de ¤600. Erg goed nog steeds. Maar er moet wel de kanttekening gemaakt worden dat ze, net als Nvidia in hun presentatie, een hele specifieke benchmark hebben gepakt. Het is toch nog even afwachten dus voor de real world performances.
als ik de 230 dollar van tinusNL hieronder pak en omreken in euro's plus BTW kom ik uit op 249,26 per kaart. bijna precies 500 euro voor 2 dus.
En dan komen daar, als ik mij niet vergis, nog meestal extra bedragen waaronder invoerrechten bovenop.
nee, voor electronica kan je gewoon de dollar prijs omrekenen en de BTW erbij doen en je hebt de (web)winkel prijs.

de uitzondering zijn producten met een arbitraire prijs, consoles bijvoorbeeld.
Sinds wanneer? Hardware is consistent vele malen duurder in Europa dan in de VS, vooral GPU's.
sinds altijd.

in de VS zijn alle prijzen zonder belasting. die betaal je achteraf. in Europe zijn ze altijd inclusief.

980ti = 580 dollar op newegg.
dat is 483 euro * 1.21 = 626
prijs op pricewatch = 631

fury X = 635 dollar + btw = 687
pricewatch 660,40

het is hooguit zo dat ze daar eerder een prijs verlaging hebben als hier, of rebate acties, maar in principe is het gewoon omrekenen en de BTW erbij doen.
je bent te optimistisch ben ik bang, voor ¤225 heb je de 4 GB kaart. Niet de 8GB variant, dat deden ze best slim gisteren, of uhm, vanmorgen vroeg...
De 8GB variant gaat US$229 (+-¤250) kosten. Sowieso is het de vraag of die 4GB vol getrokken gaat worden. 4GB op de huidige generaties is al meer dan zat voor de meeste games.
op 1080 wel, op 1440 is mijn ervaring dat je al snel wat tekort komt met 4GB. Al moet ik zeggen dat 250 ook laag is qua prijs
Wat ik nu raar vind aan de reacties van de Pascal en Polaris is:

GTX 1080 is sneller dan de voorgaande high end modellen met ongeveer gelijke prijs (nu iets duurder vanwege introductie) = veel mensen negatief "ding is amper sneller!"

GTX 1070 is ongeveer even snel, ietsje sneller dan de vorige high end (980Ti) voor minder geld (introductieprijs is wss wat hoog, maar geschat word rond de 400 a 450 euro, stuk minder dan de 600+ van een 980Ti) = veel mensen negatief "ding is niet snel genoeg!"

Vervolgens komt er een slide van de Polaris, die niet sneller is dan de huidige AMD kaarten (niet sneller als Fury, en zo te zien zit die dus tussen de 390 en 390x in) = iedereen helemaal happy "wat een geweldige kaart" .... 8)7

Mis ik iets of wat?
(voordat iemand boos begint te minnen, ik zeg niet dat de kaart slecht is, maar vraag me toch af waarom er zo negatief gereageerd word op de Pascal, die toch sneller is dan z'n voorgangers, en zeer positief gereageerd word op Polaris die toch een beetje in dezelfde range als z'n voorgangers zit qua performance).
Misschien dat het te maken heeft met het segment:
GTX1080 en GTX 1070 zijn relatief dure kaarten, op Steam werd een onderzoek gehouden welke GPU's het meeste werden gebruikt: de meeste gamers tuffen lekker door op niveau GTX 650/760.
Net in die klasse is NVIDIA momenteel niet bezig, en de 960 bracht t.o.v. de 760 niet echt een verbluffende vooruitgang.

AMD zet juist op dit segment in, en als het hele "half zo krachtig als een 1080" waar is, dan kan ik me voorstellen dat mensen hiervoor warm lopen.

Feit is dat Jan Modaal niet even ¤700 uitgeeft aan een videokaart, de meeste mensen die ik ken houden het bij ~200 voor gezien.
Price/performance is leuk, maar geld is geld.
En dat de 'budget' markt zo'n (hopelijke) oppepper krijgt is mijns inziens wel een applausje richting AMD waard.
Misschien dat het te maken heeft met het segment:
GTX1080 en GTX 1070 zijn relatief dure kaarten, op Steam werd een onderzoek gehouden welke GPU's het meeste werden gebruikt: de meeste gamers tuffen lekker door op niveau GTX 650/760.
Net in die klasse is NVIDIA momenteel niet bezig, en de 960 bracht t.o.v. de 760 niet echt een verbluffende vooruitgang.

AMD zet juist op dit segment in, en als het hele "half zo krachtig als een 1080" waar is, dan kan ik me voorstellen dat mensen hiervoor warm lopen.

Feit is dat Jan Modaal niet even ¤700 uitgeeft aan een videokaart, de meeste mensen die ik ken houden het bij ~200 voor gezien.
Price/performance is leuk, maar geld is geld.
En dat de 'budget' markt zo'n (hopelijke) oppepper krijgt is mijns inziens wel een applausje richting AMD waard.
Wat ik even mis in je verhaal is bronvermelding.

Uit de steamhardware survey blijkt namelijk dat het omgekeerde waar is; de GTX 970 is de videokaart met het grootste marktaandeel! De GTX 970 heeft zelfs het hoogste percentage van een losse videokaart ooit in de steam survey.

Hier is de top 10:
  • NVIDIA GeForce GTX 970 5.33%
  • NVIDIA GeForce GTX 960 3.47%
  • NVIDIA GeForce GTX 750 Ti 3.09%
  • Intel HD Graphics 4000 2.74%
  • NVIDIA GeForce GTX 760 2.16%
  • Intel HD Graphics 4400 2.14%
  • NVIDIA GeForce GT 620M 1.98%
  • NVIDIA GeForce GTX 860M 1.95%
  • Intel HD Graphics 3000 1.91%
  • Intel HD Graphics 2000 1.75%
De kaart die jij noemt als kaart waarop mensen blijven doortuffen is juist gestaag aan het dalen naar 1.53%.

[Reactie gewijzigd door sdk1985 op 2 juni 2016 01:20]

Je hebt gelijk, als we kijken naar een enkel type videokaart is de GTX 970 het populairst.

Maar zoals ik eerder zei: de meeste gamers zitten met ¤200 euro kaarten of lager, dat is ook terug te zien in de Top 10:
De GTX 970 is de enige kaart in de top 10 uit het ~¤300 segment (5.33%).
Er zijn meer gamers met kaarten tussen de 150 à ¤200:
NVIDIA GeForce GTX 960 3.47%
NVIDIA GeForce GTX 750 Ti 3.09%
NVIDIA GeForce GTX 760 2.16%
Dit komt samen neer op een slordige 8,5%

Eventueel zou ik nog per klasse alle percentages op kunnen tellen, maar als we in stappen van ¤50 gaan werken gok ik dat het instap/mainstream kamp gaat winnen. (Of huize Intel HD Graphics :+ )

Onderzoek dat ik had gevonden was wel van een jaar oud, het kan zijn dat er in die tijd een shift is geweest naar de wat krachtigere GPU's, of dat GTX 650 en GTX 660 kaarten nu zijn vervangen. (VR misschien?)
Klopt, het mainstream segment is ook altijd het populairste segment geweest. Steam is natuurlijk wereldwijd en niet elk land heeft evenveel geld.

Echter het opvallende is dat juist die GTX 970 een trendbreuk heeft veroorzaakt. het is bij mijn weten voor het eerst dat zo'n dure kaart zo hoog staat. Nvidia heeft echt goud in handen gehad en heeft het voor elkaar gekregen om gamers te bewegen meer geld uit te geven aan hun videokaart.

Wellicht proberen ze dat nu nog een keer om te kijken hoe ver ze dat kunnen doordrijven.
Probeer 3x duurder
Klopt, de meesten nog iets meer zelfs op dit moment:

http://tweakers.net/categ...BkWWKOklW0kqWFpaFSbG1tLQA
"Daarom moet je ook geen 960 nemen maar minimaal een 970 of hoger."
Lees het eerdere punt, het gaat niet om de price/performance, het gaat om de prijs op zich. Zoals ik zei: de meesten die ik ken houden het rond de 200 euro voor gezien bij een videokaart. Dat een 970 een betere price to performance heeft zal ze een worst wezen, voor het gestelde budget willen ze gewoon zo veel mogelijk. :P
Het is wel 150 pleurie extra die moet worden uitgegeven, en ik kan me goed voorstellen dat dat voor sommigen net de druppel is.

"Maar de 1080 is maar 2 keer duurder dan de RX480 en 2 keer sneller"
1080 prijzen zijn momenteel rond de 700 euro, afgaande op het bericht kost de 480 rond de 200-250.
250*2=500 :+
Dus nee, volgens mij is de 1080 MEER dan twee keer zo duur.

"Uhm... GEEN EEN van de videokaarten waar we over praten kost 700 euro... "
pricewatch: Asus ROG STRIX-GTX1080-O8G-GAMING
Klopt, we gaan er zelfs overheen!
Over de GTX1070 hoor ik toch vooral positieve geluiden (Titan X voor weinig geld). De GTX1080 is duur. Het gaat er denk ik om dat de 1080 & 1070 de 980 & 970 opvolgen, maar vervolgens beide wat duurder op de markt verschijnen. Verder is de euro prijs ook iets ongunstiger dan toen de vorige generatie op de markt verscheen.
Het feit is dat de 1080 door zijn prijs in euro's in Europa eerder de opvolger van de GTX980ti is.

Mensen zijn positief over de RX480 omdat 199 dollar (=225-250 euro wss) gewoon weinig geld is. Ik neem aan dat je de RX480 als de opvolger van de R9 380x kan zien. De prijs is dus hetzelfde gebleven. En ik denk ook dat veel mensen niet door hebben dat de 8GB variant hier in Europa waarschijnlijk bijna 300 euro gaat kosten.
Verder komt er ook nog bij kijken dat AMD een underdog positie heeft t.o.v. Nvidia en Intel. Dus dan wordt AMD wat meer gegund. En ook omdat Nvidia een soort van halve monopolie (net als Intel) op de high end markt. Verder heb je Gameworks en Gsync wat negatief bij gamers valt.

[Reactie gewijzigd door Fleximex op 1 juni 2016 11:52]

Nog een aanvullende correctie, Nvidia gebruikers met een Maxwell kaart zijn er vaak positief over. Mensen met een Kepler kaart zullen even moeten doorbijten en GameWorks uitzetten (omdat Kepler kaarten er minder goed in zijn).
Dit zal waarschijnlijk ook gelden voor toekomstige GW titels voor Maxwell kaarten in verhouding tot Pascal.

Nvidia zal inderdaad met een goede 1060 moeten komen, de 960 was een waardeloze kaart voor de gevraagde prijs. Je was betersneller af met elke andere kaart in dat prijssegment (GTX770, 280(x), 380(x)) of je kon beter wat meer inleggen voor een 290(x)/GTX970.

Voor Gsync moet je behoorlijk wat extra betalen voor een vergelijkbaar scherm met Freesync. Dat je daar als gebruiker voor wilt gaan is je eigen keuze.

Voor een vergelijkbaar scherm als die hieronder betaal je met Gsync toch een stuk meer, 100 euro meer en je krijgt een Acer (wat laten we eerlijk zijn een B-merk is).
http://tweakers.net/pricewatch/439714/asus-mg279q-zwart/
http://tweakers.net/price...2/acer-xb270hu-zwart.html

[Reactie gewijzigd door Sp3ci3s8472 op 1 juni 2016 22:18]

Even een kleine correctie: Gameworks en Gsync vallen alleen negatief bij gamers die AMD kaarten gebruiken, Nvidia gebruikers daarentegen zijn heel positief daarover. ;)

En bij AMD heeft het ook het meeste nut als je een oudere of midrange AMD cpu hebt met een freesync monitor.
Geen goed verhaal.
Immers de 480 is geen high end kaard. Maar een middenmoter. Zeker als (zoals ik verwacht) AMD de manier van naamgeven handhaaft.
Dan komen er snellere polaris 11 gpu's en dan nog de polatis 10 kaarten.
Dus ja je mist wat. En dat is, het equivalent zou een gtx 1050, 1060 zijn met de prestaties van de AMD.
In m'n verhaal vergelijk ik de 480 ook niet met de 1080, het ging me er meer om de reacties hoe mensen reageren op de nieuwe kaarten.

Zoals ik al aangaf, de 1080 is sneller dan z'n voorgangers (hou ik het even alleen bij nVidia), mensen zijn niet tevreden (ding is sneller dan z'n voorganger de 980). Ok, ding is te duur, maar de prestaties wel beter.

De 1070 (vergelijk ik ook met de vorige nVidia, niet met de 480) is veel sneller dan de 970, en zelfs iets sneller dan de 980Ti (de vorige snelste kaart), en dan zijn de reacties ook lauw (vind de 1070 geen verkeerde prijs/prestatie hebben, integenstelling tot de 1080 misschien).

Dus vergelijk ik de 480 met AMD zelf (dus de 380/390) is die niet veel sneller, en qua prijs volgens mij ook niet veel goedkoper (die 199 dollar word echt geen 1:1 199 euro, komt BTW bij op en dergelijke). Maar daar is men laaiend positief over.

Dat de 480 een ander segment is snap ik ook wel, en ik vergeleek in m'n post de 480 ook helemaal niet met een 1070 of 1080.
Nee ok, dat snap ik wel. Maar weet je wat volgens mij ook een echte rol speelt, en dat is de zeer slechte kwaliteit van reviews.
Maw ik vertrouw de meeste reviewers niet meer. En ben dus ook heel sceptisch over de reviews.
Zo zag ik laatst een 1080 review met alleen maar DX11 spellen in de benchmarks. sja. en dan ook nog alleen maar in 1080p ja dan heeft hij wel goede resultaten.
De reviews hebben volgens mij heel erg veel te maken met reclame inkomsten, veel meer dan met de prestatie van het product. Kijk maar naar Tweakers, die maken het ook erg bont.
Nee ok, dat snap ik wel. Maar weet je wat volgens mij ook een echte rol speelt, en dat is de zeer slechte kwaliteit van reviews.
Maw ik vertrouw de meeste reviewers niet meer. En ben dus ook heel sceptisch over de reviews.
Zo zag ik laatst een 1080 review met alleen maar DX11 spellen in de benchmarks. sja. en dan ook nog alleen maar in 1080p ja dan heeft hij wel goede resultaten.
De reviews hebben volgens mij heel erg veel te maken met reclame inkomsten, veel meer dan met de prestatie van het product. Kijk maar naar Tweakers, die maken het ook erg bont.
Hoe zou jij het aanpakken dan?

Ik vindt juist die 4K benchmarks totaal niet interessant. Als je geen 90+ fps haalt dan speelt het gewoon minder lekker, laat staan met +- 40 fps.

Ik geef de voorkeur aan reviews als die van Techpowerup. Die testen een grote game suite en pakken dan het statistisch gewogen gemiddelde.

[Reactie gewijzigd door sdk1985 op 2 juni 2016 01:27]

Je geeft het zelf al aan. Voor mij zou er een selectie games moeten worden gebruikt waar de ene helft geoptimaliseerd is voor Nvidia en de andere helft voor AMD.
Ook moet er met vulcan en dx12 worden getest (desnoods onder linux, want dat wordt ook steeds groter)

Verder lijkt het me belangrijk om wel naar de hogere resoluties te kijken, onder andere eyefinity (ff de Nvidia term er voor vergeten).
En de tests moeten onafhankelijk zijn. Ik herinner me nog een test waar een APU van AMD werd vergeleken met een I7 van Intel, alleen maar om de grafische component van AMD af te kunnen zeiken.
Dat was in ieder geval een voorbeeld van hoe het niet moet.
Je geeft het zelf al aan. Voor mij zou er een selectie games moeten worden gebruikt waar de ene helft geoptimaliseerd is voor Nvidia en de andere helft voor AMD.
Ook moet er met vulcan en dx12 worden getest (desnoods onder linux, want dat wordt ook steeds groter)
Het aantal AMD gesponsorde games is op twee handen te tellen, terwijl het aantal Nvidia games waarschijnlijk de 1000 wel haalt. Dus dat is niet echt reëel.
Nou, volgens mij kan je daaraan al zien hoe ziek de markt is.
Dus dat is precies mijn punt. Over een tijdje zullen we ongetwijfeld anti kartel/trust vervolging van Nvidia zien. Omdat ze gamestudio's omkopen om hairworks enz te gebruiken die eigenlijk AMD kaarten saboteert.

Ook is het zo dat als er maar een handvol spellen zijn, het er nog steeds genoeg zijn om tests mee te kunnen doen.
Ga er toch maar op reageren want:

De 970 was ook iets sneller tot gelijk aan de 780Ti en aardig wat sneller dan de 780.
De 980 was stukken sneller dan de 780Ti, laat staan de 780. De trend is nu dus behouden eigenlijk alleen is de prijs gewoon veel te hoog omdat Nvidia erg goed in speelt op de markt (lees geen concurrentie, maar lees ook: willen incashen etc. wat normaal is voor een bedrijf maar het is zeker niet consumentvriendelijk).

AMD aan de andere kant maakt een ENORME sprong in het budgetrange, iets wat heel lang gewoon stil ligt. De 7950/7970 waren de midrangekaarten van de afgelopen 3 jaar (280/280x en de 285/380/380x die een andere architectuur zijn maar ongeveer hetzelfde presteerde). Nu hebben we een midrangekaart die de vorige high end (niet top high end) in principe evenaart tot misschien zelfs verslaat. Dat is een erg leuke sprong ;) helemaal gezien de prijs, wat betekent dat er nog een hogere midrange kaart zal aankomen (380x) die daar overheen zal gaan. Het verschil is enorm en het is enorm consumentvriendelijk. Het lijkt daarbij op dat de 970 van de vorige generatie (of de 290 van die daarvoor en de 7950/7850 van die weer daarvoor) positie nu naar de 380 lijkt te gaan: de kaart met de meest consumentvriendelijke prijs/performance verhouding. Daarom zijn mensen blij en wordt dit toegejuicht.

Ik ben ook blij met deze ontwikkeling. Nvidia houdt de troon van de snelste kaarten terwijl AMD de segment daaronder invult. Ik denk dat Nvidia wel een beetje in hun eigen voet heeft geschoten door de 1070 zo 'duur' te maken. Een prijs van 350 euro (met FE als 400 euro) was stukken zachter geweest en had de positie van de 970 mooi ingenomen. Nu heeft het gewoonweg een andere positie genomen, bijna die van de 980 en de 1080 weer die van de 980Ti.

Enfin, Zen mag nu ook wel komen - en hopelijk voor een mooi prijsje - en ik kan weer een nieuwe budget PC kopen waar ik voel dat ik een 'goeie deal' heb gescoord (net als de phenom x2 die ik unlocked had naar x4, iets wat ik nu gewoonweg niet kan zeggen als ik een Intel systeem zou komen).
Ik denk dat Nvidia wel een beetje in hun eigen voet heeft geschoten door de 1070 zo 'duur' te maken. Een prijs van 350 euro (met FE als 400 euro) was stukken zachter geweest en had de positie van de 970 mooi ingenomen. Nu heeft het gewoonweg een andere positie genomen, bijna die van de 980 en de 1080 weer die van de 980Ti.
Voorlopig zijn er nog geen GTX 1070's te koop. Bij een beperkt aanbod doe je er verstandig aan je prijs te verhogen. Prijs verlagen kan altijd nog.

In het verleden heeft AMD vaker problemen gehad met het leveren van volumes. De verkoop van Radeon is de laatste jaren ingestort. Het is dus nog een hele kunst om weer met grotere volumes te gaan werken. Als AMD de vraag straks niet aan kan dan is dat weer negatieve PR.

AMD doet er dus verstandig aan ook wat hoger te beginnen dan de genoemde 199.
Ze hebben nu echter wel een deal met Samsung, als die bereid zijn enkele fabs in te zetten heeft AMD de mogelijkheid om toch veel enorme hoeveelheden GPUs te produceren.
Ik snap wat je bedoelt, toen de 1070/80 kaarten werden geïntroduceerd waren er inderdaad meer negatieve reacties te lezen van wat ik mij herinner. Ik denk dat het komt doordat het erop lijkt dat AMD met een goede prijs/prestatie verhouding komt ondanks dat het niet zoveel beter is dan de vorige generatie. Nvidia komt met snellere kaarten voor meer geld, alleen maar 'duurder' dus, terwijl AMD 'goedkoper' is. Vandaar de verschillende reacties denk ik.
Zoals het nu lijkt komt de 480 voor ongeveer de helft van de prijs t.o.v. de 1070 op de markt. Dit betekent dat Nvidia moet gaan dalen in prijs gezien 2×480 een 1070 hoogstwaarschijnlijk hard voorbij gaat (hopelijk zelfs gelijk aan de 1080). M.a.w. de 1070 is wel beter dan de 980ti maar alsnog relatief duur áls de 480 goede prestaties levert.

Offtopic: Tja sommige mensen minnen je als ze het niet met je eens zijn, beetje jammer gezien het minnen voor, zoals je al zei, trolls etc. zijn bedoeld die niks toevoegen aan een discussie, tegengestelde meningen zijn juist erg goed voor een discussie, jij zou dus eigenlijk geplust moeten worden.

[Reactie gewijzigd door T!mothy op 1 juni 2016 14:18]

Polaris 11 is als het goed is gek genoeg laptop spul, dus langzamer.

Misschien dat er idd wel snellere 10's komen
Ja volgens mij heb ik ze omgedraaid. Dit is een polaris 11 kaart volgens mij. de 10 komen nog.
Er komen geen Polaris 11 kaarten, het is mobile, dus geïntegreerd spul.

Wat je hier ziet is Polaris 10. :)
hmm vreemd zou kunnen, zo goed zit ik er ook niet meer in. ik ben ook veel geinteresseerder in zen. ook omdat ik 2x 290 op water in mijn systeem heb... ik ben dus wel even klaar :)
"Dan komen er snellere polaris 11 gpu's"

Polaris 11 is mobile GPU en dus zal deze altijd onder Polaris 10 presteren. Polaris 11 is gewoon na 10 gemaakt en daarom een hoger getal.
maar vraag me toch af waarom er zo negatief gereageerd word op de Pascal,
Voor mij is het de combinatie van laat, duur en niet zo erg veel beter dan de laatste kaart (980 Ti)
Ik had vooral gehoopt dat de ontwikkelingen gewoon sneller zouden verlopen.
Terechte opmerking Nemesizz, maar ik ben werkende mensch (zoals vele van ons armoedzaaiers). Dus nadat de belastingdienst langs is geweest blijft er echt niet genoeg over voor 1 van de nieuwe Nvidia kaarten.

En deze AMD kaart is erg betaalbaar en levert vervolgens veel bij toch relatief laag energieverbruik.

Het is gewoon moeilijk enthousiast te worden als je zo lang voor een Nvidia kaart moet sparen dat de volgende architectuur al ontworpen is.
Ok, dat zijn tenminste een beetje onderbouwde / begrijpelijke antwoorden.

Ik moest zelf even spitten in de webshops om de (geschatte) prijs van de 480 (~¤225 - 275) te vergelijken met een 390 (~¤350 wat ik zo vond). En dan is het inderdaad wel een interessante kaart.

Maar dat antwoord krijg je hier doorgaans niet, zo gauw je het woord 1080/1070 noemt of een vraag over hebt word je meteen gemind zonder een goed antwoord omdat het als een soort aanval word gezien blijkbaar. Of je krijgt reacties waar mensen iets heel anders van m'n tekst maken dan dat er staat.
Dit is een sprong voorwaarts die ik lang niet heb gezien in de videokaarten markt. Bijna een halvering van de benodigde power tegenover een betere presterende kaart dan de 390! Wss vergelijkbaar met de GTX 980 van Nvidia! Dit overtreft mijn verwachtingen ruimschoots en had niet verwacht dat AMD/ATI hun woorden zo waar zouden maken.

De precieze kloksnelheid moet weliswaar nog worden bepaald maar dit is zeer veelbelovend. En wat te denken van Crossfire. 2 kaarten zullen in ondersteunde games beter presteren dan een GTX 1070 of 1080 voor 400 euro minder dan de Founder's Edition die nu te koop is. En dan moeten de high-end kaarten zelfs nog uitkomen waar ik persoonlijk op zit te wachten.

En geef toe dat ik wel even over de GTX 1080 van Nvidia zat na te denken toen ik hem afgelopen vrijdag op de site van Alternate zag staan, maar die ga ik nu niet meer halen nu ik dit zie, ook al gaat het om een mid-range GPU. Ik wacht wel tot de 490x uitkomt. Die zal verhoudingsgewijs ook goedkoper zijn dan de 390 denk ik dus en schat dat deze voor 350 zullen worden aangeboden ipv 450 voor de 390x gemiddeld.

[Reactie gewijzigd door mickeyindahouse op 1 juni 2016 09:12]

Dit is een sprong voorwaarts die ik lang niet heb gezien in de videokaarten markt.
Eerst de benchmarks (over een maandje) afwachten. Dan zien we wel verder. Koude cijfers zeggen immers meer dan marketingpraat.
2 kaarten zullen in ondersteunde games beter presteren dan een GTX 1070 of 1080 voor 400 euro minder dan de Founder's Edition die nu te koop is.
CrossFire (en SLI, als we praten over Nvidia) is een hit of miss. Zeker als je nieuwe spellen speelt dan loop je vaak tegen een muur van problemen aan. Dat is ook een prijs die je ervoor betaalt.

[Reactie gewijzigd door The Zep Man op 1 juni 2016 13:09]

klopt, echter is CF of SLI wel leuk voor VR, want elke oog krijgt 1 gpu toegewezen :)
En dat maakt het prijs verschil nog meer uit, want als je 2x een 970 koop of 2x een RX 480 ...

Ik ben nog een beetje huiverig over deze kaart, het stroom verbruik, en daarmee ook warmte afgifte zal top zijn, daar twijfel ik niet aan. Nu vraag ik me alleen af of de architectuur een stuk beter is dan die van Fiji ( fury GCN 1.2 ) kaarten, want anders beloofd dit niks goeds.

Ik denk dat ik nog ff wacht op een RX 480X variant als die er komt , met hopelijk wat meer bandbrede. Want nu ga ik er qua bandbreedte wel op achteruit. Al zie ik dat de gtx 1070 niet echt last heeft van zijn bandbreedten in 1440P .
klopt, echter is CF of SLI wel leuk voor VR, want elke oog krijgt 1 gpu toegewezen :)
Ik ben die theorie al meermalen in comments tegengekomen, maar heb daar nog nooit iets officieels van gelezen. Heb je daar een betrouwbare bron o.i.d.? Want ik heb al ruim een jaar een Oculus, en 1 ding is tot nu toe een gegeven: CF werkt niet met VR. ( iets met latencies te maken ) Bij het werken met 2 kaarten, iedere kaart 1 scherm, zou CF op zijn minst goed moeten werken want anders houd je nooit alles in sync. Dus met The Zep Man zijn uitspraak dat CF een hit of een mis is, is dat bij VR tot nu toe nog steeds elke keer een mis. Tenzij ik dus iets gemist heb..
Daar heb je gelijk in maar ik denk niet dat AMD hier te ver van zal afwijken anders snijden ze zichzelf lelijk in de vingers. Bovendien hebben ze dit min of meer al eerder aangekondigd. Toch ben ik ook erg benieuwd naar de eerste benchmarks.

Ook heb je gelijk over CF/SLI, maar dat probleem lijkt de komende jaren toch te gaan veranderen met DirectX12 en het totale video geheugen wat via verschillende threads zal kunnen worden gaan aangesproken, mits goed geprogrammeerd uiteraard.

[Reactie gewijzigd door mickeyindahouse op 1 juni 2016 11:37]

Ter vergelijking: De GTX 1070 doet zo'n 6,5 GFLOPS, voor $379 (founders edition zelfs $449). Als AMD nu 5 GFLOPS voor $199 op de markt brengt hebben ze daarmee echt een enorm performance/prijs voordeel.

Hopelijk kunnen ze dit doorschalen en pak hem beet 8 GFLOPS voor $300 op de markt brengen. Dan hebben ze een absolute winnaar!
Allereerst het is teraflops, niet gigaflops. Verder kun je de rekenkracht niet zomaar vergelijken van 2 verschillende partijen. AMD heeft altijd meer rekenkracht gehad dan Nvidia bij vergelijkbare presentaties.

Als je 390 pakt, die 5.1 TFlops aan rekenkracht heeft, en vergelijkt het met 970, die 3.5 TFlops heeft... dan zou je zeggen dat de 970 niet in de buurt van een 390 mag komen. Maar in praktijk is het toch anders. Bij HWI, de performance score, doet de 970 toch beter dan de 390 op lage resolutie. Op hoge resolutie is het andersom, waarschijnlijk omdat de 390 meer geheugen heeft.

Als je 2 kaarten wilt vergelijken met vrijwel dezelfde rekenkracht, dan zou je de GTX 970 met een Radeon R9 380 moeten vergelijken. Beide hebben rond 3.5 TFlops aan rekenkracht. Dan is Nvidia toch duidelijk de winnaar.

[Reactie gewijzigd door Verkade89 op 1 juni 2016 08:34]

En toen kwam Dx12 en werd het verhaal enigsinds anders, als ik mij niet vergis. Daarom zie je dat de R9 390(x) het met Dx12 games een stuk beter doet en hoge performance increases heeft ten opzichte van de GTX 970.
Momenteel met Ashes of the Singularity en Hitman is het inderdaad zo dat de rekenkracht meer een rol speelt. Zo zie je met Hitman, dat de 390X en Titan X bijna gelijk lopen. Titan X heeft dan wel iets meer rekenkracht (0.2 TFlops). Maar als ik bij AoeS ga kijken, 390X vs 980Ti, dan is de 980 Ti iets sneller en de rekenkracht is iets minder (0.3 TFlops). Maar het word in ieder geval wel een stuk gelijker getrokken.

Met Gears of War is het een beetje moeilijk te vergelijken door de framelock die er op zit. Dus GTX 970 vs 390 is niet te vergelijken. Als ik naar 4K resolutie ga, dan gaat geheugen meer een rol spelen en de GTX 970 heeft maar 4GB ipv 8GB, dus dat is niet eerlijk. Maar als ik de GTX 950 pak vs R7 370, deze presenteren vrijwel gelijk in het spel. Maar de R7 370 heeft wel 25% meer rekenkracht dan de GTX 950. Dus ook hier, ook al is het DX12 spel, AMD heeft meer rekenkracht nodig om Nvidia bij te benen.

Maar het is inderdaad wel zo dat DX12 een stap vooruit is voor AMD. Omdat AMD meer rekenkracht heeft met veel kaarten, en DX12 lijkt daar goed gebruik van te kunnen maken.

Ik weet overigs dat deze kaarten die ik vergelijk niet in dezelfde prijs klasse hoort. Maar het gaat hier dan ook niet om de prijs, maar de rekenkracht VS hoe goed het in spellen doet. Om mijn punt te verdedigen dat rekenkracht niet alles zegt over hoe het in spellen doet.

[Reactie gewijzigd door Verkade89 op 1 juni 2016 10:16]

Ik betwiste dit standpunt ook niet volledig. Want dat verschil is er ook, maar nu is de vraag: Nvidia geeft minder TFlops aan rekenkracht voor meer geld. Wat wil je als consument kopen? Ik denk de kaart die voor jouw budget het beste presteert.

Het valt echter op dat Nvidia destijds met de 9xx line-up behoorlijk ver voor liep en dat een half jaar na release plots bij nieuwe DX12 spellen blijkt dat zij de duurdere keuze waren en komen ze beduidend slechter uit qua bang4buck. Als je ieder jaar een grafische kaart koopt is dat natuurlijk geen probleem, maar voor de gemiddelde consument is het vrij vervelend dat één fabrikant plots veel betere prestaties haalt op DX12 games, terwijl jouw fabrikant weinig verbetering heeft en soms zelfs achteruit gang.

Ik heb al zo veel boze reacties gezien van mensen die klaar zijn met Nvidia, omdat ze volgens mensen "de huidige kaarten achter laten blijven om zo de nieuwe kaarten extra sterk neer te kunnen zetten". Ik kan niet beoordelen of ze dit doen, want het is nogal een aanname.

Wat voornamelijk opvalt is dat een R7 370 toch op dit moment wel 20 euro of ongeveer 13% goedkoper is en hoewel AMD vaak aan de lagere kant zit met DX11 of lager, zitten ze vaak aan de hogere kant voor DX12.

Ik snap dat jij iets benaderd van het aspect: TFlops is niet game performance, maar ik denk dat niemand dat betwist, maar consumenten geven niks om TFlops. Zij geven iets om de meeste FPS per euro en eventuele features.
Alhoewel NVIDIA niet slechter wordt met tijd wat sommige mensen denken dat er gebeurd is het simpelweg een kwestie van dat NVIDIA oudere generaties weinig driver-liefde geeft en dat de gamework features die zwaar op tesselation leunen het minder goed doen op vorige generaties.

AMD daarintegen heeft behoorlijk wat vooruitgang in de drivers geboekt en dat uit zich in prestatiewinst voor alles met de GCN archictectuur waardoor oudere kaarten het soms beter doen dan hun NVIDIA tegenhangers uit de tijd van uitkomen.

tldr: Nee NVIDIA doet niet aan het 'gimpen' van oude kaarten, maar ze doen er ook bijzonder weinig moeite voor om ze mee te laten komen met nieuwe generaties. AMDs slechte DX11 driver hebben veel vooruitgang geboekt wat ook oudere kaarten een performancewinst geeft.
Als je twee jaar terug een GTX 780ti hebt aangeschaft, dan mag je gewoon uitgaan van goede ondersteuning naar mijn mening. Je betaald ¤700 voor een high end product en het is naar om deze bij DX12 door een GTX960 (van ¤200) ingehaald te zien worden.

Dan kun je zeggen: Ze maken de kaarten niet slechter, maar ze geven hun nieuwe kaarten wel bewust een extra sprongetje, waardoor jij ten tijde van je aankoop denkt een kaart van x% sneller te kopen die in realiteit dit enkel behaald voor een jaar of twee.

TL;DR: Nvidia kan hun 7xx series sneller om dichter bij de 9xx series te komen, maar ze kiezen hier bewust niet voor.
Met 1 DirectX12 game (Ashes of the Singularity) die sowieso voor AMD kaarten geoptimaliseerd is. Benchmarks van de fabrikanten zelf moet je altijd met een korreltje zout nemen.
Ik heb het puur over alle DX12 games. Niet enkel Ashes of the Singularity. Kijk naar de R9 3XX lineup en naar de GTX9XX Lineup en het performance verschil tussen dx11 en dx12 games.
Ik vind dit persoonlijk een heel leuk filmpje die uitlegt waarom AMD beter in DX12 presteert dan NVIDIA: https://www.youtube.com/watch?v=aSYBO1BrB1I.
Nvidia is net zo schuldig aan het selectief presenteren van benchmarks. Fanboy van een GPU merk zijn is sowieso dom, je moet gewoon naar onafhankelijke benchmarks kijken op het moment van kopen.
Dan begreep ik je verkeerd. Doelde meer op de ashes of singularity benchmark alweer een beetje verleden tijd is.
In Hitman was het vrij duidelijk dat DX12 een voordeel bied voor AMD, ik interpreteerde onterecht het aanhalen van de ashes of singularity benchmark als "fanboism". Mijn excuses.
ehm correctie hier de 390 is toch echt sneller in vrijwel alle moderne games (als de 970) kijk bijvoorbeeld naar de tests van digital foundry en vele anderen. en al helemaal in DX12 waar het zelfs sneller of even snel is als de 980.
KIjk anders ook naar de test van DIgital foundry waarbij ze de 970 hoger klokken en dus de 390 helemaal achter zich laat. De 390 is niets meer dan een geoptimaliseerde (overclocked) 290. Bij DIgital foundry hebben ze altijd reference style 970s gebruikt. Overclocked standaard kaarten draaien al 15~20% sneller en gemiddeld kunnen alle 970s zo'n 40% in totaal hoger geclocked worden zonder noemenswaardige moeite.

De 970 is echt DE efficientere kaart. DX12 games zijn er maar een aantal van en alle zijn in samenwerking met AMD opgebouwd. Zegt nog helemaal niets.

De 390 heeft daarintegen helemaal geen headroom meer over voor iets hoger te klokken. DIt laat al zien hoe uitgeperst die gpu is.

[Reactie gewijzigd door Rin op 1 juni 2016 11:08]

Overclocked standaard kaarten draaien als 15~20% sneller en gemiddeld kunnen alle 970s zo'n 40% in totaal hoger geclocked worden zonder noemenswaardige moeite.
Ze kunnen wel redelijk hoog ja, maar 40%? Echt niet. De stock is al 1178, dan zou je op 1650 MHz komen.
Stock is nog geen 1 ghz qua base clock. Ik heb in totaal 3x 970s op tussen de 1500~1600 mhz gehad. Ook HardOCP heeft ze zo hoog kunnen klokken. MIts je wel een variant hebt met minsten 1x6pins en 1x8 pins voeding. De strix variant met 1x 8 pins heeft niet de hoeveelheid stroom voorziening die nodig is.
Heb mijn Strix toch stabiel draaien op 1526 mhz hoor. Al geeft dat in sommige games wel eens problemen dus draai nu op 1490 zodat de meest zware games er geen problemen mee geven. Maar het is wel mogelijk als je de voltage nog wat hoger zou zetten dat heb ik nu dus niet gedaan.
Gemiddeld gezien dan he. JIj hebt dan een uitstekend ge-bin'de chip die gewoon meer met minder kan.

Toch een mooie overclock!
DX12 in samenwerking met AMD, waar baseer je dat op? Het was toch Nvidia die deals sloot met game developers?
Je begrijpt me verkeerd. De games zoals Ashes of singularity zijn in samenwerking met AMD. De engine waar HItman op draait en Square Enix in het algemeen is ook in samenwerking met AMD.

Vrijwel alle Square Enix games van afgelopen jaren zijn AMD gaming evolved titels. Meer DX12 voer is er helaas nog niet op Gears of War, Forza Apex en QUantum break na er niet. Alle 3 zijn op het nieuwe Windows platform gebasseerd en rpesteren sowieso uitermate slecht helaas.
Point taken, agreed. Hitman maakt wel verdomd veel reclame voor amd idd :D
Neemt niet weg dat AMD sterkere async compute heeft dan Nvidia. DIe het nogsteeds niet geactiveerd heeft in de drivers om die reden.
forza en quantum break werken inmiddels gewoon goed. Vooral op amd hardware (again) Kijk de rede waarom amd sneller is in DX12 is omdat in DX11 de gpu niet van alle "CU's" gebruik kan maken. Redenen hiervoor zijn te veel om uit te leggen in een simpele comment. Maar in kort kunnen de ACE's niet goed commando's uitvoeren omdat DX12 geen asynch compute heeft
Quantum break werkt nogsteeds niet. Er is geen enkele GPU op de wereld die deze game op fhd met 60fps stabiel kan draaien. Daarnaast is de GPU load bij vrijwel geen enkele high end kaart 100%. De game doet het gewoon niet.
ja dit klopt maar veranderd niks. al die sites gebruiken games zoals project cars en andere gelijken om amd met nvidia te vergelijken. maar gaan ze zeuren dat er 2 games zijn die met amd zijn gemaakt in dx12 en een ander duidelijk beter werkt op dx12 bij amd. is niet helemaal eerlijk dit? witcher 3 met hairworks bijvoorbeeld.
kijk ik snap wat je bedoelt en ja met een flinke overclock op de 970 is die sneller. maar zelfs in mijn vrienden groep met mensen die super veel geld uitgeven aan computers overclocken niks. dit geld voor de meeste mensen en op stock snelheden is de amd gewoon sneller.
Dat klopt. Maar het is geen indicatie of DX12 wel of niet goed werkt op Nvidia kaarten. Er is gewoon ngo te weinig data daarvoor. Rise of the tomb raider is bijvoorbeeld op beide merken nogsteeds beter op DX11.
true maar op nvidia zal het niet sloomer of sneller werken op maxwell vanwege de controller en hoe goed dx11 al is op maxwell (er is geen ruimte voor verbetering) kudos voor nvidia hiervoor
Ja dit vond ik bs aangezien de r9 390 ook goed kan overclocken. +250mhz is te doen. Maar die test hebben ze niet in de nieuwe games gedaan (post new gen console launch titles boedoel ik hiermee) Wat hoog waarschijnlijk komt omdat alle games al op AMD hardware (consoles) word gemaakt
The Division was de laatste titel waarbij ze het deden. 1 van de zwaarste en meest geavanceerde engines op dit moment. https://www.youtube.com/watch?v=Jne8VWuE2a4

Daarnaast lijkt me het sterk. Het is zeer ongebruikelijk dat een 390 zelfs maar 50mhz erbij kan krijgen al. Er zal vast misschien wel een uitzonderlijk goed exemplaar ergens aanwezig zijn maar statistisch gezien zie je op bijvoorbeeld benchmark sites relatief weinig goed overclocked 390s en 390x's. Helaas maar waar. Ik zou het zelf ook anders zien anders had ik graag net wat minder uit gegeven voor hetzelfde.
Overdrijven is ook een vak. Er zijn GTX 970 kaarten die zelfs een factory overclock van 25MHz niet aankunnen. En ik kan het weten want ik heb er één retour moeten sturen.

Daarintegen zijn er ook een flink aantal R9 390 kaarten die 20-25% overgeclocked kunnen worden. Ja de R9 390 is oud, maar ze zijn er wel stukken beter in geworden die chip te bakken wat niet alleen in een standaard hogere klok dan de 290 vertaald maar ook nog enige overclock-headroom bij een flink aantal kaarten. De kaarten zijn imo zeer aan elkaar gewaagd en ik zou aanraden een keuze te maken aan de hand van features/eigenschappen* niet het merk. Zo heb ik zelf een GTX 970 omdat ik een mini-itx kast heb met beperkte airflow en een efficientere kaart dan duidelijk een beter keuze is.

Was dat niet het geval dan had ik zomaar eens anders kunnen kiezen vanwege freesync. (Ik zie weinig toekomst in g-sync).

Mijn advies op dit moment is dit nog anders, ik zou zeggen pak de tweedehands een GTX 970 die zijn veel harder in prijs gezakt dan de R9 390. Of als je geen haast hebt wacht deze R9 480 kaart af want die maakt beide met de grond gelijk, is nog goedkoper of ongeveer dezelfde prijs als een tweedehandse kaart en als kers op de taart een stuk zuiniger.

[Reactie gewijzigd door Xthemes.us op 2 juni 2016 12:55]

Overdrijven is ook een vak. Er zijn GTX 970 kaarten die zelfs een factory overclock van 25MHz niet aankunnen. En ik kan het weten want ik heb er één retour moeten sturen.

Daarintegen zijn er ook een flink aantal R9 390 kaarten die 20-25% overgeclocked kunnen worden. Ja de R9 390 is oud, maar ze zijn er wel stukken beter in geworden die chip te bakken wat niet alleen in een standaard hogere klok dan de 290 vertaald maar ook nog enige overclock-headroom bij een flink aantal kaarten. De kaarten zijn imo zeer aan elkaar gewaagd en ik zou aanraden een keuze te maken aan de hand van features/eigenschappen* niet het merk. Zo heb ik zelf een GTX 970 omdat ik een mini-itx kast heb met beperkte airflow en een efficientere kaart dan duidelijk een beter keuze is.

Was dat niet het geval dan had ik zomaar eens anders kunnen kiezen vanwege freesync. (Ik zie weinig toekomst in g-sync).

Mijn advies op dit moment is dit nog anders, ik zou zeggen pak de tweedehands een GTX 970 die zijn veel harder in prijs gezakt dan de R9 390. Of als je geen haast hebt wacht deze R9 480 kaart af want die maakt beide met de grond gelijk, is nog goedkoper of ongeveer dezelfde prijs als een tweedehandse kaart en als kers op de taart een stuk zuiniger.
Dat kiezen op features in plaats van merk ben ik 200% met je eens.

Maar 970's clocken in eht algemeen wel hoger. Statistisch gezien op verschillende benchmark sites. Dat er een zwart schaap tussen zit kan.

Heb overigen som diezelfde reden een 970 gekozen. Omdat ik een compacte mATX build heb en 2 kaarten tegelijkertijd wil kunnen draaien. 2x een 390 in een Silverstone fortress 3 is not a good time.
Ik zou niet het aantal TFLOPS gebruiken om de vergelijking te maken, maar gewoon de prijscategorie. En TFLOPS =/= gaming performance
Maar dat word nu wel veel gedaan. AMD zegt dus dat de RX480 iets meer dan 5 TFlops heeft. En mensen beginnen gelijk dat nummer te vergelijken met de TFlops van 1070/1080. En dan nemen ze de prijs er ook nog eens bij, en ja dat klinkt allemaal lekker. Maar zoals je zegt, en dat wilde ik dus ook duidelijk maken in mijn bericht, TFlops != gaming performance.
Daar moet je je niet blind op staren, Nvidia loopt al jaren achter qua Glops maar voorop qua prestaties omdat de driver support gewoon beter is.
Driver support beter ?
Je bedoelt dat ze liever bakken met geld aan ontwikkelaars geven ( "the way its ment to be played" ) dan dat ze goedkopere kaarten maken, dat ze daarmee de concurrentie benadelen is dan alleen maar mooi meegenomen? ( dat spel wat eerst dx 10.1 was, maar opeens alleen nog maar dx 10? Antialiasing onzinnig hoog laten zetten omdat de concurentie daar meer last van heeft dan zei zelf)

Om de een of andere reden is een 50 mln winst met hogere omzet belangrijker voor investeerders dan 50 mln winst met lage omzet?
Driver support is beter omdat de NVIDIA driver veel lagere overhead heeft dan die van AMD.

Hang maar eens een vergelijkbare gpu van AMD en NVIDIA aan een low budget cpu. De NVIDIA gpu zal veel, maar dan ook veel beter presteren vanwege de lagere overhead.

Dit probleem wordt voor AMD grotendeels opgelost door DirectX12, maar feit blijft dat ze tot op de dag van vandaag dus nog steeds geen fatsoenlijke low overhead drivers kunnen maken.

http://images.anandtech.com/graphs/graph8962/71451.png
http://www.eurogamer.net/...15-budget-gaming-pc-guide
The graphics hardware chosen may seem controversial - Nvidia's GTX 750 Ti is much slower on paper than AMD's Radeon R9 270X and R9 285, both of which are available for not much more money, in the UK atleast. Unfortunately, AMD's DirectX 11 driver is inefficient compared to Nvidia's, meaning poor performance in CPU-heavy titles resulting in lower frame-rates and off-putting stutter when the processor is under load. We simply can't recommend an AMD card at this time in scenarios where CPU power is limited. Our tests with Call of Duty Advanced Warfare and The Crew are revelatory - though it's a different story if you have the funds for a full quad-core i5 processor, where AMD suddenly looks a lot more compelling, particularly the Radeon R9 280 [?] with its 3GB of VRAM, selling for just £139.

[Reactie gewijzigd door Persei84 op 1 juni 2016 09:28]

De chipset van de 750 Ti is maxwell en alle maxwell kaarten doen al een vorm van async in DX11 wat inderdaad veel minder overhead geeft. AMD heeft dit ook en zelfs veel beter alleen werkte het gewoon helemaal niet in DX11 wat de eerste link duidelijk laat zien als je DX11 en DX12 gaat vergelijken. Daarom zien we ook zo weinig extra performance uit DX12 games op maxwell kaartjes, ze halen er alles al uit. En dat ze geen low overhead drivers kunnen maken is ook niet helemaal waar, ik denk nu aan Mantle.. En Mantle was er ten tijden van DX11 dus eigenlijk kan je zeggen dat AMD al veel verder is dan Nvidia als je de eerste link gaat vergelijken tussen Mantle van AMD en Nvidia´s DX11.

https://www.youtube.com/watch?v=lRphUEh-dUA

[Reactie gewijzigd door LocK-NaH op 1 juni 2016 13:22]

Driver support is beter omdat de NVIDIA driver veel lagere overhead heeft dan die van AMD.
dat is maar een HEEL klein deel van de driver support, weinig relevant voor nagenoeg iedereen en al helemaal niet meer relevant eigenlijk al dit jaar waar nagenoeg elke game waarbij performance van belang is die dit jaar uit komt een dx12 of vulkan update krijgt.

en terwijl nvidia sleutelde om een dood paard (dx11) wat minder dood te maken was AMD aan het werk aan een echte oplossing in de vorm van een low overhead API.

[Reactie gewijzigd door Countess op 1 juni 2016 15:39]

Wow, jij vergelijkt de huidige AMD driver support met de drivers toen AMD nog ATI heette? 8)7
Tja, daarna heb ik het gewoon opgegeven. Ik heb single gpu performance altijd het belangrijkst gevonden, en bij de rode jongen heb je dat de afgelopen jaren niet kunnen vinden. Daarom ook geen behoefte gehad om het nogmaals te proberen. Waarom zou je?
ik had mijn 9700pro op mijn TV aangesloten via tv-out en nergens last van.

en heb sinds dien op de x700, x1900, hd4790 en hd7970 ook nergens last van gehad met monitoren of TV's.

mijn nvidia laptop op werk echter heeft om de havenklap een driver stop/recovery als ik 2 monitoren aansluit met een displayport daisychain.
X700 en X1400 was een drama. De 1900 wilde ook niet lekker werken met een beamer. 1 nvidia desktop en 2 nvidia notebooks op dezelfde beamer en tv: 0 problemen. Uiteindelijk 1 van de ATI kaarten nog redelijk werke d gekregen door custom timings in powerstrip. Kansloze situatie.
Beter? Hoewel ik blij ben met mijn 780Ti heb ik regelmatig dat ik de driver moet herinstalleren door instabiliteit die niet door mijn kaart wordt veroorzaakt. Relatief veel driver crashes ook op de moderne drivers. Een paar jaar terug was het aanzienlijk beter en de drivers uit die tijd werken ook beter op de kaart, alleen niet op moderne games uiteraard.

Hoe de neuk is dit -1? Fanboys, bah bah.

[Reactie gewijzigd door nelizmastr op 1 juni 2016 10:05]

tja, dat is nou juist mijn ervaring met ATI/AMD drivers, heb eigenlijk zelf nog nooit problemen gehad met NVidia drivers (behalve op Linux dan)..
Ik heb nog nooit problemen gehad met NVidia drivers op Linux, zolang je ze niet handmatig van hun site gaat downloaden en installeren. De oude AMD drivers op Linux (fglrx) zijn daarentegen super slecht, traag en instabiel, geen wonder dat ze door Canonical niet meer met Ubuntu worden meegeleverd. Ik heb geen ervaring met hun nieuwe semi-opensource AMDGPU driver, maar ik hoop echt dat de situatie daarmee verbeterd. Want puur om het prijs/prestatie niveau van de hardware zou ik graag een AMD kaart kopen, maar als Linux gamer zit je toch wel een beetje vast aan NVidia.
Ik had eigenlijk alleen problemen met de drivers meteen nadat ik een upgrade had gedraaid van Unbuntu, verder ook geen problemen.
Tja, hoe representatief is jouw ervaring? Ik heb dezelfde kaart en draai op deze PC Windows 10 sinds de Insider releases en heb in al die tijd (bij 8+ uur gebruik per dag) nog geen enkele driver crash gezien. Enige wat mij irriteert is dat er vrij regelmatig nieuwe drivers uitkomen en dat die niet handig en snel op de achtergrond geïnstalleerd worden. Moet steeds zelf even de GeForce Experience openen en op 'upgrade' drukken en dan duurt die installatie een paar minuten waarbij ook het beeld even uitvalt voor een paar seconden.
Er zijn inderdaad meerdere factoren die stabiliteit beïnvloeden, maar representatief is het niet per se. Alleen het zout van sommigen hier die gelijk downmodden bij een mening waar ze zich niet in kunnen vinden 8)7

De meeste problemen zijn inmiddels gelukkig verdwenen sinds Win10 niet langer brakke drivers forceert en onder Win7 was het helemaal solide.
Exact. In vorm van lekkere RX 490 ofzo. Haal ik direct. Nu lastiger, want 1 480 maar beperkte upgrade voor mijn HD7850s in CF (=R9 290)
In games met beroerde multiGPU en in DX12 heb je meer aan deze 480 echter.
Klopt. Overigens kan je twee HD7850s all scoren voor 150 ekkies.
Kan zijn, maar het is niet ideaal. Heb zelf een tijd lang 7770 in CF gedraaid en hoewel dat R9 280 prestaties leverde was het nogal verschillend per spel of dat ook zo werkte. Uiteindelijk 1 tweedehands vlaggenschip gepakt. Werkt overal goed :)

En voor 150 kan je ook 2x 7870 krijgen tegenwoordig ;)
Best lastig nog om 7870 2ehands te scoren. Tenminste.. ik heb een XT variant en zou er best een 2e bij willen..

Toch denk ik dat deze 480 best een leuke kaart kan zijn voor het bedrag.
Ik ben van plan om m'n gpu binnenkort te upgraden, dan mag je mijn 7870XT overkopen aan een zacht prijsje.
Ik heb ook een xt. Het is eigenlijk geen 78xx gpu maar een 79xx gpu een naam uit de 78xx kaarten. Je kan er gewoon een 7950 naast gooien in cf.
yep maar in dx12 is het cfx/sli verhaal natuurlijk anders dus veel bijsmaken van multigpu zullen veranderen. Gpus zullen dan los aangesproken worden, met sli ondersteunen de gpus elkaar als het ware.
Telt het geheugen dan voortaan ook op? Dat zou wel mooi zijn.
deels. sommige dingen zullen beide GPU's gewoon dicht bij (in het eigen geheugen) moeten hebben.

maar er hoeft niet meer perse in beide precies het zelfde ingeladen te worden.

het is dus geen 4 + 4 = 8, maar ook zeker geen 4 + 4 = 4 meer.
Je verbruik is dan ook een stuk lager en hij zal mogelijk stiller zijn.
Daarnaast als je dan 2x een RX480 pakt ben je iets van 450 kwijt en dan heb je wel een grote upgrade. Dus het is maar wat je wilt :)
Klopt, ik overweeg het ook zeker - met het idee op CFX in de toekomst ja. Maar dan liever een iets sterkere 480X, dan merk ik nu tenminste ook al verschil tov m'n Pitcairns.
Er waren wat gelekte tests van een C7 (XT) chip en die zou boven de R9 390X zitten en net onder de Fury (non x) in 3dMark.
hij zou 2304 shaders hebben 1266MHz draaien en 8 GB 2000 MHz (8000 effectief) GDDR5 geheugen hebben. TDP150 watt maar rond de 110 watt verbruiken.

Dit zijn nog wel gruchten/leaks die niet officieel bevestigd zijn.
Kort samengevat:
2x 980 < 1080
2x 480 > 1080
Maar 480 < 980
:? :?
Dat noemen ze nou marketing ;)
Ze zeggen niet in welke benchmarks dit geldt, en hoe hard er ge-over/underclocked is....

Redenatie: ik pas in mijn jas, mijn jas past in mijn tas, dus ik pas in mijn tas...
Dat is geen marketing maar communicatie. De beslissing van AMD om minder te focussen op high-end kaarten en meer te focussen op een goede price/performance ratio is marketing (grotere doelgroep, betere marges, meer marktaandeel, lagere kosten enz. enz.)

Tegenwoordig is alles wat ze framen 'marketing' maar dat is het dus niet. Het is wel een beetje onderdeel van je marketingplan om de tool in te zetten maar ik vind het jammer dat het vakgebied zo in diskrediet wordt gebracht ;)
2 X 980 is toch meestal sneller dan 1 x 1080.
Volgens mij was er in de presentatie van Nvidia te zien dat een 1080 2x zo snel was als een 980.
Vandaar dat ik de opmerking van Pay wel valide vind. Het is heel apart.
Kijk die slides nog een keer. Nvidia zei 2x performance in VR. Benchmarks laten performance winst van 20 tot 30%. Dus gtx 1080 is 20 tot 30% sneller dan gtx 980 ti.
omdat de scene maar 1x volledig gerenderd wordt ipv 1x per oog. In gewone games zal deze dus zwaar tegenslagen
Zwaar zou ik ook niet zeggen. Maar ik ben niet van plan om mijn 980 ti te vervangen door gtx 1080. Prijs performance ratio is gewoon slecht. Dan wacht ik liever op Vega met HBM 2. Hadden ze in gtx 1080 in moeten zetten dan was het wel die 699 euro waard maar zo is die het niet waard. Vooral dat AMD 480 in CF net zo veel performance biedt als één 1080 en kost ook 300 euro minden in totaal.
2x 480 is was alleen soms >1080.
AMD kaarten krijgen een grote performance boost van DX12, maar Nvidia kaarten hebben (nog) moeite met DX12
De GTX1080 is ook alleen maar sneller dan een 980 SLi met VR dan was er iets extra's wat nVidia in hardware deed wat maxwell niet kan (Single pass VR rendering) waardoor de nieuwe generatie veel sneller is.
Daarnaast kan het zijn dat AMD ook nog wat aan de CF engine gedaan heeft waardoor de kaarten in CF nog beter schalen.

Ik verwacht zelf dat een RX 480 in zijn snelste vorm tussen de R9 390X en de Fury in zit (hopelijk dicht op de prestaties van ene Fury kaart). In DX12 en Vulkan games verslaat de R9 390X de GTX980. Dus dan zou een RX480 een stuk sneller zijn dan een GTX980.

[Reactie gewijzigd door Astennu op 2 juni 2016 08:43]

Is er ook iets gezegd over het versienummer van de HDMI aansluiting op de kaart? Men mag toch wel verwachten dat deze erop zit en mimimaal 2 zal zijn?

Ziet er prima uit vind ik. Momenteel zit ik met de 7870, maar het wordt tijd om up te graden. Ga het nog even aankijken of er nog meer leuks uitkomt. Tips zijn welkom over m'n opvolger :p
Radeon™ GPUs with the Polaris architecture support HDMI® 2.0b and DisplayPort™ 1.3 for compatibility with a new generation of monitors that would make any gamer excited: 1080p 240Hz, 1440p 240Hz, 4K 120Hz—even 1440p ultrawide at 190Hz.

http://www.amd.com/en-us/...chnologies/radeon-polaris

en

In terms of display outputs AMD's Polaris GPUs are a significant upgrade from Fiji, supporting 3x DisplayPort 1.3, HDMI 2.0 and even a DVI cable (something that was missing from reference Fiji GPU designs).

http://www.overclock3d.ne...neering_sample_pictured/1
Die DVI kabel hadden ze eruit mogen laten. Ik hoop zeker dat de Vega gewoon zonder DVI geleverd wordt, een DVI aansluiting hoort niet thuis op een high-end card.
Wat is er mis met dual-link DVI? Mijn 1440p monitor heeft dat als enige aansluiting en dat is juist het soort monitor dat de performance van deze kaarten vereist.
Ik zal even sturen wat ik ook laatst op Reddit hierover te zeggen had:

DP has a way higher bandwidth then DVI. It supports HDR, has more bandwidth for higher resolution and Hz. Also DP is royalty free (as far as I know) while DVI is not, so pretty much cheaper to produce. DP also supports a lot of splitters, with just one DP you can link up up to 3 (or 6?) screens. Overall is an improvement all across the board. Oh and DP supports new technologies as freesync, which is not supported at all with DVI.

Bottomline: DVI is outdated en zal echt niet meer op videokaarten moeten zitten, in wat voor shape of form dan ook. De mensen die nog DVI gebruiken, moeten maar een converter kopen of de fabrikanten een converter bijleveren (wat vroeger best normaal was).

[Reactie gewijzigd door GoT.Typhoon op 1 juni 2016 16:15]

Zou je in dat geval ook de HDMI poorten weghalen? Die hebben soortgelijke limitaties.

[Reactie gewijzigd door Overv op 1 juni 2016 20:38]

HDMI word nog heel veel gebruikt (DVI ook, maar TV's hebben bijna altijd HDMI, en geen DP of DVI)
Jammer genoeg niet nee!
Het wordt tijd dat TV's ook minimaal een Display port aan sluiting krijgen.
Als je ziet hoe lang er nog D-Sub op videokaarten heeft gezeten zal DVI nog wel even blijven. En voor een kaart in het 150-250 euro segment is het ook heel goed dat er nog DVI op zit.
Die mensen geven geen top bedragen uit aan hun PC en scherm. Kan best zijn dat die mensen al 5-10 jaar met hun scherm doen en dus geen HDMI en vooral geen DP hebben.

Heel veel schermen hebben alleen HDMI en geen DP.
Daarnaast leuk dat HDR maar er zijn nog geen PC schermen die het kunnen dat moet allemaal nog komen en als die komen zijn ze heel erg duur.

Daarnaast zijn er al genoeg high end kaarten geweest waar geen DVI op zat en alleen maar HDMI en vooral DP. Dus je ziet dat die move al gemaakt wordt. Alleen waren er dan altijd mensen die gingen klagen dat er geen DVI was. (ook al kun je prima convectors voor DP naar DVI krijgen)
Ik ben ook aan een upgrade toe met mijn HD7850. Ik ga voor een GTX1070. Is even een investering. Maar zal beter uitpakken dan 2 goedkopere kaarten in een cross-fire opstelling.

De nieuwe techniek en hogere kloksnelheid zal uiteindelijk voor betere prestatie zorgen.
Ik zit te twijfelen. Komt er binnen 2 maanden nog iets van AMD of was dit het tot 2017? Ik kan best wat meer spenderen dan deze kaart, maar 1070 is nét 'n tikkie te duur (gezien de dingen die ik doe). Toch blijft het dan een keuze om voor deze of de 1070 te gaan, ben altijd meer een ATI/AMD man geweest. Misschien toch maar een 1070.
Met een goede 1070 zit je gegarandeerd voor meerdere jaren geramd. Mijn gevoel zegt dat dat met de 480 niet zo is. En weet niet of amd dit jaar nog iets beters in petto heeft.
Nog eens gekeken en de specificaties zien er wel heel goed uit idd. Ik denk dat je me zojuist overtuigd hebt! 10 juni komt ie uit, ben benieuwd.
Ben ik ook benieuwd naar idd
2 jaar geleden heb ik voor 150 euro een Radeon HD7950 op de kop getikt.

Vervolgens wordt die gerebrand naar 8950
Vervolgens wordt die gerebrand naar R9 280
En ook in de 3## series is er weinig snellers te krijgen dan dat.

Wilde ik iets snellers hebben dan moest ik al snel enkele honderden euros uit geven. De 480 beloofd dat ik eindelijk voor niet al te veel geld een aardige sprong in performance kan gaan maken!

nVidia mag mischien opnieuw "de snelste kaart" hebben, ik denk dat de 480 een behoorlijke berg meer zal verkopen door, wat AMD noemt, de gamer sweetspot. Voor mij zeker!
Nvidia heeft in ieder geval weer een beetje concurrentie erbij.
Hebben ze altijd al gehad. Of wil je beweren dat de gtx-960 en 970 gehakt maken van de r9 280/290/380/390? 8)7. Want vaak genoeg(en zeker op 1440p). is de AMD variant net ietsjes beter.

Nvidia koos voor high end segment. En AMD voor de mensen met wat minder geld.
Ik zie het eerder als Nvidia heeft power uit de wind en zon hmmmm lekker voor het milieu en stroomrekening. Kost meer om meer te krijgen
en amd haalt het gewoon ouderwets uit de kolen of kerncentrale. Vol gas + je kamer is 5 graden warmer. En je stroomrekening is 2 euro hoger 8-)
op r9 290 gebied heb gelijk ja. Die willen nog wel eens wat stroom vreten. de r9 380 is eet niet heel veel meer stroom als een 960.
ah joh het is allemaal onzin. Als je een 290 en een gtx 980 24/7/52 aan laat heb je 500 kwatt meer verbruikt. Dat is 100 euro.
Ik gok dat er wat gamers zijn die slapen af en toe. En wellicht wat gamers die werk hebben.Dan opeens heb je het over enkele euro's.. allemaal marketing waar mensen intrappen.

amd = bang for your buck
nvidia = pay for features
Maar het gaat niet alleen om de kosten van de stroom, meer verbruik betekent ook meer koeling nodig. En in de praktijk betekent dat vaak meer herrie, iets wat bij mijn 290 dan ook behoorlijk tegen valt.

[Reactie gewijzigd door Phehistyr op 1 juni 2016 15:16]

Kwestie van een variant met een andere koeler kopen, of zelf een aftermarket koeler installeren. Mijn R9 Fury hoor je niet, zelfs onder load.
Het is al een versie met Twin Frozr, maar die draait vrijwel altijd op volle toeren bij het gamen. Ik ga geen geld meer stoppen in een verouderde kaart (het is de ondergrens voor mijn Vive) en risico lopen met het monteren van een andere koeler. Maar bij de aanschaf van een nieuwe videokaart gaat geluidsniveau in de praktijk wel een belangrijk criterium worden.

En mijn belangrijkste punt was sowieso dat verbruik niet alleen belangrijk is voor de stroomkosten.
Veel koeling is wat mij betreft geen probleem, als het maar stil gaat. Die Tri-X koeler op de Sapphire kaarten is prachtig stil, dus dan maakt de warmteontwikkeling niet zoveel uit.

Maar inderdaad, een 290 is misschien niet meer de moeite om daar nog een nieuwe koeler op stuk te slaan.

Ik vraag me dan wel af hoeveel herrie deze nieuwe kaart gaat maken - dit is weer zo'n windtunnel ontwerp dat mijn eerste HD4870 ook had, en dat was een stofzuiger. Met custom koelers en een fors zuiniger GPU moet je dat toch goed stil kunnen krijgen.
Een $199 kaart op het niveau van $350-$450-kaarten presteert is een behoorlijke klap voor de 970 en 980 nVidia kaarten! Moeten we wel nog benchmarks zien :)
de 970 en 980 zijn EOL tegen de tijd dat de 480 in de winkel ligt, de 1080 is al uit, de 1070 volgt binnenkort

Als de 480 echt rond de 200 dollar komt te liggen verwacht ik wel dat nvidia haast gaat maken met de 1060, aangezien de 960 hier echt niet tegen is opgewassen
Maar hun eigen kaarten doen toch precies het zelfde? hun eigen kaarten maken ook gehakt van hun eigen kaarten. De 970 is nu gewoon EoL. en stom om die nieuw te kopen.
Ik zit hier zelf ook nog met mijn 7950 te wachten, alles voor mijn price/performance
Ik heb hetzelfde probleem, alleen heb ik de 7950 in crossfire draaien. Inderdaad niet veel beters te krijgen tenzij ik bakken met geld moet gaan uitgeven.

Als die 480 waarmaakt wat hier gezegd wordt dan denk ik dat het een waardige opvolger is van mijn huidige setje.
tja, zullen we eerst maar eens echte benchmarks afwachten?
1,8 jaar geleden heb ik een R290 voor 150 euro op de kop getikt. Deze is ook eindeloos rebranded en zit nu nog steeds dichtbij het topsegment. :)
Ik had iets meer dan 2 jaar terug een 7970 op de kop getikt voor 120,-. Perfecte kaart voor mij geweest ook ivm renderen en Cad tekenen :) (en stukken goedkoper dan een quadro/firepro )
Kijk dat is nou prijsconcurrentie voor de 970! En zelfs een beetje sneller! oNvidia moet dan wel reageren. Koop je twee voor laten we zeggen ¤450,-, dan zijn ze sneller dan de nieuwe 1080, de ¤799,- ,kaart van nvidia. Dan wordt het haalbaarder voor een grote groep mensen om die kwaliteit te evenaren.

[Reactie gewijzigd door no_way_today op 1 juni 2016 05:37]

Maar crossfire en sli falen meestal, dus veel games zal je alsnog met 1 kaart moeten draaien
Dit zou bij games die vanaf dag 1 worden gemaakt met DX12 en/of Vulkan als basis niet meer het geval moeten zijn.
DX12 en Vulkan geven ontwikkelaars de mogelijkheid om multiGPU systemen beter te benutten. Maar dan moeten ze zelf nog steeds de implementatie daarvan invoeren in hun engines en ze zijn daar in vrij hoe ze er gebruik van maken. Dat een game DX12 of Vulkan ondersteund betekent niet automatisch dat het goed gebruikt maakt van multiGPU.
Weet je dat zeker?
Als de engine is gemaakt voor DX12 of Vulkan, de engine praat tegen de DX12/Vulkan laag, en die praat tegen de GPU toch?
Dus het hangt toch van de DX12/Vulkan laag af hoe goed die in elkaar zit om de multi GPU setup te zien als een (virtueele?) geheel voor de berekening/afhandeling?
In vergelijking met OpenGL en DX11 zijn de nieuwe graphics API lagen flinterdun. Ze geven ontwikkelaars close-to-metal access. Het enige wat DX12 en Vulkan doet met multi-GPU is de verschillende kaarten als 1 grote GPU te tonen met meerdere worker threads. Dus een tweede kaart geeft de "virtuele" GPU extra threads. De ontwikkelaar moet nog steeds zelf de verschillende threads aanspreken en voorzien van jobs. Als ik bijvoorbeeld mijn engine slecht heb geprogrammeerd en alleen 1 thread benut op de GPU dan word er totaal geen gebruik gemaakt van de multi-GPU opstelling.

[Reactie gewijzigd door ashwin911 op 1 juni 2016 10:05]

ik dacht eigenlijk dat alle moderne gpu's multi threaded waren bovenstaande RX480 heeft 36 compute units
ik mag toch hopen dat de programmeur niet manueel 36 threads hoeft aan te maken aangezien een GTX 1080 een ander aantal units heeft
Ik heb het even opgezocht. Ik zat er een beetje naast met de worker threads. Elke GPU kaart word gezien als een node en elke node heeft zijn eigen 3d queue en compute queue, wat je een beetje kan vergelijken met een thread op de CPU. De ontwikkelaar moet wel expliciet programmeren hoe ze de verschillende nodes gaan gebruiken.
En we weten allemaal wie daar een stok voor gaat steken. nVidia gaat de developers een grote zak geld toestoppen om dit niet in hun engines te implementeren, anders zou AMD een grote voorsprong behalen.
Battlefield 1 zal het vast wel goed doen op AMD kaarten. Een van de najaars spellen die voor AMD gunstig zal uitpakken. Battlefield spellen draaien altijd goed op AMD kaarten.

Dus daar zal Nividia niet veel aan kunnen doen. ;) Zal waarschijnlijk ook wel DX12 ondersteunen.
Nvidia kan echt niks tegen dx12 doen. DE nieuwe consoles kunnen DX12 draaien dus zal zon beetje elke developer die console games maakt dx12 gebruiken en tevens async. PC games gaan dan natuurlijk ook dx12 worden daar kan Nvidia niks tegen in brengen.
Ik hoop het ten zeerste, maar ik weet niet hoe goed de Pascal kaarten async compute kunnen doen. AMD mag echt niet verder achter nVidia geraken, wat ze flikken met Polaris stelt mij diep teleur(geen high end).
Begreep dat voor de huidige VR sets (Vive/Rift) iig voorlopig marginale winsten te behalen zijn met XF / SLI . Bovendien geeft "Alternate frame rendering" ongewenste effecten in VR.

En VR is nu net waar je al die GPU power voor nodig hebt.

edit: Of lost DX12/Vulkan dit probleem op?

[Reactie gewijzigd door Frenzy_LS op 1 juni 2016 07:34]

Is Alternate frame rendering niet juist geweldig voor VR?
De ene kaart het linker oog, de andere kaart het rechter oog, of mis ik nu iets?
Ja, dat het in de praktijk nog niet zo werkt. Sterker nog, met DX12 worden juist verder stappen gezet om tegen een SLI/CF opstelling als één kaart te kunnen praten.
Alternate als in fram t_n0 t_n1 t_n2 etc
Dus de oneven frames de ander de even frames.
3D is stereo scopisch world tranformation to view matrix voor renderen van twee frames voor die twee oog perspectieven van de viewer. Op alle t_n

Voor VR is dat de timings en display refresh syncroon lopen. Gezien de twee ogen bij sommige VR hardware soluties 1 paneel delen loopt dit in sync. Maar een solutie met per oog een appart paneel hangt het af of de aanstuur ekectronica de scalers gedeeld worden.
VR is dus toch anders dan CF of SLI in AFR mode.
Dx 12 lost een deel van die problemen op. Oa geheugen wordt dan als geheel benaderd. De 690 bijv. Komt nu pas echt tot zn recht.
Volgens mij is geheugen nou niet echt een probleem, met 2x8GB wat dus als 8GB gezien word kan je prima uit de voeten, dat kunnen de losse kaarten immers ook :D

Dat is dus meer een kostetechnisch ding dan dat je er daadwerkelijk wat aan hebt, want als je voor 100 euro minder 2x4GB kan kopen wat in de praktijk net zo goed zou gaan als 2x8GB wie koopt dan die 8GB? :P
Heb je dan wel 2x de bandbreedte van de snelheid van t geheugen als ie t als 1 ziet?
Hij verdeeld de bestanden zo dat de GPU die het nodig heeft die textures heeft, het is dus ook niet letterlijk x2 want als er een texture is die beide nodig hebben hebben beide die ook in het geheugen staan.

Weet het ook niet helemaal exact maar je houd dus effectief iets over tussen het geheugen per Core en totaal geheugen, wat per game kan verschillen.
Aha, dank voor de uitleg!
Oa geheugen wordt dan als geheel benaderd.
Het geheugen zou dan als geheel kunnen worden benaderd, als het spel hier specifiek rekening mee houdt. En er is nog niet eens een demo voorzover ik weet, die dit heeft.

Ben benieuwd waar AMD allemaal mee komt. Ze kunnen wel een financiële meevaller gebruiken. Deze ziet er in ieder geval goed uit.
Ashes of the Singularity heeft zelfs al een CLI demo gedaan van een mix van AMD en NVIDIA kaarten, ieder aangesproken met het eigen geheugen.

Echte pooling gaan we sowieso binnenkort nog niet zien, omdat PCIE simpelweg niet snel genoeg is om data over te brengen.
In veel games schalen beide prima, als je die toevallig speelt ben je veel goedkoper uit..
Meestal is wel overdreven ;)
Er zijn zat games waarbij het problemen kan geven en het is ook altijd aan te raden 1 kaart over 2 te kiezen maar meestal werkt het.
SLI schaalt wat minder maar met Crossfire schalen 2 kaarten vrijwel perfect en heb je bijna dubbel de performance.

[Reactie gewijzigd door RGAT op 1 juni 2016 11:09]

Crossfire heeft bijna 100% scaling. Af en toe een framedrop, dat is het tegenwoordig wel. Daarbij moet ik wel bij zeggen, je moederbord moet dual 8x8x pcie ondersteunen en je psu op zijn minst gold of overkill.
Wat heet gold er mee te maken? Als die genoeg Ampere op de 12V lijn kan produceren dan is het goed ;) Of die nou efficient is of niet merk je alleen uit je stopcontact...

[Reactie gewijzigd door watercoolertje op 1 juni 2016 12:15]

Bij een gold+ psu, is het niet zo erg als je meer richting maximale capaciteit gaat toch? Bij een minder efficiënte psu wil je liever op een wat lagere constante load hangen. Zo heb ik het begrepen iig.
Ik merk iig, met de huidge crappy 650watt bronze psu die ik heb. Dat ik echt niet in de buurt van max load wil komen, dan start mijn computer spontaan opnieuw op.

Ik ga iig voor een kwaliteit psu, weet alleen wat ik op GPU gebied wil gaan doen dus ik twijfel nog. De r9 390 die ik nu heb, is zo vreselijk inefficient dat ik de neiging heb te upgraden puur vanwege de lagere TDP.

[Reactie gewijzigd door echtwaarisdatzo op 1 juni 2016 12:20]

Of een voeding kan leveren wat ie beloofd wordt niet beoordeeld voor het label bronze/gold. Dat zegt enkel wat over de efficiëntie, dus als gold en bronze beide een computer van stroom moeten voorzien van 300 watt trekt de ene 350 watt uit je muur en de andere misschien wel 400 watt.

Er zijn ook crappy gold 650 watt PSU's...

Vroeger had je geen eens gold PSU's dat is iets van de laatste jaren, en toch waren de voedingen toen ook kwaliteit
Oké dat is duidelijk. Met gold label doel ik ook meer op kwaliteit voedingen, maar idd genoeg reviews over slechte kwaliteit gold voedingen. Corsair rm (niet rmx/rmi) schijnt bijvoorbeeld best ruk te zijn.

Maar dan nog het "max load" verhaal. Klopt het dat je bij een kwaliteit voeding wat minder "overhead" nodig hebt? Als in je kan makkelijk op 80% load draaien, terwijl je bij een lagere kwaliteit voeding je beter op een lagere load kan opereren?
Zo word bij de PSU calculator aanraders (http://outervision.com/power-supply-calculator) een kwaliteit voeding van 100watt meer dan max (systeem totaal) aangeraden. En een lagere kwaliteitsvoeding raden ze aan met 200watt "overhead". Zo heb ik dit ook in reviews vernomen.

[Reactie gewijzigd door echtwaarisdatzo op 1 juni 2016 12:50]

Er zijn fabrikanten die adverteren met het max vermogen dat een voeding kan geven en er zijn fabrikanten die adverteren met het max vermogen dat een voeding continu kan geven.

In dat eerste geval kan het zijn dat een geadverteerde 600Watt voeding dit slechts 20 seconden kan geven en dit bij een kamertemperatuur van 15 graden. (= crappy voeding)
In het 2de geval mag je volcontinu 600Watt trekken, het piekvermogen ligt eigenlijk hoger dan wat er op staat. (=kwaliteit voeding)

De labels zeggen niets en er zijn voedingen die labels hebben hangen waarbij ze bij reviews erachter komen dat ze er niets eens voor in aanmerking komen.

Overigens weet je dan nog niets over de stabiliteit van de voeding, de specs lezen is zinloos, je moet de reviews nakijken.
Super. Goeie info bedankt!
Ook wel eens aan gedacht dat niet iedereen 2 kaarten kwijt kan in zn kast. Zeker nu videokaarten standaard 2 slots zijn zie ik echt geen mogelijkheid om dit kwijt te kunnen (en heb gewoon een ATX bord).

Concurrentie is trouwens altijd welkom - al is het maar om de prijzen van kamp groen iets te doen verlagen (want vind de prijzen nu wel erg absurd worden).
Voor mij is het een heel interessante kaart.
Ik maak nu nog gebruik van een HD5850 (!!) en ben nu toch echt wel op zoek naar iets anders.

200 euro voor een kaart die qua prestaties redelijk vergelijkbaar is met de huidige beschikbare high-end kaarten is dan ideaal. Nog even benchmarks afwachten.

(Tenzij ik het mis heb of iemand anders betere ideeën heeft ;))

[Reactie gewijzigd door Dweebus op 1 juni 2016 10:20]

Same here, al run ik een (unlocked) HD6950 die opzich nog redelijk meegaat, maar inmiddels af en toe toch wat moeite vertoont.

Juist dit prijssegment is heel interessant voor mij, ben ook zeker blij met deze aankondiging. Toch denk ik even een maandje af te wachten na de release, ook omdat ik me afvraag of dit echt een betere keuze zou zijn dan een 2e hands high end kaart van de oudere generatie met een vergelijkbare prijs.
Om heel eerlijk te zijn wil ik eerst gewoon eens even afwachten wat de specs gaan zeggen. Nvidia zei ook dat de 1080 meer dan twee keer zo snel als de 980 Ti in SLi was. Nu is hij zeker wel veel sneller, maar het verschil is miniem. Dus ik wacht alle marketing nog even uit tot Tweakers of een Tech kanaal op YouTube met echte specs komt.
Tijdens de presentatie van 2x 480 vs GTX 1080 zag je duidelijk dat de 1080 rechts betere beelden liet zien alsof die met hogere settings draaide, tevens ook microstutter op de 480cf. Echter de prijs is wel top maar eens de reviews eind deze maand gaan afwachten. En waarom lieten ze CF zien als het maar 51% effective was? Hadden ze netzogoed 1 kaart kunnen laten zien en was het een 250 kaart die bijna sneller was als een 1080 :X

[Reactie gewijzigd door Cyclonic op 1 juni 2016 05:35]

Dat snapte ik ook niet, Raja bracht het alsof 2x480 op hun sokken de GTX1080 voorbij streefden, maar het was indrukwekkender geweest als 'ie had kunnen laten zien dat ze supergoede schaling hadden en daarmee 120fps (oid) haalden. Verschil in settings was mij niet opgevallen, maar de beelden links en rechts liepen ook niet helemaal gelijk.
Volens LTT hebben zij 1 van de eerst buiten AMD :https://www.youtube.com/watch?v=eqCo0LTUhsE
Tsja, het filmpje is 'sponsored by AMD', dus dan zou het gek zijn als 'ie 'm niet had :D Maar geen zorgen, Tweakers ontvangt er binnenkort ook een :)
en DAN er nog iets mee doen..
ik bedoel, gaan jullie de 1080/1070 er ook nog tegenover zetten. of voldoen alle andere test sites voor die specs (zoals dus blijkt uit de afgelopen dagen, door alle artikelen van andere sites die jullie klakkeloos over kopiëren, ipv zelf testen en een oordeel geven *voor de gtx 1080!*)
Tweakers kan er weinig aan doen dat ze geen sample gekregen hebben... blame Nvidia..
Tsja, het filmpje is 'sponsored by AMD', dus dan zou het gek zijn als 'ie 'm niet had :D Maar geen zorgen, Tweakers ontvangt er binnenkort ook een :)
Ik hoop het aangezien Tweakers nog steeds niet de Geforce GTX 1080 gereviewd hebben, die al weer 15 dagen terug gereviewd is door nl.Hardware.info en Guru3D en VEEL meer, dus ik heb er een hard hoofd in, eigenlijk wel triest wanneer ALL hun concurrenten het al LANG gereviewd hebben.

[Reactie gewijzigd door AmigaWolf op 1 juni 2016 21:38]

Dat was ook zo, aangezien de twee twee RX 480's maar zo'n 51% gemiddeld belast werden. Tenminste dat stond in de presentatie en dat was wat hij aangaf.
Tja het blijft leuk maar we weten allemaal dat crossfire en SLI in de echte wereld vaak kansloze producten zijn die in 9 van de 10 games gewoon niet lekker werken en vaak maar uitgeschakeld worden...

Ik ben dan ook wederom helaas teleurgesteld in wat ze hier hebben laten zien.
En als de 490 pas over een maand op zn vroegst uit komt hoe lang moeten we dan nog wachten op de 490 en de rest va de serie.


kortom vooralsnog niets om onder de indruk van te zijn zoals gewoonlijk helaas.
Het verschil in beeld komt niet door lagere settings: http://a.disquscdn.com/up.../original.jpg?w=800&h=261
Ik las op Reddit dat de games de grond etc. allemaal procedureel genereren (oid) dus dat het bijna nooit hetzelfde is.
Ook zei de presentator dat ze het "nu" live staan de "spelen" dus als het echt gegenereert word kan dat de reden zijn waarom de grond er anders uitziet op het ene scherm
Geen idee of je dat met je groene bril hebt gezien of niet, maar ik wacht je filmpje af aangezien Tweakers niks levert.

Daarbij hebben ze nog een maand om de drivers te optimaliseren. Als dx12 en async compute een beetje aantrekt heeft Nvidia iig een probleem. Vergelijkbare performance voor de helft van het geld.
inderdaad groene bril.

"The GTX 1080 is doing less work to render AOTS than it otherwise would if the shader were being run properly"

https://www.reddit.com/r/...mage_quality_controversy/

[Reactie gewijzigd door Countess op 3 juni 2016 00:45]

ze draaide gewoon de zelfde settings.
namelijk: Crazy Settings | 1080P | 8x MSAA | VSYNC OFF

sterker nog nvidia rendered de sneeuw niet!

"The GTX 1080 is doing less work to render AOTS than it otherwise would if the shader were being run properly"

https://www.reddit.com/r/...mage_quality_controversy/

[Reactie gewijzigd door Countess op 3 juni 2016 00:44]

Ashes of the singularity haha. Goh waarom verbaast het me niks dat ze die benchmark eruit hebben gepakt. De benchmark waar het voordeel voor amd kaarten t.o.v. nvidia kaarten het grootst is. Nvidia doet dit overigens net zo hard door overal tomb raider benchmarks te showen bij hun nieuwe kaart. Maar die hadden dan tenminste ook nog Witcher ernaast gezet. En ja leuk dat 2 480's sneller zijn dan een 1080 (in 1 game) maar we weten allemaal dat er flinke nadelen aan cf en sli setups zitten. Desalniettemin is het een mooie entrylevel kaart. Maar ik ben niet echt onder de indruk. Hopelijk komen ze snel nog met iets krachtigers en hoeven we niet helemaal op vega te wachten. Anders is het simpel dan upgrade ik weer naar Nvidia. Deze kaart zou voor mij letterlijk een sidegrade zijn en geen upgrade.

[Reactie gewijzigd door Rixos op 1 juni 2016 08:16]

Is het niet gewoon omdat Ashes een van de eerste "pure" DX12 games is? Waarbij de gebruikte CPU dan ook nog eens een stuk minder invloed heeft op de resultaten.

Ja, AMD scoort heel goed in DX12 benchmarks, maar van nvidia moet je toch niet minder verwachten :?

[Reactie gewijzigd door boe2 op 1 juni 2016 09:25]

Je moet niet minder verwachten maar ze presteren toch minder in DX12. Puur door de pure rekenkracht van AMD. ;)
Kijkend naar prijs/prestatie heeft AMD weer een mooie kaart in het segment.
Witcher ja. Met hairworks op max en zonder tessellation op een normale 16x te zetten wat iedereen met een AMD kaart doet, als ze het al niet gewoon uit zetten.

Dan is het verschil nog veel groter als bij ashes.

Ik wacht zo wie zo op Vega want de 1080 is me echt niet krachtig genoeg voor een 14/16nm upgrade. Pas eind daar jaar begint het echte werk.

Maar deze 480 zal wel mooi staan in de PC van mijn vriendin.

[Reactie gewijzigd door Countess op 1 juni 2016 10:13]

Allemaal assumpties, je weet helemaal niet of die settings daarop stonden. Daarnaast is het iets wat aan beiden kanten gebeurt wat ik al zei AMD pakt asots omdat ze weten dat Nvidia kaarten daar slecht presteren.

Daarom zijn dit soort marketing slides altijd zo nutteloos. Ze worden gecherrypicked. Lekker wachten op echte benchmarks.
kom nou toch, je denkt toch niet dat nvidia iets ander zou doen.

In het aller ALLER gunstigste geval laten ze alles op default en staat hairworks alleen op gerald. maar dat betekend nog steeds het enorm overdreven 64x tessellation, terwijl geen enkele AMD gebruiker op die settings zou draaien.

[Reactie gewijzigd door Countess op 1 juni 2016 10:11]

Lees wat ik zeg: ze doen het alletwee. En daarom moet je marketingslides met een flinke korrel zout nemen. Als je echt iets wilt weten over relatieve prestaties van een kaart dan heb je een veel groter sample nodig. Zoiets als techpowerup doet, een gemiddelde nemen over 15 games.
dat ontken ik toch ook nergens.

maar jij zei dat nvidia witcher erbij had gezet, alsof ze dat uit de goedheid van hun hart hadden gedaan, alsof dat hun gebruik van tombraider op een of andere manier goed zou maken, terwijl witcher nog gunstiger voor nvidia uit pakt als tomb raider zonder een paar specifieke AMD tweaks te doen.
Een sample van 2 is nog altijd groter dan een sample van 1. En daarnaast is witcher 3 niet per definitie een game die beter op 1 van de twee merken kaarten beter draait tenzij je het over belachelijke settings hebt.

Tel daarbij op dat Nvidia zijn kaarten tegenover zijn eigen oude kaarten zette (dus je hele vergelijking van AMD vs Nvidia in witcher 3 gaat niet op)terwijl Amd in asots een cf setup tegenover een single kaart van de concurrentie zet en we kunnen wel concluderen dat Amd ook niet vies is van misleidende marketing. Welke partij het dan doet interesseert me niet.

[Reactie gewijzigd door Rixos op 1 juni 2016 17:34]

Een sample van 2 is nog altijd groter dan een sample van 1
een zorgvuldig uitgekozen sample van 2 zegt helemaal niks meer of minder als een zorgvuldig uitgekozen sample van 1.
En daarnaast is witcher 3 niet per definitie een game die beter op 1 van de twee merken kaarten beter draait tenzij je het over belachelijke settings hebt.
hairworks staat default aan, en dus als je bij de AMD de tessellation niet limiteert op 16x of 8x heeft nvidia een flink voordeel. en dat heeft nvidia dus zeer zeker niet gedaan.

Ik zie niet hoe het gebruik van een duidelijk aangegeven CF opstelling misleidend zou zijn.
en als AMD eerst was geweest als nvidia zou nvidia ook vergeleken hebben met AMD's kaarten zoals ze in het verleden ook regelmatig hebben gedaan.
Nogmaals in de benchmarks waar het om gaat (de grafieken van Nvidia bij de launch van de 1080 en 1070) staan enkel Nvidia kaarten tegenover Nvidia kaarten.

Leg mij eens uit hoe Nvidia in zon vergelijking een voordeel behaalt t.o.v. AMD omdat Nvidia kaarten beter met hairworks omgaan?
Het verschil is dat AMD gewoon goed gebruikt maakt van DX12 en Nvidia niet. Hairworks is een gesloten Nivida product waar AMD niet op kan finetunen.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True