Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Radeon Vega Frontier Edition scoort in 3DMark ongeveer gelijk aan GTX 1080

Door , 140 reacties, submitter: pizzaislekker

AMD is begonnen met de verkoop van de Radeon Vega Frontier Edition. De kaart, die niet voor gamers is bedoeld, zet volgens een gebruikerstest in 3DMark een score neer die vergelijkbaar is met die van een Nvidia GTX 1080.

Gebruiker #define toont in reacties op website Wccftech zijn resultaten. VideoCardz verzamelde de scores en foto's van de opstelling. De bezitter van de Radeon Vega Frontier Edition testte de kaart in combinatie met een Intel Core i7-4790K-processor. Hoewel dat een oudere cpu is, heeft die waarschijnlijk weinig invloed bij de gpu-score van 3DMark.

De gemiddelde gpu-score over twaalf runs in 3DMark Fire Strike kwam volgens #define en zijn gepubliceerde screenshots uit op zo'n 22.000 punten. De Founders Edition van de GTX 1080 scoort in diezelfde test ongeveer 21.000 punten en aangepaste versies van fabrikanten iets hoger. De Nvidia GTX 1080 Ti is met zo'n 27.500 punten nog een stuk sneller. Voor de benchmarks werden de nieuwste Radeon-drivers gebruikt. Verder merkt #define op dat het bios van 16 juni stamt, wat erop lijkt dat AMD de kaart zo snel mogelijk na het afmaken van het bios op de markt heeft gebracht.

Er zijn geen reviews van de Radeon Vega Frontier Edition verschenen. AMD heeft ook geen reviewexemplaren beschikbaar gesteld aan websites. De eerste ervaringen die nu online komen, zijn afkomstig van mensen die de kaart zelf hebben aangeschaft. De eerste Vega-gpu is beperkt leverbaar sinds 27 juni en de prijs is omgerekend met btw zo'n 1071 euro. In de Benelux is de kaart niet in webshops te vinden. In de VS en het VK werden wel exemplaren verkocht, maar die lijken op de meeste plekken inmiddels niet meer op voorraad te zijn.

AMD benadrukte eerder al dat de Radeon Vega Frontier Edition niet bedoeld is voor gamers. De kaart is gericht op wetenschappers, ingenieurs en ontwerpers. Het model beschikt over de volledige Vega-gpu met 64 compute-units en is uitgerust met 16GB hbm2. Eind juli worden de RX Vega-videokaarten voor gamers aangekondigd tijdens de Siggraph-beurs. Mogelijk presteren de RX-varianten beter door optimalisatie van drivers.

Reacties (140)

Wijzig sortering
Wellicht verstandig om te vermelden dat de kaart ongeveer op 1382mhz liep terwijl de maximale kloksnelheid 1600mhz moet zijn. Dit zou dus kunnen betekenen dat de watergekoelde variant dichter in de buurt komt bij de 1080ti.

Bron:
https://www.reddit.com/r/...ga_fe_stop_removing_this/
Ik zie nergens dat hij continu op 1382MHz draaide. Dat is vermoedelijk de baseclock. En mogelijk heeft de kaart in de kleine behuizing van de gebruiker inderdaad last van throttling, waardoor hij niet continu op hoge snelheden loopt. In het door VideoCardz gepubliceerde overzicht van de runs staan echter de screenshots en 3DMark geeft daar ~1600MHz aan.
De kloksnelheid van de Vega Frontier Edition met luchtkoeler is dynamisch, waarbij de kloksnelheid afhankelijk is van het verbruik. Het verbruik wordt op maximaal 300W gehouden en de kloksnelheid wisselt continue.

Zelfde zie je bijvoorbeeld ook bij de Fury Nano, deze kaart blijft op zo'n 200W steken en de kloksnelheid is dynamisch met een maximale frequentie van 1000 MHz, gemiddelde onder belasting ligt echter duidelijk onder de 1000 MHz bij Fury Nano.

Bij Vega Frontier Edition met luchtkoeler werkt het hetzelfde. Ook die kloksnelheid is dynamisch waarbij het verbruik op max 300W wordt gehouden. AMD zelf spreekt van een gemiddelde kloksnelheid van 1382 MHz.

Zie: http://pro.radeon.com/en-...on-vega-frontier-edition/ en dan onderaan bij GPU daar staat typical engine clock 1382 MHz.

[Reactie gewijzigd door -The_Mask- op 29 juni 2017 12:23]

Je hebt gelijk, ik heb dat thread gelezen voor ik deze review zag en niets wijst erop dat deze kaart op een lage kloksnelheid liep.

Ik begrijp dat dat niet het gewenste resultaat is voor velen, maar deze chip is dezelfde chip als er in desktop-Vega gaat komen. Het valt niet te verwachten dat desktop Vega meer dan een paar procent sneller gaat zijn dan deze kaart.
Niet te vergeten dat deze kaart eigenlijk niet bedoeld is voor games en er voor games vast nog wel de nodige optimalisaties in de drivers verwerkt kunnen worden. De 1080Ti prestaties moeten echt wel tot de mogelijkheden behoren gok ik, zeker als fabrikanten hun eigen koelers er op gaan sleutelen.
De game drivers hebben hier toch geen invloed op? Hij gebruikt geen games om te testen. Bij de gtx1080 zal dan dus ook nog optimalisatie bij komen zodra het om games gaat.

Of zie ik dit verkeerd? :?
3DMark rendered het zelfde als games en wijkt compleet af van waar dit soort kaarten normaal voor worden gebruikt, verder is het een nieuwe chip waar game prestaties niet op de eerste prioriteit staan maar waar het met deze kaarten dus meer gaat om video encoding, professioneel 3D rendering en geavanceerde double precision berekeningen. Zodra de consumenten versie uit komt zal de driver mogelijk beter geoptimaliseerd worden voor games, hoe veel beter het wordt weet niemand natuurlijk, maar vergelijk een quadro kaart met een titan van het zelfde type en je zal zien dat de titan beter is met games ondanks dat de chip het zelfde is.
Ik dacht juist dat het verschil juist wel mee viel..

Zie ook filmpje van Linus: https://www.youtube.com/watch?v=LC_sx6A5Wko
Yup, blower style coolers op een 300w kaart is gewoon onzin.
Niet in een server / enterprise setup waar je de hitte uit je kast wil blazen ipv in de rondte. En het staat daar toch allemaal lekker in de airco :P
Klopt, maar dit zijn workstation kaarten
Daarnaast zijn deze drivers ook niet geoptimaliseerd voor games. Dus dat zou ook nog aardig wat kunnen schelen. Als je kijkt naar hoe quadro en firegl drivers presteren in games is er ook een verschil met de game drivers.

Daarnaast een nieuwe nog niet geoptimaliseerde architectuur.
Klopt, er is bij de quadros inderdaad een verschil, namelijk dat de P6000 sneller is dan een Titan X :+.

https://hothardware.com/C...2562/content/time-spy.png
https://hothardware.com/C...e/2562/content/hitman.png

AMD slide...

[Reactie gewijzigd door Vipeax op 29 juni 2017 10:29]

nope. zowel de titan X en als de 1080Ti zijn sneller als de p6000
https://www.futuremark.co...VIDIA+Quadro+P6000/review

jij zit te vergelijken met de eerste titan X, die een cut down core had terwijl de p6000 dat niet heeft.
de 2de titan in de pascal serie is wat hardware betref bijna exact gelijk en scored duidelijk hoger als de p6000
Dat klopt, want de nieuwe Titan heeft de benaming Titan Xp gekregen. Dat staat er ook gewoon. De verschillen in jouw linkje zijn simpelweg te verklaren door de gemiddelden van submissions. Zo scoort in dat lijstje de GTX 1080Ti zelfs hoger dan een Titan Xp, omdat deze vaker is overgeklokt (tot water opstellingen aan toe) en de partner koelers die beduidend beter zijn.
https://content.hwigroup....-3dmark-fire-strike-1.jpg
Een Titan Xp is normaal gesproken gewoon sneller dan een GTX1080 Ti, dus dat zegt alweer genoeg over die link...

[Reactie gewijzigd door Vipeax op 29 juni 2017 10:20]

"jij zit te vergelijken met de eerste titan X"

Dude! Niet waar!
Dit is z'n Hitman linkje! https://hothardware.com/C...e/2562/content/hitman.png

Er staat toch duidelijk TITAN X (Pascal)!!!! Die haalt 58 fps en de Quadro P6000 haalt 68 fps.


Edit: excuus, ik wist niet dat er al twee verschillende Titan X-en Pascal waren.

[Reactie gewijzigd door dusty-2011 op 30 juni 2017 22:44]

er zijn 2 pascal titan X-en.

de eerste pascal titan X is heeft een cut down core. de 2de (de titan Xp) niet. die is gelijk aan de quadro p6000.

bedankt nvidia voor deze geweldige naamgeving.

[Reactie gewijzigd door Countess op 30 juni 2017 13:29]

Dat wist ik helemaal niet!! Thanks man voor deze info. :)

Wat een K*T naamgeving zeg!! Sorry hoor voor die term te gebruiken, maar mede door deze naamgeving wist ik dus helemaal niet dat er twee Titan-X'en uit de Pascal generatie waren, en dus drie Titan-X'en in totaal:

Titan X (Maxwell)
Titan X (Pascal)
Titan Xp (Pascal)

De officiële namen van deze drie kaarten zijn volgens mij:

GeForce GTX Titan X
Nvidia Titan X
Nvidia Titan Xp


Nog even uitleggen waarom ik niet wist dat de Nvidia Titan X en de Nvidia Titan Xp twee verschillende kaarten waren. Nou, dat komt omdat massaal overal op de fora in 2016 de Nvidia Titan X werkt afgekort tot "Titan XP" of "Titan Xp" of "Titan X(P)", om hem te onderscheiden van de GeForce GTX Titan X. Daarom realiseerde ik mij dus niet dat er nu drie Titan X'en zijn waarvan twee uit de Pascal-generatie.

Wat verder niet helpt is deze Wikipedia pagina die niet geüpdate is:
https://en.wikipedia.org/wiki/Titan_X
Daar staat de Titan Xp helemaal niet bij vermeld.

En als je googled op "koop titan xp" kom je bij een Nvidia site waar je de Titan-X (zonder p) kunt kopen ;) Niet op voorraad, dat wel. Via die site dan op de verkooppagina van de Titan-Xp uitgekomen, maar 1289 euro is toch een beetje van de zotte. Mijn GTX 1070 (MSI Gaming X) voldoet echt prima voor m'n 1080p monitor.
Appels en peren.... Die quadro had meer actieve shaders dus niet vergelijkbaar dan moet je de Titan XP of 1080 Ti pakken.

Daarnaast vraag ik mij af of je de game drivers op een quadro kan installeren en hoe de prestaties dan zijn. Met quadro drivers heb je in ieder geval een performance hit bij games
Dat is misschien wel plausibel, maar er staat tegenover dat deze pro-GPU al een TDP heeft gekregen van boven de 300 W. Dus je mag mij dan ook even uitleggen waar AMD het power budget vandaan haalt om de clocks met 220 MHz op te schroeven...

We hebben namelijk al gezien dat dat bij RX580 gewoon een 1:1 verhoging in energieverbruik oplevert.

Maw ik zie dit als excuusredenering en wishful thinking. De vele VEGA leaks van afgelopen maanden en het sluimerende gevoel dat VEGA slechts een opgevoerde Fury X ging worden, wordt in dit artikel keihard bevestigd.

AMD doet niet meer echt mee in high-end GPU en dat blijft dus het geval. Jammer maar helaas
Deze kaart is niet gemaakt voor gaming, de drivers zijn niet on par en het argument van de clockfrequentie te samen zeggen genoeg. Die hele flamewar gaat nergens over!
Maar dit is dus wel een goede indicatie voor de prestaties van de gamers editie neem ik aan. Zeker omdat het een volledige VEGA gpu betreft. Ik had stiekum toch wat meer verwacht. Maar alles hangt sterk af van de prijs die ze er voor gaan vragen. Vega voor rond de 3 a 400 EURO lijkt mij een interessante kaart, zeker aangezien de drivers nog heel wat ontwikkeld moeten worden.
Het is geen goede indicatie. 3d mark is super geoptimaliseerd in de drivers van beide, maar niet in de professionele drivers. Quadros score ook beduidend lager bijvoorbeeld. Eigenlijk is het heel weinig zeggend

[Reactie gewijzigd door Countess op 29 juni 2017 09:43]

Zie mijn reactie heirboven. De P6000 doet het juist beter dan de Titan...
welke titan exact? nogal belangrijk hier, want de p6000 is een volledige pascal core.

De eerste pascal titan X is dat echter niet.

kijken we naar de vorige generatie, waarbij de quado en titan exact het zelfde waren op enkele 10talle mhz na, dan scored de titan ~15% beter.

hier score van de p6000 vs titan X(pascal) en de 1080ti. beide zijn ruim sneller.
https://www.futuremark.co...VIDIA+Quadro+P6000/review

[Reactie gewijzigd door Countess op 29 juni 2017 10:06]

Dat is niet de Maxwell* Titan X. Die is niet sneller dan een GTX 1080. Dit is gewoon de eerste Titan uit de Pascal series...
A gaming-related benchmark doesn't necessarily belong in a review of a multi-thousand dollar, professional workstation-class GPU review, but every time we post an article like this we inevitably get questions about how well the card can handle gaming graphics. Since the Quadro P6000 could potentially give us a glimpse into the rumored GeForce GTX 1080 Ti's capabilities, however, the P6000's performance here is of particular interest. Remember, the Pascal-based GP102 as it exists on the current flagship GeForce TITAN X is not the full implementation of the chip. Two SMs have been disabled. The full GP102 actually has a grand total of 3,840 CUDA cores, which are all enabled on the Quadro P6000. The P6000 also has that massive 24GB memory configuration.

As a result, the Quadro P6000 actually puts up the best 3DMark score we have seen from a stock, single-GPU. If you're looking to make this benchmark's Hall of Fame list, the P6000 is the way to go. The P6000 clearly outpaces the TITAN X and GeForce GTX 1080 here. The P5000 is no slouch either, but it trials the GeForce GTX 1080 by a few percentage points.
Of particular note is that the Quadro P6000 and P5000, while offering similar or much better performance than NVIDIA’s previous-gen, high-end professional graphics cards, do it in lower power envelopes, and they’re quieter too.
Fijn zo'n gewijzigde reactie overigens ;).

[Reactie gewijzigd door Vipeax op 29 juni 2017 10:03]

ok je hebt het over de eerste met de cut down core. vs een quadro die wel de volledige core heeft.

apples/peren dus.

https://www.futuremark.co...VIDIA+Quadro+P6000/review

zowel de titan X (pascal) als de 1080ti gaan de p6000 quadro ruim voorbij.

edit: je had deze regel ff iets verder bold moeten maken:
Pascal-based GP102 as it exists on the current flagship GeForce TITAN X is not the full implementation of the chip. Two SMs have been disabled. The full GP102 actually has a grand total of 3,840 CUDA cores, which are all enabled on the Quadro P6000.
het is dus, zoals ik al meermaals heb aangegeven, compleet irrelevant dat de p6000 sneller is als de eerste pascal based titan X.

[Reactie gewijzigd door Countess op 29 juni 2017 10:52]

Ja maar dat is een gpu van 5000+ euro die al langer op de markt staat.
En je rekent ook mee dat Vega in december(!) al gedemonstreerd is in games? Even voor de duidelijkheid, die demo was inmiddels alweer meer dan een half jaar geleden en het lijkt mij een veilige aanname dat die demo niet gebaseerd is op drivers die ze die dag even hebben geschreven...

Ik wil zeker niet stellen dat de huidige performance data concluderend zijn, maar mensen doen alsof hun neus bloed met argumenten die invalide zijn:
  • Drivers zijn van januari - Nee, ze zijn van deze week.
  • Professional market GPUs zijn slecht een gaming - Nee, dat hoeft zeker niet.
Ik kan niet wachten op alle -1 en +0s om incorrecte informatie te weerleggen met tegenargumenten. Fijn zo'n moderatiesysteem.

[Reactie gewijzigd door Vipeax op 29 juni 2017 10:09]

En heb je de kosten al meegenomen?
Ik raad toch niemand aan om een P6000 te kopen? Hoezo zijn de kosten relevant op de volgende opmerking:
Quadros score ook beduidend lager bijvoorbeeld
Er staat zoveel misinformatie in de reacties die +2s en +3s ontvangen en dat zonder enige bronvermelding.

Sterker nog, dit komt van AMD zelf:
https://i.imgur.com/BZF53yz.jpg

[Reactie gewijzigd door Vipeax op 29 juni 2017 10:27]

Dit dus, dit zegt gewoon niks over de prestaties van vega, prestaties zijn een ding, maar het belangrijkste aspect is natuurlijk de prijs. Als de prestaties minder zijn dan een 1080ti maar alsnog 700¤ kost koopt niemand de vega, mocht hij minder zijn dan de 1080ti maar ook minder kosten dan een normale 1080, dan koopt iedereen een vega.

Mijn verwachting is dat de vega iets beter presteert of gelijk presteert aan de 1080ti maar gewoon minder kost dan de genoemde kaart, zelfde reden waarom ryzen nu zo goed verkoopt.
Ik hoop dat het in de lage 500 wordt, want rond de 600 met slechte beschikbaarheid (mining) en nvidia die zijn prijs omlaag gooit door aankomende volta.
Hoe dan ook win-win voor de consumenten. :+
30% verschil maakt AMD echt niet goed met wat optimalisaties en een gaming driver hoor. Dat zou een unicum zijn.

En al prijzen ze wat lager, dat was bij Fury X ook het geval en ook die verkocht voor geen meter, terwijl die in verhouding tot de 980Ti veel dichterbij kwam.

De GTX 1080 is al in prijs verlaagd, dus dat segment is al aardig verzadigd nu...

[Reactie gewijzigd door Vayra op 29 juni 2017 13:30]

Fury X was ¤700 als hij uitkwam en dat was duurder dan de nVidia-concurrent en presteerde slechter, vandaar de slechte verkopen, met dank aan het HBM-geheugen.

[Reactie gewijzigd door Fredi op 29 juni 2017 22:24]

Hier zit ook HBM op. Is ook slecht leverbaar, en ook een grote chip...
maar het gaat hier niet om 'wat optimalisaties' maar uberhaubt game drivers.

het game gedeelte van de professionele kaarten is volgens AMD oud, en zou vega als een fiji chip behandelen. helemaal geen van de nieuwe features van vege worden gebruikt dus, en de extra prestaties buiten de extra clocksnelheid zal zwaar onderbenut worden.

en dat in acht nemend heb ik met 30% extra in 3dmark geen moeite.

[Reactie gewijzigd door Countess op 30 juni 2017 13:39]

Ik heb het vermoeden dat deze kaart met HBM2 een stuk duurder gaat worden dan 300-400 euro.
AMD lijkt vooral op het verkeerde paard te hebben gegokt met HBM2, want naast de lastige beschikbaarheid daarvan weet Nvidia met GDDR5X een hogere geheugenbandbreedte over te houden...

Ik hoop enorm dat de drivers het nog een beetje recht kunnen trekken maar ik vrees dat het tegen gaat vallen...
Hoezo? Vega heeft nagenoeg dezelfde geheugenbandbreedte als een 1080Ti. Nu is dat misschien nog een nadeel ivm de verkrijgbaarheid, maar zodra het goed verkrijgbaar is resulteert het in simpelere PCBs met minder componenten.

Ik denk wel dat AMD verwacht had dat HBM productie eerder op gang zou komen, maar toekomst zeker is het wel.

En vergeet niet dat nVidia een Quadro kaart heeft met 16GB HBM@ met een bandwidth van 720GB/s! Welliswaar met een dubbel zo brede bus en ik weet niet of Vega daarin kan voorzien, maar de toekomst voor HBM2 zie ik iig niet zo pessimistisch.

Ik heb nog nergens betrouwbare specs gezien voor de gaming kaart, maar er zit nog voldoende rek in de bandwidth iig.

[Reactie gewijzigd door Omega Supreme op 29 juni 2017 09:15]

Hoezo? Vega heeft nagenoeg dezelfde geheugenbandbreedte als een 1080Ti
Begrijp me goed, het is niet slecht ofzo :P maar ik had toch verwacht dat AMD óver de bandbreedte van GDDR5X had gewild, in plaats van ongeveer 'net zo snel' te zijn.

Ik zie de toekomst ook zeker niet pessimistisch. Wat mij betreft is HBM2 sowieso de volgende stap. Maar ik denk dat AMD te vroeg is, omdat het waarschijnlijk nu nog duurder zal zijn (persoonlijk denk ik dat het eeuwige uitstellen daaraan heeft gelegen), terwijl de voordelen nu nog niet benut gaan worden.

Wellicht doet de gaming kaart het beter. Ik hoop het!
De gaming kaart bevat exact dezelfde chip. Iets andere aansturing en wat andere drivers gaan geen gigantisch verschil maken.

Waarom zou AMD "slecht" presterende gaming drivers meeleveren met deze kaart als je ze in gaming mode gebruikt? Onder het motto: "we bieden gaming mode aan, maar eigenlijk stelt het weinig voor"? Of onder het motto: "we weten dat de kaart nu minder gaat presteren, maar we willen eerst een slechte reputatie opbouwen om ze nadien proberen om te buigen"?

De chip is al maanden klaar, haalt nu 1600MHz max boost, en ze zijn al mááánden aan de drivers aan het werken. (Volgens Videocardz doen de geruchten over matige prestaties ook al enige tijd de rondte.)

Betere koeling gaat zorgen dat de turbo langer kan aangehouden worden, en andere drivers gaan hier en daar een verschil maken. En dat zal het zowat zijn, denk ik.

Maar eigenlijk heeft het weinig zin om dit te typen, want zij die in eenhoorns geloven, gaan gewoon verder door. En alle anderen weten zelf wel hoe laat het is.

Misschien spijtig voor de consument, maar deze kaart gaat niet het evenwicht in de gaming-markt herstellen.
Vega is waarschijnlijk idd te laat door HBM2 en AMD heeft voor trager HBM2-geheugen gekozen waarschijnlijk om de prijs te drukken. Goede keuze volgens mij want geheugenbandbreedte is er toch nog genoeg.
Ik wacht nog even af, ik wil graag alle huidige games en de komende 2-3 jaar op 1440p op de beste settings kunnen draaien. Op zich kan de 1080 dit en is de 1080Ti daarvoor overkill. Daarbij is de 1080Ti relatief te duur.

Ik wacht dus vooral op VEGA om te zien hoe de prestaties op 1440p zijn en welke prijs daar aanhangt.
Ik heb een 1080ti en bij sommige games *kuch witcher 3 vooral kuch* is deze kaart net voldoende om boven de 60 a 70 frames per seconde uit te komen. Dus de komende jaren ga je niet alle games op de hoogste settings kunnen draaien met een 1080 ben ik bang. Zelfs met een 1080ti niet.
De Vega Frontier Edition is op de markt gebracht als kaart voor professionals, een concurrent voor de Quadro P6000; een kaart van ¤ 7000,-

Ik wacht wel even af wat de gaming kaarten gaan kosten.
Tegenover de Quadro staat een kaart als de Radeon Pro of de FirePro (ook kaartjes van 5000 euro). Deze kaart lijkt me eerder te positioneren tegenover een Titan, wat een kaart is van een gelijkaardige prijs en ook niet in de markt gezet als een gaming kaart.
Titan gebruikt gaming drivers en geen Quadro drivers. Als ik de berichtgeving goed heb begrepen dan heeft de Vega FE drivers ide geoptimaliseerd zijn voor wetenschappenlijke berekeningen en niet games. En lijkt dan dus meer op een Quadro en Radeon Pro dan op een Titan.
Ik haal zelf nergens dat er geen gaming drivers gebruikt worden voor de Vega FE, als ik op de amd site naar drivers zoek, staan de drivers voor deze kaart gewoon onder het kopje 'desktop graphics' en niet onder 'FirePro / Radeon Pro / Workstation Graphics'.

Waaruit begrijp jij dat er andere drivers gebruikt worden voor deze Vega FE kaarten? Ik heb voor deze kaart namelijk enkel de berichtgeving hier op tweakers gevolgd.
Pressies wat ik ook al dacht.
Er zijn nochtans geruchten dat de prijs/prestatie verhouding goed gaat zijn.
aangezien de RX 580 rond de 300 zit zal vega minimaal rond de 400 zitten gok ik zo
De Fury en Fury X waren toch ook geen 100Eur duurder dan de mid-range kaarten van die tijd dacht ik? Ik dacht eerder aan 200-300Eur duurder.. Die was even duur als de 980 in die tijd (ok met waterkoeling, maar een aio setje er op gevezen).

Ik hoop vooral dat deze koeler blijft dan de fury kaarten van toen (geen aio koeler nodig en dus hopelijk goedkoper) én dat de prijs wat onder de zeer dure kaarten van nvidea duikt. Dan ga ik het nog eens opnieuw bekijken. Anders wacht ik op de nvidea opvolger volgend jaar om dan een kaart te kopen die zeker 4K op ultra aankan aan 60fps.
De Furys waren gewoon 600+ euro, en zijn dat ook lang gebleven. Ik verwacht ook niet dat dit het laatste is wat we van game-Vegas gaan zien, er zal weinig aan de drivers geoptimaliseerd zijn voor games, alles is ingezet om die dingen snel te maken in compute.

Juist die laatste ronde fixes, tweaks en trucs is belangrijk, games leunen vaak op een beperkt aantal trucjes, en hier is rustig 20% winst te halen door de fabrikant. Ik neem aan dat AMD dat ook nog zal doen zodra er een Vega komt voor de gamers. Hebben ze ook gedaan voor de Polaris, en die presteert nu ook beter dan de preproductiemodellen. Zie ook de vele driver-updates, daarin staan ook ronkende getallen over hoeveel procent deze game nu weer versneld is...
Mijn R9 Fury blijft anders mooi koel hoor ;) ik hoor mijn koeler niet eens en vaak draait maar 1 van de 3 fans. Zelfs met een mining test gewoon omdat het kon werd hij 70c met 30% fanspeed en was hij niet merkbaar aanwezig.

[Reactie gewijzigd door DarkBlaze op 29 juni 2017 10:21]

Tuurlijk dat zeg ik niet, maar je moet niet vergeten dat je dit haalt met waterkoeling! Als je dat op eender welke moderne Nvidea kaart plakt, gaat deze qua temps makkelijk onder de R9 Fury X gaan.

Van tweakers review zelf:
De stille waterkoeler heeft wel een nadeel en dat is de temperatuur. Die loopt door de langzaam draaiende ventilator namelijk behoorlijk op, waardoor we de metalen buitenkant van de radiateur wel 50°C hebben zien worden. Die warmte kan in je behuizing blijven hangen en op zijn beurt andere onderdelen in de pc opwarmen. Wij zouden de ventilator daarom handmatig toch nog een tandje sneller laten draaien.


Of heb je het over de non waterkoeling variant? Maar dan moet je hem niet vergelijken met 980(TI)-temps denk ik (die presteren beide wel nog iets beter). 970 temps lagen toch een pak lager dan de Fury (non X) én de geluidsdruk ook bij de custom varianten.. Het is maar wat je er van verwacht. Verhouding ligt bij mij 70% prestaties, 30% geluid/temps. Ik overclock niet erg veel, dus de standaard geleverde 3D kaart moet al in orde zijn.
Ik ben blij van mijn 1060 die ik voor een prikje gekocht heb 2de hands (en daarvoor de 670 en daarvoor de AMD 7950 dus geen uitgesproken voorkeur) ter afwachting van een kaart dat 4K in Ultra haalt op 60Fps. Zo kan ik nog een dik jaar wachten.
Ik heb inderdaad een Fury geen Fury X. Overigens is een 980ti niet bepaald veel sneller dan mijn Fury of zelfs langzamer afhankelijk van het spel ;) ik speel namelijk op 1440p en zoals aangegeven ik kan niet eens het verschil horen tussen idle en het spelen van een spel.

Overigens had ik hier voor een 290 die ik voor 150 euro verkocht heb en voor 225 euro deze Fury weer gekocht ik heb me kapot gelachen toen ik op de bestel knop drukte ;)

Overigens ben ik ook alles behalve een fanboy, de 290 had ik toen ze net ~1,5 maand uit waren 2e hands voor 200 euro gekocht en daar voor had ik een 470 en daar voor weer een 8800GTS,7950GT en 9600 Pro dus het is nu 3 om 3.

Overigens heb ik een Sapphire R9 Fury Nitro zie hier: http://hexus.net/tech/rev...on-r9-fury-nitro/?page=11 en je zal zien dat een GTX970 niet bepaald veel stiller is ;)

De boxed AMD koeler van mijn 1700 maakt meer herrie.

[Reactie gewijzigd door DarkBlaze op 29 juni 2017 13:00]

Inderdaad, verschilt niet veel. Het enigste wat mij wel opvalt (als alleenwonende) is dat 100Watt meer toch wel een zeer groot verschil is om hetzelfde te bereiken, zeker omdat die pc wel regelmatig games speelt.. Mijn oog viel op een kaart die FullHD op 60FPS kon draaien en niet teveel geluid maakte/warm werd en niet teveel verbruikte.

Volgende hangt er dus vanaf wat AMD nu doet. Als ze een topkaart lanceren die 4K op 60fps draait die niet té luid wordt en niet téveel meer verbruikt dan de 1080Ti, dan kunnen we spreken ;) Anders wachten..
Mwah een Fury gebruikt zeker geen 100w meer dan een 980Ti hoor, eerder 30w en met het prijsverschil tussen de 225 euro en wat een 980ti nog moet kosten kan ik heel wat jaartjes gamen op mijn gold voeding. Overigens komt een 1060 niet in de buurt van een Fury, dus dat is ook wel logisch.
Had het over de 970 ;) jep 1060 is dan ook maar een tussenkaart.. Hopelijk dat AMD met deze kaart 60fps op ultra op 4K mogelijk maakt, anders wachten tot volgend jaar en dan een volledig nieuw systeem ipv alleen een nieuwe GPU.
Ook een 970 mag de veters niet strikken van een Fury natuurlijk. Dan is een 1060 al sneller ;)
Tjah, de Fury is toch AMD's concurrent van de GTX 1070!?

TDP van GTX 1070: 150 W
TDP van Fury: 275 W

De Fury heeft een TDP dat 125 W hoger ligt. De GTX 1070 is ook nog eens een flink stuk sneller dan de R9 Fury!!

En kom nu niet aan met lulkoekverhalen dat de kaarten die AMD in de toekomst gaat uitbrengen de concurrenten zijn van de GTX 1070. Want dat is pure onzin. De GTX 1070 is al een jaar op de markt en het duurt nog maanden voor er nieuwe kaarten van AMD komen. Waarschijnlijk net nadat de nieuwe kaarten van AMD releasen (hooguit enkele maanden later) zal Nvidia komen met een Pascal Refresh, waaronder de directe opvolger van de 1070 die dan 2048 cores zal hebben i.p.v. 1920 cores en hogere clocks.

De Fury is de concurrent van de GTX 1070. En de Fury X is de concurrent van de GTX 1080. En in beide gevallen is Nvidia veruit de slimste keuze.

AMD loopt gewoon al jaren achter de feiten aan.

AMD verkoopt wel echt héél véél grafische kaarten voor in PC's hoor. Maar voornamelijk aan cryptocoin miners. De gamers laten het merk al jarenlang min of meer naast zich neer leggen. AMD verkoopt nog wel GPU's aan gamers, maar het worden er alsmaar minder. In bepaalde sales-statistieken is dit niet zo zichtbaar omdat die zeer sterk vertekend zijn vanwege AMD's sterke verkopen aan de miners. Daarom kun je voor wat betreft gamers het beste kijken naar de zeer betrouwbare Steam Hardware Survey:

http://store.steampowered.com/hwsurvey/?l=dutch

Die laat zien dat 62.41% van de gamers een Nvidia-kaart hebben, 21.53% van de gamers een AMD-kaart hebben en 15,65% van de gamers Intel Graphics hebben. Daaraan zien we meteen dat Nvidia-kaarten 2,90 keer zo vaak gebruikt worden door gamers als AMD-kaarten. Bijna drie keer zo vaak dus. In December 2015 was het nog 54,6% Nvidia en 26,2% AMD. Toen werden Nvidia-GPU's maar 2,08 keer zo vaak gebruikt door gamers als AMD-GPU's.
Wil je een nog veel shockerender plaatje, kijk dan hier:

http://store.steampowered.com/hwsurvey/videocard/

Aan de categorie DX12 GPUS kun je goed zien hoe schrikbarend laag de populariteit van de AMD kaarten is voor wat betreft gaming. In de Top 20 staan 18 kaarten van Nvidia, één van AMD en één van Intel.

[Reactie gewijzigd door dusty-2011 op 29 juni 2017 17:58]

Ahum, deze reactie had ik natuurlijk al verwacht. Ik heb in mijn vorige post hier al uitgebreid op gereageerd. Dan maar even citeren:

"En kom nu niet aan met lulkoekverhalen dat de kaarten die AMD in de toekomst gaat uitbrengen de concurrenten zijn van de GTX 1070. Want dat is pure onzin. De GTX 1070 is al een jaar op de markt en het duurt nog maanden voor er nieuwe kaarten van AMD komen. Waarschijnlijk net nadat de nieuwe kaarten van AMD releasen (hooguit enkele maanden later) zal Nvidia komen met een Pascal Refresh, waaronder de directe opvolger van de 1070 die dan 2048 cores zal hebben i.p.v. 1920 cores en hogere clocks. "

Het staat als een huis dat de RX Vega kaarten gaan concurreren met de Pascal Refresh kaarten. Deze kaarten zullen allemaal bijna op hetzelfde moment gelanceerd gaan worden.

De RX 480 en RX 580 concurreren met de GTX 1060 6GB GPU's.
De RX 470 en RX 570 concurreren met de GTX 1060 3GB GPU's.
De RX 560 concurreert met de GTX 1050 en GTX 1050 Ti.

Dan de R9 Fury die concurreert met de GTX 1070.
De R9 Fury X concurreert met de GTX 1080.

We gaan toch niet schrijven dat de Fury met de GTX 980 concurreert als al een jaar de GTX 1070 in de schappen ligt!?!

Ik heb hierboven beschreven wat met wat concurreert. En het ligt echt zooo voor de hand dat RX Vega niet echt (of slechts heel kortdurend) gaat concurreren met de Pascal-kaarten. De echte concurrentie van de RX Vega kaarten zijn de Pascal Refresh kaarten. De Pascal Refresh is ook meer dan alleen hogere clocks, zo krijgt de opvolger van de GTX 1070 ook ruim 100 meer cores.

De GTX 1070 zou niet veel sneller zijn dan de Fury??? Echt ongelooflijk zeg, zo'n buitengewoon ongefundeerde opmerkingen. Ik heb een vergelijkingstabel aangemaakt met een Sapphire Radeon R9 Fury Tri-X OC 4GB (een factory OCed Fury) en een MSI GeForce GTX 1070 Gaming X 8GB (een factory OCed 1070)

https://be.hardware.info/...l/producten/351317-315558

De Hardware.info videokaart prestatiescore 2014/2015 is 116,6 voor de GTX 1070 en 90,1 voor de Fury. Dat is een verschil van 26,5 fps. Procentueel gezien een verbetering van 29,4%. Bijna 30% sneller dus. Dat is een WERELD van verschil.

[Reactie gewijzigd door dusty-2011 op 29 juni 2017 18:23]

bladiebladiebladiebla
Ja een kaart die in 2016 in de uitverkoop is gegaan en nu EOL is is zeker de tegenhanger van een 1070 :+

Maar je spuwt wel vaker bagger zoals nu, die HWI 'benchmarks' kan ik niet bepaald serieus nemen heb je ze zelf wel bekeken? BF4??? Ik speel toch echt BF1 en daar is een 1070 geen zak sneller dan mijn Fury, zelfde geld voor AotS en in doom is een 1070 zelfs trager. Maar blijf lekker in je the way its ment to be paid bubbel zitten ;)

Als je al 15% winst haalt in nVidia games over de Fury met je 1070 mag je blij zijn vaak is het verschil namelijk kleiner. Dat jij dan graag een dikke 200 euro extra neer telt voor 15% fps winst moet je zelf weten maar ik doe dat lekker niet :+

PS: ga maar weer lekker huilen over je -1, want die had je stiekem wel verdiend met al je fanboy gespui ;)

[Reactie gewijzigd door DarkBlaze op 30 juni 2017 09:49]

BF4??? Ik speel toch echt BF1 en daar is een 1070 geen zak sneller dan mijn Fury

Oh nee? Ik houd ervan om alles gewoon goed te funderen:
http://www.gamersnexus.ne...rd-benchmark-dx11-vs-dx12
In alle benchmarks gedaan door Gamers Nexus is de GTX 1070 sneller dan een R9 Fury X in Battlefield 1. Let op: hij is dus sneller dan de Fury X, het duurdere broertje van de Fury. De Fury X heeft 14,3 procent meer cores (in aantal: 512 meer cores) dan de Fury heeft.
AMD's kaart met 4096 shader cores wordt dus verslagen door een Nvidia kaart met 1920 CUDA cores.

Hier komt de GTX 1070 als een stuk sneller dan de Fury X uit de bus:
http://gpu.userbenchmark....-AMD-R9-Fury-X/3609vs3498
https://nl.hardware.info/...l/producten/351317-313672

Volgens HWI: 92,7 fps gemiddeld voor de Fury X. En 116,6 fps gemiddeld voor de GTX 1070. (Hardware.Info Videokaart Prestatiescore 2014/2015). Dit is een verschil van 23,9 fps. De GTX 1070 is gemiddeld 25,8% sneller dan de R9 Fury X.


Tjah, over concurrenten gesproken. Voordat de Ryzen processoren uitkwamen, waren AMD's FX-processoren zoals de FX-8350 nog gewoon de concurrenten van Intel's toenmalige laatste line-up. De FX-8350 concurreerde met een boel recente i5's van Intel. Nu ga jij weer roepen: "Das niet eerlijk. Dat zijn toch helemaal niet elkaars tegenhangers!!! Je moet naar Intel processoren uit 2013 kijken hoor!!! Dat zijn elkaars tegenhangers!!" Maar zo werkt het helaas niet in de wereld. Mensen kijken naar wat er op dit moment te koop is. Want ze willen nu iets kopen, en niet met een tijdmachine enkele jaren terugreizen om in die tijd iets te kopen. Intel en Nvidia brengen op respectievelijk de CPU-markt en de GPU-markt met grote regelmaat nieuwe high-end producten uit. Dat AMD dit tempo bepaald niet kan bijbenen betekent natuurlijk niet dat je niet AMD's huidige high-end GPU aanbod met Nvidia's huidige high-end GPU aanbod kan vergelijken.

"en in doom is een 1070 zelfs trager"
In Doom is een GTX 1070 op z'n minst zo snel als een R9 Fury. Zoek het je zelf op hier: http://www.pcgamer.com/do...eturn-vulkan-vs-opengl/2/
De twee kaarten liggen in dat spel zeker dicht bij elkaar in de buurt, maar het is een kleine zege voor de GTX 1070. Ik ben wel bereid hoor om voor deze discussie hier Doom op een "remise" te houden. Maar Doom is een heel erg geselecteerd spel zeg maar. Bij vrijwel ieder spel komt de Fury niet eens in de buurt van de prestaties van een GTX 1070. Meer dan 29% trager gemiddeld. En dat is wat ter zake doet, niet dat de Fury in één geselecteerd spel (Doom) de GTX 1070 kan bijbenen.

Bij Ashes of the Singularity lijkt de Fury iets sneller te zijn dan de GTX 1070. Maar dit komt ook weer een beetje als een geselecteerd spel op me over hoor. Ik ken dit spel alleen maar van benchmarks, nog nooit iemand ontmoet die het gespeeld heeft. Volgens de Steam Stats spelen op het moment 4 mensen dat spel, en de 24-hour peak is 16 mensen. All-time peak van 723 ook bepaald niet indrukwekkend: http://steamcharts.com/app/228880. En dan spreek jij mij aan dat ik kijk naar de Battlefield 4 performance? Er zijn toch meer dan 7000 mensen op dit moment tegelijkertijd ingelogd in bf4: http://bf4stats.com/

En je blijft steeds maar heel erg op de kosten hameren, maar volgens mij ben je niet goed op de hoogte van de ontwikkelingen van de afgelopen maanden. AMD's kaarten zijn allemaal uitverkocht omdat de cryptocoin miners ze massaal insloegen (ik herhaal de miners, dus niet gamers). AMD's videokaarten zijn op het moment zéééér ongunstig geprijsd t.o.v. Nvidia's kaarten op de plekken waar AMD's kaarten nog daadwerkelijk leverbaar zijn (dus niet uitverkocht). Gunstig geprijsde AMD videokaarten zie je nog wel in de Nederlande webshops ertussen staan maar die zijn allemaal uitverkocht. Kun je wel bestellen maar met deze coin-gekte kun je dan waarschijnlijk weken tot maanden wachten.

Mijn MSI GeForce GTX 1070 GAMING X 8G heb ik trouwens een aantal weekjes terug aangeschaft in de vorm van een echt buitenkansje. Ik kon er erg veel korting op krijgen en heb hem voor 274,10 EUR bemachtigd. Hier de betaalbevestiging: https://s23.postimg.org/u...stiging_voor_GTX_1070.png
Voor die prijs had ik hem nu niet meer kunnen krijgen, want in de desbetreffende winkel is ie nu met 50 euro in prijs gestegen, omdat de cryptocoin miners nu ook massaal Nvidia GPU's zijn in aan het slaan.

De Fury en Fury X lijken op het moment trouwens wat beter leverbaar dan de RX470/480/570/580. Binnen 4 tot 10 werkdagen kun je zo'n Fury bij je op de deurmat verwachten. Een RX470-580 hoef je zo snel niet te verwachten hoor, dat duurt nu op z'n allerminst meerdere weken tot zelfs maanden of langer.

[Reactie gewijzigd door dusty-2011 op 30 juni 2017 11:24]

GN benchmarks kloppen voor geen meter, is totaal niet te vergelijken met wat ik zelf haal in BF1 :+
Maar goed speciaal voor jouw dan http://imagescdn.tweaktow...battlefield-dx11-dx12.png een paar FPS verschil.
En ook hier: https://www.youtube.com/watch?v=G4qHjM32d3k

Nogmaals bekijk die kansloze HWI benchmarks nog maar eens, 99% van de games zijn niet eens getest op beide kaarten omdat ze geen concurrenten van elkaar zijn ;)

En waar kan jij die Fury's vinden dan? Ik zie ze nergens meer staan namelijk zijn allemaal uitverkocht omdat AMD ze niet meer maakt, daarom waren ze ook voor 230 euro te koop vorig jaar.

https://tweakers.net/pric...?keyword=Sapphire+R9+Fury

Verder kan ik ook wel een screenshot maken van een order en claimen dat ik iets 'goedkoop' heb gekocht. Ik zie geen GTX1070 staan of wat dan ook dus 'lekker ondebouwd' weer ;)

De goedkoopste MSI 1070 kost in de PW ~500 euro en dat zijn ze ook altijd geweest, helemaal in 2016 toen ik mijn Fury kocht.

Wat betreft kansloze sites als userbenchmark begin ik maar helemaal niet :+

En wat betreft die "tegenhangers" van bulldozer dat waren inderdaad goedkope intels, je weet wel iets met prijzen ;)

[Reactie gewijzigd door DarkBlaze op 30 juni 2017 11:20]

Sorry hoor, dat plaatje komt op mij niet zo overtuigend over hoor. Minimum fps 92 voor de GTX 1070 en maar 49 voor de Fury X op ULTRA. Qua gemiddelde fps op ULTRA zijn ze aan elkaar gewaagd, maar dat plaatje gaat over de Fury X, niet over de Fury die jij hebt. Ook om die reden niet zo'n overtuigend plaatje.

Ik zie dat de Fury X hier het op 1080p Medium settings iets beter doet. Maar wil je op 1080p Medium spelen met een Fury X?

Jammer dat er geen frametimes bij staan, of in plaats van Minimum FPS bijvoorbeeld 1% Low fps en 0.1% Low fps. Op die manier hadden we 1080p Ultra beter kunnen analyseren.

Overigens lijkt Battlefield 1 het beste te werken in DX11, in plaats van DX12. Weet ook niet waarom je hier nu per se met een DX 12 plaatje komt aanzetten. Die hele lage minimum framerate voor de Fury X onder DX 12 is bepaald geen reclame zeg maar.
Tjah ik speel op 1440p niet op 1080p, DX12 werkt bij mij beter dan DX11 ;) overigens speel ik op 60fps high/ultra met mijn Fury zonder framedrops of wat dan ook. Alles op ultra trekt hij niet maar dat doet een 1070 ook niet ;) overigens is het verschil tussen de Fury en Fury X vrij klein in prestaties.
Dat is dus nog de vraag, het game gedeelte van de driver is een stuk ouder, ik dacht uit januari (heb het er niet bij op mobiel).
Dat is op zijn gpuz plaatje te zien.


De uiteindelijke drivers zullen wel beter zijn.
https://uploads.disquscdn...4060706e4bfca747c98e9.gif

Edit:
Blijf bij het standpunt dat de uiteindelijke drivers beter zullen zijn maar dat hij inderdaad de laaste versie vd driver heeft. Zoals Vipeax al aangeeft.
https://uploads.disquscdn...d70fdf18327e54d517d9b.png

Dus mod naar +1 ipv +2 ;).

[Reactie gewijzigd door Sp3ci3s8472 op 29 juni 2017 11:01]

https://a.disquscdn.com/g...iiSOiBWxbFtZA&w=800&h=175

Valt wel mee dus... Die driver is gewoon recent. GPU-Z leest de revisie niet goed. Op de website staat deze gewoon als 17.6 (en ja dat is die driver).

[Reactie gewijzigd door Vipeax op 29 juni 2017 09:53]

Afhankelijk van de prestaties en de huidige prijzen van de RX580 zou 500-600 mij niet verbazen.

Als het klopt dat deze kaart 1382 mhz liep ipv 1600 zullen de scores van de game kaart nog aardig wat hoger uitvallen.
Daarnaast zijn deze drivers niet geoptimaliseerd voor games dus ook daar valt winst te behalen. Zou mij niets verbazen als hij tussen de 1080 en de 1080 Ti in zit of zelfs dichter regen de 1080 Ti aan. Een score van 25k lijkt mij wel mogelijk wellicht zelfs meer.

[Reactie gewijzigd door Astennu op 29 juni 2017 09:29]

Ik denk dat Vega wel 1080Ti niveau kan halen. Idd zoals je zegt houdt hij waarschijnlijk zijn 1600MHz niet aan door slechte koeling + nog betere drivers. Waarom zou AMD Vega anders een tdp van 300W geven, toch om alles eruit te persen om 1080Ti-niveau te halen?
Als ze GTX1080-performance (Vega) uitbrengen rond de 400 euro schieten ze zichzelf in hun voet.. Dat is ongeveer de prijs waarmee de RX 580 nu over de toonbank gaat. Door nu dubbele performance voor hetzelfde geld aan te bieden, halveer je de waarde van de 400 en 500 serie producten.

Je zal toch minstens aan 600 à 700 euro moeten denken, lijkt me.

[Reactie gewijzigd door Laloeka op 29 juni 2017 11:42]

Wat een fantastische benaming 'Vega Frontier'.... Doet me als scifi-fan toch een beetje kwijlen... :) Ik zie me er al mee doorheen de ruimte knallen tegen sub-lichtsnelheid, jawel, richting Vega :p
Ik zie me er al mee doorheen de ruimte knallen tegen sub-lichtsnelheid
Dus... 0 km/h? :P

Voor het 'omdat het kan' publiek een waarschuwing: drivers voor deze kaart worden mogelijk niet zo geoptimaliseerd voor spellen als normale videokaarten. Wacht nog even totdat de (waarschijnlijk veel goedkopere) consumentenvariant uitkomt van deze kaart. ;)

[Reactie gewijzigd door The Zep Man op 29 juni 2017 08:51]

Voor het 'omdat het kan' publiek een waarschuwing: drivers voor deze kaart worden mogelijk niet zo geoptimaliseerd voor spellen als normale videokaarten. Wacht nog even totdat de (waarschijnlijk veel goedkopere) consumentenvariant uitkomt van deze kaart. ;)
Dat staat haaks op 'omdat het kan' mentaliteit natuurlijk...
Deze is dan wel niet gericht op gamers, maar als deze kaart al als een 1080 presteert, hoe groot is de kans dan dat een goedkopere op gamers gerichte kaart beter presteert? Ik baal hier een beetje van ;( Was juist op zoek naar een amd equivalent van 1080ti of beter.

[Reactie gewijzigd door Ledtherebelight op 29 juni 2017 08:14]

Het hangt toch vooral af van de prijs nu? Ik bedoel qua prestaties kan het nog wat hoger komen i.v.m. driver optimalisaties.
Deze kaart is bedoeld voor wetenschappers toch? Net als de Quadro kaarten van NV. En die zijn ook veel duurder dan de gaming kaarten en die gaming kaarten presteren weer beter in games.

Dus stel dat deze ¤400 kost en toch 1080 prestaties dan is het alsnog een mooi product denk ik dan.
door driver optimalisaties zal er nog eens wat prestatie bijkomen, dan heb je een mooi product voor een mooie prijs. Maar dat hangt dus, denk ik, volledig af van de prijs.

Wat mij een beetje tegenvalt is dat het allemaal zo lang moet duren bij AMD.
Ze brengen nu een kaart uit die iets beter presteert dan een 1080 (aanname) maar wel meer dan een jaar later uitkomt.
Ik had wel verwacht dat een jaar meer onderzoek etc dat het hogere prestaties kan leveren. Maar voor hetzelfde geld hebben ze nog een kaart die wel veel beter presteert dan een 1080Ti waar ze veel R&D in hebben gestoken.
nog ff afwachten.
Het is wel geen kaart om te gamen dus ja die kaart presteert zoals een GTX 1080 maar dat wilt niet zeggen dat de gamer kaart die iets later komt ook zo zal presteren...
In het verleden was dat wel zo dat de game variant de compute variant overtrof, de game en compute kaart zijn qua hardware dan ook vrijwel identiek :) Met daar bovenop zijn de verschillen groter, namelijk in support en - het belangrijkste voor gamen - drivers!

Nu kan niemand in de toekomst kijken, maar het zou mij verbazen als de gamevariant andere hardware heeft (muv de hoeveelheid geheugen), en minder zou presteren in games/3dmark.
Who cares? als ze 1080 performance kunnen bieden en de prijs eerder bij een 1070 komt dan ga ik vast in de rij staan.
AMD benadrukte eerder al dat de Radeon Vega Frontier Edition niet bedoeld is voor gamers. De kaart is gericht op wetenschappers, ingenieurs en ontwerpers.
:)

De kaart die wèl voor Gamers zal zijn, zal drivers hebben die hier speciaal voor geoptimaliseerd zijn. De bovenstaande score is een nogal vertekend beeld van wat deze GPU kan. Tenslotte zal de prijs die t.z.t. bekend wordt hier meer over bekend maken. Speculaties over de prijzen van "gamer worthy" modellen zijn slechts speculaties! :)

[Reactie gewijzigd door InjecTioN op 29 juni 2017 08:23]

Idd en Koduri heeft zelf gezegd dat RX Vega beter gaat presteren dan FE in games.
Die kans is er niet de gaming variant zal gewoon een stuk beter presteren in games.
AMD gaat niet in één keer iets béters maken. Wat ze wel gaan redden, is iets dat Nvidia benadert. Zolang ze dat kunnen doen voor minder geld, hebben ze altijd een plaats in de markt.
Mogelijk een mooie kaart om Ether mee te minen. Gezien de 16GB HBM2 geheugen!
Ik dacht het al een paar keer (ook bij het vorige artikel) maar durfde het niet te vragen, ben er erg beniewd naar, hoewel ik vrij zeker weet dat het niet gaan lonen met de prijs voor deze kaart.
Is iets mis, Crossfire RX 480 (12.4 TFLOP op deze clocks) haalt 26500 GPU
http://www.3dmark.com/fs/12200454

Hoe kan een nieuwe kaart met 13 TFLOP dan 22000 GPU score halen

[Reactie gewijzigd door DoubleYouPee op 29 juni 2017 09:31]

Door geen drivers te hebben die voor gamen gemaakt te zijn...
De kaart draaide op lagere clocks, dus ook op minder dan 13 TFLOPS
Juist 3d mark is door beide fabrikanten enorm geoptimaliseerd in de drivers. Een gpu testen met drivers die niet die optimalisaties bevatten is nagenoeg nutteloos eigenlijk.

Behalve een absolute minimum score meer zetten zegt dit dus nagenoeg niks over de game prestaties van de rx Vega straks.
Een overgeclockte Fury X haalt ook een hogere score dan de Vega Frontier. Dus dat zegt eigenlijk al genoeg. De slechtste benchmark die je met zo'n soort kaart kunt doen. http://www.3dmark.com/com...44/fs/11047656/fs/6657103
Dat de hoop en het verwachtingen zo groot zijn geworden dat we een non gaming kaart gaan vergelijken. Dit terwijl er eigenlijk 0 nieuws is vrijgekomen.

Dat tweakers nieuws van wcc overneemt verbaast mij meer dan deze resultaten.

[Reactie gewijzigd door NLKornolio op 29 juni 2017 09:03]

Ik denk eerder dat dit uit de reddit thread komt, van de man die deze kaart een paar uur had, maar goed. Hij was daar van "yo wat moet ik runnen", dus voor andere apps (blender? nicehash?), hadden mensen er om moeten vragen.
Wat een negatieve reacties hier..

Voor de gemiddelde gamer/consument is deze kaart totaal niet bedoeld, oordeel hem daar dan ook niet op. Deze drivers zijn voor andere dingen geoptimaliseerd...

Daarnaast staat AMD bekend om zijn slechte drivers bij release, die zullen alleen maar de preformance omhoogkrikken, met de tijd.

Dus wacht gewoon even (ver-)oordelen tot de gamers release uitkomt, en wacht op een echte benchmark met redelijke drivers.
Voor de gemiddelde gamer/consument is deze kaart totaal niet bedoeld, oordeel hem daar dan ook niet op. Deze drivers zijn voor andere dingen geoptimaliseerd...
De FE wordt geleverd met pro- en game-drivers en je kunt switchen van pro- naar game-mode.
Daarnaast staat AMD bekend om zijn slechte drivers bij release, die zullen alleen maar de preformance omhoogkrikken, met de tijd.
Akkoord. :)
Er staat overal duidelijk bij dat dit geen gamer-kaart is, ook niet zo in de markt gezet zal worden en de drivers ook niet voor games geoptimaliseerd zijn/zullen worden.

Waarom dan toch vergelijken met een GTX1080?
Op tweakers staan toch ook geen reviews van FirePro's en Quadro's, vergeleken met gamerkaarten?

Appels, peren, klikbait.
I am disappoint.

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*