Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Willem de Moor

Redacteur componenten

AMD Radeon VII-videokaart Review

Vechten tegen de rtx-bierkaai

Conclusie

Toen AMD zijn eerste generatie Vega-kaarten uitbracht, met de Vega 64 als concurrent voor Nvidia's GTX 1080-kaarten, was de ontvangst een beetje lauw en waren de verkopen en verkrijgbaarheid niet geweldig. Dat had deels met de prestaties te maken. De GTX-kaarten bleken niet ingehaald te worden en AMD's gpu bleek lastig in kaarten te verwerken.

Inmiddels heeft Nvidia met de RTX-serie een gloednieuwe architectuur op de markt gebracht en is het aan AMD om daar iets tegenover te zetten. Er is echter maar bitter weinig gebeurd bij AMD en in plaats van een nieuwe architectuur, zoals Navi waarop we nog steeds wachten, heeft AMD Vega een opfrisbeurt gegeven. De oude Vega 10-chip is van 14 naar 7nm gekrompen en voorzien van twee keer zoveel hbm2-geheugen. Zo werd de Vega 20-chip geboren. AMD had dat in het afgelopen najaar al voor elkaar en zei toen dat het die generatie alleen zou inzetten voor contentcreation, als acceleratorkaart dus. Die Instinct MI50 is min of meer hergebruikt, minus features als pci-express 4.0, en alsnog in een consumentenkaart gehesen.

Dat is niet zonder verdienste gebleken, want hoewel Nvidia's snelste Turing-kaart, de RTX 2080 Ti, nog altijd geen concurrentie te duchten heeft, komt de nieuwe Vega VII aardig in de buurt van de RTX 2080. Als je heel goed zoekt, kun je die voor 700 euro krijgen, maar 750 tot 800 euro, en ruim daarboven, is een realistischere prijs. Dan koop je een kaart die iets beter presteert dan de Radeon VII, zuiniger is en de optie tot raytracing biedt.

Een van AMD's troeven is dat de Radeon VII in te zetten is als acceleratorkaart voor contentcreation. Dat kan in principe met elke kaart natuurlijk, maar de Radeon VII is dankzij zijn Instinct-achtergrond daadwerkelijk beduidend sneller dan een concurrent als de RTX 2080. Hoe groot de markt is die dat belangrijk genoeg vindt om voor ongeveer evenveel geld een iets tragere videokaart met een hoger verbruik dan de RTX 2080 te kopen, zullen we zien aan de verkoopcijfers van de Radeon VII.

Reacties (200)

Wijzig sortering
In typische AMD stijl, staat de voltage weer veel te hoog ingesteld.

In deze test van ComputerBase, zakt het verbruik van 277W naar 207W door de voltage 0,1V te verlagen.
Kan niet anders concluderen dat deze kaart gewoon het geld niet waard is.
De prestaties zijn all over the place van in een enkele situatie sneller als een 2080 tot zelfs het niveau van een 2060 met een gemiddelde van trager als een 2080 en dichterbij een 2070.
Zelfs het stroomverbruik is ondanks de '7'nm gewoon teleurstellend te noemen.
Deze kaart zou het prima doen met een 450 euro price tag maar 700+ hell no voor minder heb je al een 2080 die stabiel presteert met betere gemiddelden.

Laten we hopen dat de volgende hype NAVI wel waar voor zijn geld is want dit is gewoon een domper die zelfs groter is als dat ik verwacht had door zijn zwaar wisselvallige prestaties.
Geld niet waard zou ik niet zeggen, maar de doelgroep is wel erg beperkt.
Voor Linux gebruikers is AMD geweldig, ja ze lopen iets achter op gaming gebied dan NVidia maar de driver buiten gaming om is echt dag en nacht. Ik heb zo ongelovelijk lang problemen gehad met de NVidia driver op mijn laptop die animaties verkeerd af speelt en de text scaling verprutst waardoor alles wazig wordt in KDE, wayland werdt tijden lang niet lekker ondersteund en om maar een beetje gebruik te maken van de kaart moet je binaries installeren waardoor je weer beperkt bent met je kernels.

Sinds ik een AMD Vega 64 in mijn gaming PC heb zitten werkt Linux daar top, de driver wordt op de Vega kaarten out of the box ondersteund al moet je wel je Kernel en Mesa updaten om stabiele ondersteuning te hebben zeker op de LTS releases. Doe je dat heb je een super stabiele kaart die alles doet zoals het hoort en je dus niet voor rare verassingen komt te staan (Buiten een paar recente features die nog ontbreken in Mesa).

Als ik voor dit budget zou kunnen kiezen tussen een 2080 of een Radeon VII dan is voor mij de betere rendering performance en fenomenale linux ondersteuning belangrijker dan Raytracing en alle andere toeters en bellen.

Dus ja ik ben het eens, de doelgroep is enorm klein gezien NVidia voor gamers meer bang voor de buck biedt. Maar dat de kaart geen geld waard zou zijn ben ik het niet mee eens.

[Reactie gewijzigd door henk717 op 7 februari 2019 17:39]

tja gamen en linus is dan ook weer niet echt een standaard iets. je moet gewoon bijna altijd een vm draaien met windows om dan weer te kunnen gamen. want de paar games die wel op linux draaien draaien ongeacht de videokaart al voor geen meter.
Dus voor gamen ben je standaard al beter af met een dual boot voor game support.

Ik ben voornamelijk een gamer met wat foto en video editing en gamen is hoe deze kaart in de markt gezet word. Echter laten prestaties zien dat dit een prima zij het zeer onzuinige kaart is als je er maar niet mee gamed want daar is hij gewoon minder geschikt voor voor het geld dat je ervoor neer telt.

Ik zal dan ook verschillende reviewers gaan vragen hoe dit zich vergelijkt met een quadro kaart want dat lijkt in dit geval toch een betere vergelijking dan game fps.
tja gamen en linus is dan ook weer niet echt een standaard iets. je moet gewoon bijna altijd een vm draaien met windows om dan weer te kunnen gamen. want de paar games die wel op linux draaien draaien ongeacht de videokaart al voor geen meter.
Dus voor gamen ben je standaard al beter af met een dual boot voor game support.
Dat je per se Windows in een VM moet draaien om op Linux te kunnen gamen is een beeld dat al enkele jaren achterhaald is. Bekende recente titels zoals beide Total War: Warhammer games, Divinity: Original Sin, X-COM 2 en Stellaris draaien allemaal native (en goed!) op Linux. Met een blik op Steam blijkt dat dit lang niet de enige games zijn.

Daarnaast zijn er enkele uitgebreide initiatieven om op een toegankelijke manier Windows games direct, zonder VM onder Linux te draaien. Zo werkt The Witcher 3 fantastisch onder Lutris en heeft Valve met Proton, een evolutie van Wine, een functie in Steam ingebouwd die voor het spelen van veel Windows games weinig meer vereist dan het eenmalig aanzetten van een vinkje. De nieuwste DOOM draait daar moeiteloos onder. Toegegeven, Proton is nog in beta, maar het is nog niet eens een jaar vrijgegeven en heeft toch al mooie resultaten geboekt.
Ik game zelf (ook) op Linux en er zijn genoeg native ports en dan kan je ook nog wine/dxvk/proton gebruiken. Gebruik een rx 580 en heb weinig problemen.
Het is niet zozeer een zeer onzuinige kaart. De stock voltages zijn vaak erg bagger van AMD. Met de 56/64 was dit ook het geval.

Hij scored qua perf per watt beter dan een 2080. Een stock 2080FE. Deze kan je uiteraard ook undervolten.

Ik ben wel benieuwd of het exemplaar van Tweakers ook zo goed te undervolten valt.
Met zo'n opmerking laat je merken geen verstand te hebben van Linux en zomaar een ballontje uit de lucht getrokken te hebben.
Ruim twintig jaar geleden draaiden we onder andere Half-life en Counter-strike op Linux met een een ATi en/of Nvidia kaart. Soms met betere performance dan op Windows (95/98). Vele games draaiden destijds al op Linux en onder andere met behulp van Steam is dit alleen maar beter geworden.
Nu worden zelfs grotere en bekendere games native voor Linux ontwikkeld. De performance is bij Windows versus Linux verschillend, per kaart, per merk. Soms onder Windows beter, soms beter onder Linux. Dit geldt tevens voor de verschillende ATi/AMD versus Nvidia kaarten.
Onder Linux kan tegenwoordig alles wat onder Windows kan. Een enkel speciaal programma misschien uitgezonderd, maar dat ligt meestal an de fabrikant. Linux heeft altijd het nadeel gehad van achterlopende en/of niet geheel doorontwikkelde drivers. Desondanks draaiden en draaien nu nog steeds bepaalde games beter dan onder Windows. Daar zijn inmiddels al vele benchmarks van gemaakt (phoronix).

Inmiddels is onder Linux een grote inhaalslag gemaakt en helaas soms lopen de drivers iets achter. Maar zeker gezien de ontwikkelingen bij AMD met de Mesa driver, en de voortstuwing van de opensource community, doet deze onder Linux nauwelijks onder voor de Windows driver.

Voor games onder Linux geldt dit ook. Steeds meer Linux games worden ontwikkeld, zelfs een aantal grote namen bieden een native of port van hun bekende game. Maar helaas nog niet alle en dat zal nog wel even zo blijven. Steam en GoG zijn mooie voorbeelden van het aanbod van games onder Linux.
Eigenlijk draaien er verrassend veel spellen gewoon prima op Linux tegenwoordig via Steam. Wel ff de beta optie aanzetten om de eigen Wine versie van Steam te enablen voor alle games ipv alleen de officieel geteste games.

Zijn een paar games die het niet doen of glitchy zijn, maar merendeel werkt perfect. Heb wel voornamelijk wat oudere games, en dat zal wel wat helpen natuurlijk.

[Reactie gewijzigd door enzozus op 8 februari 2019 01:45]

Typisch, want ik speel al jaren al mijn games op Linux. No Problemo :)
Geld niet waard zou ik niet zeggen, maar de doelgroep is wel erg beperkt.
Ik zou zeggen wel heel erg beperkt, hoe groot zal de Linux doelgroep zijn?, iig ruim minder dan 5% denk ik zo, de kaart is ongeveer €150~200 te duur voor gamers, want een RTX 2070 is te koop voor net even €500.

En hoewel voor een flink deel niet geheel terecht, heeft nVidia de betere naam voor gamers als eerste keuze voor een nieuwe kaart, en de meeste kopers kijken niet eens (echt) naar AMD, terwijl ze meestal best een goed prijs/fps verhouding hebben.

Hoop dat Navi snel is en snel uit komt, want een goede concurrent zou nVidia weer eerlijk kunnen maken, net als wat Ryzen heeft gedaan met Intel.

En daarnaast persoonlijk hoop ik dat reviewers een stoppen met het gebruik van non argumenten als:
Dan koop je een kaart die iets beter presteert dan de Radeon VII, zuiniger is en de optie tot raytracing biedt.
Ik zeg niet dat RayTracing niet een dingetje gaat worden in de toekomst, maar in welke wereld heeft de huidige implementatie van RT nut voor gamers, de huidige cheats die game developers gebruiken om RT te emuleren doen nauwelijks onder aan echte RT, maar met een veel minder zware fps impact.

[Reactie gewijzigd door player-x op 8 februari 2019 06:03]

Daar voor zou je ray tracing toch zelf moeten ervaren, het verschil is namelijk wel goed te zien en emulaties laten helemaal niet het zelfde zien, zo ja in welke game want dan wil ik dat eens vergelijken.
Een vriend van me heeft een RTX 2080Ti, en ik heb zijn kaart geleend voor een week dat hij vakantie was, en ik heb RT tijdens gamen RT gewoon uitgezet, de verschillen waar veel te klein voor de prestatie impact die het kost.

Begrijp me niet verkeert, heb niks tegen RT op zich, vind het zelfs een aanvulling, maar het moet niet ten koste gaan van een derde van mijn fps.
Klopt hij zit dicht bij de 2070 aan en erg duur voor zijn klasse.Maar wel weer sneller als de vega varianten.Ik zou deze kaart wel eens willen zien met gddr5 (x) of gddr6 geheugen aan boord.
Misschien is de snelheid dan verwaarloosbaar of hij is een stuk sneller.
Die Nvidia 2080 is gemiddelt genomen toch nog zo een 25% sneller en pakt toch nog weer het bovenbouw en de top van de markt.

[Reactie gewijzigd door rjmno1 op 8 februari 2019 12:38]

Kaart werkt niet op GDDR6, weet niet waarom precies maar buildzoid had het erover op YouTube, zonder gigantische bandbreedte worden deze kaarten al vrij snel erg traag.
Overigens is AMD erg lang rampzalig geweest onder Linux, vooral om games. Het is misschien sinds 1 of misschien 2 jaar op een niveau dat AMD ook voor niet-puristen een optie is. Tot dan waren de meeste kopers in te delen in 2 groepen: gedupeerden die niet wisten dat AMD zoveel issues had, en mensen die uit ethisch oogpunt Nvidia vermijden, bijvoorbeeld omdat Nvidia best wel belabberde business practices heeft, of omdat ze hun software zo open source mogelijk willen.

Op zich zijn het geen slechte redenen. Nvidia is soms erg naar met diverse gebruikersrestricties en valse antocompetitieve acties. En open source drivers hebben ook wel praktische voordelen. Maar tot voor kort moesten veel mensen continue wisselen tussen open source en closed source AMD drivers, omdat sommige spellen maar op 1 van de 2 fatsoenlijk draaiden. En sommige spellen werkten helemaal voor geen meter.

Maar gelukkig is die tijd nu wel een beetje over.
Dat klopt Amanoo, jaren geleden was ik juist overgestapt naar Nvidia omdat die propriatary driver zo ongelovelijk instabiel en slecht was en ik met NVidia minder problemen zou ervaren. Ik vond het dan ook jammer dan het bij NVidia niet veel beter ging maar was blij dat op z'n minst spellen goed functioneerde.

De afgelopen 3 jaar toen AMD besloot in te zetten op de opensource community en gezamenlijk een nieuwe driver te ontwikkelen is alles gekeerd. De Radeon driver heeft nog nooit uitgeblonken maar de AMDGPU driver is erg goed en heel stabiel. Ik heb ze vorig jaar in mesa zien gaan van een OpenGL 3.0 ondersteuning naar volwaardige OpenGL 4.5 ondersteuning (Iets waarvoor je bij Ubuntu LTS overigens wel een PPA moet installeren om hier van te profiteren) en OpenGL 4.6 komt waarschijnlijk dit jaar.

Enkel Vulkan vind ik ze momenteel tegenvallen omdat ze achterlopen met de implementatie van een aantal belangrijke features voor DXVK. Je ziet dus dat sommige spellen prima werken op NVidia maar bij AMD door niemand kunnen worden gespeeld en ik hoop dat het dit jaar lukt om dat bij te trekken.

Al met al ben ik dik tevreden met de Vega 64 en heb ik geen twijfel dat mensen die meer zoeken dan een gamekaart blij gaan worden met deze nieuwe kaart. Maar het zou wel leuk zijn als ze qua performance een sprong weten te maken zodat het performance vs features wordt in plaats van een race om NVidia bij te blijven met hun featureset.
AMD is wisselend stabiel (geweest) zowel onder Windows als onder Linux. Onder Linux gebeurde het wel vaker. Het probleem met AMD was altijd de driver, waarbij het kon gebeuren dat de ene driver versie geweldig performde, en de opvolgende driver versie dramatisch kon zijn. In het latere Radeon kaart tijdperk van de afgelopen jaren is de Mesa duidelijk beter geworden.

Ook de vele Radeon kaarten waren heel goed (soms beter) ten opzichte van Nvidia kaarten. Ik heb vele Radeon kaart versies gebruikt en het performde zeer goed, uitgezonderd de dramatische R9 Fury kaart.
Daar werkten vele games onder Linux niet of nauwelijks, en onder Windows performde het ook niet altijd lekker.
Ik denk wel dat er een plek is voor deze kaart, ik werk veel met 3d simulatie, en een grote framebuffer en 1/4e 64 bit compute is erg goed te noemen voor die prijs.

Nou snap ik dat dat een niche is, maar voor mij is deze kaart toch wel ideaal.
Kan er prima mee gamen, en goed mee werken, zonder extreem hoge aanschaf.
dit vergelijkt zeer goed met Quadro, en is dus veel goedkoper.
en zo'n slechte gamekaart is het helemaal niet. hij zit tussen de 2070 en 2080 in en boven de 1080ti.
dus traag allerminst, ja verbruikt wel meer stroom, zeker, maar absoluut geen trage kaart, en de prijs ligt ook gewoon in lijn. dus een slechte gamekaart vind ik wat gechargeerd.

ik zou zeggen, wil je gamen, en heb je ook compute werk te doen, dan is dit de perfecte kaart.
en met 16gb rambuffer ben je redelijk future proof voor zwaardere workloads in de toekomst.
(al zullen er volgend jaar ook snellere zijn met 16gb frame buffers natuurlijk)

speel je alleen games, dan is de 2060 wss de betere koop, die geeft je 85% van de 2070 en 75% van deze kaart voor de helft van het geld.

wil je de hoogste performance dan is de 2080ti de optie, Maarja mag je wel voor dokken.

maar mocht je twijfelen tussen een 2070-2080 of een Vega 7 dan is die laatste helemaal nog zo'n gekke optie niet hoor. zeker als je bijv streamt, of media werkt doet en veel bezig bent met encoding of andere compute.
Het grootste probleem dat AMD heeft, is dat de hardware wel uitstekend is en veel performance te bieden heeft, maar dat de drivers en het design van de hardware simpelweg minder goed uit de verf komt in spelletjes. De ruwe performance van een Vega 20 of 64 is een tikkie meer dan een GTX2080, maar omdat de ruwe performance lastiger te vertalen is naar je dagelijkse spelletjes, zijn de benchmarks er niet naar. Het Nvidia aanbod is qua architectuur veel beter gemaakt voor de specifieke load die je spelletjes vragen en dat merk je. Daar staat tegenover dat de meest succesvolle mining rigs gevuld waren met AMD kaarten, zeker in het begin. Die waren heer en meester en Nvidia kaarten die 3x beter presteerde in spellen, presteerde 3x minder in minen. Je merkt ook dat relatief gezien de xbox one en ps4 betere graphics neerzetten dan je zou verwachten gezien de specs. Ook dat komt deels omdat er daar directer voor de hardware een spelletje gemaakt kan worden.

Dat is al heel lang zo en gek genoeg doet AMD er vrij weinig aan. Het geeft ze wel de ruimte om hardware veel langer te gebruiken met kleine upgrades. De Tahiti serie GPU's heeft meer dan 5 jaar dienst gedaan en kan zelfs nu nog meekomen in de nieuwere spellen. Dat zit 'm vooral in driver updates en kleine verbeteringen.
De oude Fermi GPU's van Nvidia kunnen ook nog wel mee komen in de nieuwe spellerjes. Het verschil in prestaties met vergelijkbare AMD GPU's is vrijwel het zelfde gebleven. Ik heb hier nog een GTX 580 en een ATI 5870 werkende voor nood gevallen.

[Reactie gewijzigd door Gekke Jantje op 8 februari 2019 11:30]

Nou is het wel zo dat veel compute taken vooral bij content creation weer CUDA nodig hebben, dat blijft een issue bij AMD. Anders had je met dat geheugen een hele mooie gpu voor Octane, Redshift etc maar die werken nu niet..
CUDA werkt niet op AMD. Bij AMD kun je kiezen uit Stream (AMD versie van CUDA) of je kunt OpenCL gebruiken. OpenCL is door de abstractie laag marginaal langzamer dan CUDA/Stream direct aanspreken, maar heeft als voordeel dat je alleen OpenCL hoeft te gebruiken..

Adobe, AutoDesk en andere ontwikkelaars hebben eigenlijk in de regel altijd wel OpenCL ondersteuning. Echter vanwege het enorme marktaandeel van NVidia in zowel de gaming als desktop wereld (hoewel hier minder extreem dan bij gaming), zijn er wel een aantal ontwikkelaars welke extra optimaliseren voor NVidia..
"CUDA werk niet op AMD" ; dat was de strekking van mijn post ;)

Adobe gebruikt idd meer opengl en opencl versnelling..
Bij autodesk gaat het meer om vieuwports, compute versnelling is vaak weer bijv een renderprogramma, wat weer vaak CUDA is. Al heeft Autodesk bijv wel mental ray / iray (van nvidia) uit 3dsmax gepleurd, bijv.
Helemaal mee eens. De prijs is gewoon... Bizar. Ik begrijp dat fabrikanten het grote geld geroken hebben na de eerste helft van 2018, maar dit kan gewoon niet doorgaan, er is toch geen markt voor zo'n prijzen?
Het probleem zit hem in de 16gb HBM: deze is gewoon zo duur dat ze de kaart wel zo hoog moeten prijzen als ze er niet massaal verlies aan willen leiden.

Eigenlijk hadden ze beter een 8gb versie gemaakt, die ze dan ook een stuk lager konden prijzen.
de kosten voor die redesign van 16gb naar 8gb is het voor AMD niet waard, ze verliezen met de huidige prijs waarschijnlijk al geld voor elke verkochte kaart.
wie weet komt die nog :) eerst de grootste/sterkste
Volgens mij verlies je met HBM dan ook gelijk de helft van je bus.
Als je de helft van de modules gebruikt wel, als je net zo veel chips gebruikt die halve capaciteit hebben wss weer niet.
Jawel hoor.
Alleen niet hier.
Moet helaas hetzelfde zeggen, Deze is alleen interessant als deze fors goedkoper is dan de 2080, of goedkoper dan de Instinct MI50 dan kan je hem voor dergelijke doeleinden inzetten (Niche markt?) Of je moet echt AMD fan zijn dan ja. Als je nog niet over moet wachten tot navi anders is Nvidia nu nog steeds de betere keuze aan de top.
AMD wou gewoon iets om mentaal in the picture van consumenten te blijven. Meer dan enkel het "lagere"' segment.

Deze kaart is een filler. Navi is nog niet klaar of wordt nog duchtig getweaked. En zelfs Navi zal niet het mirakel zijn. Eerder een waardige opvolger voor de R480/580/590. (Jaja, met een stuk hogere performance, maar vergeet niet dat we dan ook weer even verder zijn en de maatstaven mettertijd verschuiven.)

Het lijkt me eerder wachten op de generatie daarna. Daar zal AMD wel met vereende krachten aan aan het werken zijn. Alleen duurt ontwikkeling een paar jaar tijd. (Tenzij je grove fouten in een eerder design kan rechtzetten en zo enorme quick wins kan behalen. Dat lijkt me hier niet het geval.)

TOEVOEGING:
  • Nieuwe drivers gaan de VII ook geen enorme boost geven, denk ik. De architectuur gaat al even mee, en zelfs de Mi50 is al even uit.
  • Neem de uitspraak van AMD dat "board makers are free to create their own custom designs" ook even met een korrel zout. Waarom zouden de board makers dat doen als er maar weinig chips beschikbaar zijn? En als de winstmarge klein of onbestaande is. Bovendien dan nog voor een kaart die geen enorme aantrekkingskracht heeft.

[Reactie gewijzigd door Jack77 op 8 februari 2019 08:39]

Als je ermee gaat minen is ie juist redelijk goedkoop. 90 mh/s
Ik hype niet ,het is wat is . En gezien AMD GPU tak op laag pitje draait. is dit wat ze nog konden doen.
Daarbij verwacht ik dat Navi een nextgen GCN midrange is.

Ik vergelijk de Vega VII met mijn Vega 56 en de drang om te upgraden is er niet dus wacht wel op Navi en wat next gen brengt voor DX12 SDK .
RTX2060 hooguit om DX12 SDK te testen
Hoe reëel is het dat er nog serieuze driver optimalisaties plaats moeten vinden? Vraag me af of het niet wat voorbarig is om nu al harde conclusies te trekken?
Aangezien het feitelijk een die-shrink is van de huidige Vega kun je geen grote prestatie-winst meer verwachten van drivers, tenzij AMD het afgelopen jaar optimalisaties aan de drivers heeft laten liggen.
Der8auer heeft al een video geplaatst betreffende overclocking en daar lijkt de kaart, door de driver, heel raar te reageren. Normaal overclocken geeft hele vreemde resultaten, zelfs met droogijs werkt het niet. Echter, laat je via de software de kaart zichzelf overclocken (op droogijs), gaat ie ineens wel een stuk sneller. Oftewel: ja, de drivers hebben zeker nog wat werk nodig, maar of dit alles gaat oplossen, ik denk het niet. Bij deze nog de video:
https://www.youtube.com/watch?v=JpXGEm0JFfw
Ik had verwacht dat die 7nm kaart efficienter ging zijn qua stroomverbruik ... foute redenering?
Hij is natuurlijk efficiënter. 7% zuiniger en 20+% sneller dan de voorganger, dat is een redelijke verbetering van de performance/watt.

Ik denk dat als je kijkt naar de voordelen van 7nm die AMD aangaf: Of 50% zuiniger bij dezelfde performance of 25% sneller bij gelijk verbruik (of iets daartussenin) dat 7% zuiniger en 20% sneller aardig in de buurt komt van de efficiëntie stap die 7nm zou moeten betekenen.
Jammer dat de resultaten van de GTX 1080TI niet zijn meegenomen in de grafiekjes.
ik ga hem er ff bijzetten, moment...
zou je ook een GTX1070 willen toevoegen?:)
De 1070 is nog niet opnieuw getest op het nieuwe platform: we hebben gezien de tijd eerst de echte concurrenten getest... De 1070 gaan we uiteraard aan de database toevoegen :)
En hebben we nu eindelijk wel betrouwbare metingen? En niet weer met de standaard fouten die we elke keer weer opnieuw krijgen? Zoals videokaarten koud testen waardoor de prestaties met dynamische klokfrequenties, zoals tegenwoordig elke videokaart, veel beter presteren dan de praktijk.

Computerbase heeft hier bijvoorbeeld een mooie test die het verschil in koud en warm laat zien. Bij een RTX 2070 Max-Q gemiddeld 10% verschil. Dat is dan wel een laptop videokaart, maar bij desktop videokaarten heb je dit net zo goed.
https://www.computerbase...._und_warme_testergebnisse

Zelfde geld voor andere tests zijn die nu wel betrouwbaar of moeten we die nog steeds negeren? Hoe wordt het verbruik bijvoorbeeld precies gemeten? Zijn die tests wel betrouwbaar of ook niet? We zien alleen maar wat cijfertjes zonder enige uitleg.

En hoe zit het met het geluid? Is dit nu wel goed? Dus niet meer met de meter veel te dicht bij de videokaart wat er voor zorgt dat de metingen niet betrouwbaar zijn.
Ik kan je hier zeggen dat we nooit kaarten zullen opwarmen alvorens benchmarks te draaien. Niet omdat we dat niet willen, maar omdat de tijd die het dan kost om alles te benchen astronomisch toeneemt. Dan zouden we nooit meer een deadline halen. En dat voor een mogelijk verschil dat niets zal wijzigen aan het algehele beeld en onze conclusie. Ik ben het niet met je eens dat de cijfers daarom compleet onbetrouwbaar zijn.

Omdat custom koelers van fabrikanten en hun bios-instellingen invloed kunnen hebben op langetermijnprestaties/throttling, draaien we ook een duurtest. Zo brengen we in kaart in hoever de prestaties per kaart na 30 minuten teruglopen. Die hadden we ook graag voor de Radeon VII gedraaid, maar de software die we gebruiken kon helaas nog niet met deze kaart overweg. Daarbij wordt dit pas echt interessant als je kaarten van aib's gaan vergelijken, aangezien je dan met verschillende koelers te maken hebt.

Het argument 'dit is een probleem is bij laptops, dus dat zal bij desktops ook zo zijn' is niet meer dan een aanname en gaat geheel voorbij aan het enorme verschil in koelvermogen. Met diezelfde denkwijze zouden desktop-cpu's ook enorm moeten throttlen en we weten allemaal dat dat niet zo is. De vergelijking tussen laptops en desktops gaat mank.
Nee die vergelijking gaat niet mank. Jullie eigen duurtest heeft het vaak genoeg laten zien dat de klokfrequentie bij veel kaarten de eerste minuten drastisch inzakt. Als je dan testen uitvoert die soms maar iets van een halve minuut duren (zoals aangegeven door iemand van HWI een tijd terug) dan krijg je dus slechte metingen in de standaard tests. De duurtest die jullie uitvoeren bevestigd juist mijn punt.

Ook kost dit helemaal niet meer tijd. Jullie doen nu iets wat HWI altijd al doet. Kwantiteit verkiezen boven kwaliteit. Maar het is veel interessanter om minder tests te doen en die goed uit te voeren dan veel tests en dan die slecht uitvoeren.

Ook hier weer waarom zou je een kaart als deze gaan testen op medium instellingen op full HD. Dat slaat gewoon nergens op. Sowieso waarom zou je überhaupt een kaart als deze testen op Full HD? Als je al die nutteloze tests eruit haalt en de tests gebruikt voor goede metingen dan geeft dat een veel beter beeld.

De geluidsmetingen en verbruiksmetingen zijn dus ook nog steeds onbetrouwbaar? Aangezien je dat gewoon negeert.

[Reactie gewijzigd door -The_Mask- op 7 februari 2019 17:39]

Dank je Mask, iemand moest het zeggen.
Het argument 'duurt anders te lang' is voor een échte techsite (je weet wel, die technologie op de proef stelt) geen reden om een dertien-in-dozijn review te publiceren.
Misschien een leuk idee om de rauwe data van de verschillende runs met de verschillende kaarten ook beschikbaar te maken? (Of anders wat meer info over aantallen samples, gemiddelden, afwijkingen, statistische significantie van de verschillen tussen de kaarten enzo)
Volgens mij verwar jij het begrip betrouwbaar met vergelijkbaar. Koud testen lijkt me prima, als je dat maar weet, dat maakt de waarde niet onbetrouwbaar, hooguit onvergelijkbaar met die van een ander test protocol. Ik vind het daarnaast nogal (wereld)vreemd om van een reviewer te verwachten dat hij de kaart eerst opwarmt, dat kost nog meer tijd. Ik vind het ook hard dat je dat een fout noemt. Het zijn gewoon keuzes.
Zelfde geldt voor die geluidsmetingen, waar je die microfoon neerzet is gewoon een keuze, als je het maar elke keer op dezelfde plek doet. Dat heeft niets met betrouwbaarheid te maken, maar maakt het wel lastig te vergelijken met testen waarbij een microfoon verderweg gepositioneerd stond.
Wat heb je aan niet realistische resultaten? Een gemiddeld potje gamen duurt een stuk langer dan een benchmarkje draaien. dus zal de kaart een stuk warmer worden/blijven.
Nee ik verwar dat niet. Tweakers weet trouwens ook al heel lang van de problemen, maar ze doen er gewoon niks aan. Zelf uitleg geven doen ze niet.

Het is onbetrouwbaar omdat elke kaart anders reageert. De ene heeft een klein verschil in prestaties tussen koud en warm de andere heel groot. Daarom moet je een test minimaal 5 minuten uitvoeren. Terwijl sommige tests nu soms minder als een minuut duren is mij verteld door HWI. (HWI en Tweakers delen dezelfde gegevens) Dit zorgt dus voor grove meetfouten zoals te zien is in de test van Compiterbase.

Voor geluid is het ook onbetrouwbaar daarom is er ook een hele standaard voor het meten van geluid. Nu hoeft men zich hier niet perfect aan te houden, maar de huidige methode werkt simpelweg niet goed.
Computerbase heeft hier bijvoorbeeld een mooie test die het verschil in koud en warm laat zien. Bij een RTX 2070 Max-Q gemiddeld 10% verschil. Dat is dan wel een laptop videokaart, maar bij desktop videokaarten heb je dit net zo goed.
https://www.computerbase...._und_warme_testergebnisse
Bij de desktopkaarten net zo goed? Dat lees ik nergens. In het artikel dat je aanhaalt worden de mobiele Max-Q versies juist vergeleken met de desktopkaarten omdat die consistent presteren.
Het is bij desktop kaarten alleen minder groot. Maar wordt ook daar steeds groter door steeds dynamisch wordende klokfrequenties. Aantal jaar terug waren de klokfrequenties gewoon vast wat betreft 3D en was dit geen probleem.
Heb je misschien links naar benchmarks hiervan? Ik denk dat je dit alleen heel misschien op ref kaarten gaat zien. En dat na eerst een uur een stresstest runnen ofzo.
Ja je kunt het bijvoorbeeld zien in de duurtests van HWI/Tweakers. Daar zie je de klokfrequentie in de eerste maximaal 2 minuten vaak flink inzakken. Is inderdaad vooral iets wat je meer ziet bij reference videokaarten, maar die worden hier ook getest, dus het is hier ook van toepassing. Bij non-reference versies met goede koeler en die niet zeer beperkt wordt qua verbruik zie je het veel minder.

Omdat dit echter per videokaart type anders is en de tests van HWI/Tweakers naar eigen zeggen zeer kort worden uitgevoerd is dit nogal een probleem hier.
Outrage en dan nog steeds geen links is vervelend.
Ik ga daarom liever voor Custom kaarten met top koeling maar OC niet
Geluid is gecombineerd met een duurtest vooraf, dus wat het geluid is na 30 minuten gamen. Dit wordt wel nog altijd gedaan op 10cm afstand, maar dat is puur om de getallen uit te vergroten zodat de verschillen duidelijk zijn.

Het stroomverbruik wordt dmv. een PCIe riser gemeten die een log genereert met het verbruik voor PCIe, PEG1 en PEG2 indien die is aangesloten. Dit allemaal met een gemiddelde van een run 4K Ultra in Rise of the Tombraider.
Dit wordt wel nog altijd gedaan op 10cm afstand, maar dat is puur om de getallen uit te vergroten zodat de verschillen duidelijk zijn.
Voor een groter verschil moet je de geluidsdrempel omlaag brengen. De microfoon dichter bij plaatsen zal alleen maar zorgen voor een grotere meetfout. Het is niet voor niks dat de standaarden voor geluidsmeting altijd op een veel grotere afstand wordt gedaan.
Het stroomverbruik wordt dmv. een PCIe riser gemeten die een log genereert met het verbruik voor PCIe, PEG1 en PEG2 indien die is aangesloten. Dit allemaal met een gemiddelde van een run 4K Ultra in Rise of the Tombraider.
Maar hoe precies? Hieraan is totaal niet te zien hoe er gemeten is en of het wel betrouwbaar is uitgevoerd. En zoals in mijn andere berichten is te lezen is het nogal lastig om maar gewoon aan te nemen dat het wel goed zal zijn. Want de andere tests laten duidelijk zien dat jullie flink wat steken laten vallen.
Hoe precies wat? Wat wil je precies weten over de stroommeting anders dan dat het een riser is die stroom meet op alle punten die stroom leveren aan een videokaart?

Ik snap een paar van je andere punten wel mbt de warmte en terug klokken van de kaarten, maar probeer jij dat maar eens binnen een bepaalde tijdslimiet te doen en dat het ook nog betrouwbaar is. Maar je kan natuurlijk ook als een 'echte tweaker' waterkoeling op je videokaart nemen en nooit last hebben van kloks die omlaag gaan door warmte :+
Hoe precies wat? Wat wil je precies weten over de stroommeting anders dan dat het een riser is die stroom meet op alle punten die stroom leveren aan een videokaart?
Wat voor elektronica is er gebruikt voor de metingen? Waarom is dit gebruikt? Hoe is dat allemaal aangesloten? Hoe is het geijkt? Waarom zijn die games gebruikt? En zo zijn er vast nog wel een paar dingen te bedenken.
Ik snap een paar van je andere punten wel mbt de warmte en terug klokken van de kaarten, maar probeer jij dat maar eens binnen een bepaalde tijdslimiet te doen en dat het ook nog betrouwbaar is.
Al zou vaak aangegeven, minder nutteloze tests. Men moet af van de HWI filosofie van kwantiteit over kwaliteit. Alle tijd die bespaart wordt door de nutteloze tests weg te laten kan dan worden besteed aan goede tests. Want zeg nu zelf. Liever één goede test dan 10 slechte.

[Reactie gewijzigd door -The_Mask- op 7 februari 2019 20:08]

Ik denk dat 99% van de gebruikers liever 10 verschillende games heeft die getest zijn op een 'koude' kaart, dan 1 game heel grondig.
99% van de gebruikers weet ook niet wat de problemen zijn van alle reviews. Als je hun uitlegt wat de problemen zijn dan kijken ze daar toch echt heel anders tegen aan.

Neemt niet weg natuurlijk dat het niet 10 maal zoveel tijd kost om de review goed te doen. Dus de keuze is niet 10 of 1 game.
Als je de kaart rond de 10 minuten op moet warmen voordat je een test doet, denk ik dat het wel degelijk 5-10x zo lang gaat duren. Daarnaast ken ik letterlijk geen enkele website die het op deze manier doet. Die vergelijking met laptops gaat zoals al eerder aangehaald door anderen, behoorlijk mank.
Ik zei niet dat je hem voor elke test minimaal 10 minuten moet opwarmen. Er zijn meer dan genoeg manieren te bedenken om er voor te zorgen dat het helemaal niet zoveel meer tijd hoeft te kosten. De tijd die je bespaard door nutteloze tests weg te halen kun je prima gebruiken om de huidige tests wel goed uit te voeren. Dan kun je evenveel tijd kwijt zijn aan de tests, maar voer je ze dan wel goed uit. Ben je alleen maar een paar nutteloze tests kwijt en uiteindelijk even lang bezig. Iedereen blij, lezer blij doordat die betere test kan lezen, de persgroep omdat ze geen extra tijd uurloon hoeven te betalen en de schrijver omdat die dan ook voldoening kan halen. Ik kan mij namelijk zo voorstellen dat je weinig voldoening overhoudt aan een slecht stuk.

Wat betreft dat het een manke vergelijking is. Net zei je nog dat je mijn uitleg snapte. Daarnaast laat jullie eigen duurtest zien dat het probleem wel degelijk ook aanwezig is bij desktop videokaarten. Het is dan ook geen manke vergelijking, bij laptops zie je het alleen nog beter. Maar ook bij desktop wordt het elke generatie net wat meer.

Er is uiteindelijk maar één probleem dat overwinnen moet worden en dat is de wil om het goed te doen, die lijkt al jaren te ontbreken.

[Reactie gewijzigd door -The_Mask- op 7 februari 2019 21:08]

De wil is er wel, maar het moet ook haalbaar zijn. En zelf kom je ook nooit met fatsoenlijke ideeën die niet ongelooflijk veel tijd kosten. Het is vaak alleen maar alles afknallen omdat jij denkt dat het niet goed is, maar er missen altijd concrete voorbeelden van hoe het wel kan en als gebruikers zoals hierboven om linkjes vragen, krijgen ze die ook niet.

Niet alles is met een zwart/wit plaatje op te lossen. Zeker wanneer het gaat om boostkloks icm warmte en vervolgens ook performancedegradatie, zeker op desktop, is het niet allemaal even simpel. Een laptop blijft meestal wel even warm, dus is een koud/warme laptop relatief makkelijk te vergelijken. Een beetje desktop kaart is tegen de tijd dat je bepaalde levels van een game hebt geladen alweer koud genoeg dat ie opnieuw warm gemaakt moet worden.

Als je zoiets goed wilt doen, zou je met bepaalde intervallen performance moeten meten over een bepaalde tijd, maar daarbij komt dan dat zoiets altijd in een bepaalde loop gebeurd moet zijn. Je kunt ook niet elke keer een level opnieuw laden en dus moet je iets hebben dat continue draait en betrouwbaar performance kan loggen met een gemiddelde fps, anders krijg je simpelweg onze duurtest grafieken, waarvan je overigens ook prima zelf een inschatting kan maken wat voor invloed het heeft.
Dit is gewoon weer slap gelul omdat de wil er niet is. Ik heb meermaals manieren gedeeld en nee het hoeft zoals meermaals aangegeven niet extra tijd. Dat je iets niet ziet betekend niet dat iets niet bestaat...

Het is echt puur willen. Want dit is nu de zoveelste nieuwe testmethode. Maar elke keer worden de grote problemen niet opgelost. Ik heb alles al geprobeerd om het beter te krijgen, pagina's vol geschreven tot zelfs langskomen maar niks werkt, simpelweg omdat de wil er niet is. Zolang dat niet veranderd zal er ook geen goede test komen.
Klinkt meer als een slap excuus om zelf geen linkjes aan te hoeven dragen of methodes waarmee het kan wat JIJ wilt.

Wij denken regelmatig na om dingen te verbeteren, maar key hierin is altijd haalbaarheid, herhaalbaarheid en vergelijkbaar. Daarnaast moet er natuurlijk ook een bepaalde tijdslimiet zijn en kunnen we niet zomaar alles doen.

[Reactie gewijzigd door rsnubje op 8 februari 2019 09:42]

Volgens mij wil iedereen betere reviews, de enige die het niet lijken te willen zijn de mensen die het moeten maken. En zolang dat zo is heeft het voor mij helemaal geen enkele zin om voor de zoveelste keer alles weer vanaf het begin aan alles uit te leggen, aangezien er toch niks mee gedaan wordt. Misschien moet je dus je collega's eerst maar overtuigen en veel weten ongetwijfeld ook wel de hele opstellen die ik al geschreven heb.
Je hoeft niet meteen zo op de man te spelen hoor. Maar even een paar dingen. Je beticht ons, of een collega ervan bewust dingen te negeren in de bovengestelde vragen, maar als ik vragen aan jou stel over linkjes (andere gebruikers ook) en voorbeelden vraag van sites die doen wat jij vraagt, negeer je dat net zo graag en krijg je dingen terug zoals bovenstaande reactie.

Ik sta altijd open voor suggesties en verbeteringen, maar als ik geen suggesties krijg aangeboden en alleen maar te horen krijg 'dat heb ik al zovaak gedaan', krijg ik niet de indruk dat je graag wilt dat het verandert en klaag je gewoon graag. Voor zover ik weet heb je meer met collega's van me gesproken en hier en daar zal er vast een topic zijn over e.a., maar daar weet ik verder vrij weinig van, dus jouw bovenstaande reactie kan ik dan ook weinig mee.

Je geschiedenis met zowel HWI als Tweakers is langer dan dat ik er werk, dus kun je me het moeilijk kwalijk nemen dat ik niet alles heb meegekregen.

Wat mij betreft is dit nu af en stel ik voor dat je of een topic maakt, of pm's gaat sturen, want dit gaat niet meer over de Radeon VII.
Op veel punten heeft -The_Mask- gelijk, alleen zie ik op dit gebied het steeds commercieler worden van Tweakers.net van de laatste jaren als boosdoener hierin.

Ondanks dat mijn account het niet reflecteert, ben ik al sinds eind 1999 een trouwe bezoeker van Tweakers.net en heb gezien dat zeker de laatste Jaren de technische diepgaande inhoud steeds minder is geworden.

Het zou mooi zijn als Tweakers.net zich weer zou afscheiden van de andere zogenaamde techsites door weer de diepte in te gaan. Zodat er weer vraag is naar engelse vertalingen van een review, zoals in het verleden wel eens het geval is geweest.
Ik denk dat je het beter bij de techniek kunt houden, want met dit soort bijdragen bewijs je jezelf geen dienst.

Hardware Info is gestopt met de Engelse publicatie om meerdere redenen, die gewoon zijn toegelicht in een bericht voorafgaand aan het offline gaan. Geen daarvan heeft iets te maken met wat jij zegt. Sterker, bepaalde artikelen, met name grote vergelijkende tests, werden op de Engelse site vele malen beter gelezen dan op de Nederlandse.

De achtergrond van deze beslissing is mysterieus noch geheim. De Engelse site kreeg al te lang te weinig aandacht, door tijd- en geldgebrek (Nederlandse [takken van] bedrijven adverteren niet op Engelstalige media, Engelse adverteerders moet je werven, daarvoor heb je iemand in de UK/US nodig]. Vanwege een technische afweging werd het eind vorig jaar noodzakelijk de knoop door te hakken, want code updaten kost geld. De keuze was investeren en ontwikkelen, óf vooralsnog de stekker eruit. Investeren in een niet-Nederlandstalige titel strookte niet met het Persgroep beleid, waarmee de beslissing feitelijk was gemaakt: een puur bedrijfsmatige beslissing.

Je mening over het nut van Hardware Info publicaties is de jouwe. Onze bezoekcijfers geven aan dat niet iedereen die deelt. We blijven uiteraard waar mogelijk verbeteren, in samenspraak met bezoekers die open staan voor een discussie met meer dan alleen het eigen perspectief.
Dat is een hele grote, en ook verkeerde aanname over de reden dat we gestopt zijn met HWI Engels. Maar ik denk dat iedereen er baat bij heeft dat jullie weer fijn over gaan op het onderwerp van deze review.
Mijn GTX 1070 houdt eerlijk gezegd altijd zijn maximale boost clock van 1980 Mhz vast. Bij de GTX 660 Ti PE was dat niet anders (had MSI een mod voor). Het hangt sterk van je airflow af. Dus dat wordt voor een reviewer lastig om eerlijk mee te nemen. Immers ik heb een grote Dark base 700 met prima airflow, maar iemand met een ITX kast zal dat anders ervaren.
Zou je ook een nvidia 8800GTX willen toevoegen? Gewoon voor de fun :D
nee, we testen eerst nog een 3dfx voodoo 2 op het platform, die heeft voorrang :D
Prima! De 8800GTX start heel misschien nog een enkele game uit de lijst :D

[Reactie gewijzigd door Gamebuster op 7 februari 2019 17:22]

En de niet-TI 1080?

Gezien de AMD kaarten nog vrij rap in prijs dalen, is het handig om andere items er ook nog bij te zetten, gezien ie over een half jaar misschien in de buurt komt qua prijs en je dus wel wilt weten hoe het zit.

Ook mis ik eigenlijk de VR benchmarks. Hoe doet ie het op redelijk hoge resolutie met de focus op hoge FPS? Wat moet je dan wel of niet laten zitten?
We hebben die nog niet getest op het nieuwe testplatform, want net als bij de 1070 is tijd een factor: het kost een paar dagen om een kaart te testen. We hebben voor deze launch voornamelijk op concurrenten geselecteerd die nog te koop zijn: een 1080 kan ik gek genoeg nergens meer kopen. (da's een discussie op zich: hoe heeft Nvidia al die Pascal-kaarten, waarvan er zoveel over zouden zijn gebleven, allemaal uit de verkoop gekregen? D'r is nauwelijks nog iets van 10xx te koop...)
Ik heb nog een 1080 voor je liggen, ruilen voor een RTX2080? Ik zou er nog een Tweakers mok bij kunnen doen, maar ja, dan is het geen eerlijke deal meer natuurlijk. :+
We hebben de 1080 nog wel liggen (maar toch bedankt voor het gulle aanbod :P ), maar met prioritisering van welke kaarten getest worden hebben we voor verkrijgbare kaarten gekozen, dat bedoelde ik... De 1080 gaan we nog toevoegen no worries :)
Nouja goed, ik weet niet wat er allemaal nog te koop is en ik denk dat het ook niet nodig is om elke test met elke kaart te doen om een idee te krijgen. Het gaat hier voornamelijk om de directe concurrenten, waarbij de iets verdere concurrenten er alleen voor beeldvorming zijn. Als je een Mercedes alleen met BMW's en Mercedessen gaat vergelijken, dan mist er ook nog wel wat imo.
. We hebben voor deze launch voornamelijk op concurrenten geselecteerd die nog te koop zijn: een 1080 kan ik gek genoeg nergens meer kopen. (da's een discussie op zich: hoe heeft Nvidia al die Pascal-kaarten, waarvan er zoveel over zouden zijn gebleven, allemaal uit de verkoop gekregen? D'r is nauwelijks nog iets van 10xx te koop...)
Dan heb je toch niet helemaal goed opgelet. Nvidia had al eerder aangegeven dat de hogere kaarten al vrij snel op waren maar dat vooral de x6 kaarten het probleem zijn. Daarover heeft de CEO verklaart dat dit komt door een onverwachte grote hoeveelheid RX 580 kaarten die onverwachts het retail kanaal in zijn gepushed. Blijkbaar leverde AMD deze kaarten eerst aan miners en gaan ze nu naar de retail. Waar het eerst iets van 20 Nvidia op 1 AMD was het ineens iets van 50/50 aldus de CEO. Nvidia had dat niet verwacht. Hence honderden miljoenen aan overschotten.

Los daarvan lijkt het mij voor GTX 1080 bezitters in de basis goed om te weten of deze Radeon VII een interessant alternatief is. (Niet dat de kans groot is dat ze er één kunnen bemachtigen, maar dat is een andere discussie).

[Reactie gewijzigd door sdk1985 op 8 februari 2019 21:21]

Top! Zo te zien kan de 1080TI nog steeds heel goed mee met de nieuwe generatie videokaarten op de 2080TI na.
Nou als je zo kijkt lijkt de 7 gelijk aan de 1080 ti. Bij hwi staat die er wel bij.

[Reactie gewijzigd door NMN1665 op 7 februari 2019 15:08]

Wel jammer, maar je kan het zelf ook ongeveer vergelijken. Een 1080Ti zit in veel gevallen namelijk tussen de 2080Ti en 2080 in. Dus als je bij de test het gemiddelde van allebei pakt heb je ruw weg de performance van de 1080Ti.

Edit: Nu dat hij geupdate is zie ik dat ik toch niet helemaal gelijk had. Oops..

[Reactie gewijzigd door BUSINESSRA op 7 februari 2019 15:37]

Dus amd loopt nog steeds achter de feiten aan, Beetje jammer weer.
Ik had het al verwacht dat het een dud zou worden en mijn vermoedens zijn dus waar gebleken.

And so Nvidia stays king of the hill, and so the prices go up again... yeey.
Volgens mij mis jij wat in de verhaal lijn. Dit was geen game kaart en is er allen als een gat opvulling waar amd laat zien dat ze met zelfde generatie zonder rtx toch mee kunnen komen in high end met een kaart die daar niet voor ontworpen is en toch even een rek gewft voor de veryraagde navi
Tussen een 2070 en 2080 zitten is nou niet echt "meekomen".
Met productie is het heen en weer, dus ook geen winnaar daar, en de prijs en oplage (5000 wereld wijd) is ook niet competitive genoeg om het een viable product te noemen als de concurentie betere offers heeft.

Dit is een poging om snel wat centjes in de zakken te krijgen. Navi komt pas ergens 2020 zo niet 2021, dan heeft Nvidia weer een opvolger van de 2080 en lopen ze weer achter.

If anything, is het voor de AMD fanboy die wat anders wil, maar als je al een vega 64 hebt dan is deze kaart overbodig gezien de performance difference en de prijs. Ik zou het het niet waard vinden iig om te upgraden van een vega 64 naar deze kaart.

[Reactie gewijzigd door Joeri.Bijlsma op 7 februari 2019 16:06]

je moet echt even verder lezen, deze kaart kost ze geld en is puur voor marketing het is niet bedoelt als viable marketing. deze had nooit als release plaats moeten vinden.
Er is niks verder te lezen, wat de achtergrond van de kaart is doet niet echt ter zake, AMD heeft hem op de markt gebracht, en zet hem als game-kaart neer. Daar wordt hij op beoordeeld.
Het is geen winnaar idd, maar ze kunnen prima meekomen. Het is maar een klein deel van de GPU gebruikers die deze kaart kan betalen. En de 2080ti is voor de meesten al helemaal buiten bereik. Met een midrange kaart en een goede prijs bereik je meer mensen.
Nou nee ze komen uit zeer zwarte tijd waar ze met Zen en nu eens wel goede foundry support tegen iNtel kunnen concurreren. Maar ze zijn wel zeer beperkt zie ook chiplet stratigie voor CPU dat is meer voor productie efficentie of Monolitische chips zit er kwa R&D Bin en Yield rendement gewoon niet in.
Daarnaast dat GPU tak even opzij moet voor de CPU tak.

Het is goed dat iNtel nV zwaar geld vraagt voor hun producten gezien gamers Retail markt volk ook AMD bij minste verschil al lieten vallen als baksteen.
Niet overtuigend in alle games, maar toch verslaat hij een GTX2080 in Battlefield V en Far Cry 5 bijvoorbeeld. Behoorlijke power hoor en AMD kan weer meevechten aan de top.

En als je de compute functies goed kan gebruiken dan lijkt het zelfs een erg goede koop. Voor gaming maakt de overdaad aan hbm geheugen hem misschien te duur.

Had wel meer verwacht van het energieverbruik op 7nm, daar is de achterstand op Nvidia toch erg groot helaas.

[Reactie gewijzigd door Goron op 7 februari 2019 15:55]

en nvidia moet nog een stap naar 7nm maken.
AMD moet bigger high-end chip maken voor 7nm concurentie.

nvidea zou 1,5 meer transistor kunnen besteden voor 7nm RTX3080
AMD zou 2x meer transistor kunne besteden voor 7nm high-end op lage klok

verbruik handicap is kleinere chip op hogere klok is niet goed voor TDP
Niet overtuigend in alle games, maar toch verslaat hij een GTX2080 in Battlefield V en Far Cry 5 bijvoorbeeld. Behoorlijke power hoor en AMD kan weer meevechten aan de top.

En als je de compute functies goed kan gebruiken dan lijkt het zelfs een erg goede koop. Voor gaming maakt de overdaad aan hbm geheugen hem misschien te duur.

Had wel meer verwacht van het energieverbruik op 7nm, daar is de achterstand op Nvidia toch erg groot helaas.
Toch raar dat het verschil van Battlefield m.b.t. andere games zovele malen groter is. Komt dat dan de andere games zoveel minder zijn geoptimaliseerd voor AMD GPU's? Je zou zeggen dat AMD een voordeel heeft omdat devs weten hoe ze ondertussen moeten omgaan met de GPU die ook in de Playstation en Xbox zit.

Anderzijds Battlefield is altijd wel een game die niet gericht is pracht en praal, maar op zoveel mogelijk mensen in een zo groot mogelijke map. Ofwel veel textures en daar is de VII erg snel in dankzij het HBM2 geheugen. Iets wat je ook zag bij de Fury reeks.
DX11 scoort AMD altijd wat minder in dan wanneer in DX12. Maar BF laat juist de power van AMD kaarten een stuk beter zien dan vele andere games.
De naam verraadt de herkomst van de gpu...
Ik denk niet dat ik de enige ben die bij VII eerder dacht aan het getal 7 dan aan Vega 2... ;)
Over de naam, ik zag in een video met iemand die AMD representeerde dat de naam voor zowel Vega 2 als 7 staat gezien de chip op 7nm is.

Zeer leuke speling op de naam!
Prestaties vallen me niet tegen. Een goeie concurrent voor de RTX2080. Wat me erg opvalt is dat de kaart erg consistent is wat betreft frames (Zie Wolfenstein II grafieken). Waar de RTX2080 en zelfs de RTX2080TI een gat heeft tussen de laagste en de hoogste van ruim 60fps zit, is bij de VII erg klein van ongeveer 20fps verschil. Ook doet de VII het erg goed op hogere resoluties, mede door de hoeveelheid HBM, 16GB is niet niks.
FPS in dit geval is geen goed vergelijking. Percentueel komt het op de zelfde neer bij beide kaarten.
Mogelijk komt dat door de HBM2 aanzienlijke bandbreedte voor 4K
Het blijft me verbazen dat iedereen nog steeds zo negatief reageert op deze kaart.
Alles is toch redelijk naar verwaching? Vantevoren was al duidelijk dat het niveau van een 2080TI niet gehaald zou worden.
Gekeken naar de stroomproductie de laatste jaren van AMD is het ook naar verwachting dat het stroomverbruik van deze R7 nog steeds beduidend meer zou zijn dan die van Nvidia.

Wat de meeste mensen daarentegen vergeten is dat AMD (1160 mil; 2017) een behoorlijk ander R&D budget heeft dan Nvidia (1797 mil, 2017).

Wat we dan nog vergeten is dat AMD dit gehele budget gebruikt voor zijn CPU en GPU lijn, en Nvidia dit gehele bedrag alleen maar gebruikt voor het ontwerpen van GPU's (software en dergelijke niet meegerekend).

Eigenlijk is dit nu vrijwel hetzelfde als de CPU lijn. Nog steeds niet zo goed als de grote concurrent, qua pure kracht (IPC) en stroomverbruik maar wel een prima product.

En toch reageert iedereen bij Ryzen direct verbouwereerd en onder de indruk, en als het om GPU's gaat is het direct bagger en lijkt het nergens op. Is het in beide situaties niet vrijwel hetzelfde? Namelijk indrukwekkend dat AMD nog met de grote jongens mee kan komen, ondanks hun budget/marktpercentage?

Terug naar het product: als je op dit moment zo'n 700 euro wilt betalen voor een GPU en je wilt de beste prestaties dan neem je een 2080. Wil je graag betere ondersteuning voor Linux of gewoon graag wat anders dan Nivida. Dan heeft AMD toch weer een prima product.

[Reactie gewijzigd door osseh op 7 februari 2019 18:21]

Yep. Het is tegenwoordig k*t of het is: "WoW! Epic! Super! Vet, man!". Het is zwart of wit, grijs bestaat niet meer. :+

Deze Radeon VII is gewoon een degelijke kaart, niet meer en niet minder en zeker wanneer je aan content creation doet en/of Linux draait. Wanneer je op 4k gaat gamen, dan zijn de prestaties van het niveau 2080 RTX. Dus ik ben het met je eens. De soep wordt niet zo heet gegeten; de negatieve reacties zijn overtrokken. De kaart presteert gewoon goed en naar verwachting.

Ja, ik had ook graag gehad dat AMD nVIdia van de wereld had geblazen met een videokaart van maar
€650.-. ...Maar laten we wel enigszins realistisch blijven met zijn allen. :+
Op CPU gebied lopen ze dichter bij de concurrentie en is cijfer neuken.
Op GPU gebied doet AMD het stuk rustiger aan als zijnde stuk minder in de pijplijn.
sinds paar jaar ook geen full nextgen productlijnen uitrol. Hoop rebranding.
AMD Comeback is zwaar vanuit diepe dal waar de GPU tak even de CPU tak moet laten voor gaan.

Ik denk eerder het is zwemmen of verzuipen was en uit diepe afgrond omhoog kruipen.
Dan kan je niet wild doen om zwaar uit te pakken zonder cash om TMSC GF productie pipeline te vullen
Ook R&D zal afgelopen jaren iig GPU tak stuk minder hebben dat minder teams parallel bezig zijn aan meerdere chips
Helemaal mee eens. Je zou ook verwachten dat wie niet competitief gamed voornamelijk in 4k speelt (zo duur is een 4k monitor / tv niet meer), waarmee deze kaart snel veel interessanter wordt, zeker met een iets lager voltage: met 0,1V minder verslaat hij de 2080 in stroomgebruik, zie https://www.computerbase....nitt_performance_pro_watt
Granted, dat je zelf het stroomgebruik moet tweaken is wel minder.

[Reactie gewijzigd door Morkatog op 9 februari 2019 10:19]


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True