Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

'AMD Radeon VII-videokaart is zeer beperkt verkrijgbaar'

Volgens verschillende bronnen is de AMD Radeon VII-videokaart die donderdag uitkomt in Europa zeer beperkt verkrijgbaar. In het Verenigd Koninkrijk zouden het gaan om minder dan tweehonderd exemplaren, in Frankrijk en Spanje slechts twintig per land.

De meest concrete cijfers komen van het Overclockers.co.uk. Op het forum zegt een beheerder van de webshop dat er donderdagmiddag zo'n 76 kaarten op voorraad zullen zijn. Het zou gaan om meer dan de helft van de kaarten die beschikbaar zijn in het Verenigd Koninkrijk. De beheerder zegt een order voor duizend stuks bij AMD geplaatst te hebben, maar dat aantal kan de fabrikant niet leveren.

Volgens de Franse website cowcotland zijn er in Frankrijk en Spanje maar twintig Radeon VII-kaarten beschikbaar. De prijs van 699 dollar zou vertaald worden naar 739 euro. In Frankrijk zou bovendien maar één webwinkel de nieuwe videokaart kunnen leveren. Details over de beschikbaarheid van de Radeon VII-videokaart in de Benelux zijn niet bekend. Ook is niet duidelijk of in andere werelddelen er meer een grotere voorraad is en de leveringen snel na de introductie zullen toenemen.

De Radeon VII-videokaart maakt gebruik van dezelfde Vega 20-gpu als de Instinct Mi 50-accelerator, een kaart die AMD waarschijnlijk veel duurder verkoopt. Ook heeft de Radeon VII net als die accelerator 16GB hbm2, dat geheugentype is schaars en duur.

AMD kondigde de Radeon VII tijdens de CES-beurs in januari aan. De videokaart is vanaf donderdagmiddag te koop. Dan verschijnen ook reviews van de videokaart online.

Door Julian Huijbregts

Nieuwsredacteur

07-02-2019 • 10:51

187 Linkedin Google+

Reacties (187)

Wijzig sortering
Het was ook eigenlijk niet de bedoeling de VII uit te brengen. AMD had Vega 7nm winstgevend op de markt gezet in compute, en had Navi 7nm op het oog voor de volgende generatie gamer-enthusiast-GPU's. Echter bleek er een onverwacht probleem bij de laatste tape-out te zijn, waardoor dat proces op nieuw moest en Navi met minstens 3 maanden werd vertraagd.

AMD had de Radeon VII kort op de planning staan maar deze gecancelled toen Navi er goed uitzag en Turing tegen bleek te vallen. VII was namelijk tegenvallend in game-prestaties voor een 7nm chip, en zou door HBM2 te duur worden om echt competitief te zijn in dat marktsegment. Kort was de productie opgeschaald ter anticipatie van de RTX serie, zodat na het order tot cancellen er een ~10.000 stuks klaar lagen.

Maarja, toen werd Navi vertraagd. Om te zorgen dat ze geen mindspace zouden verliezen, is toen besloten de VII alsnog op de markt te brengen, waarbij ze twee vliegen in 1 klap slaan; enerzijds het behoud van relevantie, immers hebben ze een GPU die 'on par' is kwa prestaties met nVidia's aanbod in hetzelfde prijssegment, en anderzijds konden ze de voorraad van de korte 10.000piece tape-out nog verschepen.

Wat dit wel betekent, is dat AMD waarschijnlijk verlies of in ieder geval zeker geen winst maakt op dit setje Radeon VII kaarten, waardoor het vanuit dat oogpunt logisch is dat hij maar slecht verkrijgbaar zal zijn; AMD heeft geen enkele reden om nog een batch the mass-producen op verlies. In die zin is het een soort van paper-launch, puur om wat potentieel verlies te minimaliseren en in ieder geval tot Navi uitkomt nog 'op de kaart te staan'.

[Reactie gewijzigd door Boxman op 7 februari 2019 12:02]

Inderdaad zo zie ik het ook.
Misschien hadden ze de GPU's nog wel in de instinct lijn kunnen gebruiken. Maar als er al wel PCB's en koelers gemaakt waren kan je die niet hergebruiken.

Zolang ze er niet te veel verlies op maken is het opzich geen ramp je moet het dan meer als "reclame" zien om Radeon en AMD op de kaart te houden bij gamers.

Met Navi kunnen ze weer leveren aan het grote publiek. Die zit straks ook in een veel betaalbaarder prijssegement (of in ieder geval de eerste versie die er van uit komt. Ik verwacht zelf nog wel een keer een "Big" Navi welke een stuk sneller zal zijn dan deze Radeon VII).
Eindconclusie....kansloos product?
Dat denk ik niet. Er zijn genoeg mensen waaronder ik zelf die geen nVidia willen. In mijn geval vanwegen zaken zals GPP. nVidia maakt mooie chips maar het is qua bedrijfsvoering echt een rot bedrijf wat geen eerlijke concurrentie strijd voert. Ze gaan soms zelfs verder dan Intel en die zijn ook heel erg smerig als het om dat soort dingen gaat. En dat gedrag wil ik niet supporten dus ik koop die producten niet meer. Als genoeg mensen dat gaan vinden gaan ze er vanzelf over na denken (al vrees ik dat dat nooit gaat gebeuren want de meeste mensen denken daar niet over na of weten niet wat er gebeurd. Maar goed ik wil er mijn geld niet aan uit geven om het te ondersteunen).

De kaart is even snel als de RTX 2080 en ongeveer even duur. Er worden er vast niet heel veel van gemaakt. Dus wat er gemaakt wordt kunnen ze dan wel kwijt aan mensen die op zoek zijn naar een AMD kaart die sneller is als een Vega 64.

En zoals ik al zei het is een soort van reclame. Misschien geen hele goede als in ze kunnen de prestatie kroon niet overpakken. En het verbruik zal hoger zijn dan de nVidia tegenhanger. Maar het is wel weer een snellere kaart die in het High end segment mee kan doen. Ipv dat ze alleen maar kaarten hebben die pas vanaf de onderste helft van de prestatie tabel mee kunnen gaan doen. Het is denk ik meer bedoelt om op de kaart te blijven staan en er niet af te vallen.

Een goed verdien model is het inderdaad niet. Maar de aantallen zijn zo laag dat het niet uit maakt.
Maar ze hebben Navi wel snel nodig ja gelukkig komt die er nog wel aan. Ik verwacht die toch wel ergens in Q3/Q4.

[Reactie gewijzigd door Astennu op 7 februari 2019 12:58]

Ben je niet bang dat de driver-ondersteuning op een enorm laag pitje wordt gezet als ze er maar een stuk of 10.000 produceren?
Wat Boxman idd ook aangeeft het is gewoon Vega en dat is weer GCN based dus die driver ondersteuning maken ze toch al. Je er zijn wat specifieke optimalisaties voor Vega 20 mogelijk die niet voor Vega 10 gelden. Maar stel ze zouden dat niet doen heb je nog steeds die Vega architectuur waar ze wel voor optimaliseren en dan presteert de kaart nog steeds goed voor een Vega kaart.
Ik vind dat je een beetje te pro AMD reageert op het nieuws. Sinds wanneer is het acceptabel om een product te lanceren en er dan voorlopig niet genoeg te hebben? Het is iedere keer hetzelfde gedoe met de kaarten van AMD Radeon. Na de sterke HD7970 die wel gewoon verkrijgbaar was is het met de high-end kaarten iedere keer gezeik. Te duur, gebruiken teveel stroom en leveren te weinig performance.
Zie de review hier op Tweakers zelf. En door de magere verkrijgbaarheid zal de prijs niet naar beneden gaan, en die van de 2080 is dat inmiddels wel vergeleken met de adviesprijs.

Dus wat houden we over? Een kaart die het op alle vlakken weer net niet is. Vergeleken met de concurrentie: te duur, slechter verkrijgbaar en niet genoeg performance. Klinkt allemaal heel negatief, maar als je er van een afstandje naar kijkt dan is dat wel de conclusie. Uiteraard zijn er allerlei redenen om te kiezen voor de een of de ander. Maar puur bang-for-buck is dit de enige conclusie die je kunt trekken.

En dat is voor de consument gewoon jammer. Want die zou graag zien dat ze wel kunnen concurreren met Nvidia. Maar dat kunnen ze alleen in de onderste en midden regionen.
Toen ik dit bericht schreef waren de reviews van de kaart nog niet uit. Dus dat is dan een beetje makkelijk praten ;)
Het en ik blijf bij mijn standpunt. Het is een kaart die er voor zorgt dat AMD niet onder aan de charts beland en dat ze wel iets hebben wat rond de RTX 2080 classe mee kan doen.

Daarnaast is het een optie voor mensen die perse geen nVidia willen. Is het een goede deal? nee zeker niet qua prijs prestatie verhouding kan je beter een Vega 56/64 halen of een RTX 2060/2070.

De 2080 en 2080 Ti zijn ook slechte deals. Maar mocht je meer performance nodig hebben dan een Vega 64 en wil je perse geen nVidia dan is er wel een keuze.

Ik ben ook een beetje pro AMD want ik haat de manier van bedrijfvoerig van nVidia. Hier komt er om die rede ook nooit meer een nVidia kaart in. Na GPP was bij mij de maat vol. Ze maken erg mooie chips maar ze zijn er zeker niet voor de gamers en bewust bezig de markt zo ver mogelijk kapot te maken en willen maar al te graag een monopoli positie hebben. En om daar te komen halen ze smerige dingen uit. Ik pas daar voor.
Maar is dat dan wel eerlijke concurrentie en bedrijfsvoering? Een kaartje maken dat niemand kan kopen om maar vanboven in de benchmarks te staan.

Ik wil van Nvidia af zonder hoofdpijn graag.

Ik sluit me verder volledig aan bij hukkel80
De Titan kaarten worden ook gekocht zelfs de Titan V van 3000 euro.
De Radeon VII's prijs stelling is niet zo idioot als die van de Titan kaarten. Je hoeft hem niet ge kopen je kan ook voor een goedkopere Vega 56 of 64 gaan.

Voor chips die beter kunnen concureren moeten we gewoon nog even geduld hebben.
De architectuur is nog steeds Vega, dus ze hoeven voor deze kaart niet van de grond af te innoveren kwa driver support. De fundamentele verschillen zullen niet groot zijn, het is vooral een die-shrink voor meer performance/watt. En iets minder relevant, wordt dezelfde chip wel grootschalig gebruikt en ondersteund in het compute marktsegment - nu is dat inderdaad wat anders dan gaming, maar globaal gezien zal deze chip niet zonder support komen te zitten.

[Reactie gewijzigd door Boxman op 7 februari 2019 13:39]

Volgens mij was het hbm 2 geheugen te duur, en als ze geen winst maken kunnen ze de kaart toch duurder maken of zie ik dat verkeerd?Alhoewel die prijs niet zuinig is.Was er al een synthetische benchmark op gedraaid hier op tweakers?
Klopt dat is altijd het issue van Vega en Fiji geweest. HBM is een dure techniek.
En je ziet dan ook dat nVidia het alleen in het datacenter gebruikt.

Net als GDDR3,5 en HBM1 heeft AMD HBM 2.0 ontwikkeld. AMD heeft in het verleden wel vaker het voortouw genomen en in dit geval heeft het wat nadelen gehad voor de desktop kaarten in de vorm van de prijs.
Door het al beperkte R&D budget is een grote polaris varriant geschrapt en moest vega die rol ook gaan vervullen. Kosten technisch was een grote Polaris chip met GDDR5X interessanter geweest. En qua prestaties zou die dicht tegen Vega 64 aan gezeten hebben. (tenzij een game rapid pack math ondersteund dan heeft Vega een groot voordeel)

De kaart nog duurder maken gaat gezien de prestaties niet. Dan is de RTX 2080 veel interessanter. Een hoger verbruik en wat minder features zijn misschien nog enigsinds door de vingers te zien. Maar als dan ook de prijs nog hoger is voor gelijke prestaties wordt het sowieso negatief in de reviews.
GPP schijnt gestopt te zijn aldus nieuws uit mei 2018.
Dat klopt omdat te veel consumenten pissed waren geworden.
Als dat niet geweest zou zijn hadden ze het door gezet.
Maar puur het feit dat ze het geprobeerd hebben is voor mij genoeg. Dit gaat zeker niet het laatste zijn wat ze gaan proberen. AMD is snel genoeg voor de games die ik speel dus ik blijf gewoon bij die kaarten. Ik heb geen 2080 Ti performance nodig. Vega 64 deed het al goed genoeg nu met Radeon VII kan het ook nog sneller.

Maar ik wacht zelf denk ik op Navi. Eerst maar eens en CPU upgrade doen.
Bedankt voor je onderbouwing :)
De reden die AMD zou kunnen hebben om meer batches te maken is juist mindspace in mijn mening. Wat je zegt klopt allemaal als een bus maar wat ik wel denk is dat er best veel geinteresseerde zijn voor Radeon VII, die er op zitten te wachten en super enthiousiast ervan zijn geworden en hem super graag willen kopen maar uiteindelijk niet kunnen kopen omdat hij er niet is. Dat is echt funest voor positieve mindspace en al helemaal qua relevantie. Iets is niet relevant als het er niet is.
Niet zo heel lang geleden werd nog flink betwist dat deze kaart een beperkte oplage zou krijgen en waarschijnlijk verliesgevend voor AMD zou zijn. Wat dat betreft is het positief dat jouw post nu op +2 staat. Echter maak je wat mij betreft op het eind wel een te grote sprong:
In die zin is het een soort van paper-launch, puur om wat potentieel verlies te minimaliseren en in ieder geval tot Navi uitkomt nog 'op de kaart te staan'.
Reken hier nou maar niet op. De kans is veel groter dat Navi een mid-range vervanger van Polaris wordt. Historisch gezien is dat precies wat AMD Radeon doet. Eerst de mid-range en dan pas later de high-end kaart. Met die strategie is niets mis, sterker nog Nvidia heeft hem ook weleens geleend, echter het heeft wel consequenties voor het toekomst beeld.

Het toekomst beeld dat ik heb is dus net even anders. Eerste plaats van mijn voorspelling is dat we eind van het jaar (september oid) pas midrange Navi gaan zien. Deze kaarten gaan niet in de buurt komen van de RTX 2070/RTX 2080 en alles daarboven. Er gaat wat mij betreft op dat moment nog geen high-end model tussen zitten.

Vervolgens is het wachten op de high-end variant. Hoe lang zit daar tussen? Polaris kwam in juni 2016 en Vega in augustus 14 2017. Dat zijn 14 maanden. Ook Nvidia doet er bijna een jaar over; de 1080 kwam in mei 2016 terwijl de 1080ti er maart 2017 was; 10 maanden. Reken dus grofgezegd maar op een jaar. Dan praten we over september 2020 voor Radeon high-end.

In dat geval kunnen we als hardware liefhebber alleen maar hopen dat die midrange navi zo goed is dat hij direct rond het prestatie niveau van de RTX 2060 zit, of zelfs iets daarboven. Maar of dat gaat gebeuren kan niemand vertellen. Dat we dit voorlopig niet weten is in ieder geval één ding dat zeker is. AMD heeft recent alleen maar bevestigd dat navi 'dit jaar' gaat komen en durfde niet eens een kwartaal te noemen.

[Reactie gewijzigd door sdk1985 op 7 februari 2019 16:35]

Upcoming Navi is rumored to have 1080-ish (dus ~2070) performance voor een honderdje of 2. Dat zijn in ieder geval de laatste leaks waar ik vanuit ga. Daarmee bedienen ze inderdaad niet het high-end segment, maar het zet ze wel weer ijzersterk op de kaart kwa price/performance in het belangrijkste gaming-segment, en dat is wat dat betreft het enige wat ik bedoelde met relevantie-behoud tot Navi er is.

Als ze nu Navi hadden kunnen launchen voor die prijs, deden ze gewoon weer mee. De high-end markt is een niche-markt, slechts door een klein percentage van de gamers gekocht. De meest populaire kaarten blijven de mid-end, waar AMD als het goed is rake slagen uit kan gaan delen. Dan is het absent zijn in de top-end een relatief klein probleem, de verkoopaantallen zijn daar simpelweg niet zo hoog.

Nu was Navi er niet, en dreigde relevantie op beide vlakken te verdwijnen - daarom dit zoethoudertje.
Upcoming Navi is rumored to have 1080-ish (dus ~2070) performance voor een honderdje of 2. Dat zijn in ieder geval de laatste leaks waar ik vanuit ga. Daarmee bedienen ze inderdaad niet het high-end segment, maar het zet ze wel weer ijzersterk op de kaart kwa price/performance in het belangrijkste gaming-segment, en dat is wat dat betreft het enige wat ik bedoelde met relevantie-behoud tot Navi er is.

Als ze nu Navi hadden kunnen launchen voor die prijs, deden ze gewoon weer mee. De high-end markt is een niche-markt, slechts door een klein percentage van de gamers gekocht. De meest populaire kaarten blijven de mid-end, waar AMD als het goed is rake slagen uit kan gaan delen. Dan is het absent zijn in de top-end een relatief klein probleem, de verkoopaantallen zijn daar simpelweg niet zo hoog.

Nu was Navi er niet, en dreigde relevantie op beide vlakken te verdwijnen - daarom dit zoethoudertje.
Die high-end markt is niet meer zo niche als hij vroeger was. Als we even in de Steam survey spieken dan zien we inderdaad dat de GTX 1060 en GTX 1050 (Ti) het grootste volume hebben. Echter de 4.34% van de GTX 1070 is ook niet niks terwijl de 1080 met 2.84% ook echt een enorm marktaandeel bestrijkt. De 1080 ti volgt op de voet met 1.64%. Vergis je niet dit gaat op basis van een sample van alle actieve videokaarten van alle steam gebruikers. Dus een topper als een GTX 970 haal je niet snel in. Zo staat een Intel Hasswell IGP met 0.94% in de lijst en hebben dus meer steam gamers een 1080 Ti dan dat ze op de IGP gamen.

Neem gerust eens een kijkje: https://store.steampowered.com/hwsurvey/videocard/

Dat gezegd hebbende ben ik het er wel mee eens dat midrange voor AMD een lucratieve markt kan zijn. Mijn punt is dat Nvidia bewijst dat high-end ook gewoon volume kan draaien. Als ik me niet vergis zei Ati vroeger dat 1 op 30 van hun gpu's een high-end model was. Die verhoudingen zijn nu heel anders.

[Reactie gewijzigd door sdk1985 op 7 februari 2019 18:22]

Ik vind dat wel meevallen. Als ik de huidige high-end bij elkaar optel (RTX 2080, 2080TI, 1080Ti en misschien nog de 1080 maar die eigenlijk al niet meer met <400E prijskaart en leeftijd) kom je op een totaal van 1.88% high-end (of 4.62% inclusief 1080). Dat is dus van alle gamers een 2%, of maximaal 4,6%, die op high-end gamet. Redelijk niche IMO, maar daarvan mogen we van mening verschillen.
hebben dus meer steam gamers een 1080 Ti dan dat ze op de IGP gamen.
Dit is natuurlijk best een drogreden, op een Intel IGP valt simpelweg niet te gamen behalve de meest casual spelletjes, dus zo gek is het niet dat van de regelmatige gamers vrijwel niemand een IGP gebruikt.
Ik vind dat wel meevallen. Als ik de huidige high-end bij elkaar optel (RTX 2080, 2080TI, 1080Ti en misschien nog de 1080 maar die eigenlijk al niet meer met <400E prijskaart en leeftijd) kom je op een totaal van 1.88% high-end (of 4.62% inclusief 1080). Dat is dus van alle gamers een 2%, of maximaal 4,6%, die op high-end gamet. Redelijk niche IMO, maar daarvan mogen we van mening verschillen.
Dat klopt niet aangezien het marktaandeel van álle videokaarten in omloop betreft. Je moet dus die 4.62% van de high-end 1xxx stellen tegenover de 25% die het midrange heeft veroverd wat neerkomt op 1 high end kaart op pak hem beet 5 mid-range kaarten.

Bovendien vergeet je rekening te houden met het flinke prijsverschil.

Als ik een tabel maak op basis van de steam survey en de gtx 1xxx kaarten dan kom ik op de volgende verdeling:
1060 37,71%
1050 ti 23,69%
1050 13,16%
1070 11,01%
1080 7,20%
1080 ti 4,16%
1070 ti 3,07%

Vervolgens even de advies prijzen erbij
1060 $249,00
1050 ti $139,00
1050 $109,00
1070 $379,00
1080 $499,00
1080 ti $699,00
1070 ti $449,00

Dan even baseren op 1000 stuks en dan de omzet
1060 $93.903,88
1050 ti $32.925,69
1050 $14.347,20
1070 $41.715,95
1080 $35.941,16
1080 ti $29.073,29
1070 ti $13.778,59
Dan krijg je $141.176,77 voor midrange en $106.730,41 voor high-end. Van 1 op 5 in volume ben je in omzet ineens gestegen naar 3 op 4. Dus hoezo niche? Dat is big business.

De kans is bovendien heel erg groot dat de marges, in geval van Nvidia, op de high-end kaarten bovendien zowel procentueel als absoluut veel hoger liggen. Je hebt immers met veel vaste kosten te maken, zo'n kaart gaat een heel proces door zie https://youtu.be/aaU9Pmw3oXw en een groot deel van de handelingen vinden zowel op de high-end als de mid-range kaarten plaats. Natuurlijk heb je hogere inkoop kosten en materiaal kosten maar ik kan mij goed voorstellen dat de marges flink hoger liggen.

[Reactie gewijzigd door sdk1985 op 8 februari 2019 03:10]

Wat een epistel voor een simpel verschil van mening over de definitie van high-end. De 1080 is imo al geen high-end meer (anders zou de upcoming Navi dat ook zijn, waar je zelf van zei dat dat onder mid-range valt) en de 1070ti en lager dus al helemaal niet - dit is puur goochelen met cijfertjes om je punt kracht bij te zetten.

Daarbij reken je de 1070 blijkbaar wel tot high-end en de 1070ti niet (?). Wordt het al 78792$ vs 182890$ volgens jouw definitie.
Wat een epistel voor een simpel verschil van mening over de definitie van high-end. De 1080 is imo al geen high-end meer (anders zou de upcoming Navi dat ook zijn, waar je zelf van zei dat dat onder mid-range valt) en de 1070ti en lager dus al helemaal niet - dit is puur goochelen met cijfertjes om je punt kracht bij te zetten.

Daarbij reken je de 1070 blijkbaar wel tot high-end en de 1070ti niet (?). Wordt het al 78792$ vs 182890$ volgens jouw definitie.
Die vijandige houding is nergens voor nodig. Ik heb netjes per kaart de geschatte omzet vermeld dus je kunt naar hartenlust de classificatie zo wegzetten als jij dat wenst. Dat is juist de reden dat de post lang is. Probleem is dat een tabel hier niet in de comments past. Had gewoon in 5 minuten een excel tabelletje in elkaar gedraaid.

In de eerste plaats kun je aan de cijfers bij de 1080 Ti ook al afleiden dat de duurste kaart uit de 1xxx reeks ook zeker geen niche product is.

Mijn insteek is de 200 euro waar jij eerder mee kwam. Ik heb dus de omzet van de 249 , 139 en 109 kaarten opgeteld en afgezet tegen de duurdere modellen. Deze tabel maakt hopelijk inzichtelijk dat juist boven dit segment ook flink geld wordt verdiend. Zeker als je ook nog de winst per kaart gaat meenemen.

TLDR van alle bovenstaande posts: Het is een misvatting dat er in high-end geen geld te verdienen is. Nvidia bewijst dat het kan. Wil AMD geld verdienen met Radeon dan kunnen ze zich beter richten op tegenhangers van de x6 voor het volume en vervolgens x7, x8 en x8 ti voor de winst. Met alleen een <250 dollar model komen ze er niet.
Die vijandige houding is nergens voor nodig.
Maat... Je ziet spoken :z
In dat geval kunnen we als hardware liefhebber alleen maar hopen dat die midrange navi zo goed is dat hij direct rond het prestatie niveau van de RTX 2060
Dat lijkt me geen moeilijke prestatie aangezien de RTX2060 niet super snel is, die kaart is amper sneller als de Vega 56

en als de geruchten ook nog beetje kloppen, gaan de Navi kaarten dat makkelijk redden, zeker de snellere versies

Blijft natuurlijk afwachten
[...]

Dat lijkt me geen moeilijke prestatie aangezien de RTX2060 niet super snel is, die kaart is amper sneller als de Vega 56

en als de geruchten ook nog beetje kloppen, gaan de Navi kaarten dat makkelijk redden, zeker de snellere versies

Blijft natuurlijk afwachten
Mja dat is dus ook precies wat ik verwacht. Dat AMD het prestatie niveau van de Vega 56 en 64 gaat vullen met goedkopere kaarten, bijvoorbeeld voor $199 en $249 dollar. Dat is een haalbare doelstelling.

[Reactie gewijzigd door sdk1985 op 7 februari 2019 18:22]

Je kunt bijna niet geloven dat de videokaart afdeling van AMD en hun CPU afdeling tot hetzelfde bedrijf behoren. Met hun cpu`s doen ze het meer dan geweldig, maar met hun videokaarten.......Lijkt wel een compleet ander bedrijf. Heb zelf vorig jaar November voor 406 Euro een nieuwe Vega 56 gekocht en ben er op dit moment nog steeds meer dan tevreden over, maar AMD moet zo niet doorgaan anders ben ik bang dat mijn volgende kaart er 1 van Nvidia wordt en dat is niet mijn voorkeur.
Waarom denk je dat de CPU afdeling het zo goed doet, men heeft daar gewoon op in gezet en daarmee zijn er minder recources gegaan naar de GPU tak… heel simpel. ;)
Met cpu`s valt ook VEEL meer mee te verdienen en AMD had geld nodig.
Eigenlijk hadden ze geen keus en gezien hun budget erg knap wat ze gedaan hebben.
Je reactie is echt een voorbeeld van neutraliteit én realiteit, met een zeer aanneembare en gezonde visie , chapeau. ;)

Voor de Nederlanders: Chapeau vertaalt zich in hoedje af .. :)

[Reactie gewijzigd door hosee op 7 februari 2019 23:20]

Vandaag verliep embargo, waar zijn de benchmarks?

Tweakers en/of hardware.info hebben toch wel een kaart gekregen?

Vond deze:
https://www.techquila.co....-nvidia-geforce-rtx-2080/

Maar heb liever die van Tweakers zodat deze te vergelijken is met andere recente kaarten.

[Reactie gewijzigd door totaalgeenhard op 7 februari 2019 11:16]

Het embargo loopt vanmiddag af. Review komt :)
Mooi, denk dat velen nieuwsgierig zijn.

Een artikel wat je verder met 16GB HBM kunt doen zou ook zeer fijn zijn.
Die 16GB is nu vooral interessant voor content creators en specifieke compute workloads. Games zullen het nog niet echt benutten. 8K resolutie zou boven de 8GB kunnen komen maar dan zijn de framerates te laag.

Voor gamers die die 16GB nu nog niet zo relevant in de toekomst mogelijk wel maar dan zijn we denk ik 2 generaties verder.
Adobe suite gebruik actief dat geheugen?
Ik dacht dat ze (heb alleen CS6 Master legaal) dat ze alleen NVIDIA ondersteunen.

Maar los van games en content creators.

Welke nuttige toepassingen zijn er nog meer.
Ik heb het meer over grafisch ontwerpers. Die bv dingen maken voor films en zo. Of andere 3D tekeningen.
Ik zit zelf niet echt in die sector maar daar gebruiken ze veel geheugen. Om die rede zijn toen ook de Radeon Pro SSG kaarten uitgebracht: https://www.extremetech.c...b-of-ssd-storage-attached
De titel van de review die je linkt heeft het erover dat de resultaten gelekt zijn, dat betekend niet dat het embargo eraf is.

[Reactie gewijzigd door CH4OS op 7 februari 2019 11:25]

AMD embargo verloopt vandaag.

Tijdstip en welke tijdzone weet ik niet.
Volgens mij vervallen AMD embargo's altijd om 15:00 onze tijd.
We zien het over een 2 minuten.
onderaan in het artikel:
"De videokaart is vanaf donderdagmiddag te koop. Dan verschijnen ook reviews van de videokaart online."

Dus we zouden bijna een review moeten krijgen hier op tweakers :)
9 op de 10 keer verloopt het embargo in de ochtendtijd van de US ofwel een uurtje of 2-3 in de middag hier.
wat een verassing.

AMD maakt enkel nog maar vapor ware gpu's spijtig genoeg.
Ben daarom ook naar een 1080ti overgegaan vorig jaar in september.

Hun cpu's zijn wat het zelfde op de zakelijke markt al ligt dat wss meer aan de OEM's ipv amd.
Bij dell maar 2 type's beschikbaar maar een dozijn intel modelen.
Volgende maand 1 van de 2 types eens proberen wanneer hij eindelijk aankomt.
AMD maakt enkel nog maar vapor ware gpu's spijtig genoeg.
Want? Je kunt een AMD 580 of Vega 64 toch echt prima krijgen.
Bij dell maar 2 type's beschikbaar maar een dozijn intel modelen.
Dat is eerder de keus/schuld van Dell dan van AMD, die zouden hoogst waarschijnlijk hun hele productlijn willen aanbieden in Dell machines.

Edit: thanks voor de downvotes Nvidia/Intel fanboys :)

[Reactie gewijzigd door JackDashwood op 7 februari 2019 11:31]

Want? Je kunt een AMD 580 of Vega 64 toch echt prima krijgen.
Heeft wel meer dan een jaar geduurd......
AMD heeft juist een giga-hoeveelheid GPU's verkocht de afgelopen jaren. Dat ze niet naar jou zijn gegaan ligt niet aan AMD maar aan de crypto-boom die deze kaarten allemaal stuk voor stuk opkocht, de vraag was gewoon disproportioneel hoog en omdat die kaarten zichzelf terugverdienden met mining waren miners bereid er veel meer geld voor te betalen dan de bedoeling was.

Ze waren dus fantastisch verkrijgbaar, alleen viste de normale consument achter het net. Dat is heel wat anders dan 'vaporware', en dat is niet iets waar AMD wat aan kan doen.
Dat waren de reference modellen. De aftermarket modellen hebben maanden op zich laten wachten.
Net was het nog meer dan een jaar..? In dat vorige topic over nVidia roeptoeterde je ook lukraak e.e.a. dat feitelijk en uit publieke bron eenvoudig ontkracht werd. Kom dit keer zelf maar eens met wat bronvermeldingen, want volgens mij heb je het weer gewoon mis.

AMD's RX 5xx en Vega series waren gewoon prima leverbaar.

[Reactie gewijzigd door Boxman op 7 februari 2019 12:28]

In dat vorige topic werd ik helemaal niet door een bron ontkracht. Er was één iemand die zei dat ik het mis had en dat was jij.
En de bron: Ik heb zelf een aftermarket Vega 64. Die kon ik tot pas rond augustus 2018 kopen. Dat is een jaar na release of zelfs meer als je naar de Vega 64FE kijkt. Ja...of je moest bijna 1000 euro neerleggen.
Goeie bron wel, zo'n n=1 experiment. Ik had met die stelligheid toch op zijn minst een historisch artikeltje verwacht. En ook nog eens precies wat ik al zei; ze waren er best, maar niet voor de prijs die jij wilde.
Ja...of je moest bijna 1000 euro neerleggen.
Ze waren dus fantastisch verkrijgbaar, alleen viste de normale consument achter het net. Dat is heel wat anders dan 'vaporware', en dat is niet iets waar AMD wat aan kan doen.

[Reactie gewijzigd door Boxman op 7 februari 2019 12:32]

En dat had natuurlijk niets te maken met mining-gekte... |:(

Maar gelukkig is die onzin voorbij en is zo goed als alle hardware die daar iets mee te maken had weer gewoon verkrijgbaar voor normaal gebruik.
AMD had meer chips naar aftermarket fabrikanten moeten sturen. Miners willen veel liever goedkopere reference modellen. Helemaal gezien mining bijna puur op het geheugen ging

[Reactie gewijzigd door DoubleYouPee op 7 februari 2019 12:43]

Dat is natuurlijk niet zo makkelijk wanneer je door de crypto-boom al niet genoeg chips meer kan leveren. Je kan niet even zomaar chips "uit de lucht toveren" en naar MSI of Asus sturen.
AMD had meer chips naar aftermarket fabrikanten moeten sturen.
Die verkochten de kaarten regelmatig rechstreeks aan miners dus dat had niet geholpen. En miners kochten alles wat ze konden krijgen.

AMD had meer kunnen gaan produceren maar dat hadden ze vorige keer ook gedaan... en toen storte de boel in en zat AMD met een flinke voorraad GPU's
Achteraf gezien had AMD het wel kunnen doen want deze keer duurde de hype langer, maarja je weet het gewoon niet. nu is het nvidia die er een half miljard aan omzet door gaat missen in een kwartaal.

[Reactie gewijzigd door Countess op 7 februari 2019 12:58]

...gezien mining bijna puur op het HBM2 ging
cryptocompare.com:
"The ... RX 580-O8G ... This GPU is perfect for Ether mining and can also be used for other coins like Zcash."

Heb jij ooit een 580 met HBM2 gezien?

Nog een voorbeeld:
https://www.pcgamer.com/s...uts-a-16gb-radeon-rx-570/
Kwam ook alleen maar door de Miners. nVidia kaarten waren op een gegeven moment ook niet te krijgen.
AMD maakt natuurlijk minder kaarten dan nVidia. En na de overproductie van de 290 kaarten na de vorige crypro crash zijn ze ook wat voorzichter te werk gegaan.
Ja, maar dat soort discussies kunnen ook omgekeerd gevoerd worden met kanttekeningen of een 'beschikbare RTX2080' wel zo wenselijk is gezien de bijkomende problemen van die eerste batch. Nog los van de discussie of er 'zo veel' beschikbaar waren bij de direct concurrent (trouwens tijd dat er gewoon een derde terug op de markt komt die echt meedoet).

De laatste jaren heb ik bij niemand, in bijna alle electronica sectoren, geen lanceerproblemen zien langs komen. Snel komt met hick-ups en langzaam krijgt het commentaar van te weinig te laat. Standaard ;)

We kunnen echt overal over klagen, als Nederlanders wat beter dan anderen, maar dat is nu eenmaal hoe het gaat. Als ik dit zie, zie ik een tegemoetkoming naar fans/supporters om iets te leveren voor een veel te lage prijs. Dat gebaar mogen we echt wel zo zien en benoemen, Nvidia heeft nog steeds de kroon en dat zal ook nog wel even zo blijven.

Het is in mijn optiek, misschien wel terecht voor AMD voor een paar jaar, niet goed als 1 partij dominant is zoals Intel en Nvidia zijn geweest. Met Ryzen mag Intel weer aan de bak, hopelijk kan Nvidia ook een tikje krijgen zodat iedereen er vol voor gaat.
Vaporware:
"In the computer industry, vaporware (alt. vapourware) is a product, typically computer hardware or software, that is announced to the general public but is never actually manufactured nor officially cancelled"

Dit product is gewoon, alhoewel niet in grote aantallen, gewoon leverbaar, dus zeker geen vaporware.
AMD kijkt de kat uit de boom hoe de vraag zal zijn.
Geeft natuurlijk niet veel vertrouwen in de prijs/prestatie, als ze er zelf al niet echt in geloven.
Bij dell maar 2 type's beschikbaar maar een dozijn intel modelen.
Dat komt omdat intel 100 verschillende versies maakt van elke cpu 8)7
What else is new? Fatsoenlijke verkrijgbaarheid van videokaarten bij launch ga ik tegenwoordig niet meer van uit. Ik ben benieuwd hoe de prestaties gaan zijn tov gelijk geprijsde Nvidia kaarten, al zou mij een veel hoger stroomverbruik dan de Nvidia kaarten niets verbazen.
De AMD Vega VII heeft een TDP van 300 watt.
De nVidia RTX 2080 heeft een TDP van 215 watt.
De nVidia RTX 2080 Ti heeft een TDP van 250 watt
De nVidia RTX Titan zal waarschijnlijk vergelijkbare specificaties hebben als de Quadro RTX 6000 en die heeft een TDP van 295 watt.

https://nl.hardware.info/...-$699-rtx-2080-prestaties
https://nl.hardware.info/...llen-2070-2080-en-2080-ti
https://nl.hardware.info/...erschijnt-op-social-media
https://www.nvidia.com/en...lization/quadro/rtx-6000/

Gezien de AMD Vega VII vergelijkbare prestaties en prijs als de RTX 2080 zal gaan hebben lijkt mij het duidelijk welke je beter aan kan schaffen, nieuwere architectuur, lagere TDP, RTX- en Tensor- cores. Maar ieder z'n ding natuurlijk :) .

Edit: ondanks het 7nm procede van de Vega VII kan het geen lager, maar zelfs hoger, stroomverbruik leveren om gelijkwaardige prestaties te halen als een Turing chip op 12nm.

[Reactie gewijzigd door Rudie_V op 7 februari 2019 11:25]

Voor gaming helemaal mee eens.
Vega 20 is ook helemaal niet bedoeld geweest als Gaming chip. Het is duidelijk een compute chip gezien de hoeveelheid FP64 horsepower onder de kap. Iets wat je bij games totaal niet kan gebruiken.
Daardoor is het voor een 4096 shader chip met GCN architectuur op 7nm ook een relatief grote chip.

Dus qua efficientie gaat hij het natuurlijk niet winnen van een game georienteerde chip zoals de TU1xx reeks. Vega 10 had dat probleem ook al.

Daarnaast had AMD sowieso nog een achterstand qua efficientie. Hopelijk kunnen ze daar met Navi verandering in gaan brengen.

Als je kijkt naar welk bedrijf is beter voor de gamers als in support van open standaarden. Is het supporten van AMD in mijn ogen een betere keuze.
Door zaken als Geforce Partner Program komt er hier geen nVidia kaart meer in. Dat was gewoon echt een stap te ver. Ze halen al jaren van die smerige acties uit en het blijft maar erger worden voor mij was dat echt de druppel.

Ik betaal dan graag meer voor iets wat net wat minder snel is om nVidia maar niet te hoeven steunen met z'n slechte acties. Ze maken erg mooie chips maar achter de manier van bedrijfsvoering kan ik gewoon niet staan.
Volgens mij hebben wij deze discussie ook al op HWI gevoerd over waarvoor de Vega VII bedoeld is. :)

Het klopt dat Vega VII niets anders is dan de Radeon Instinct MI50? server gpu welke weer niets anders is dan een Vega 64 met meer fp64 cores en dubbel zoveel en ongeveer dubbel zo snel geheugen. In de basis is de chip gewoon een Vega 64 en derhalve gewoon geschikt voor gaming, de Vega 64 was al een all-rounder.
Dankzij het 7nm proces heeft men de kloksnelheden nog wat op kunnen voeren om qua prestaties tot ongeveer de RTX 2080 kunnen komen. Dat heeft z'n weergave op het stroomverbruik. Mijn conclusie op HWI en hier dus ook is dat de gebruikte gcn architectuur gewoon niet meer mee kan tegenover een moderne nieuwe architectuur als Turing. Daar is niets mis mee verder, maar het is de achilleshiel. Hopen dat Navi de gewensde verbetering wordt.
Volgens mij ook.
Maar goed Vega is altijd bedoelt geweest voor het datacenter. Het is niet voor niets dat Vega als eerste uit kwam in de vorm van de Instinct kaarten en pas later als een Gaming kaart.

Polaris zie je niet voor niets helemaal niet in het datacenter. Fiji en Hawaii wel beide compute gerichte GPU's Hawaii had ook redelijk wat FP64 performance. En Fiji was een FP32 number cruncher door het grote aantal shaders wat die kaart had.

AMD heeft gewoon snel een nieuwe Gaming gerichte GPU nodig waar al die extra's die de GPU minder efficient maken uit gesloopt zijn en waardoor ze ook goedkoper GDDR geheugen kunnen toepassen en zo de prijs lager kunnen houden.

Daarnaast wordt het ook tijd voor een echt nieuwe architectuur welke efficienter is. Ik ben benieuwd wat Navi gaat brengen en vooral of dat nog de laatste GCN architectuur is of dat ze daar het roer omgegooid hebben.
Dat ben ik nog steeds niet helemaal met je eens, Vega 64 was een all-rounder, niet specifiek voor games of datacenters, AMD had niet genoeg geld of R&D om echt specifieke kaarten te maken zoals nVidia, dus maakte men een all-rounder van Vega 64. Ook het gegeven dan men eerst een datacenter versie uitbracht zegt niet zoveel, daar is nou eenmaal meer geld te halen en het is misschien meer proberen nVidia na te doen. :) En het feit dat men in de Vega VII extra fp64 cores heeft toegevoegd lijkt toch eens aan te geven dat die nu pas echt meer geschikt is voor datacenters dan de orginele Vega 64 was. :)
Ja oke zo kan je het ook zien.
Maar ter vergelijking Pascal en Maxwell waren echte gaming chips. nVidia heeft ook compute chips maar dat waren de GK100, GM100 en GV100. Sommige hebben we op titan kaarten terug gezien.
AMD heeft het geld idd niet om twee volledige lineups te doen. Polaris was wel een Game georienteerde chip.

Kan ook een design keuze geweest zijn. Hawaii had ook veel FP64. En Fiji vervolgens niet. Wil je FP64 workload doen was een Hawaii based compute kaart sneller dan Fiji. FP32 is een heel ander verhaal. Vega 10 was ook meer gericht op FP32 maar ook op FP16 en Int8 en 4.
Bij Vega 20 hebben ze hem meer "allround" compute gemaakt door de FP64 snelheid verder op te krikken maar ook de Int 8 en 4 snelheid nog verder te verhogen.
Misschien hadden ze ook een iets grotere chip nodig om al die HBM connecties te leggen voor de 4 HBM stacks en hebben ze die ruimte daarom op die manier gebruikt. De toevoegingen voor Vega 20 tov 10 zijn in ieder geval compute gericht geweest.

Vega 10 tov Polaris heeft erg veel compute zaken aan boord.
Maar ik ben het met je eens je zou dan kunnen zeggen dat AMD allround chips maakt tov wat nVidia doet. Maar als gamer heb je daar weinig aan en vooral de nadelen: Duurder, Minder efficient, performance per MM2 lager.
Dat zag je al bij de 7970 vs GTX 680. De 7970 was wel veel eerder maar de GTX 680 presteerde toen vergelijkbaar (inmiddels is de 7970 wel een stuk sneller en verslaat hij in moderne games de snellere GTX 770 zelfs). Maar qua compute kon AMD het makkelijk winnen. Ook hier was de 7970 meer allround.

Mischien gaat AMD wel met GCN door voor het data center en gaan ze naar een nieuwe architectuur voor gaming. (gewoon even een hersen spinsel van mij).
Navi is in ieder geval op verzoek van Sony en deels MS ontwikkeld speciaal voor de next gen consoles. Polaris was dat ook al een beetje. Daar zag je die architectuur voor het eerst terug.

Ik ben in ieder geval benieuwd wat de toekomst gaat brengen. Het extra geld wat de afgelopen +-2 jaar binnen is gekomen is nu nog niet terug te zien. Dat duurt denk ik nog 1 jaar langer. Je kan het hooguit al aan de software kant zien. Maar nieuwe chips ontwikkelen duurt langer. Maar wie weet heeft Navi er al wat baat van gehad bij de opvolger verwacht ik er in ieder geval meer van.
Maxwell en Pascal waren inderdaad niet echt even geschikt voor datacenters, omdat ze een slechte FP64 performance hadden, 1/32 van FP32. Hoewel van Pascal nog wel een GP100 variant is uitgekomen met de helft aan FP64 performance van de FP32 performance. Mocht FP64 niet van belang zijn geweest waren er van beide chips natuurlijk wel gewoon Quadro varianten voor andere professionale doeleinden.
FP64 performance is indaad altijd een designkeuze geweest ja, want voor gaming heb je dat voor zover ik weet helemaal niet nodig, dus elke FP64 core is in een voor gaming bedoelde gpu verspilde ruimte en dus geld. Voor datacenters met wetenschappelijke berekningen is FP64 natuurlijk juist weer wel van belang.
Ik kwam nog een overzichtje tegen betreffende de FP32 en FP64 performance: http://www.geeks3d.com/20...4-gflops-table-computing/

Turing heeft weer net zo'n 'belabberde' FP64 performance als Maxwell en Pascal, 1/32 van FP32 https://devblogs.nvidia.c...ng-architecture-in-depth/ . Maar nVidia borduurt voor datacenters natuurlijk nog lekker voort op de Volta gpu.

De Radeon Instinct MI50 voor datacenters is een soort van gelijkwaardige tegenstanders van nVidia's Volta, afzien van de tensor-cores en de NVLink mogelijkheden die de Volta nog heeft. Qua single precision en double precision zijn ze nagenoeg gelijkwaardig, stroomverbruik ook. Prijs zal waarschijnlijk wel in AMD's voordeel zijn :) , hoewel nVidia heerschappij in dat segment lastig te doorbreken zal zijn.
Maar nVidia zit ook niet stil, die komt met iets op 7nm aan dit jaar of volgen jaar, ze hebben 7nm produktiecapaciteit bij TSMC ingekocht. Maar er zijn ook artikelen over nVidia en Samsung's 7nm.
https://wccftech.com/nvidia-7nm-next-gen-gpus-tsmc/
https://www.extremetech.c...nm-ampere-arrives-in-2020
Gezien Turing net nieuw is verwacht niet zozeer dat ze deze op 7nm gaan bakken, de geruchten zijn meer over een server gpu, dat zal wel een Turing gebaseerde chip worden met meer FP64 performance als opvolger voor de Volta.
Of het dan voor AMD slim is de gcn architectuur aan te houden voor datacenters betwijfel ik, een Navi variant voor datacenter zou beter zijn, uiteraardt ook.
Ja dat is waar had er even niet maar aan gedacht dat GCN sinds Fiji aan zijn max zit qua aantal shaders. 64 CU's met 4096 shaders is de limiet. Dus ze moeten wel naar iets anders. Navi als Game chip zou eventueel nog met GCN weg kunnen komen maar het zou beter zijn als ze dan al naar de nieuwe architectuur overstappen. De rek is er wel een beetje uit.
Het is duidelijk een compute chip gezien de hoeveelheid FP64 horsepower onder de kap
Niet helemaal waar.. de FP64 is vele malen lager als de echte Instict kaarten, dus deze kaart is wel degelijk onderhanden genomen om er een game kaart van te maken

Wel waar natuurlijk dat het van oorsprong een compute kaart is

[Reactie gewijzigd door Sinester op 7 februari 2019 17:46]

De kaart ja.
Maar het is exact dezelfde chip als op de Instinct kaarten.

Dat doen ze zodat bedrijven niet massaal deze kaarten gaan kopen en dst er nog wel genoeg meerwaarde blijft om voor een Instinct kaart te gaan.
300W vs 215W is bij 24/7 belasting (een worst case die je eigenlijk nooit haalt dus) 165 eur per jaar stroomkosten extra. Als je elke dag 4 uur gamet heb je het over ca 28 euro stroom op jaarbasis.

Ik snap niet dat mensen zich zo druk maken over het stroomverbruik van die kaart...
Stroomverbruik = warmteproductie.

Daarnaast tellen alle beetjes mee, zowel qua kosten als voor het mileu!
Scheelt je toch het halve jaar 100 watt aan stookvermogen in de ruimte waar je PC staat ;)
Voor de natuur maakt het inderdaad weinig uit dat stroomverbruik. Warmte die de kaart genereert hoeft je centrale verwarming niet op te wekken. Het netto resultaat van warmteproductie in je woning veranderd niet/nauwelijks.

Dus het argument slaat een beetje als een tang op een varken.

En de koeling zou ook niet zo'n probleem moeten wezen gezien 300watt GPU's niet een recente ontwikkeling is.
Verwarmen met stroom is 3.5x zo duur als verwarmen met gas uit al mijn berekeningen dus verwarm ik toch liever met gas.

En de warmte die ik in de winter volgens jou gratis krijg is in de zomer weer een probleem als het hier 28 graden in de kamer is en weet je hoeveel het kost om dat weer te koelen?

En recente of niet 300 watt vs 150 watt is geld in de pocket. iets is off efficienter en goedkoper of niet en of het recent is of niet is helemaal niet van belang.
Dat wel al 20 jaar 300 watt videokaarten hebben betekend niet dat een 200 watt videokaart niet beter is op het totaal plaatje...

[Reactie gewijzigd door computerjunky op 7 februari 2019 13:40]

Leuk verhaal ook maar de kamer waar jou pc staat heeft vaak geen meet unit, dus met andere woorden je kamer wordt te warm of de rest van het huis is te koud. Als je een 1 kamer appartement hebt, dan natuurlijk wel lekker verwarmen.
Daarnaast tellen alle beetjes mee, zowel qua kosten als voor het mileu!
Ik durf te wedden dat de meeste mensen die zich hier zorgen over maken, wel bijvoorbeeld een droogtrommel of weet ik veel wat voor energie slurpers thuis hebben staan.

En de warmte hoef je echt niet druk om te maken als je een fatsoenlijke koeler en airflow hebt
Omdat de meeste mensen niet thuis wonen en dus ook gewoon de stroomrekening moeten betalen en dat komt dus effectief bij de kosten van de kaart.
Doe je dus 3 jaar met je kaart is die kaart gewoon 100 euro duurder.
Als hij even veel zou verbruiken maar 100 meer zou kosten zou je hem toch ook niet kopen?
Stroomkosten moet je gewoon meerekenen anders ben je dom bezig en lieg je jezelf voor.
En als je niet iedere dag 4 uur gamed maar 'slechts' 10 uur per week heb je het nog over €10 per jaar.
Man waar heb je het over :?
Geef mij eens 10 euro dan, jij kunt dat blijkbaar zo missen en vind het niks.
Als je niet rond komt op jaar basis door 10 euro minder te hebben, dan doe jij ergens iets niet goed. In iedergeval heb je dan sowieso niet de financiën uberhaubt een dergelijke Pc/systeem te kopen. :/
Wat een vergelijking.... als ik jouw een tientje geeft krijg ik er toch niks voor terug, bij me videokaart heb ik er tenminste wat voor terug gekregen, namelijk de mogelijkheid om te gamen

En ben het 100% met _Dune_ eens, als dit soort bedragen je slapeloze nachten geven, is een game pc niet aan jouw besteed
"Omdat de meeste mensen niet thuis wonen"???
Waar wonen die dan?
Zucht... bij hun ouders thuis.
Ik woon thuis hoor, helemaal in mijn uppie. En als ik kijk hoe veel ik die kaart belast heb ik het voor mij over ca. 35 euro per jaar extra kosten.
Ik heb een RX580 die ik OC, geluid is geen issue, want ik heb goede airflow en goede demping in de kast aangebracht. Datzelfde kan je met deze kaart ook doen.
De 1080Ti in mijn andere PC is ook niet de stilste en zit in en niet gedempte kast. Ik kan niet zeggen dat ik mij eraan stoor.
Stroomverbruik en warmte is een non-issue.
35 euro per jaar gemiddelde levensduur van een kaart is toch wel 3 jaar dat betekend dat je effectief ruim 100 euro meer voor je gpu betaald dat zijn aanzienlijk bedragen zeker met een 580 wat een 'goedkoop' kaartje is.
Met oc verbruikt hij trouwens nog veel meer want dan gaan videokaarten pas echt slurpen.
Zeggen dat stroomverbruik een non issue is is en blijft gewoon een achterlijke statement tenzij je niet zelf de stroom betaalt.
Er is werkelijk niemand die de meerprijs van strromverbruik zou betalen als deze al bij de kaart inbegrepen zat want dan zien ze de echte kosten.
Warmte is alleen een non issue als je het kan afvoeren in de zomer kan het best wel eens een issue zijn zo draaide mijn kaart 100 mhz lager van de zomer.

Daarbij is het verschil met de 1060 6gb helemaal geen 35 watt maar veel meer. Het verschil kan afhankelijk van de load zelfs oplopen tot ruim 135 watt maar begint toch wel bij 55 watt voor een lichte game.

Met de huidige prijzen ben je dus al na 1 jaar goedkoper uit met een 1060 6gb en na 3 jaar had je zelfs beter een gtx 1070 kunnen kopen. (nog wel iets duurder maar stuk sneller dus gaat langer mee).
Ik heb die RX580 niet voor gaming maar voor compute. Als nVidia fatsoenlijk OpenCL 2.x gaat ondersteunen worden ze een optie, ongeacht hoe zuinig ze zijn.

Ik noemde die kaart als voorbeeld omdat hij als heethoofd bekend staat en dat koelen/noise desondanks geen probleem is.

Gamen doe ik op een 1080Ti, simpelweg omdat AMD in die klasse niets had/heeft tot de Radeon VII goed verkrijgbaar is.
Inderdaad, en als je 600+ euro voor een videokaart neerlegt kijk je niet op een paar euro aan electriciteit extra.
Maar misschien dat sommigen, in plaats van financiele redenen, om meer principiele redenen naar het stroomverbruik kijken. Zoals niet meer stroom verbruiken dan strikt noodzakelijk: en waarom zou je ook bijna 30% meer uit de muur trekken voor een - in het gunstigste geval - even snel product met gegarandeerd minder features.
Niet iedereen heeft de luxe reeds dood te zijn tegen de tijd dat poep echt de klimaat-propeller begint te raken. Niet iedereen is onverschillig, of dermate ge-engageerd dat principes overboord worden gegooid zodra er een nieuwe shiny hebbedingetje op de markt verschijnt.
Welke features? Die van Nvidea zijn al duidelijk aangemerkt als "leuk, maar je hebt er geen jota aan; of het is niet geïmplementeerd in de workloads, of het geeft zo'n hit in de prestaties dat het nog niks is".

En als je echt iets wilt doen voor het milieu, neem je geen videokaart van 200+ watt, en geen 4k scherm (want dit soort kaarten zijn gigantische overkill op 1080p), plus zijn daar andere, betere oplossingen voor; zon- en windenergie, zelfs kernenergie.

Het klinkt me meer of je anti-AMD bent en gaat zoeken naar dingen.
Het klinkt me meer of je anti-AMD bent en gaat zoeken naar dingen.
"Ooh, ooh, iemand zegt iets over mijn favo merkje wat ik niet leuk vind - snel een ongefundeerde beschuldiging uiten!" Donder toch een end op met je geprojecteer, mafkees. Waaruit moet blijken dat ik anti-AMD ben? Succes met zoeken.

Maar goed, alles wat graphics vandaag de dag rijk en levendig maakt heeft tijd nodig gehad om volwassen te worden (niet te geloven dat ik dit aan een zgn. "tweaker" moet uitleggen). Daarvoor zijn kar-trekkers nodig, zowel op hardware-gebied (in het verleden zowel door het rode als groene kamp gedaan) als op software-gebied (vaak gaat een innovatie gepaard met initieel slechts een of een kleine handvol games die het ondersteunen). Daarnaast is er ook tijd nodig: zaken als SSAO, complexe texture-mapping, hardwarematige anti-aliasing, dynamische schaduwen of belichting, in alle gevallen duurde het een tijd, in sommige gevallen zelfs een of meer generaties, alvorens de hardware krachtig, of de software geoptimaliseerd genoeg was. Het is niet anders met de nieuwe technieken die nVidia probeert te introduceren: waarschijnlijk kunnen bezitters van de volgende generatie er pas maximaal profijt uithalen, maar dat betekent niet dat de bezitters van een RTX2xxx-kaart er niks aan hebben (zij zullen ook profiteren van optimalisaties en verbeteringen die nog worden gedaan). En ook AMD zal uiteindelijk profiteren van de huidige RTX-generatie, mocht ray-tracing of AI-gestuurde anti-aliasing gemeengoed worden (net zoals nVidia ook heeft geprofiteerd door innovaties die zijn aangejaagd door AMD)

Maar goed, tegenwoordig wil men, slechts minimaal gehinderd door enig technisch begrip of besef, alles, en wel gisteren, dus ik snap je reactie wat betreft ray-tracing en DLSS ook wel...

[Reactie gewijzigd door w00t00w op 7 februari 2019 17:41]

Het klinkt toch ook of je op je plassertje getrapt bent?! Ik maakte alleen een opmerking over de prijs van deze (en andere top end kaarten) en de elektriciteitsrekening van degenen die ze kopen. Jij sleepte er meteen Nvidea bij. Zonder te benoemen, maar ja, het was overduidelijk waar je heen wilde.

Ik heb niks met AMD (meer wat tegen de manier van zakendoen van Intel en Nvidea), maar daar ging het niet over. Ik kreeg het idee dat je een stok zoekt om de hond te slaan, en die stok is voor jou dus TDP.

Maar je geeft zelf aan dat ray-tracing en DLSS nog niks zijn, maar daar moeten we toch maar de hoofdprijs voor betalen. Nou, ik heb weinig zin om betalende beta-tester te zijn, altijd al geweest; als ik wat koop moet het werken, en niet een hoop dingen hebben waar ik niks mee doe. Zelfde met de 16gb geheugen op deze kaart; de grootst mogelijke bullshit, omdat niemand die nodig heeft. Zal wel door mijn werk komen; als inkoper koop ik ook geen investeringsgoederen in voor dingen die misschien ooit komen na de economische levensduur, hoe graag de techneuten het ook willen. Als ik geld weg wil gooien, doe ik het wel op een andere manier.
Je kan ook zeggen dat als een videokaart zoveel meer gebruikt dat het duurder is op lange termijn dan een iets duurdere kaart die minder stroom verbruikt. Het zal niet heel veel uitmaken, maar toch.
Je snapt het wel als de fans op 100% draaien.
Nee, niet als je een goede aftermarket koeling hebt, geen enkel probleem. Daarnaast als de kaart zo hard moet werken ben je over het algemeen aan het gamen en komt het gehele systeem hoogstwaarschijnlijk kwa geluid niet boven de audio van de game uit... dus weer een kompleet non-argument. :?
Ik heb de reddevil versie van de 64 vega, dat was een van de besten. Je begrijpt het als je deze op 100% hoort. Hij moet gewoon erg veel lucht verplaatsen door nauwe openingen. Lager verbruik is gewoon een stiller systeem, niemand zeurt op die paar euro's extra (je koopt een ~1000euro gpu, die alleen bij intensief gaming 100% belast is en ~300watt verbruikt) Deze fans zullen ook niet de besten zijn. Maar jij hebt kennelijk wel een goede ervaring met vega....
Ik heb een koptelefoon op maar het geluid is gewoon storend te noemen, compleet non argument natuurlijk in jou ogen, maar dat hoor ik vaker van ervarings experts.

[Reactie gewijzigd door D0gtag op 7 februari 2019 15:16]

Ik ben in het bezit van een Sapphire Nitro+ VEGA56 dat is één met de betere zo niet de beste koeling, alhoewel ik de Red Devil niet ken, dus ik kan niet beoordelen welke van de twee stiller zou zijn. Ik heb inderdaad geen slechte ervaring en als je het ervaring topic doorleest hier op GoT is dat ook niet echt negatief te noemen.
Je geeft je zelf nu bewijs wat dat wattage nu scheelt. De reddevil is 295watt of max haalbare van de vega, de 56 heeft een tdp van 210. Wat scheelt nu die 100watt, niet in kosten, maar de een is leefbaar en de andere niet. Ik kan mijn vega64 leefbaar maken door te undervolten en lagere freq. te laten lopen. Daar koop ik geen high-end gpu voor
Het undervolten geeft nu juist het effect dat bij lager opgenomen vermogen betere prestatie neergezet kunnen worden.
Dat klopt maar undervolt en OC'd betekent in de praktijk dat hij gewoon hogere clocksnelheden haalt (zonder undervolt komt hij eerder bij thermal threshold), opzicht doet ie dat aardig (voor een vega ontwerp) maar TDP blijft enorm hoog. Wil een tdp van 210 dan moet ik gewoon lagere clocksnelheden nemen (max haalbare voor die undervolt dan)
RTX is sowieso bullshit. Dit is versie 1. Je levert alsnog 50% van je prestaties in, in de enkele games die het ondersteunen. Het duurt nog wel even voordat er kaarten uitkomen die het echt fatsoenlijk ondersteunen.
De RTX2070 & 2080 waren prima beschikbaar toch? Ik denk/hoop dat de mininghype eenmalig was. Absolute topmodellen zullen altijd wel lastig blijven als er nieuwe tech in zit. Aangezien dit een relabel is had het niet moeilijk moeten zijn.
Tsja dat is niet gek als je de prijs met 50% verhoogt. Alles daar voor en vooral amd kaarten waren ronduit belabberd leverbaar. Stond compleet los van de mining hype want Vega lag bijvoorbeeld op de dag van de lancering niet eens in Nederlandse winkels en daarna kwam de voorraad met mondjesmaat binnen.
De 1000 series was ook gewoon leverbaar tijdens release, maar minder goed leverbaar tijdens de mining hype zoals elke kaart.
Nee de 1000 serie was juist zeer slecht leverbaar bij launch, winkels hadden een beetje voorraad op dag 1 en de weken daarna was het huilen met de pet op:

[nVidia GeForce GTX 10xx] Levertijden en Beschikbaarheid
Of de vraag was laag genoeg...
Ook al zou deze kaart gelijkwaardig aan een 2080 presteren, Je hebt geen DLSS of RTX features, niet dat dat op grote schaal goed werkt of toepasbaar is maar het zit er in ieder geval op. Daarnaast kan je een 2080 nieuw ook al voor minder krijgen. Je kan een 2080 voor plus minus 700 kopen of voor 800/900,- die keuze is aan de consument. als deze kaart daarbij al rii de 740-760 gaat en met een slechte beschikbaarheid, denk ik niet dat het een grote gamechanger zal worden, maar de komende benchmarks zullen spreken.

[Reactie gewijzigd door Tjona100 op 7 februari 2019 11:12]

DLSS is in theorie erg leuk, maar praktijktoepassingen heb ik nog niet gezien en RTX vergt zo veel rekenkracht dat de impact op de framerate bij 20xx series kaarten extreem hoog is. Ik zou het persoonlijk dan ook nooit gebruiken. Pas over een paar generaties waarbij de techniek goed is doorontwikkeld en de impact op de prestaties kleiner is zal het naar mijn mening pas de moeite waard zijn om het te gebruiken. DLSS kan in theorie eerder een voordeel hebben, maar dan moet het wel worden toegepast door gamedevelopers en zelfs dan is de vraag hoeveel winst het echt op gaat leveren. Sprookjes uit de mond van Nvidia neem ik namelijk met een vrachtcontainer zout.
RTX is dan ook verre van geoptimaliseerd; zowel in de GPU, als in de driver en in de games die er gebruik van maken. Ga er dus maar vanuit dat het aan alle kanten nog geoptimaliseerd gaat worden en dat prestaties nog wel gaan verbeteren. Wellicht niet veel meer voor de huidige 20xx reeks van RTX-kaarten van nVidia, dan wel in een volgende generatie RTX-capable kaarten.
Klopt, dat is precies wat ik zeg, maargoed mijn punt is dat het argument om voor een 20xx kaart te kiezen omdat hij RTX heeft geen stand houd als je het toch niet kan benutten.
Ik was inderdaad iets te snel met reageren, mea culpa. ;) Aan de andere kant is een RTX-kaart nu ook niet heel veel duurder ten op zichte van bijvoorbeeld een GTX 1080ti, of GTX 1080, het verschil in meerprijs + beschikbaarheid maakt ook zoveel niet meer uit intussen.
Ja omdat we al zowat door de winkelvoorraden van 1080 en 1080Ti heen zijn. Maar op Marktplaats en Tweakers V&A kun je nog voor een scherpe prijs deze kaarten krijgen dus ik zou eerder dat doen dan een Turing halen.
PC gaming is tegenwoordig console gaming op ultra settings. Het ligt er allemaal aan wat de PS5 gaat doen straks.
Rx 580/590 nivo lijkt me geen verkeerde prognose.
Ray tracing volgende generatie verwed ik geen fles wijn op.
Ja en nee, er zijn nogsteeds veel console exclusives op playstation en switch en er zijn ook een hoop pc games die voor geen meter spelen op een console (RTS, city builders, en voor veel mensen first person shooters)
Nou ja ik was ooit een PC gamer in de jaren 90- early 2000s en toen had je nog triple A PC exclusieve spellen die grafisch vooruit liepen. PC en consoles waren verschillende werelden! Maar als Baldurs Gate nu zou uitkomen is het ook te spelen op PS4.

Tegenwoordig wordt bijna alles met een budget op alle systemen uitgebracht. Dus zit je altijd met wat Sony/Microsoft consoles ondersteunen. En ja consoles zijn tegenwoordig budget PCs- maar alleen AMD.
andersom, met downloaden en de tig verschillende bloatware features is en console eerder iets dat zich heel erg graag een pc wilt noemen maar het niet is
denk dat de kans klein is dat je em ook voor 739 euro kan kopen de prijs zal wel flink stijgen cker als er zo weinig zijn.
Ik denk zelf dat de grootste concurentie zal komen van de 1080Ti op tweedehands markt waar je die van om en nabij de 500 euro kan kopen.
Of mensen die genoegen nemen met naar verwachting ong 20% mindere performance en liever AMD willen, eerder een Vega 56/64 voor 300-400 euro kopen.
Zoveel maakt dat stroomgebruik ook niet uit of heb je een dergelijke systeem 24/7 voor 100% draaien? Daarnaast als je weet wat je doet kun je een VEGA 56/64 dusdanig aanpassen (software) dat deze minder vermogen opneemt en meer presteerd. Het is dan ook erg vreemd dat AMD dit zelf niet gedaan heeft en gekozen heeft voor feitelijk te hoge voltages.
Idd de RTX 2060 is ook al maand uitverkocht bij Nvidia. Enige interessante kaart is daar de founders edition en die is gewoon weg niet verkrijgbaar. De rest is te duur simpel weg te duur voor wat je krijgt. En maar klagen dat de verkopen zo tegenvallen... Moet je wel iets hebben om te verkopen 8)7
Gewone 2060's zijn prima verkrijgbaar.
Yep, maar die zijn kwalitatief matig en te duur tegen over de FE. Zelfs Nivdia heeft dat min of meer toegegeven dat de 3de partij kaarten te duur worden weg gezet.
Juist de FE kaarten van Nvidia zelf zijn van discutabele kwaliteit door gebruik van slechte componenten, overigens nog bevestigd door Nvidia zelf. :? Overigens is de kwaliteit van de 2000-serie sowieso erg wisselvallig.
Dus eigenlijk is dit gewoon een kaart die alleen op papier uitgebracht wordt en verder bijna niet verkrijgbaar. Dit zijn wel andere (veel lagere) getallen dan andere kaarten bij release de laatate jaren.
Toont maar weer eens aan dat Nvidia het niet zo slecht doet en dat AMD tot op heden gewoon echt geen concurrentie kan bieden.
Spijtig voor ons als consument want zo heeft Nvidia nul reden de prijzen te verlagen zonder echte concurrentie.

[Reactie gewijzigd door Arjant2 op 7 februari 2019 11:00]

AMD biedt prima concurentie. De meeste gamers zitten niet op 2080 kaarten... een enorm kleine minderheid gebruikt dit high end spul van Nvidia waar AMD niet/nauwelijks een antwoord op heeft.

9/10 gamers zit op kaarten in de ranges waar AMD prima meeconcurreert. Maar ja, omdat Nvidia de beste kaart in zijn bezit heeft, betekend dat voor de meeste mensen dat Nvidia altijd de beste is.

Genoeg gamers die nog op 1080p/60hz zitten en dat trekt de 580 ook appeltje-eitje. BF5 draait op die kaart op 1440p met alles op ultra ook 100+ fps.
Op enthousiast niveau biedt AMD dus geen concurrentie.
Ja op midlevel, maar daar hebben we het hier niet over.

Op niveau van 1070 (ti)/1080(ti)/2070/2080(ti) heeft AMD gewoon geen antwoord.
Ja deze kaart die dus amper tot niet verkrijgbaar gaat zijn, qua prijs niet goedkoper is dan een vergelijkbare Nvidia kaart. Dus nogmaals geen enkele reden voor Nvidia om prijzen te verlagen want zij kunnen WEL leveren voor deze prijs (en blijkbaar ook winst maken).
Deze kaart is een noodgreep van AMD maar ze kunnen hem niet in grote aantallen produceren en eveneens niet winstgevend, maar anders hebben ze komende maanden helemaal geen kaart, dus ze moeten iets.
Je vergeet twee kaarten.

Vega56 ~ 1070(ti)
Vega64 ~ 1080(ti)
Ik vind zelf dat AMD al een tijdje niet meer goed mee komt. Veel heethoofden en ook de prijs/kwaliteit verhouding is minder. Je ziet dit denk ik ook wel in het markt aandeel van 15% t.o.v. de 73% van nVidia https://store.steampowered.com/hwsurvey.

Jammere is dat deze kaart daar niks aan gaat veranderen. Even duur, even snel, gebruikt veel meer stroom (meer warmte, duurdere of lawaaierige koeling nodig) en bevat minder features. Ik zie ook niet in hoe de meer mainstream varianten van deze AMD generatie gaan zijn. Toch nog meer uit Polaris persen? De laatste van deze kaarten worden ook steeds meer een brute-force aanpak.

Het lijkt voor mij als leek er wel op dat AMD net als ten tijden van Bulldozer een verkeerd pad is ingeslagen en nu met relatief dure, warme producten. Bijvoorbeeld HBM wat toch voor de consumenten markt een beetje een dood spoor lijk. Er toch nog wat van probeert te maken. Ik hoop dat AMD snel met zijn 'Ryzen' komt voor de GPU markt!
De GTX580 is niet meer dan een mid range kaartje. Het is vergelijkbaar met een GTX1060. Voor veel gamers is mid range uiteraard goed genoeg, maar het is niets om echt zo warm over te worden.

Tegenwoordig zijn Vega 56 en 64 wel enigszins beschikbaar. Dat scheelt weer. Die kaarten zijn nog niet echt high end, maar wel iets beter dan mid range.

[Reactie gewijzigd door Amanoo op 7 februari 2019 13:59]

Is het serieus dat de kaart in Europa duurder is? aangezien de euro meer waard is als de dollar zou de prijs toch juist lager moeten zijn?
Voor de duizendste keer, EU prijzen zijn incl. BTW US prijzen zijn excl. sales tax (hun BTW, verschilt per staat maar vaak (incl. nog een paar andere belastingen die zij kennen bij verkoop) tussen de 5 en 10%).

En als je die 5 tot 10% erbij optrekt dan zie je dat de prijzen zo goed als hetzelfde zijn.

[Reactie gewijzigd door acst op 7 februari 2019 11:46]

Misschien moet tweakers voortaan ook euro prijzen ex btw noemen :D -> € 610 ex btw

[Reactie gewijzigd door Gamebuster op 7 februari 2019 11:21]

Het zou misschien wel wat verwarring voorkomen als de ex btw prijs er tussen haakjes achter staat, aangezien dit punt steeds weer naar voren komt.
Er bestaat ook nog zoiets als invoerrechten en BTW (welke bij is prijzen nooit wordt vernoemd aangezien die per staat verschilt) de EU prijs is inclusief die onvermijdelijke kosten.
2080TI's van nvidia zijn ook pas sinds kort beter beschikbaar.. triestige zaak voor consumenten wel
De 2080TI was heel januari al leverbaar volgens mij.
ja, 1 editie met twijfelachtige reviews over de kwaliteit.
bij nvidia partners, wat in belgie alleen alternate is, en zelf daar hebben ze de founders edition niet..
https://www.alternate.be/...rt=AVAILABILITY&order=ASC
Hoe laat kan ik reviews lezen? Kan nergens een tijd vinden, en ik wacht vol spanning af in hoeverre Radeon VII zijn beloftes waarmaakt!

[Reactie gewijzigd door barbadruif op 7 februari 2019 11:15]

Vanmiddag om 15:00 mogen reviews gepubliceerd worden.
Er is wel wat meer stock beschikbaar volgens de update, maar het blijft afwachten natuurlijk :)
Since writing the article, we have been contacted by another UK based retailer claiming to have well over 100 cards in their own personal stock. They have, however, referred to 3rd-party custom models which, at our last indication, were not part of the official Radeon VII launch.

[Reactie gewijzigd door Phyxion op 7 februari 2019 11:40]

Nee want de 3rd-party mogen nog niet uitgebracht worden.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True