Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

AMD kondigt Radeon VII-videokaart aan

AMD heeft tijdens zijn keynote op CES de Radeon VII aangekondigd, een videokaart die goede prestaties in games op 4k-resolutie mogelijk moet maken. De komende videokaart zal volgende maand beschikbaar zijn.

AMD laat de Radeon VII maken op 7nm en de videokaart heeft volgens de fabrikant zestig compute-units op 1,8GHz. De kaart heeft 16GB aan hbm2-geheugen aan boord met een geheugenbandbreedte tot maximaal 1TB/s. Prestaties in games als Battlefield V en Fortnite liggen tientallen procenten hoger dan bij de Vega Pro, claimt AMD. Het bedrijf vergelijkt de videokaart zelf met de Nvidia RTX 2080, al is onbekend of die vergelijking terecht is.

De nieuwe videokaart heeft 3840 streamprocessors en ondersteunt Freesync 2. Verdere details zijn nog niet bekend; er is bijvoorbeeld nog geen productpagina online met alle specs. De AMD Radeon VII gaat op 7 februari in de verkoop voor een adviesprijs van 699 dollar. AMD heeft woensdagavond Nederlands tijd een keynote op elektronicabeurs CES in Las Vegas. Eerder deze week presenteerde de chipontwerper al zijn Ryzen-cpu's voor laptops.

Door Arnoud Wokke

Redacteur mobile

09-01-2019 • 19:15

282 Linkedin Google+

Reacties (282)

Wijzig sortering
AMD Radeon VII gaat op 7 februari in de verkoop voor een adviesprijs van 699 dollar

Moseskriebels... Wat een geld wordt er toch gevraagd voor deze speeltjes... Ik ben op zoek naar een nieuwe GPU (en monitoren), maar de tijd dat je voor €250,- een goede mid-end kaart had lijkt wel prehistorie.
De radeon 580 is een goede midrange kaart die weer lekker naar de 250 euro of minder aan het zakken is.
250? idd een stuk minder al. Gisteren op ibood zelfs voor 169 euro.

[Reactie gewijzigd door InsanelyHack op 10 januari 2019 11:49]

Dat was dan wel een cryptomining variant
Ja maar wat boeit dat? Iedere Radeon / Geforce kon gebruikt worden voor mining. Uitdaging bij een normale kaart is het efficiëntste punt te bepalen tussen verbruik en opbrengst. Deze kaart heeft dus een iets ander profiel waardoor hij waarschijnlijk een tikkeltje minder presteert maar wel heel lekker koel blijft. Het is geen variant waar de video uitgangen zijn weggesaneerd. De kaart heeft ook gewoon een gaming mode. Dus Mining variant ja maar zeker niet onbruikbaar voor gaming. Je kan er ook gewoon een normale bios in flashen overigens.

[Reactie gewijzigd door InsanelyHack op 10 januari 2019 13:48]

Miningkaarten hebben geen uitgangen. Je kan dus geen hdmi of displayport op de maart aansluiten.
Dan heb ik nieuws voor je. Check ff de afbeeldingen.
De RX580 kost ongeveer 250 en is een zeer capabele midrange kaart. Voor iets meer heb je de nog altijd zeer goede en iets betere GTX1060. Een fatsoenlijke videokaart is nog nooit zo toegankelijk geweest. Zelfs een 1050(ti) is een erg nette kaart en kost geen godsvermogen. AMD heeft in die pricerange ook voldoende keuze.
De RX580 (8gb) presteert inmiddels, o.a. door driver updates, zo'n 10% beter dan de GTX1060 (6gb), voor enkele tientjes minder. Hij kan dus beter voor de RX580 gaan dan.
En vergeet niet dat g sinc monitoren veel duurder zijn.
Gelukkig hoef je geen Gsync meer te kopen voor Activesync op Nvidia kaarten: nieuws: Nvidia ondersteunt vanaf 15 januari Adaptive Sync - update
"Een fatsoenlijke videokaart is nog nooit zo toegankelijk geweest."

Nou, de tijden van de 4850 en 5850 waren anders goed toeven. Ik denk relatief gezien nog een stuk prettiger dan nu omdat die kaarten bij release al betaalbaar waren. De 1060 maar ook de 580 draaien in middels al even mee en heb ik nieuw nog niet voor 150€ gezien, ondanks dat ze grofweg dezelfde liga spelen.
Een fatsoenlijke videokaart is nog nooit zo toegankelijk geweest.
Nu heb ik ooit een Radeon HD5850 gekocht voor €269,-. Dat was gewoon een high end kaart, die maar net onder deed voor de HD5870 en tot ongeveer die tijd was dat ook het prijspeil voor een fatsoenlijke (dus high end of bijna high end) videokaarten. Nvidia is echter op gegeven moment begonnen met het verhogen van prijzen door iedere nieuwe generatie net iets duurder te verkopen dan de vorige generatie, iets wat Intel ook begon te doen toen er geen concurrentie was, AMD heeft nog een poging gedaan met de 290(X)/390(X)-serie en die deden het prima tegen de GTX 970/980, maar de 980Ti was onverslaanbaar en daarbij bleef de gamer met een beperkter budget maar 970-kaarten kopen, ook al was de 290/390 net zo goed of beter (helaas ook veel luider en een stuk minder zuinig). En toen AMD eindelijk met Fury op de proppen kwam, was de prijs gelijk aan de Nvidia tegenhanger, maar wederom was AMD minder zuinig en was de kaart meer een alternatief dan een betere keuze.

Maar goed, wat ik wil zeggen is: Eindelijk worden fatsoenlijke videokaarten weer toegankelijk :)

[Reactie gewijzigd door PhatFish op 10 januari 2019 16:54]

Dit is ook geen mid-high, dit is gewoon high-end :P
RX590 komt in de buurt en draait alles op 1080p met max settings en goeie fps :)
Als je nog snel bent kun je nog een mooie gtx 580 scoren voor €170

http://www.ibood.com/extra-nl/nl/

Wel een mining versie, maar dat maakt in principe niks uit
Wel opletten met die mining edities. Die hebben veelal niets van monitoraansluiting... Geen HDMI, geen DP,...
Deze gelukkig wel gewoon

1x Dual-link DVI-D / 1x HDMI 2.0 / 3x Display Port 1.4
Ten eerste het is een rx 580 niet gtx 580.

Ten tweede die site ziet er een beetje fishy uit.
-kaart is afgeprijsd van 649 euro naar 170 euro
-.nl versie heeft een 4,9 op trustpilot .com een 2,5
-lijkt niet echt een tech winkel

Ten derde het is een mining variant dus kijk uit voor de aansluitingen.
Ibood is anders gewoon voornamelijk in handen van de groep achter de Mediamarkt.

[Reactie gewijzigd door sjepper op 9 januari 2019 23:25]

dat zal best maar ze hebben lang nieteens https gehad voor hun landing page wat enorm veel alarmbellen afzetten bij mij.
Ik koop al jaren bijna al mijn tech apparatuur via iBood. Betrouwbare site alleen moet je goed opletten dat je bijvoorbeeld geen AZERTY laptop koopt. Ze leveren bij buitenlandse modellen wel altijd keurig verloopstekkers mee. De prijzen zijn laag tot zeer laag. Advies is dus: lees reviews en weet wat je koopt!
Voor dat geld heb je een 2e hands rx570/580 8gb
Dit is geen mid-end videokaart!
Dat is ook geen midrange kaart. Midrange is maar hoe je het bekijkt. Vorige generatie kan ja als midrange bekijken. Dus hangt van jezelf af wat je wil uit geven tov prestaties.
Het is eigenlijk ook vooral een pro kaart doe ze alleen maar voor consumenten hebben uitgebracht omdat nvidia's zo duur zijn. 16gb hbm2 grote 7nm gpu allemaal niet goedkoop. Waren de 2080 en 2080ti een stuk goedkoper geweest was dit nooit een consumentenkaart geworden.
De prijzen vandaag de dag voor een grafische kaart zijn echt bedroevend hoog :'( komt dat nog steeds door de crypto gekte?
$100,-- goedkoper dan de 1080 of 2080 op amazon.
En gelijk flink besparen op een nieuwe monitor. Want geen Gsync meer nodig.
Nvidia gaat certified Freesync monitors supporten als ik het me goed herinner. Beter voor de consumer either way.
Waarschijnlijk niet uit vrije wil: Omdat het een verplichte functie van HDMI 2.1 is geworden, zal Nvidia het wel moeten ondersteunen als de compatibiliteit met HDMI 2.1 willen claimen. Gsync is dood, AMD heeft dit slim gespeeld.
Gsync is in mijn ogen zeker nog niet dood. In goedkopere schermen ontbreekt LFC (Low Framerate Compensation) bijna altijd bij freesync, waar dit bij freesync meestal pas wordt toegepast in prijsklassen die gsync benaderen. Bij gsync is deze functie vereist. Ook is de laagste refresh rate waar gsync zijn werk doet, lager dan die van freesync. En freesync2 en gsync HDR zijn er ook al, waar freesync2 niet meer zo open is als freesync, en er nu ook extra royalties moeten betaald worden.
Freesync is niet AMD exclusief.. dus hoezo heeft AMD dit "slim gespeeld"?
Nvidia heeft genoeg geld verdiend aan G-sync en kunnen nu lekker over gaan naar freesync zonder problemen.
Stel AMD had geen Freesync gelanceerd en Gsync was daardoor de standaard geworden. Dat betekent dat AMD, maar ook andere fabrikenten licentiegelden aan Nvidia hadden moeten betalen om de functionaliteit te mogen gebruiken. Een permanent commercieel voordeel voor Nvidia. En misschien nog belangrijker: Macht binnen de monitormarkt, die weer ingezet kan worden om ondersteuning voor nieuwe bedenksels af te dwingen.

De beste manier om dat te pareren is een open standaard. Dat geeft fabrikanten namelijk een goed argument om jou te volgen. En doordat Nvidia nu verplicht is Freesync te implementeren, is het "wapen" nu nagenoeg onschadelijk: Als monitorfabrikanten het überhaupt nog willen hebben, zullen ze niet bereid zijn er nog veel geld voor neer te tellen.

Vergelijk ook met Vulkan: Vulkan levert AMD niet direct geld op. Toch zijn AMD-kaarten een stuk concurrerender in Vulkan dan DirectX11. AMD is op die manier toch beter geworden van Vulkan.

[Reactie gewijzigd door dmantione op 10 januari 2019 00:15]

Ze 'gaan niet over'. Gsync blijft in de huidige variant gewoon bestaan en wordt weggezet als de pro gamer oplossing. Verder wordt voor mid end de freesync standaard ondersteund alszijnde onderdeel van de nieuwe hdmi/displayport spec/standaard. Check het andere tweakers nieuwsbericht maar en vooral de reacties.
Nvidia weet dat ze een issue hebben als AMD met een goede betaalbare mid end kaart komt en weet dat ze met de nieuwe generatie kaarten met Ray tracing, en vooral pricing en marketing, de hele pc gaming community teleur gesteld hebben.
Het werd dus tijd voor een charme offensiefje en dan is iets waar de gaming community al een paar jaar om schreeuwt eindelijk mogelijk maken een quick win.
Tja aan de ene kant kan dan Nvidia niet echt meer een GSync modules verkopen en daar winst op maken. Tegelijkertijd was Freesync support juist één van de primaire voordelen van AMD, die ze nu kwijt zijn. Dus om nou te stellen dat het zo slim gespeeld van ze is.
Uiteraard is het slim gespeeld.
Een monitor koop je voor meerdere jaren, een gpu vervangen sommigen bij elke nieuwe generatie.
Iemand met een GSync monitor heeft dan de neiging om opnieuw een nVidia gpu te kopen, vendor lock-in dus.
AMD heeft het kleinste marktaandeel dus moeten ze proberen om het speelveld open te houden. nVidia heeft een groot marktaandeel dus proberen ze om zoveel mogelijk klanten te binden.
Die vendor lock-in werkt wel twee kanten op ( ook als het AMD/freesync deel kleiner is). Heb zelf een freesync monitor, dus was (gedwongen) meer geinteresseerd in AMD-kaarten dan Nvidia. Nu wordt een NVidia-kaart voor mij dus een heel stuk interessanter.

Anyway, dit is de doodsteek voor gsync, en dat is prima voor de consument.

[Reactie gewijzigd door rboerdijk op 9 januari 2019 22:39]

Ik weet niet of gsync volledig dood is. Op het moment probeert nvidia het als een premium alternatief voor freesync aan de man te brengen.
Als je een scherm had met gsync(perongeluk of niet) was je eigenlijk genoodzaakt om nvidia te blijven kopen. Nu kan je dus ook als je scherm kapot is en je kaart nog niet, een goedkoper evengoed scherm met freesync kopen en je volgende gpu een AMD maken. Heel slim dus.
Huh? Juist andersom. Als je nu een Gsync scherm hebt, ben je nog steeds genoodzaakt om Nvidia te kopen (als je iig van Gsync gebruik wil maken). Als je een Freesync scherm hebt was je genoodzaakt om AMD te kopen, en nu kan je ook Nvidia kopen. Dus er is minder reden nu om een AMD kaart te kopen. Ja als je scherm kapot gaat en daarna je GPU kapot gaat, dan zou je zo wat makkelijker naar AMD kunnen overstappen. Maar andersom is die nog makkelijker: Als je een Freesync scherm hebt, kan je nu direct naar Nvidia overstappen zonder dat je eerst een kapot scherm moet hebben.

Het nadeel van Nvidia is dat ze nu niet hun dure Gsync modules meer kunnen verkopen. Maar hun GPUs zijn zo wel een stuk aantrekkelijker geworden.
Ik denk ook niet vanuit vrije wil. Er zullen weinig bedrijven zijn die, terwijl ze voor hun eigen standaard geld vragen, een gratis alternatief met vrijwel dezelfde functionaliteit ondersteunen.
Daat kan het niet echt zijn, want G-sync, en hun nieuwe freesync support werkt enkel over DisplayPort.

Als eht over HDMI2.1 ging, hadden ze evengoed kunnen zeggen dat dit een nieuwe feature was, enkel voor hun volgende GPU die HDMI 2.1 ondersteunt.
Het is helemaal geen verplichte functie. Net zoals HDMI 1.4 bijvoorbeeld HEC (HDMI Ethernet Channel) toevoegde, wat ook optioneel is en (volgens mij) door geen enkele videokaart wordt ondersteund.

Gsync is verre van dood, wat wordt bevestigd door het aantal FreeSync schermen wat niet de certificering door komt
g-sync is absoluut niet dood. g-sync heeft vaak meer een kwaliteits garantie dan je zult krijgen bij freesync. freesync is gewoon de vrijere goedkopere versie. waarbij g-sync de kwaliteit van het paneel, paneel controller, videokaart en drivers garandeerd.
Ik heb al een Gsync monitor, terug naar AMD zou dus duurder uitpakken dan bij NVIDIA blijven voor mij...
Tja, dan heb je niet zo goed in de toekomst gekeken. G-Sync proprietary tech was gedoemd om te falen, je was beter af geweest door meteen een Freesync te halen want Nvidia moest uiteindelijk toch door de knieën. Daarvoor hoef je geen glazenbol thuis te hebben.
Jij maakt je meer zorgen dan ik gelukkig :) Ik heb er namelijk geen problemen mee verder, was meer om aan te geven dat het helemaal niet goedkoper hoeft te zijn, dat hangt dus van de situatie af.
Ik maak mij ernstig zorgen Waterkoelert, die proprietary tech rotzooi maakt deze wereld kapot en streeft niet met de belangen van Bits4Freedom. Anyways ik zou lekker opstappen van de G-Sync onzin, tenzij je van customer lock-in houdt.
Waarom zou ik nu switchen? Ik kan hier prima nog een jaar (of 2) op draaien? En daarna schuift het door naar mijn vriendin en dan kijk ik wat op dat moment het beste is en koop ik dat.

Ik ben geen fan van customer lockin, maar dat staat zeker niet boven aan mijn lijstje, dat is performance, dan geld en dan vast nog wat zaken en dan ergens komt lockin :)

[Reactie gewijzigd door watercoolertje op 9 januari 2019 20:39]

Je kan ook een AMD vega kaart eens proberen van iemand, en enkel adaptive sync opzetten in de AMD drivers in samenwerking met je Gsync scherm. Scheelt ook al een hoop tov simpele Vsync, en dan heb je ook nog maar weinig last meer van tearing. 't Is een driver functionaliteit die geen specifieke hardware vereist. Ik heb nu wel een freesync scherm en draai dus freesync en adaptive sync tegelijk (het meest ideale), maar dat hoeft heus niet. Als je een 120+ Hz scherm hebt, met adaptive sync in de AMD drivers actief, daar kan je ook al best blij van worden. :)
Kan je maar een tip geven als Quake Champions player O-)
Adaptive v sync zorgt voor meer input lag net zoals normale vsync. Niet vergelijkbaar dus met gsync en freesync.
Excuseer, het is Enhanced Sync wat ik bedoelde. Software matige Gsync/Freesync wat Vega's ondersteunen. Ik pas het aan in mijn bericht.
Dat is wellicht een optie, echter zit ik er nog wel even goed bij (watergekoelde 1080ti) en een nieuwe kaart moet daar wel goed overheen gaan. Zoals de 2080ti doet maar dan wel voor een betere prijs, over een jaartje (of 2) dus wellicht.
Moest Freesync op hetzelfde niveau zitten van Gsync zou ik je volgen maar de freesync range begint vaak maar van 40hz+ wat wil zeggen dat je geen demanding games moet spelen met je AMD grafisch kaart die dippen onder de 40fps want daar gaat je smoothness, het is wel zo dat ik aan het hopen was dat AMD met een betaalbare tegenhanger kwam voor de 2070, 2080s want ik heb nu een 1070 en zou graag een 1440p 144hz monitor kopen maar als ik Gsync wil gaan de monitors van €300+ naar €500+. Als ik dus nu een freesync monitor koop die Gsync aan kan hoef ik in de toekomst niet bij Nvidia te blijven.
En dat is dus juist het probleem van gesloten dingen kopen.
Ik zit niet vast hoor, ik geef enkel aan dat het duurder is. Mijn huidige oplossing is ook al duurder dan een freesync oplossing. Oftewel ik vind het niet altijd erg om extra geld uit te geven.

Een switch terug is ook een optie als het mij maar meer performance oplevert.

[Reactie gewijzigd door watercoolertje op 10 januari 2019 16:37]

Je zit vast als in dat als je een andere videokaart koopt je beeldscherm functionaliteit verliest. Je zit wel vast, alleen geef je toe dat je extra geld uitgeven om los te komen niet erg vind.
Ik zit dus niet vast en het is dus gewoon een (lees: mijn) keuze.

Ik zit eerder vast omdat AMD helemaal niks te bieden heeft wat het veel beter doet en een 2080ti te duur is voor wat ie extra biedt.

[Reactie gewijzigd door watercoolertje op 10 januari 2019 16:42]

Als die keuze jou vraagt geld uit te geven, als er ook een optie was om niet te doen, zit je vast.
Die optie is er dus helemaal niet, en komt pas in feb terwijl ik al 2 jaar van mijn 1080ti kan genieten...
Sowieso geen Gsync monitor meer nodig. Nvidia gaat freesync ondersteunen
Mmm de goedkoopste 2080 is 711 euro, de dollarprijs zal ongeveer de euro prijs worden. Gelijkwaarig dus.
De prestaties zouden ongeveer in lijn liggen met de Nvidia GTX 1080. Is het niet de 2080?
Ze zei dat het vergelijkbaar is met de 2080 in Vulkan games
Dat is omdat de D3D11 driver van Nvidia niet te verslaan is.
AMD is sowieso gefocused om Vulkan groot te maken.
Nee,

Het hele ecosystem van gaming was in het voordeel van DX11, al die jaren al. AMD's aanpak was een eerder bruteforce in verhouding met die van Nvidia.
Ik denk eerder dat GCN hardware al vroeg een multithreaded front end voor de render task heeft en dus zijn tijd ver vooruit of eerder de API bleven achter tot Mantle ze wakker schud. Waar nV het in de drivers multithreadd doet software matig met shader recompile en exe detectie met eigen shader code en andere game gerichte optimalisaties voor DX11.

CPU heeft er ook last van windows, Numa broken schedular van windows.

Nu Vulkan & DX12 meer gemeengoed is. Zal nV architectuur ook meer gericht op de moderne API worden. Vaak heb je geen voordeel aan innovatie omdat migratie te lang duurd en de competitie al bij is als het er wel toe doet.
Nee hoor. In Vulkan zelfs ~20% sneller dan de 2080. Volgens de slides althans.

Nu op naar de onafhankelijke benchmarks! :*)
Denk dat je zelf dat filmpje eens aandachtig moet beluisteren. Ze zegt letterlijk "R7 has better performance in some of the latest Vulkan games" @ 59:16. Of check anders de slide.
Volgens mij 2080. Dat kon ik duidelijk tijdens de presentatie zien.

Hoeveel kost die 2080?
700 euro ook (de goedkoopste dan)
720, en dan met een lullige blower style koelertje.
Dit is de referentie kaart van AMD zelf, Nvidia heeft idem hetzelfde. Het is even wachten tot de andere merken met hun versie komen.
De reference card design van de Radeon 7 heeft 3 koelers.
Tja, Nvidia stapt van de blowerstyle fan's af voor de Founders Edition... dus moest AMD ook wel :)
De reden waarom ze af moesten stappen is omdat de blower style de heat output gewoon niet aan kon. Zowel bij de Turing als Radeon 7 is de heat output gewoon te groot.
Dus verbruikt de Radeon 7 nog meer dan een 2080... want meer fans :)
AMD claimt dat de Radeon 7 meer performance bied voor hetzelfde verbruik als een Vega 64. Dus ik denk dat de Radeon 7 ook een TDP van 295W zal hebben, dat is inderdaad hoger dan de 225W TDP van een RTX2080.
"Het is even wachten tot de andere merken met hun versie komen." = toeslag van €79 tot ... erbij (€700+asus koeler €79+)
Vind de Founders Edition koelers van NVIDIA overigens wel super mooi, ondanks dat de performance wat minder is en ze een stuk meer geluid maken.

Dit ziet er toch wel even stukje gelikter uit dan wat hij daar in zijn hand heeft:
https://www.nvidia.com/en...-graphics-card-breakdown/
Hahaha, die foto bij dit artikel is een man toch?


Toch!?
Dat is Lisa Su, de CEO van AMD, dus nee.
Wel goedkoper maar uiteraard niet aanzienlijk goedkoper, maar wel betere bang for the buck. Voor highend blijf dat duur maar wel ietje minder duur.
Haha, ik zie daar een vrouw in, met lippenstift, maar met Aziaten weet je het maar nooit! :9~ :+
Mag ik vragen waar deze opmerking op slaat? In Azië leven gemiddeld niet meer transgenders dan in het Westen. Of bedoel je te zeggen dat je vind dat Aziaten zoveel op elkaar lijken dat je vrouwen en mannen vaak niet kan onderscheiden? Dat zou niet alleen een typisch racistische opmerking zijn over Aziaten, maar ook nog eens een hele domme opmerking zijn, aangezien het verschil duidelijk te zien is en het probleem eerder aan jouw zicht zou liggen. Als je dacht grappig te zijn geweest, dan heb je daar hard in gefaald.

Al met al een hele vreemde comment van je, waarvoor ik graag zou zien dat jij je excuses aanbied, ongeacht van wat de achterliggende gedachte was.
Mijn excuses staan erbij nu.
Eigenlijk had ik ook zoiets van wat een overdreven reactie, was wat geinig bedoeld en doelend dat ik het gevoel heb dat het lijkt dat er meer Aziaten transgenders zijn en als ze het zijn je het moeilijker kan inschatten. Maar ach ja maakte me er ook niet zo heel druk om hoor, ik weet hoe ik in elkaar steek,
Geen kwade bedoeling erbij uiteraard, i come in peace O+

[Reactie gewijzigd door dezekeer op 11 januari 2019 08:45]

Fijn dat je jezelf even verduidelijkt en je excuses maakte, ook al was het niet je bedoeling om iemand te kwetsen. Mijn inziens leek het erop dat je de alom bekende ‘alle Aziaten lijken op elkaar’ grap maakte. Dat is niet alleen overused, maar toont toch ook enigszins een gebrek aan respect voor deze etnische groep.

Volgens mij telt Azië niet meer transgenders dan Europa. Sterker nog, in veel Aziatische landen is het uiten van je gender identiteit niet toegestaan. Alleen Thailand, Taiwan en in delen van Indonsië word het echt duidelijk geaccepterd en gerespecteerd. Tenminste, voor zover ik weet.

Sorry als ik furieus overkwam in mijn reactie. Ik vond het persoonlijk niet grappig, omdat ik dacht dat het om een uitgemolken grap ging. No hard feelings van mijn kant verder!
In de hoek laten zetten? Dit is naar mijn mening gewoon een smakeloze opmerking over Aziatische mensen en/of transgenders. Er is ook niets grappigs aan. Aziaten delen veel van dezelfde uiterlijke kenmerken, nou nou wat een hilariteit. Als je ze belachelijk wilt maken, doe dan op z’n minst je best om het origineel en grappig te maken, want het zijn altijd dezelfde uitgemolken ‘grappen’ over deze etnische groep.
Daar ben ik het wel mee eens, niet dat het veel gaat uitmaken natuurlijk. Ik neem toch liever een kaart met een koeler van MSI ofzo ;)
Mijn Vega 64 is hier anders niet zo luidruchtig hoor, ook blower style, van Sapphire. Ik had voor de aankoop al op zitten zoeken voor een geschikt waterkoelingsblok... Tot hij hier in de PC zat, het is alvast geen Dyson en doet het nog steeds met de stock cooler.
Volgens mij juist ongeveer in lijn liggen met de GTX1080Ti want de 2080 is ongeveer gelijk aan de 1080Ti of 5% sneller. Maar idd, het moet de 2080 zijn.
Guru3d heeft het ook over de 2080.
Vega 64 had al 1080 prestaties.
Deze gaat er overheen. Volgend de sheets net zo snel als de 2080 en in bepaalde games net wat sneller.

Ben benieuwd naar de reviews. Maar gezien de specs goed mogelijk.
Het is 2080. In het artikel op hardware.info spreken ze van 2080-prestaties. De heer Wokke maakt hier dus een monumentale fout. Ik had al een reactie klaar om AMD te bashen.

Edit: Waarom krijg ik een -1, is toch volledig on-topic?

AMD spreekt van 25% betere prestaties dan Vega 10 bij een gelijk stroomverbruik. Dit is toch wel weer heel teleurstellend. Je kan er dus vanuit gaan dat het stroomverbruik tov Vega 10 hetzelfde gebleven is als ze 2080-prestaties willen halen. En ik dacht dat dit de Navi-gpu ging worden maar het is Vega 20. Zeer jammer dat AMD blijft vasthouden aan HBM2-geheugen wat de prijs opdrijft. Hadden ze GDDR-geheugen gebruikt dan konden ze de kaart goedkoper in de markt zetten waardoor ze veel concurrender waren tov Nvidia. Maar aangezien deze gpu voortborduurt op Vega 10 konden ze natuurlijk ook niet anders.

Over het verbruik wordt niets gezegd. Je kan er dus vanuit dat het slecht is en geen verbetering tov de Vega64. 699$ dat is dus evenveel als de rtx2080 met een hoger stroomverbruik. Dit gaat het hem dus weer niet worden voor AMD.

[Reactie gewijzigd door Fredi op 9 januari 2019 19:53]

Het verkleinen van de chip zorgde dat ze minder verbruik hadden ten opzichte van de eerste generatie vega's. Maar er komt dubbel zoveel HBM2 geheugen mee en de clocks gaan omhoog tot 1.8Ghz. Echter Techpowerup schrijft weer 2.4GHz:
the chip leverages 7 nm to dial up engine clock speeds to unprecedented levels (above 2.40 GHz possibly)
bron

Ik volg niet helemaal waar die 2.4Ghz vandaan komt maar als dat een boost state binnen de gestelde TDP is dan is dat erg goed.
Natuurlijk moet hun boost naar 1.8 GHz, anders kunnen ze geen 2080-prestaties halen. De architectuur tov Vega 10 zal nauwelijks gewijzigd zijn dus moeten ze de boost omhoog smijten maar dat is natuurlijk nefast voor het verbruik ondanks het 7 nm procede. Ik hoop dat ik mis ben maar ik denk dat het verbruik wederom rond de 300W gaat zitten wat ik een grote teleurstelling vind.

Het is duidelijk dat AMD voorrang geeft aan Ryzen waar de 3000-serie in Cinebench beter zou presteren dan de 9900K wat wel goed nieuws is. AMD is het Vega-debacle dus nog altijd niet te boven gekomen. Ik dacht trouwens dat het de Navi-gpu was die ging gepresenteerd worden ipv Vega 20?
Er komt eerst Vega 7nm en later Navi 7nm
HBM2 is niet geschikt kwa kosten voor midrange maar sub high-end wel. En met HBM2 richt je ook meer op 4K . Moet GPU dat ook kunnen benutten.
Een kleinere Vega chip op dieshrink kan hogere kloks halen bij high-end TDP .
Waar Turing een Bigchip wat eigenlijk juist op 7nm had moeten zijn.
En weet je wanneer Navi uitkomt?
Niet degene waar je op reageerde, maar de geruchten molen is iets van:

Eind 2019 - Mid-range Navi chip (grofweg Vega 56 performance voor 250,- is het gerucht)
2020 - High-end Navi
Liggen ze achter? Volgens mij juist niet. Ze gaan prijs/kwaliteit gewoon goed zitten en zetten inderdaad niet zulke hoge kaarten als Nvidea neer.

Maar dan moet je je ook afvragen; koopt de mainstream gamer een 1080ti of een 1070?
De midrange and iets daarboven is inderdaad het populairst, heel slim van AMD om daar te investeren,

https://store.steampowered.com/hwsurvey/videocard/
Het is ook wel algemeen bekend(onder de tweakers) dat een kaart net onder de duurtse vaak niet heel erg veel minder presteert en meer bang voor de buck geeft dan het topmodel.
Dat zag ik niet aan de reacties op de RX590 wat best een interessante 1080p kaart is.
Dat komt omdat de verwachtingen te hoog waren en dus een teleurstelling voor veel AMD fans. Als de informatie hier klopt, wordt dit wel een interessante kaart en een goede 4k gamekaart of 1440 gamekaart.
Volgens AMD hun benchmarks is hij ongeveer net zo snel als de Geforce RTX 2080.

LINK hier.

En dat is goed nieuws, hij woord alleen niet goedkoop, gaat $699,- kosten, maar komt hoogstwaarschijnlijk door de dure geheugen.

[Reactie gewijzigd door AmigaWolf op 10 januari 2019 00:02]

Gezien AMD geen specifieke hardware tensor en RT cores tegenhanger heeft is het meer 2080 performance als fictieve gelijke 1180.
Gezien AMD chitectuur er maar 1 is die ook compute sterk moet zijn kan het kwa DXR tussen 1080 en 2080 vallen.

Gezien Vega VII tegen 1180/2080 opmoet is highend en dan kunnen de HBM2 kosten goed gedekt worden.
Waarbij als de GPU die bandbreedte goed kan benutten een 4K specialisatie de meeste bang for the buck geeft.
Tenzij de GPU de bottleneck is en die bandbreedte niet kan benutten.
alsnog goedkoper dan de gemiddelde 2080!
kijk maar in de pricewatch
Het is een advies prijs, dus hoogstwaarschijnlijk woord hij €700+

En ik kan 9 Geforce RTX 2080 vinder voor onder de €750,- dus nee ze zijn dan de zelfde prijs, ze hadden alleen 2 versies moeten maken, een met 8GB en een met 16GB, dan had de prijs veel lager geweest, en waren ze weer de veel goedkoopste, in mij optiek hebben ze een fout nu gemaakt om alleen de 16GB versie te verkopen die in de €700,- gaat kosten daar door, want 99,99% van de gamers heeft meer dan 8GB absoluut niet nodig, ook niet in 4K.

[Reactie gewijzigd door AmigaWolf op 10 januari 2019 15:16]

Een 1060 ;)

https://store.steampowered.com/hwsurvey/videocard/

[Reactie gewijzigd door Cogency op 9 januari 2019 19:32]

Mwoa, vind het toch wel meevallen. Deze kaart lijkt +- een 2080 te zijn qua prestaties, maar ook qua prijs.
Maar de adviesprijs ligt nu hoger dan van een 2080. (699$ tegen 686$). Dus heel veel goedkoper gaat hij niet worden.
Dit is dus incorrect een GTX 2080 kost mij momenteel 849 euro's voor een founders editie. De prijzen die Nvidea ooit genoemd heeft zijn de prijzen van de andere fabrikanten, en die zijn tussen de 699 en 799 dollar.

Als je kijkt naar de RX 580, zie je dat AMD zelf de orginele kaart vaak veel hoger geprijst heeft, als die van de andere fabrikanten. Dus in het eind resultaat zal deze kaart waarschijnlijk veel goedkoper worden als de 2080. Als we appels met appels vergelijken.
als je per se een founders editie wilt: die zijn duurder inderdaad. Een gewone koop je hier voor 594 euro (686 dollar). Ik zit er niet zo heel erg diep in, maar is een founders edition veel hoger geklokt ofzo? Of meer garantie, meer meegeleverde spellen? Waarom is hij 130€ duurder?
Nee, de livestream vergeleek de kaart met een rtx 2080, niet de 1080.
De prestaties zouden toch in lijn liggen met de RTX2080 (met korrel zout)? Toch een aardig verschil met de vermeldde GTX1080.

Ondanks dit waarschijnlijk niet direct een deuk in het high-end segment van Nvidia slaat, is concurrentie niet verkeerd. Ik ben erg benieuwd naar de reviews en met name wat 7nm voor het stroomverbruik van deze kaart betekend!

[Reactie gewijzigd door Bojan023 op 9 januari 2019 19:21]

Ik denk dat dit best een sterke kaart is in de huidige markt:

De Radeon VII is gelijk aan of ietsje sneller dan de 2080 claimt AMD in de keynote, maar heeft een iets lagere prijskaart tijdens launch. Met een aantal driver updates zal daar nog een aantal procent bij komen, en na een aantal weken zullen de prijzen een paar procent dalen. Daarmee zit de kaart in een goede positie om de 2080 aan te vallen. Sneller en goedkoper.

Daarnaast heeft de kaart vanuit de fabriek al een flinke koeler met 3 fans. Het leken me 92mm fans, maar dit zou wat kleiner uit kunnen vallen uiteraard. De 2080 heeft een blower. 3rd party 2080's hebben een goede heatsink, maar kosten dan ook aardig wat meer.

Nu zag ik wel dat de VII twee 8-pins PEG connectoren heeft, wat betekent dat de kaart potentieel tot 375W kan trekken. Nu denk ik dat het TDP rond de 300W zal blijven, gezien +30% in prestaties en +25% in rendement t.o.v. Vega64. 295*1,30/1,25 = 295*1,04 = 306W

306W is meer dan de 215W van de 2080, maar ik zie het probleem met TDP nooit zo als de koeler gewoon voldoende is. Ik ben helemaal voor het verlagen van het TDP, maar als dit de keerzijde is voor een leuke, competitieve AMD kaart kan ik daar prima mee leven.

[Reactie gewijzigd door Rickkamminga op 10 januari 2019 00:13]

nieuws: Nvidia brengt GeForce RTX 2080 Ti, RTX 2080 en RTX 2070 eind septembe...
Nvidia verkoopt Founders Editions van de RTX 2080 Ti, 2080 en 2070 voor respectievelijk 1249, 849 en 639 euro. Daarmee zijn de nieuwe videokaarten fors duurder dan hun voorgangers. Nvidia noemde in zijn presentatie echter prijzen vanaf 999, 699 en 499 dollar voor de drie RTX-kaarten. Die prijzen gelden waarschijnlijk voor de goedkoopste versies van andere fabrikanten.
De nieuwe videokaart heeft 3840 streamprocessors en ondersteunt Freesync 2. Verdere details zijn nog niet bekend; er is bijvoorbeeld nog geen productpagina online met alle specs. De AMD Radeon VII gaat op 7 februari in de verkoop voor een adviesprijs van 699 dollar. AMD heeft woensdagavond Nederlands tijd een keynote op elektronicabeurs CES in Las Vegas. Eerder deze week presenteerde de chipontwerper al zijn Ryzen-cpu's voor laptops.
Verder is de goedkoopste 2080 in de pricewatch ook maar 719 euro wat met omrekening dollar - euro en belasting ed. redelijk klopt.

[Reactie gewijzigd door kluyze op 9 januari 2019 21:37]

Deze kaart is kansloos als je het hebt over marktaandeel. Gamers zijn NVIDIA minded. Daarbij heeft NVIDIA ondanks een relatief dure chip nog genoeg ruimte om te prijs naar beneden bij te stellen. Ik vraag mij af wat AMD aan de prijs kan doen met 16GB HBM (wat gerust 250 dollar kost).

VEGA 7 is wel een welkome chip voor de creative markt.
Als nvidia inderdaad de prijs naar beneden gaat bijstellen blijkt daaruit toch dat de VII competitief is? Laten we hopen dat ze dat doen! Ik zou het niet erg vinden om de 2080 voor €630-650 in te kunnen kopen in plaats van €850 vlak na launch!
Dit is het hele probleem: "OMG why doesnt AMD put anything competative on the market?!" en vervolgens nVidia kopen als de prijzen omlaag gaan dankzij AMD.

Ik zie een versie van deze zo zin vaak langskomen, waarom kopen mensen niet gewoon de AMD kaart als deze hetzelfde presteert?
nvidia "voelt" veilig aan voor de meeste gamers.
Nou toen de crypto hype op volle toeren draaide en videokaarten duurder werden waren die "Nvidia minded" gamers ineens portemonnee minded.

Dus mensen zullen heus wel kiezen voor een goedkopere kaart als ze de mogelijkheid hebben.

En juist als gamer zou je moeten weten dat het merk weinig uitmaakt, tenzij een bepaald merk ernstige problemen heeft en dat is niet het geval.
Hoezo zijn gamers Nvidia minded, je hebt het over die paar procent die bij elke generatie meteen de duurste videokaarten koopt? Het grootste deel van de gamers koopt een mid-range kaart, en met de laatste prijsverhogingen die Nvidia heeft gedaan met hun 20xx lijn, zal deze top kaart van AMD ze toch wel pijn kunnen doen. Het is net hoe men de kaart positioneert.

Concurrentie is alleen maar goed voor ons consumenten, dus ik hoop dat deze kaart zich goed kan meten met de GTX2080 voor een betere prijs. Dan is de VEGA 7 niet alleen welkom voor de creative markt, maar ook gewoon voor gamers.
Merk loyaliteit bij NVIDIA is stukken groter dan die bij AMD. Het marktaandeel van Polaris 10/20 (1,67%) ligt ook mijlen ver achter dan het marktaandeel van GTX 1060 (15,39%). Neem deze cijfers wel met en korreltje zout, ze komen van steam. Maar het enorme verschil is duidelijk.

AdoredTV heeft een twee analyses hierover gemaakt. Er zit echt wel een kern van waarheid in.
https://www.youtube.com/watch?v=uN7i1bViOkU
https://www.youtube.com/watch?v=0dEyLoH3eTA

Ik zie AMD wel hard aan het werk om merk loyaliteit te verstevigen. Niet voor niets wordt er constant gezegd dat de meeste gamers op AMD hardware gamen (consoles). Maar marktaandeel win je niet snel. Ook niet met een significant beter product. Ik heb niet het idee dat AMD sinds de introductie van Ryzen (nu twee jaar geleden) de gemiddelde gamer heeft bereikt. Daarvoor moet er nog meer marketing komen via partners en sponsoring op twitch bijv.

En nog even over de prijs. Het zegt mij veel dat AMD Vega VII voor 699 in de markt zet. Ik verwacht geen flinke prijsdalingen omdat de kostprijs hoog is en AMD gezonde marges boven marktaandeel prefereert. Lisa Su heeft gezegd dat AMD in 1H 2019 op GPU vlak het lastig blijft en geen enorme groei verwacht. Deze kaart is niets meer dan een zouthoudertje tot Navi. Het is immers altijd beter om te kunnen zeggen dat je als bedrijf wel iets hebt in het highend segment, dan helemaal niets.
Heb je weleens de Steam Hardware Survey bekeken: 74% van de gamers op steam heeft een Nvidia kaart, AMD heeft 15% en Intel pakt toch nog 10%. bron: https://store.steampowered.com/hwsurvey

De nieuwe RTX2060 heeft in veel games GTX1070TI/Vega56 performance tegen een lagere prijs (in de VS).

Wel is het goed om te lezen dat AMD dichter tegen de NVidia prijzen gaat aanzitten. Hierdoor worden de marges op de producten wat hoger en kunnen ze meer aan R&D spenderen en misschien over een paar jaar misschien NVidia wel voorbij gaan in performance..
Ik snap deze hele "ITX heeft problemen met warmteafvoer" discussie niet zo. Het gaat om de verversingsfrequentie van de lucht in de behuizing, de hoeveelheid M3 lucht per uur. Het maakt niet uit of je een kleine behuizing hebt of een grote, als je maar genoeg flow hebt. Een grote behuizing met een 120mm fan voor en achter zal gemiddeld net zo heet zijn als een kleine behuizing met dezelfde setup.

Ik draai al heel lang een Ryzen 1700 en GTX 1080Ti met flinke overclocks in een Focus G Mini en verstook zo'n 700W met een enkele dikke 240mm radiator voorin de behuizing in een custom loop. De temperaturen zijn nagenoeg hetzelfde in vergelijking met de Corsair 700D die ik eerst had, inclusief de passief gekoelde mosfets op het moederbord. In de 700D had ik zelfs een fan extra.

[Reactie gewijzigd door Rickkamminga op 9 januari 2019 20:44]

De 2080 founders edition heeft gewoon een heatsink met 2 fans erop iirc.
Je hebt gelijk! Heb het aangepast.
Tdp is belangrijk omdat een groot deel tegenwoordig in laptops verdwijnt en hiermee AMD nogsteeds niet mee kan doen.
Toegewijde gaming laptops zijn niet zo'n hele grote markt t.o.v. mainstream laptops waar wel eens een spelletje op gespeeld wordt, toch? Het lijkt er op dat AMD het TDP voor de APUs nu redelijk weet te regelen. 't Zijn best leuke apparaatjes en ik ben verbaasd hoe vlot ze zijn.
Nu al de vega launch vergeten? Ik niet, heb er eentje in mijn kast, maar AMD claimde van alles bij launch en de prijs werd een week later 100usd meer. Ze noemen hem ook anders dan vega(2) omdat iedereen (met gezond verstand) een bittere nasmaak krijgt van vega. Mijn vega met aftermarket koeler (red devil 64) is gewoon een monster en niet om aan te horen, thermals zijn k*t en drivers moet je voorzichtig zijn om te installeren want sommige nieuwe drivers lopen voor geen meter of zorgen voor een systeem lock.

Raja Koduri is vertrokken bij AMD vanwege onenigheid over ontwikkeling, terwijl hij verantwoordelijk was voor vega, kan hij er niks aan doen dat deze gefaald is. Als de geruchten kloppen heeft AMD feitelijk vega laten falen voor Navi-> deze kaart? (omdat het ook een product moet worden voor de komende Playstation)
Geen woord over raytracing.
Ik snap deze AMD kaart niet echt. De kaart is even duur als een 2080, verbruikt als jouw berekening klopt bijna honderd watt meer (of 30%) en heeft geen RTX features. Ik had toch verwacht dat AMD met een GPU chip waarbij ze veel meer plek hebben dan Nvidia (geen plek nodig voor de RTX features) beter zou presteren op vermogen, prestaties, of prijs.
Ik snap niet waarom RTX belangrijk is in deze conversatie. Het is een niche product wat nvidia probeert door iedereens strot te duwen.

Het is een kaart met dezelfde prestaties en met dezelfde prijs als een 2080. Ja, hij verbruikt meer, maar je hebt ook veel meer geheugen en bandbreedte.

Een probleem waar ik nu tegen aan loop met mijn 1080Ti bijvoorbeeld is precies die geheugenbandbreedte. Ik kan niet normaal op 1440p 60hz spelen met wat SSAA. Niet omdat de GPU het niet aan kan, maar simpelweg omdat 11GB op een 352bit bus niet genoeg is. Ik verwacht dus dat de VII het prima gaat doen op 4K tov van de concurrentie.

Vergeet niet dat dit nog steeds gewoon een Vega kaart is. Ja, op een kleiner procedé maar nog wel gewoon een Vega kaart. Meer ruimte op de chip is niet zo heel relevant, want TDP is de limiterende factor. 16GB HBM2 zal best wat energie gebruiken. AMD heeft maximaal 375W te verbruiken om binnen PCI spec te blijven, dus het is niet gek om rond de 300 af te kappen en de rest over te laten voor OC enthousiastelingen.

Deze kaart draait op 1800MHz. Dat is toch een flinke OC tov van Vega64 met 1500+ MHz. Hier zal het meeste van de prestatieverhoging en energieverbruik wel in zijn gaan zitten.

[Reactie gewijzigd door Rickkamminga op 10 januari 2019 15:19]

Ik ben zelf programmeur en schrijf een render engine en ik ben zeer zeker wel geïnteresseerd in RTX. Maar mijn punt was dat zelfs als je helemaal niks wil weten van RTX de kaart nog steeds even duur en even snel is, en veel meer energie gebruikt. Terwijl er veel minder op de chip zit. Waarom heeft AMD het niet beter kunnen doen? Het is natuurlijk gewoon een shrink/refresh van Vega maar als consument is dat niet zo'n interessant excuus.

AMD is altijd de partij geweest met meer waar voor je geld, maar in dit geval voelt het alsof nVidia, met de door vele (inclusief ik zelf) duur genoemde, RTX lijn meer waar voor je geld geeft.
Maar wat denk je van 16GB HBM2? Daar heb je niet op gereageerd en ik ben wel geïnteresseerd in wat je daar van denkt.

Dat de kaart gelijk is met de 2080 in gaming is denk ik meer een kwestie van focus. Vega is niet echt een gaming kaart is al een paar keer naar voren gekomen, ook weer in deze comments. Dit is wat ik bedoelde met het TDP verhaal hierboven. Er zal relatief niet zo gek veel TDP over blijven voor de GPU met dit geheugen. Als er 12 of 8 GB op de kaart had gezeten had de die groter kunnen zijn met hetzelfde verbruik wat resulteert in een snellere en 'efficientere' kaart die ook nog eens goedkoper zou zijn. Want HBM is vrij duur.
Als developer vind ik de 16GB geheugen nog niet zo interessant, maar andere developers vinden dat misschien wel interessant. Hoe meer textures je in het geheugen kan proppen, hoe beter :D.

Volgens mij heeft het geheugen niet zo veel invloed op de TDP, zeker niet in orde grote van 100w. Ook gebruikt HBM2 minder stoom dan de GDDR5/5x/6 (zie bijvoorbeeld hier: https://graphicscardhub.com/gddr5-vs-gddr5x-vs-hbm-vs-hbm2/) op nVidia kaarten en heeft zelfs de RTX 2080TI heeft een TDP van slechts 250W (met wel maar 11GB ipv 16GB geheugen). Het raadsel wordt eigenlijk alleen maar groter.

Qua positionering vind AMD deze kaart toch echt een gaming kaart. Ze positioneren deze kaart bijvoorbeeld als antwoord op de RTX 2080, leveren deze op PCI-E 3 en op gaming drivers. Maar vooral op Anandtech zag ik dat wel veel semi-professionals enthousiast zijn over deze kaart. Want de integer performance is heel erg goed en je hebt die 16GB geheugen. Dus daar zal deze kaart het goed doen denk ik :).

[Reactie gewijzigd door roy-t op 11 januari 2019 12:59]

Mwah, geen deuk? Hoeveel 2080ti heeft Nvidia verkocht? 2 ton? Of minder? Hoeveel kost die 2080? Bijna 900 euro...
Jammer..... De geruchten ("AMD Navi") waren dat AMD met een 2070/2080 uitdager zou komen maar dan niet met de idiote nVidia prijzen. Dan had ik hem meteen gekocht.

Maar $700 met BTW er bovenop en de "Je woont niet in de VS" opslag erbij komt deze zelfs duurder uit dan de 2080. Jammer, gemiste kans. Als hij de geruchten prijs van rond de 400-500 had gehaald dan had ik hem zo besteld.

Van de specs in dat gerucht klopt dus ook niks. Hij is veel higher end maar ook veel duurder..

[Reactie gewijzigd door GekkePrutser op 9 januari 2019 20:40]

Er komt halverwege dit jaar nog een hele serie nieuwe videokaarten.
Heeft Lisa letterlijk gezegt. Hopelijk zijn die met DDR6, want dat is stukken goedkoper en een betere kans om te concurreren met Nvidia. De prijs van deze Vega VII is veel te hoog.....Dit had 549-599 moeten zijn op zijn hoogst. Euro`s wel te verstaan. dan had ik hem direct gehaald, maar absoluut niet voor deze prijs.
Volgens mij was het gerucht dat er 1070 prestaties zouden komen voor een ~$200/300 prijs, deze kaart is een 'extra' kaart is die eerst niet eens voor consumenten uit zou komen. Vega 20 was namelijk alleen voor de 'business' kant van de markt.

Vergis ook niet hoe duur HBM2 geheugen is en zeker als er 16GB! op zit wat de prijs natuurlijk niet veel helpt.

Voor mij is dit ook geen interessant product, net zoals de gehele RTX serie van Nvidia welke gewoon veel te duur zijn. Het wordt dus afwachten op Navi en wat die kaarten gaan brengen.
1TB/s is heaven voor content creators maar overkill voor gamers..
Vega is dan ook een computekaart die ze ook proberen te slijten aan gamers. Een beetje Titan tegenhanger.
Maar wel voor een relatief lage prijs en de juiste prestaties.
Het is dus niet heel erg wanneer het officieel een computekaart is, de performance is goed.

Ook is dit voordelig voor content-creators. Een goede gamekaart, die ook computeloads aankan.
Inderdaad een soort Titan, maar dan voor een niet-Titan prijs
hmm, hadden ze 8GB HBM genomen was die veel goedkoper en haalde hij dezelfde prestaties in gaming.
Er kan echt meer uit gehaald worden.
Als ze een beetje slim zijn komen er een paar varianten met bv 8 en 12GB zodat iedereen een Radeon kan kopen volgens z'n budget.
Die 16GB is vermoedelijk de topversie en tonen ze gewoon omdat de RTX2080ti 11GB heeft. 16 is beter dan 11 en dus een eerste steek richting nVidia.

Hopelijk is de beschikbaarheid goed zodat ze wat marktaandeel kunnen terugwinnen.
Misschien komt er nog een 8GB variant voor een lagere prijs. ;)

Mooie allround kaart die goed in games en andere zware pakketten presteert.
Is dat geen bottleneck op hoge resoluties zoals 4k dan?
8GB VRAM is voorlopig nog ruim voldoende, ook voor 4K. Hele gedetailleerde games met high res mods kunnen aardig in de buurt komen, maar je gaat dan eerder performance verliezen omdat de GPU het zelf niet meer aankan.
SOTR krijgt een 1080 met 8GB anders toch prima aan het stotteren omdat het VRAM vol zit op 1080p maxed out!
16gb krijg je ook wel vol, maar dan met slecht geoptimaliseerde 4k mods, zou zelfs in skyrim nog lukken als de textures maar groot genoeg zijn ;)

Maar dit is wel het soort nieuws waar ik op hoopte deze CES, concurrentie bovenin bloed hopelijk een beetje door naar beneden om wat mooiere kaarten in de prijsklasse te duwen die ik voor ogen heb voor een upgrade van mijn RX480

zou mooi zijn als er niet lang na de launch ook 2-3 lager geschaalde modellen binnen de nieuwe architectuur op de markt komen.
Dit lijkt me ook een opportunistische zet (en een slimme ook) om het gat naar de "echte" nieuwe GPU's te overbruggen: tegelijk van chips met foutjes afkomen en in ieder geval iets in het hogere segment te koop hebben.
Jammer dat alle render engine draaien op cuda cores
Laten we wel wezen: Dit is domweg een Radeon Instinct repurposed.

7nm zorgt er voor dat overklokken een optie is, maar uiteindelijk targeten ze ''slechts'' de RTX 2080 non-ti. 16 GB geheugen is dan wel veel te noemen, maar de hoge prijs zit hem vooral in het feit dat het zijn roots als een werkstationkaart heeft.

Wellicht dat AMD nog flink kan droppen met de kaart. Het is een boeiend stuk silicon, maar die prijs.. daar gaan ze het niet mee winnen.
Hele vreemde beredenering.
Waar het om gaat is wat de kaart doet en kan.
Indien deze kaart minimaal als de RTX 2080 presteert dan hebben ze hele sprongen gemaakt en tevens is 699 als prijs dan prima en daar is niks op aan te merken want de 2080 is 799 en dat is dus een stuk duurder. Het is zo 2010 om te vinden dat AMD de helft van de prijs moet zijn zelfs als ze exact dezelfde prestatie leveren.
Ik hou hierbij ook wattage in het achterhoofd, naast het gegeven dat 4 stapels van HBM2 ook gewoon duur spul is. Gezien de grote koeler neem ik aan dat de chip nogal wat verstookt, zelfs op 7nm.

Daarbij zeg ik nergens dat AMD de helft van de prijs moeten wezen, dat is nu een vreemde beredenering van jouw kant af.
Je geeft aan dat je eigenlijk wil dat ze flink zakken met de prijs..
Stel dat ze 200-300 zakken dan zitten ze dus bijna op de helft inderdaad.
Ja het kan goedkoper maar tegenover de concurrentie is het dus al goedkoper.
Het is wat je je onder flink verstaat maar meestal betekend het vrij veel.
En dat ie een grote koeler heeft en wellicht energie verbruikt etc, dat heeft helemaal niks met de verkoopprijs te maken. Het zijn allemaal van die ouderwetse anti AMD dingen, dat "gezeur" over dat TDP zo hoog is, dat het zo heet wordt en blabla. Sorry dat ik het zo zeg maar dat is echt mieren3uken.
En dat dit "domweg" een instinct zou zijn. Wat boeit dat nou. Je gaat een motor toch ook niet afkraken omdat die motor misschien een verbeterde versie van een oudere motor is? Waar het omgaat is wat die motor presteert.
Ik vind kritiek op dingen helemaal niet erg maar het moet niet onzinnig zijn en ongegrond puur om afbraak te doen aan de fabrikant of het merk.

[Reactie gewijzigd door NosferatuX op 9 januari 2019 21:34]

Ik vind dat je nogal wat aannames doet hier met een nogal onvriendelijke toon.

Laat ik dit voorop stellen:
- Ik begrijp de prijs heel goed gezien de origine van het product. En voor dat geld snap ik ook waar het vandaan moet komen. Maar het is niet onredelijk om te vergelijken. Daarbij kom ik tot de conclusie dat dit een goed product kan wezen, want voor wattage e.d zullen we wel op de reviews moeten wachten.

- '' Het zijn allemaal van die ouderwetse anti AMD dingen,'' - Ik ben niet anti-AMD, ook niet Pro-Nvidia trouwens. :P

- ''dat "gezeur" over dat TDP zo hoog is, dat het zo heet wordt en blabla. Sorry dat ik het zo zeg maar dat is echt mieren3uken.'' - Ik vind dat geenzins ''gezeur'', want dit heeft wat te maken met hoe je algehele PC eruit hoort te zien. Kijk gewoon naar de kaart zelf: Het is 7nm, het is een stuk kleinere chip, maar er zit alsnog een grote koeler om op het af te koelen. Dat geeft stof tot discussie.

- ''En dat dit "domweg" een instinct zou zijn. Wat boeit dat nou. Je gaat een motor toch ook niet afkraken omdat die motor misschien een verbeterde versie van een oudere motor is? Waar het omgaat is wat die motor presteert.'' - Kraak ik het product af? Nee. Ik zeg alleen dat de basis een Radeon Instinct is die voor een nieuw doeleind wordt gebruikt. Het enige wat je AMD zou kunnen verwijten, is dat ze bij aanvang van de Instinct eraan vast hielden dat de Vega 20 niet in consumenten kaarten zou verschijnen.

- ''Ik vind kritiek op dingen helemaal niet erg maar het moet niet onzinnig zijn en ongegrond puur om afbraak te doen aan de fabrikant of het merk.'' - Ik heb eerder het idee dat je dingen leest die er helemaal niet staan.
- maar er zit alsnog een grote koeler om op het af te koelen
alle GPUs hebben een koeler, anders gaat ie kapot duh. Deze koeler is zelfs niet extreem groot, mijn 1080 Ti koeler is véél groter.

- Kraak ik het product af?
Ja, jouw opmerking over dat dit "domweg" een instinct zou zijn is negatief. De onzin over de koeler is naast lachwekkend ook negatief. Je je hele eerste post is negatief over het product ja. Dat komt op hetzelfde neer als afkraken.

- Ik heb eerder het idee dat je dingen leest die er helemaal niet staan.
Ik lees wat jij schrijft.

- Ik ben niet anti-AMD, ook niet Pro-Nvidia trouwens.
Waarvoor gebruik je dan die standaard anti AMD kritieken? Je weet niet eens wat het TDP is en doet een aanname dat hij ontzettend veel verbruikt omdat er een koeler op zit die niet groter dan het PCB is en ook niet dikker dan de i/o plate?

Maar laat maar joh, ik heb sowieso een hekel aan dit soort betweterige "elke-zin-ontleed-opmaak" posts haha.

[Reactie gewijzigd door NosferatuX op 9 januari 2019 22:39]

Ze vergeleken met de RTX 2080 niet de GTX 1080.
Klopt. Heb zojuist de live stream gezien. Ze vergeleken hem met de 2080 met dx 12, 11 en vulkan

Edit: autocorrect corrected

[Reactie gewijzigd door Pikkemans op 9 januari 2019 21:13]

In vulkanen doen alle kaarten het even goed :+
Traditioneel maken AMD vulkanen meer warmte, dus het rendement is hoger (wanneer je de kaart gebruikt als vulkaan)

Ik snap eigenlijk niet waarom ze ook niet gelijk OpenGL tests laten zien? Of is dat vulkan?
Traditioneel is het stuivertje wisselen om de aantal jaren dus zou me er weinig druk om maken ;)
En laten we hopen dat deze niet zo hard tegen gaat vallen als de VEGA serie. Nvidia moet even een flinke trap onder de kont krijgen na jarenlang een Intel-positie te hebben gehad met soortgelijke praktijken.
Vegas waren prima, maar helaas beter geschikt voor mining, en AMD had veel te weinig supply. Als die dingen vorig jaar voor introductieprijs beschikbaar waren was het een ander verhaal, maar zelfs nu zijn ze gewoon bijna niet voor hun startprijs te koop (Vega 56 voor 399, en 64 voor 499)... Dat drukt de pret behoorlijk. Nu de coinminers grotendeels gestopt zijn hebben ze weer een eerlijke kans.
Werden Vega kaarten dan amas gebruikt voor minen? Ik dacht dat dat was voorbehouden aan de rx kaarten
Ik moet zeggen dat ik prettig verrast ben, RTX2080-like performance (zeggen ze tenminste!), 16GB HBM2 memory erin en dat voor 700 USD MSRP. We moeten niet vergeten dat dit ten eerste een knappe die shrink naar 7nm is en dat HBM2 memory vreselijk duur is.
Toch denk ik stiekem dat als AMD er 12GB ipv 16GB van had gemaakt dat ze de kaart dan voor 600 USD had kunnen verkopen en dan dus lekker 150 EUR onder de gemiddelde RTX2080 zaten. Dat zou een hele mooie trap tegen de reet van Nvidia zijn geweest.

[Reactie gewijzigd door Tim2010 op 9 januari 2019 19:30]

Ik moet zeggen dat ik geheel neutraal ben, en zoiets verwacht had. Ik hoop dan eigenlijk ook dat alle mensen die nog steeds claimen dat er een AMD GPU komt met RTX2070 performance voor $250 realiseren dat dat gewoon niet realistisch is, als eentje met iets betere performance $700 gaat kosten.

Laten we wel wezen bij deze kaart, RTX2080 like performance is de marketing claim van AMD. We kunnen het hopen, maar als ze dat claimen, vermoed dat ik dat tussen de RTX2070 en RTX2080 in realistischer is. Als Nvidia wat beweerd geloven we ze immers ook niet op hun blauwe (groene?) ogen. Zelfs als ze echter RTX2080 performance halen, die gaan voor €735 hier over de toonbank. Dus als AMD voor adviesprijs weg gaat dan is het effectief zo goed als identiek. Natuurlijk is het dan mooi dat er een AMD optie is in het hogere segment, maar dat is ook alles, er zal geen enkele druk op Nvidia komen om prijzen te verlagen.
Dat had zeker mooi geweest.
Maar ook nu is het zeker goed in orde. Voor content creators is een kaart met veel VRAM soms aantrekkelijker. Zeker wanneer dit HBM2-geheugen betreft.

Ook vond ik de kaart vrij dun voor een axial-style-fan-gpu-cooler. Dat betekent denk ik dat de kaart ook vrij zuinig zal zijn, of in ieder geval dat deze niet veel warmte produceert.
Misschien haalden ze dan de bandbreedte van 1tb/s niet. Aangezien geheugenchips parallel worden geschakeld voor meer bandbreedte. En als ze 8gb dies gebruiken zal dat uberhaupt niet lukken. Je zal dan immers sowieso 2 dies moeten gebruiken van 8 GiB.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True