×

Help Tweakers weer winnen!

Tweakers is dit jaar weer genomineerd voor beste nieuwssite, beste prijsvergelijker en beste community! Laten we ervoor zorgen dat heel Nederland weet dat Tweakers de beste website is. Stem op Tweakers en maak kans op mooie prijzen!

Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

AMD toont Radeon Vega Frontier Edition met 16GB hbm2

Door , 155 reacties

AMD heeft zijn eerste videokaart met Vega-gpu getoond. De Radeon Vega Frontier Edition komt eind juni beschikbaar. Wat de videokaart kost is nog niet bekend, maar AMD richt het model op wetenschappers en ontwerpers.

Raja Koduri, topman van de Radeon Technology Group, presenteerde de Radeon Vega Frontier Edition tijdens de Financial Analyst Day van AMD. Hij stelt dat de videokaart bedoeld is voor mensen die 'nieuwe technologie willen omarmen'. De Frontier Edition is gericht op wetenschappers, ingenieurs en ontwerpers.

AMD noemt geen prijs, maar met die doelgroep gaat het waarschijnlijk om een erg dure videokaart, die niet bedoeld is voor gamers. Veel specificaties heeft AMD niet bekendgemaakt, Koduri liet alleen los dat de videokaart voorzien is van 16GB hbm2-geheugen.

In een slide vergelijkt AMD de prestaties van de eerste Radeon Vega-videokaart met zijn eigen Radeon Fury X. Bij fp32-berekeningen, die relevant zijn voor games, is de nieuwe kaart 1,5 keer zo snel als het voormalige topmodel. De Vega-kaart haalt een score van 13tflops.

Waarschijnlijk maakt AMD meer details bekend over Vega tijdens een presentatie op de Computex op 31 mei. Mogelijk kondigt de fabrikant dan ook Radeon RX Vega-videokaarten voor gamers aan.

AMD Radeon Vega Frontier Edition

Update: AMD heeft een pagina online gezet op zijn Radeon-website met meer details van de Vega Frontier Edition-videokaart. Zo meldt de fabrikant dat de kaart een gpu heeft met 64 compute units en een geheugenbandbreedte van 480GB/s. Een afbeelding toont ook een watergekoelde variant van de videokaart.

Door Julian Huijbregts

Nieuwsredacteur

17-05-2017 • 00:19

155 Linkedin Google+

Reacties (155)

Wijzig sortering
AMD is lekker bezig hoor.
Fijn om dit weer eens mee te mogen maken.
Al ging het op GPU gebied best prima, alleen CPU niet echt.
En aangezien ze daar nu momenteel ook weer lekker van aan het terugkomen zijn.
Ik zeg goed bezig AMD :D

En voor de liefhebbers de specs op een rij, van wat er momenteel al bekend is over deze kaart:

Flagship GPU: Vega 10
Boost Clock: 1.59GHz
GPU Process: 14nm FinFET
GPU Transistors: 15-18 Billion
ROPs: 64
Peak FP32 Compute: 12.5 TFLOPs
Memory (Consumer Cards): HBM2
Memory (Dual-Chip Professional/ HPC): HBM2
Memory Bus Width: 2048-bit
HBM2 Bandwidth: 480 GB/s (Instinct MI25)
Graphics Architecture: Next Compute Unit (Vega)
Successor of (GPU): Radeon RX 500 Series
Launch: 2017

AMD Radeon Vega Graphics Card met 16 GB HBM2 geheugen en kloksnelheid van 1600Mhz op de 4096 shader cores.
De Vega FE kaarten komen in twee verschillende uitvoeringen beschikbaar, de AMD Vega Frontier Blue Edition en de Vega Frontier Gold Edition.
Informatie over de verschillen tussen deze kaarten is zeer beperkt, maar uit de informatie die AMD heeft verstrekt, zal de Blue Edition van een traditionele blower-koeler worden voorzien, waar de Gold Edition zal worden voorzien van een closed loop vloeistof koeler, eenzelfde soort als bij de Radeon Fury X kaart dus zeg maar.
Het gebruik van een closed loop vloeistof koeler als op de Fury X uit 2015, maakte het een zeer stille kaart, maar tegelijkertijd was het ook een noodzakelijke door het TDP van 275 Watt.
Voor de mensen die het gehele artikel hierover willen lezen, kijk eens aan.
:Y)

Edit: reactie nog wat aangevuld, en deze kan later nog bijgewerkt worden.

[Reactie gewijzigd door SSDtje op 17 mei 2017 18:33]

Als ik dit correct lees, dan is deze kaart even sneller dan de meeste supercomputers van 2002, 15 jaar geleden? Wat een vooruitgang!
Ik geloof ook te zien dat de nummer 1 van die top 500 een gigantische 3.200.000 watt verbruikt. Wat zou betekenen dat het verbruik ongeveer 10.000 keer minder geworden is.
Ik snap niet dat je hier zo enthousiast van wordt, 1.5x sneller dan de Fury X...
Als je hiermee aan het redeneren gaat is dit wat je ongeveer mag verwachten:

- Fury X zit qua performance tussen een GTX 980 en een GTX 980Ti...
- Een GTX 1080 is (nagenoeg) dubbel zo snel als een GTX 980.
- De consumenten-Vega zal (zeer waarschijnlijk) iets minder snel zijn dan de zakelijke hier.

Op basis van deze stellingen is het dus vrij veilig om te zeggen dat de high-end-consumenten-Vega, at best, even snel is als een GTX 1080... En dat terwijl de GTX 1080 inmiddels alweer een jaar oud is...

Eigenlijk is het gewoon slecht nieuws, deze hoeveelheid performance, gezien het niveau van de concurrentie... Het lijkt daarom alsof mensen op dit soort tech-sites gewoon iets aardig over de underdog (AMD) willen zeggen, ongeacht of er een goede basis voor is...
De +2 kan ik niet helemaal plaatsen. Zeker omdat je informatie niet conform de waarheid is. Hier de daadwerkelijke informatie conform de standaard FP32:

AMD VEGA FE: 13 TFLOPS
NVIDIA TITAN XP: 12.15 TFLOPs
NVIDIA GTX 1080 Ti: 11.3 TFLOPS
NVIDIA TITAN X (Pascal): 10.97 TFLOPs
NVIDIA Tesla P100: 10.6 TFLOPs
NVIDIA GTX 1080: 9 TFLOPs
AMD Fury X: 8.6 TFLOPs
AMD Radeon HD 7990: 7.78 TFLOPs
NVIDIA Tesla M40: 6.82 TFLOPs
NVIDIA GTX 1070: 6.5 TFLOPs
NVIDIA GTX 980 Ti: 6.4 TFLOPS
AMD RX 580: 6.2 TFLOPs
AMD R9 390X: 5.9 TFLOPs
AMD RX 480: 5.8 TFLOPs
AMD R9 290X: 5.63 TFLOPs
NVIDIA GTX Titan Black: 5.20 TFLOPs
AMD RX 570: 5.1 TFLOPs
AMD R9 390: 5.1 TFLOPs
NVIDIA Tesla K40: 5.04 TFLOPs
AMD RX 470: 4,9 TFLOPs
NVIDIA GTX 980: 4.61 TFLOPs
NVIDIA GTX 780: 4.1 TFLOPs
NVIDIA GTX 970: 3.92 TFLOPs

Dus qua specs is de Vega gewoon de snelste met een gestandaardiseerde test.

[Reactie gewijzigd door uubee op 17 mei 2017 20:44]

Zo, jij weet niet waar je over praat. Het artikel gaat over een fp32 waarvan alleen de informatie is gegeven dat het 13 TFLOP/seconde is voor deze AMD (ATI) kaart. Conform deze specificatie is hij dus 1,5 x Fury X. Wat dus inderdaad om en nabij de 13 TFLOPs is.

Dus wat is je probleem afgezien van zo een lompe reactie. Daarnaast wordt er beweerd dat:
- Fury X zit qua performance tussen een GTX 980 en een GTX 980Ti...
- Een GTX 1080 is (nagenoeg) dubbel zo snel als een GTX 980.
- even snel is als een GTX 1080

Hierin zijn twee discrepanties te zien:
1: Fury X = 8.6, wat zeker niet tussen de 980 (4.61) en 980Ti (6.4) zit.
2: Volgens mij Vega (13) en 1080 (9) is Vega 144% van een 1080 en is een 1080 69% van een Vega.

Dat zijn gewoon harde cijfers voor fp32. Dat andere benches misschien wat anders zeggen is straks misschien waar, maar eerst eens afwachten wat de testen zijn.

Het grote probleem is dat alle sites hun eigen testen maken en dat er tijdens die testen gerommeld wordt met testscenario's waardoor vergelijken gewoonweg niet mogelijk is.

Mijn grafische kaarten bijvoorbeeld performen anders dan wat tests op diverse sites zeggen, waarom, omdat er gemanipuleerd wordt, bewust of onbewust, wie zal het zeggen.

Maar zolang ik zelf met mijn kaarten soms 30-50% hogere framerates heb dan diverse sites of juist lagere zegt genoeg, helaas zit het gewoon met AMD en NVIDIA fanboys.

O ja, en dit als je geen verstand ervan hebt. Ik heb bijna 30 jaar ervaring in software en hardware performance testen, zowel zakelijk als prive. Ik heb meegewerkt aan diverse best practices in verband met performance voor onder andere Citrix, Microsoft, HP (Digital), VMware. Ik implementeer professionele (NVidia Grid bijvoorbeeld) oplossingen voor grote VDI en ontwikkel omgevingen.

Ga niet blind af op het bestaan van mijn account want dat zegt namelijk niets. Misschien zit ik wel onder een andere naam om mijn eigen redenen.

Overigens, ik heb geen belang bij NVidia of AMD, dus mijn visie is gewoon objectief en gebaseerd op harde cijfers. En zonder andere tests is er nog helemaal niks te zeggen.

Daarnaast heb ik een tip voor je. Volg eens een training "Sociaal reageren en communiceren". Als je zo tegen me in een kroeg had gereageert dan had je hoogst waarschijnlijk de rest van je leven door een rietje gegeten en ik heb mensen ontslagen die minder "sociaal lomp" waren.

[Reactie gewijzigd door uubee op 18 mei 2017 20:56]

Daarnaast heb ik een tip voor je. Volg eens een training "Sociaal reageren en communiceren".
Goede tip!
Als je zo tegen me in een kroeg had gereageert dan had je hoogst waarschijnlijk de rest van je leven door een rietje gegeten en ik heb mensen ontslagen die minder "sociaal lomp" waren.
;(

Misschien zelf die sociale cursus ook maar even volgen?
1,5x de Fury X staat in het artikel. Vervolgens maak ik op basis van benchmarks een ruwe schatting wat te verwachten... Don't blame the messenger.

Teraflops, allemaal leuk en aardig, maar wat moet je er als doelgroep (gamers) mee? Nice for bragging rights... Uiteindelijk gaat het om de beeldjes per seconde op je scherm, niet om de teraflops op papier. (Beetje vergelijkbaar met een supersportwagen, die z'n vermogen net niet helemaal op het asfalt krijgt. Dan heeft zo'n auto wel de "teraflops", maar niet de "fps"...)

De Fury X heeft 8.6 teraflops en zit daarmee zeer dicht bij de GTX 1080 (bron: je eigen lijstje), toch kan de Fury X in de verste verte niet tippen aan de (real world) performance van een GTX 1080. Volgens je eigen lijst heeft een GTX 980Ti 6.4 teraflops tegenover de 8.6 van de Fury X en toch is de GTX 980 Ti de snellere van de twee in games met ruim 2 teraflops minder.

Die teraflops in jouw lijstje vertalen zich dus totaal niet naar de werkelijkheid. De redeneringen van mijn oorspronkelijke bericht doen dat wel...
https://nl.hardware.info/...ks-met-20-gpus-benchmarks Lijkt mij wel een mooie vergelijking, 1.5x de Fury X dan komt je uit op ongeveer 8.100, iets boven de 1080 die op 7.280 zit.

[Reactie gewijzigd door LocK-NaH op 17 mei 2017 21:28]

Geen flops, geen synthetische benchmarks, "gewoon" ruwe fps in populaire game-titels... Daar moet het namelijk gebeuren.
Precies, zijn aardig wat games die laten zien dat de Fury X nog goed kan meekomen.
Ik zie dat toch anders. We weten allemaal hoe dramatisch de oude opengl/dx11 was voor AMD wat toch wel een vertekend beeld geeft. Er zijn nu al best wat titels waar een Fury X tegen de 1070 aan zit te hikken en soms zelfs iets sneller is, en met de oog op de toekomst gaat dat steeds meer de norm worden nu steeds meer games gebruik gaan maken van de nieuwere technieken en dus ook effect gaat hebben op de nieuwere kaarten van AMD.

Daarbij moet ik zeggen dat mijn oude 290x nu al soms erg dicht in de buurt komt van een GTX 980Ti

Ik ga niet speculeren over hoe snel de nieuwe Vega gaat worden maar als ze goedkoper gaan zijn dan Nvidia en kan concurreren op performence dan gaan ze een hoop mensen blij maken. En wat ze lieten zien op gebied van geheugen was ook niet mis.
Yup, GPUs zijn best flukse rekenaars... Let wel op dat je er niet zo makkelijk voor programmeert als voor een supercomputer, hoewel ook dat verandert over de loop der jaren. Kun je nagaan wat we over 15 jaar hebben aan rekenkracht ;) Zou het al genoeg zijn om 8k + VR aan te sturen?
"Zou het al genoeg zijn om 8k + VR aan te sturen?"

Nu riepen we een jaartje terug nog dat 4k gaming voorlopig niet te doen zou zijn, zonder de grafische instellingen zo ver omlaag te draaien dat het nut verloren ging.
Toen kwam de 1080ti, en bleek het ineens makkelijk haalbaar. Zelfs met ultra + 4x msaa of dergelijke AA technieken, is de 60fps prima te doen.

Ik denk dat we over 15 jaar een stuk verder zijn dan 8k + VR. Vraag me af hoe het gaat lopen qua schermgrootte. Nu zie je dat 27" de voorkeur heeft, ook al is dat misschien wat klein voor 4k. Wanneer de resolutie weer omhoog gaat, word 40"+ de standaard? Nu vind ik mijn huidige 29" 21:9 paneel persoonlijk al groot zat.

Maar aan de andere kant. De smart tv functies gebruik ik niet, en de TV gaat via hdmi. Één centraal beeldscherm, misschien niet heel verkeerd. Alleen even kijken hoe dat qua interieur gaat werken. Automatisch verstelbaar bureau word erg aantrekkelijk dan iig.
En een lege kamer, waar ik niet goed weet wat ik er mee aan moet.

edit: Natuurlijk, niet de grootte van het beeld en resolutie maar de verversingssnelheid gaat het nieuwe verkoop-dingetje worden. De opvolger van de 1080ti kan games in 2160p op 100+ fps draaien. De opvolger daarvan gaat de 200+ opzoeken. En zo kunnen de beeldscherm fabrikanten hun 2160p 240Hz HDR panelen op de markt brengen. Dolbyvision HDR heeft nog genoeg rek erin zitten, dus dat word het volgende. Peak brightness zo hoog, dat je letterlijk het gevoel krijg direct in de zon te staren.
We zijn nog lang niet klaar dunkt mij :/

[Reactie gewijzigd door echtwaarisdatzo op 17 mei 2017 13:01]

#Aluhoedjesmode_on

Over 15~20 jaar heb je een klein "laserbeamertje" op je bureau staan dat met razendsnelle eye tracking het beeld direct in je ogen projecteert. Volledig 3D plus een continue variabele beeldgrootte en transparantie.

Het enige nadeel is dat op kantoor de werknemers er echt een beetje als zombies bijzitten. Daarom zetten veel mensen een sightscreen voor zich neer voor minder afleiding.

Een kleine versie kan je in brilvorm krijgen, draadloos aangesloten op je PDA. De Smartphones zijn er overigens niet meer. Het klassieke "bellen" doet niemand meer.
Kappen! Tegen die tijd ben ik 45!!! AAAAaa
Ben ik al :) Ik kan je vertellen dat de beleving niet veroudert: nieuwe technologie blijft even verleidelijk en het plezier met games e.d. wordt er niet minder op...
Nog ff en we kunnen met intra-cellulaire nano-repair modules de veroudering tegengaan :D De geest blijft jong, alleen de machine die "lichaam" heet veroudert (nog).

edit2: gamen met 30" vind ik soms wel wat onoverzichtelijk, met 27"heb je dat toch beter.

[Reactie gewijzigd door D-Day op 17 mei 2017 14:53]

The performance measured by the LINPACK benchmark consists of the number of 64-bit floating-point operations, generally additions and multiplications, a computer can perform per second, also known as FLOPS.

Dus je moet naar de FP64 van deze kaarten kijken. De nVidia P100 heeft ter illustratie 5.3TFLOPS. Ook kunnen normale CPU's gemakkelijker voor generieke taken geprogrammeerd worden.
Ik ben zeer benieuwd naar de main stream desktop variant van deze kaart, zeg een prijs van ongeveer 250 a 300 euro. Als dat een vergelijkbare boost is als bij de Ryzen CPU's t.o.v. de gangbare vorige generatie AMD CPU's dan heeft AMD ook hier een inhaalslag gemaakt. Deze kaart is alleen niet voor de gamers, dit is een exclusieve markt waar deze voor gemaakt is dus voor de thuisgebruikers is het afwachten wat de prestaties van VEGA zullen zijn.
Dat zie ik echt niet gebeuren, daar zit de rx580 namelijk al en vega moet een hoger markt segment gaan bedienen. Los van de leaks die sandervanes noemt lijkt het me dus ook niet logisch.
250-300? Dat zijn prijzen van de RX480 en 580? Vega wordt hoger segment.
Als de huidige leaks kloppen dan moet ik je helaas teleurstellen. Er wordt verwacht dat er 3 varianten van Vega uitkomen bij release, waarvan het instapmodel een MSRP (dus zonder btw) van 399 dollar heeft. Dit vertaald zich bij ons naar een prijs van rond de 450 tot 500 Euro.
Als je de wisselkoers van vandaag hanteert is 400 dollar momenteel 360 euro en niet 450-500 dus moet ik je helaas teleurstellen.

[Reactie gewijzigd door Dragons op 17 mei 2017 04:15]

Heb je ooit de prijzen van videokaarten in Amerika gezien? Daar kan je een gtx1070 voor 350 euro halen maar als je m daar besteld komen er nog 150euro import kosten op.
Die is ex BTW. Doen we de goedkoopste van Newegg Inc btw komen we op 398 euro uit. De goedkoopste in de Pricewatch is 408 euro. Dat is wel geteld 10 euro duurder. Vind ik nog reuze meevallen.
In sommige staten betaal je geen btw over je aankopen (bijvoorbeeld Delaware en Alaska).
Ja als wij geen BTW zouden betalen zouden de aankopen ook 21% schelen.
Dat is dus ook de reden waarom daar alles ex btw wordt geprijst, maar wil je dat ding hier krijgen dan betaal je dus nog verzendkosten EN daarover nog btw (mensen vergeten nog wel eens dat je ook over die verzendkosten btw moet betalen). En als er staat 'gratis verzenden', dan toch een bedrag op de verpakking laten zetten, want anders wordt er toch nog een fictief bedrag aan verzendkosten gerekend bij binnenkomst.
Vorig jaar (terwijl ik in new york verbleef) een gtx 1070 besteld in newegg. 0 euro btw, 430 dollar. Nu kan je er 1 kopen voor 329 dollar, ongeveer 300 euro.
Moet je eens hier kijken. Vaak veel betere deals vergeleken met Europa.
https://www.reddit.com/r/buildapcsales/
Dat is BTW en vervoerskosten. Invoerrechten is praktisch niks.
Invoerrechten is juist BTW.

Daarnaast komt er eenmalig 15 euro administratiekosten bij.

Als jij dat niks noemt dan ben je zeker wel rijk?
Neen. Invoerrechten zijn een aparte belasting, zie het tabelletje van de bdienst hier. In dit geval geldt er voor computeronderdelen 0% invoerrechten en 21% BTW. Een horloge had bijvoorbeeld nog 4,5% invoerrechten gehad (begrensd op 80 cent, dat wel) naast de 21% BTW.

[Reactie gewijzigd door Lekkere Kwal op 17 mei 2017 10:44]

Nee invoerrechten is naast de BTW
Vergeet niet de btw..
Het lijkt alsof het in de mode valt voor AMD om de namen van hun concurrenten te na-apen ;)
Nvidia Founders Edition = AMD Frontier Edition en Intel X299 vs AMD X399.
Nvidia's Founder Edition is gewoon een stock gaming kaart met reference cooler. AMD's Frontier Edition is een workstation series kaart

[Reactie gewijzigd door Crp op 17 mei 2017 09:29]

Net of Intel ze heilig is.. Tecnology afkijken in de Athlon64 tijdperk en het gene toepassen op hun core duo (2) processoren..

Ik vind het slimme marketing van AMD.. Waarom het wiel opnieuw uitvinden als het al bestaat.
Nope; AMD64 was de winnaar in een race naar 64-bit. Intal had zijn eigen variant (i64?), maar die sloeg niet aan, die was te laat op de markt. Dus hebben ze uiteindelijk een licentie genomen op AMD's ontwikkeling op dat vlak.

De Core processors kwamen uit "Pandora's Box"; volgens mij was dat een parallelle ontwikkeling in één van hun plants in Israël, ten tijde van het Pentium IV-fiasco. Of daar knip- en plakwerk in zit uit AMD's processoren weet ik niet, maar dat lijkt me stug. Immers, de Core's waren veruit superieur tov alles wat AMD op dat moment te bieden had.
Core processors waren volgens mij een doorontwikkeling van hun laptop-lijn (core M) processors, waar ze toen desktop cpu's uit ontwikkelt hebben omdat ze inderdaad vastliepen met hun P4 lijn...

Er is ook nog een tijdje geweest dat mensen core M processors met een adapter in hun desktop stopte, en vervolgens, voor die tijd dan, vreselijk hard overclockte.
Als je de AMD64 bedoelt, die heeft Intel in licentie genomen van AMD en aan/toegepast op haar CPUs.
Ryzen 3, 5 en 7 niet te vergeten :P
Niet dat je het ze kwalijk kan nemen, zeker op CPU gebied is/was Intel zo'n beetje monopolist. Als je dan opeens andere namen gaat gebruiken, moet de consument zich eerst extra gaan verdiepen. Ze gebruiken eigenlijk niet meer dan de 'industry standard' nu... :P
vergeet ryzen 9 niet ;) en nu komt intel met de i9
Ik heb de i9 berichten toch echt eerder gezien dat de ryzen 9 berichten. Dus andersom, nu komt AMD met de R9 ;)

Ik vind het wel grappig dat AMD Intel's marketing kopieert. Vooral omdat elke keer als Intel wat doet AMD daar overheen gaat. Als in, Intel kondigt een 12 core i9 aan, AMD kondigt een 16 core R9 aan. In dit tempo schuift de markt in een jaar harder op dan in de afgelopen 5 jaar.

[Reactie gewijzigd door Thekilldevilhil op 17 mei 2017 07:02]

Als ik Google mag geloven zijn ze alle 2 een 2 dagen oud. Op een bericht uit 2009 na waar een i9 verkocht werd. Dus dat valt ook wel mee. Die Ryzen 9 naam hadden ze allang in gedachte.
https://www.google.nl/amp...0x-7800x-x299-leaked/amp/

12 mei...

AMD had waarschijnlijk al lang besloten de naamgeving van Intel te volgen. Alsof r3 tot r7 dat niet weg gaf.

Maar je doet nu alsof dat iets slechts is en je AMD moet verdedigen in deze keuze. Waarom precies, het lijkt me een uitstekende strategie.
Het is absolute niet slecht. Dit is voor de Consument uiteindelijk vele malen makkelijker te vergelijkt als BV een Ryzen 8350. En ik had kon ze zo snel tot 14 mei terug vinden. Wat ook absolute niet als verdediging.
Het kopiëren is juist hele goede marketing. De markt is bekend met die naamgeving.
Dat is toch precies wat ik zeg...
Dat ken ik er in ieder geval niet uithalen. Het precies zal dus wel meevallen.
Maar die serie 3, 5, 7 heeft Intel dan weer afgekeken van BMW :+ en die hebben dat waarschijnlijk weer van ergens anders...
Slechte analogie.

BMW heeft 1,2,3,4,5,6,7 series, en ook nog eens x1,x2,x3,x4,i3,i8 series, en M-afgeleiden. ;)

Daarnaast lijken autofabrikanten vaak juist voor onderscheidende typenummers/-namen te gaan. (Behalve als je chinees bent.) Zo associeert bijvoorbeeld iedereen een 5 met BMW, een E met Mercedes, een A4 met Audi, Discovery met Landrover, V80 met Volvo, Golf met Volkswagen, etc. In een verzadigde markt met veel concurrentie is merk herkenning en onderscheiding belangrijk.

In CPU en GPU land zijn er weinig grote spelers. Dan is het logischer voor AMD om met zijn typenamen/-nummers te refereren naar equivalente producten van de concurrent, zeker als die concurrent marktleider is.

[Reactie gewijzigd door houseparty op 17 mei 2017 11:01]

Ik vind de analogie toch behoorlijk op gaan. Toen de eerste i3-5-7 cpu modellen uitkwamen, bestonden verschillende van de modellen die je opnoemt niet, en de "1" series bestonden ook nog maar een paar jaar. Ok, de "6" bestond al wel, maar het waren toch vooral de 3, 5 en 7 die je overal zag.
Dat er X en M varianten bestaan doet er ook niet toe voor de analogie. Intel heeft trouwens ook X, K, M, ... varianten van zijn processoren dus het maakt de analogie alleen maar sterker.

Enfin, ik denk niet *echt* dat Intel de nummering heeft afgekeken van BMW, maar de overeenkomst zal toch wel meer dan alleen zuiver toeval zijn.

[Reactie gewijzigd door Daeley op 17 mei 2017 13:34]

De X, en I (+ nummer) zijn bij BMW wel degelijk aparte modellen reeksen. Wat ook geldt voor de Z- roadsters. Geen luttele varianten binnen een serie. Een M is dat in veel gevallen dan weer wel.

Ten tijde dat Intel zijn Core i3, i5 en i7 typering ging gebruiken (Nehalem 2008) voor consumenten CPU's, had BMW iirc verschillende modellen in de volgende series op de markt: 1, 3, 5, 6, 7, X3, X5, X6, Z4. Al met al heeft BMW door de decennia heen bijna alle nummers in de range van 1 tot en met 9.

Als je naar analogieën met typeringen bij autofabrikanten gaat zoeken dan vind je altijd wel iets, zo veel autofabrikanten er zijn, zo veel analogieën zijn er te maken. (GT en GTS bijvoorbeeld komen wel degelijk uit de autowereld.) Maar in het geval van de analogie die je probeert te maken is de overeenkomst zuiver toeval. BMW en Intel zijn vanuit verschillende invalshoeken bij hun huidige typeringen gekomen, en zo veel nummers zitten er niet in de range van 1 tot en met 9.
De X, en I (+ nummer) zijn bij BMW wel degelijk aparte modellen reeksen. Wat ook geldt voor de Z- roadsters. Geen luttele varianten binnen een serie. Een M is dat in veel gevallen dan weer wel.
Ik bedoelde uiteraard varianten in brede zin van het woord. De mobiele M, U, Y, ... chips zijn ook echt aparte modellen, met bv. i5 en i7 dual-cores die weinig van doen hebben met de echte desktop chips.

Swat, voor mij is het einde discussie, je neemt mijn grappige opmerking duidelijk veel te serieus...
inderdaad, vindt het juist handig om makkelijk te zien wat tegenhangers van elkaar zijn
In het geval van AMD/Nvidia is dit helemaal niet nieuw. Nvidia kwam met de FX straalkachel-videokaarten, AMD kwam niet al te veel later met FX-naamgeving voor hun...euh...straalkachel processors :+ En veel eerder kwam Microsoft met Windows XP. De Athlon-processors werden na de Thunderbird dan ook Athlon XP genoemd. Lekker origineel denk je dan, maar goed, AMD staat nog altijd niet bekend om hun uitstekende marketingafdeling en vroeger was dat nog vele malen erger. Niveau onbetaalde stagiair zeg maar.

Maar tegenover Intel....natuurlijk is het keihard afgekeken en niet erg netjes enzo, ook al vergelijkt het nu wel gemakkelijk en eerlijk voor de consument. Maar aan de andere kant, Intel heeft in het verleden echt vuile spelletjes gespeeld. Wat AMD met hun Ryzen- en X-platformnaamgeving doet is misschien niet heel netjes, maar ik heb echt geen medelijden met Intel hoor. Beetje karma is af en toe wel op z'n plaats.

Ik noem de FX8xxx-serie wel straalkachel processors, maar wellicht laat mijn geheugen mij in de steek. Was er niet eerder een dual core Athlon FX serie, voordat AMD met de Phenom kwam?

[Reactie gewijzigd door PhatFish op 17 mei 2017 03:41]

De FX-8 en -9 zijn inderdaad redelijke zuipers, maar zo erg is het niet, zeker niet in vergelijking met 'vroegah', toen de Athlons, en vooral de Pentium 4s rustig 140 W verbruikten, ook als ze het rustiger hadden. Terugklokken? Nah, ben je gek!

Verder moet je iets met je naamgeving, en als je dan iets soortgelijks hebt als je collegas is dat alleen maar handig voor het grote publiek. Autos houden allemaal van een 'sport' uitvoering, een GT, of een 'executive' variant. Bij het computerend publiek varieert het meer, van een Engineering/Extreme Edition, tot de GT - vanilla - Pro - XT -XTX/XTPE naamgeving, de K-CPUs, die bij AMD dan weer BE heetten, et cetera. Meestal is er geen touw aan vast te knopen.

Jammere is wel dat (voor mij) de NVidia-FE bekendstaat als een duur ding met brakkere specs dan zijn broertjes, en iets dat je alleen wilt hebben als je het nieuwste van het nieuwste wilt, ongeacht de prijs. Dat AMD daar nu op meelift is interessant, maar zoals je zegt, marketing blijft hun probleem...

offtopic:
Er bestonden inderdaad een FX-51 en een FX-53, de eerste AMD-64 processoren, codename Clawhammer. Die lijn is daarna nog even doorgetrokken met de FX-55 tm 59 voor een setje high-end dual-cores. Mooi speelgoed, als je er 1 vindt, bewaar em goed
Helaas geen tijd om je linkje door te nemen, maar ik bedoel natuurlijk de praktijken welke Intel een miljardenboete hebben opgeleverd :)
AMD TDP valt reuze mee. Toen iNtel met hun kachel kwamen Netburst. Nieuw platform. Is er ook enorm meer ruimte rond de socket gereserveerd voor grote koelblok.

Dus dat ik straalmotor superorb had op prehistorische socket A waar eerst thunderbird op zat en later XP ????+ met dezelfde ouwe frontside bus.
Is een van de grote nadelen van langer asnhouden van dezelfde sockets waar CPU van 50 watt richting de 100watt gingen.

Straal kachel staat voor mij een high rpm kleine diameter fan op lange upgradeble socket met CPU op handrem door oude manier van aansturen en oudere type geheugen.
Sorry, maar ik kan echt geen touw vastknopen aan je verhaal...
Blij dat ze niet hun geld in de marketing afdeling stoppen anders krijgt amd ook processoren van boven de 1k.
Amd was de eerste die processoren van de 1k presenteerde.
Waarom is dat relevant dan dat ze dit 1x gedaan hebben ?
Is dat zo? Ze kwamen als eerste met de 1Ghz processor, een Athlon. Intel kwam niet veel later met een 1Ghz Pentium III en die kostte indertijd Fl 1000,-. De Athlon was met zijn Fl 500,- daardoor echt een koopje.
AMD ging met de "Thunderbird" over de 1Ghz barrière. TB 1200Mhz later nog een TB1400 , heb beide gehad naast mekaar.
iNtel Bleef op 1Ghz steken met PIII de 1133 GhZ zwaar fab OC'ed werd terug getrokken. Was net iets teveel.

Het is bekend dat Netburst véél stages had in de pipeline. Maar er zijn dus ook verschillen tussen AMD architecturen en ook onderling.
Zo is Piledriver ook meer gemaakt voor klok dan IPC. Maar Procede kan ook problemen geven.
Die Athlon64FX lijn bestaat sinds 2003 zo uit mijn hoofd, hogere kloksnelheden standaard, meer cache en altijd de multiplier unlocked. Maar vooral een stuk prijziger.
behalve dan dat de FE editie gewoon voor de normale consumenten is met als doel extra geld uit je zak te kloppen en de Frontier editie alleen bedoeld os voor "Prosumers"

[Reactie gewijzigd door laurens91 op 17 mei 2017 12:13]

De "normale consument" hoort iets wat bekend klinkt, en heeft gehoord dat dat goed is, dus koopt het.
In principe wel logisch gezien het "niveau" van de gemiddelde consument. Niet dat ik er nou zo op zit te wachten maar het is zo wat makkelijker om te vergelijken in vergelijkbare segmenten. Alhoewel de nikszeggende subtypeaanduiding verder alsnog niet echt helpt.

"Nvidia Founders Edition = AMD Frontier Edition" vind ik een ander verhaal. Heel veel woordkeuze heb je daar ook weer niet. Alhoewel ze zich van mij wel wat meer mogen onderscheiden wat dat betreft.
Tsja wat moeten ze anders doen om in dezelfde markt te concurrenteren.

Je kan wel met obscure dingen komen maar dan is het ook weer moeilijker te onthouden en te volgen.
Dit lijkt me meer een Quadro tegenhanger.
Oh, de 980 was anders toch echt een aanduiding van Ati.
Amd komt met de Ryzen 9 en intel kondigt de I9 aan.

Iedereen kijkt naar elkaar, al jarenlang. Dat is echt niet voorbehouden aan Amd.
En die chips zijn dan ook nog es vierkant, net zoals bij Intel, schandalig 8)7
Zou als wetenschapper toch eerder kiezen voor een NVIDIA kaart, vanwege de software ondersteuning. De AI software Tensorflow van Google werkt bijvoorbeeld alleen met CUDA.
AMD's HIP vertaald cuda.

En als wetenschapper zou ik ALTIJD voor de open standaard gaan. Daar kan je over 10 jaar ook bij wat mee, terwijl je dat van en proprietary standaard maar moet afwachten.
Het zijn maar berekeningen. Als je op een Intel x86 2+2=4 uitrekent, dan is dat ook een proprietary binary adder. Heel de x86 ISA is proprietrary. Is dat een reden om dan maar SPARC te gebruiken? Welnee - de berekeningen kan iedereen controleren.

Nu is een tensor iets groter dan een enkele integer, maar dat is een kwestie van schaal. NVidia's CUDA doet niets unieks, het is alleen sneller met zulke grote data.
maar nu is de hardware veranderd, en kan je ineens je oude programma niet meer gebruiken omdat de propitiatory fabrikant heeft besloten op iets anders over te gaan bijvoorbeeld.

en met de open standaard kan je van hardware fabrikant wisselen en werkt het nogsteeds

Met echt grote data sets heeft AMD nu duidelijk een voordeel door de HBCC aangezien je niet langer gelimiteerd bent tot de Vram hoeveelheid.

p.s. het x86 patent is al verlopen. en met x86 kan je met assembler op de bit niveau nauwkeurig bepalen wat de hardware doet. met cuda kan dat niet want daar zit een black box software laag tussen.

[Reactie gewijzigd door Countess op 17 mei 2017 10:44]

Ik weet niet precies wat je met "het" x86 patent bedoeld. Intel heeft duizenden patenten, en de meeste daarvan zullen betrekking hebben op hun x86 processoren.

En sinds de Pentium Pro / AMD K6 kun je met assembler niet bepalen wat er op bit nivo gebeurt, aangezien ook daar een vertaling van x86 CISC naar interne RISC uops gebeurt. Sterker nog, met register renaming kan één en dezelfde instructie op verschillende momenten verschillende bits beïnvloeden. `MOV 10h, EAX` doet niet altijd hetzelfde. Dat is fundamenteel niet anders dan CUDA.
Als wetenschapper ben ik het met je eens. En niet eens vanwege de continuiteit, maar zodat je van elke bitje weet wat er gebeurt. Geen black boxes ergens halverwege je berekening waarvan je maar aan moet nemen dat het werkt, enkel alleen omdat zij van WC-eend boxes zeggen dat de WC-eend box correct werkt...
Maar ... praktisch gezien. Je doctoraat moet af en CUDA werkt nu.
Met die logica kun je niet eens een deling uitvoeren. En nee, dan bedoel ik niet de FDIV bug, maar die bug laat wél zien hoeveel bits er halverwege de deling nodig zijn. En die bits verschillen dus tussen verschillende delingsalgoritmes, zonder dat Intel documenteert welke chip welk algoritme gebruikt. AMD heeft ongetwijfeld z'n eigen implementatie.

FDIV heeft dan nog de garanties van IEEE 754 dat de einduitkomst correct moet zijn tot de laatste bit. Voor de overgrote meerderheid van instructies geeft IEEE754 expliciet toestemming voor afrondfouten in de laatste bit. Logica: om afrondfouten te voorkomen heb je soms een oneindige hoeveelheid bits nodig. Elke processor heeft een eindig aantal bits, en dus afrondfouten, maar niet elke processor gebruikt hetzelfde aantal bits bij de interne tussenberekeningen.
Bij een gamingkaart gaat het toch puur om de FP16 prestaties en niet FP32?

Ik weet dat grafische kaarten voor berekeningen tegenwoordig erg in raken en er ook zeer veel mee te verdienen valt. Vooral de driversupport op dat vlak is gewoon top. Je betaald meer maar krijgt ook iets wat out of the box werkt met je favoriete softwarepakket.
Matrix math float 32 bit dit is wat er voor renderen standaard gebruikt wordt
Double 64bit. Dat is als er hoge presisie nodig is.
16bit FP is als iets toepast zoals neural net waar gaat om beperkte resolutie dus stappen zoals bepaalde toepassing van Neural net connecties is range van 1000 in 1 stap grote genoeg en 16bit float dan al heel ruim voldoet.
Neurale netwerken kun je niet geweldig met FP16 trainen. Maar als ze eenmaal getraind zijn, dan is FP16 wel voldoende voor de toepassing. De reden is dat je de parameters van een neuraal netwerk gedurende de training in kleine stapjes aanpast. FP16 heeft simpelweg geen kleine stapjes.
Dit is normal geen gaming kaart ;)

De andere Vegas wel maar deze is echt wel pro
gezien dat amd vast geen geld heeft voor veel verschillende chips; dit is vast gewoon dezelfde gpu die je in de gamekaarten gaat tegenkomen, maar dan met meer vram en andere drivers. Ecc vram zal ook wel niet.

trouwens kijk ook even op de amd pagina, ze zetten deze gpu ook tegenover een titanXP in specvieuwperf wat helemaal geen pro gpu is en dus ook lang niet zo lekker scoort in opengl vieuwports als bijv. een p6000..

zegt mij iets over de prijs
Bwa de ryzen r7 1800x is ook veel goedkoper dan intels topmodel.

Dus waarschijnlijk zal het wel meevallen 25 procent goedkoper dan intel/nvidia schat ik?
Gaming doet het meeste op 32-bit, al dan niet met 'native' oplossingen (voor sin/cos berekeningen), en soms mishandelen de programmeurs dat om daarmee 2x 16-bit te doen, maar dat wordt al flink minder. 16 bit was vroegah (zeg 20 jaar geleden) wel de standaard-oplossing, maar de moderne GPUs zijn al tijden 32-bit only (met soms een vleugje 64-bit voor speciale toepassingen).
Waarom is de design van de PCB+koeler letterlijk een baksteen? :X
Simpel en effectief! Geen Turbo strepen of super vleugels ;). Is alleen maar mooier. Dat is trouwens ook altijd al een design keuze van stok ATI/AMD kaarten, maar er mist wel veel rood.
Dat deze kaart wen reference design heeft zal ook te maken hebben met het gemiddelde werkstation ontwerp. Voor mensen die een home build behuizing gewend zijn zijn werkstation behuizingen het niet helemaal. Ze zijn niet ruim bemeten, de case fan afmetingen komt vaak niet boven de 90 mm uit. Om het gemis aan airflow te compenseren heb je twee van die lawaaimakers op je achterplaat.

Ook zijn werkstation behuizingen geoptimaliseerd voor maintenance. Dit maakt het in- en uit elkaar halen makkelijk, maar alle geleide- en vormdelen maken een dergelijke behuizing nog voller. Om te zorgen dat de airflow dan zijn weg naar buiten nog kan vinden zijn er dan weer extra kunststof vormdelen nodig om die luchtstroom te geleiden. De koeling van het moederbord komt dan weer onder druk.

In dit licht is een reference design voor een werkststationbehuizing een pragmatische keuze. De hete lucht wordt direct naar buiten geblazen en veel ruimte voor iets groters is er ook niet. Wel is te hopen dat de lucht aan intake niet teveel is voorverwarmd en dat als het systeem op je bureau staat je een koptelefoon kan opzetten.

[Reactie gewijzigd door teacup op 17 mei 2017 07:32]

Dit is een kaart die in huidige termen in de 'FirePro' lijn zou vallen bij AMD. Quadro bij Nvidia. Dat zijn opzich altijd wat serieuzere kaarten dan de RGB-beplakte varianten die je tegenwoordig in de consumentenmarkt vind :P
Dat zijn opzich altijd wat serieuzere kaarten dan de RGB-beplakte varianten die je tegenwoordig in de consumentenmarkt vind :P
Ik dacht dat je bij die producten voornamelijk enterprise-premium betaald voor geheugen en certificering. Ze zijn ook vaak lager geklokt. Is deze lacherige houding volledig misplaatst ?
Driver support is een voorname reden voor de extra kosten. In de hardware zie je die inderdaad niet zo terug. Dat met die driver support geen garantie wordt gekocht voor functionerende hardware neemt de klantenkring voor lief. Er is geen alternatief. Al praten we met Vega wel over een hele nieuwe architectuur met een gewijzigde geometry engine. Dit laatste is belangrijk voor grote hoeveelheden geometrie met hoge resolutie (precisie) zoals die bijvoorbeeld in CAD software nodig is. Maar deze kaarten zijn tegenwoordig flexibel voor heel uiteenlopende taken in te zetten dan alleen maar CAD, FEM en Visualisatie.
Al zo effectief zijn ze niet echt, kijk maar naar de reference design van de RX480 of Nvidia Founders kaartjes ;) Wel goedkoper om te produceren (geen heatpipes maar een standaard blok koper/aluminium) en ze moeten enigszins een plastic baksteen zijn zodat de blower de lucht recht over het koellichaam naar buiten kan blazen.

http://i1232.photobucket...._zpsboxkknh6.jpg~original
(RX 480)

[Reactie gewijzigd door Martin900 op 17 mei 2017 00:47]

Hoog "tease"-gehalte ook.
Had deze newtech kaart graag in iets meer detail gezien ;)

lol: https://img.memesuper.com...t-ankle-meme_300-300.jpeg

[Reactie gewijzigd door B. Olle op 17 mei 2017 01:12]

A building block of creation!
AMD is de laatstetijd goed bezig!

Er zullen vast van 3rd party partners andere design kaarten komen met andere, betere koeling, zoals Asus e.d.

2x 8 pins, die gaat wel veel stroom trekken!

[Reactie gewijzigd door Tourmaline op 17 mei 2017 00:24]

Das een dure baksteen.
Omdat iets zoals de Desktop koelers niet in een rack past of het
aantal kaarten beperkt. Dit is gemaakt om een rack mee vol te proppen.
Niet letterlijk, dan zou 'ie op 0 tflops zitten en waarschijnlijk een kwartje kosten. Sterker nog, de hele koeler zou dan overbodig zijn want 1000 graden is letterlijk geen probleem voor een baksteen.

[Reactie gewijzigd door Aikon op 17 mei 2017 08:08]

Ik heb het dus over de design, dat heeft niks met de chip te maken, :+
Dit truukje hebben we wel vaker gezien. Eerst de pro-kaart tonen aan het grote publiek, dan zal niet heel veel later de gaming-versie wel beschikbaar komen. De 16GB-kaart met 13 TFLOPS zal een concurrent zijn voor de GTX 1080Ti, maar ik hoop ook op een 8GB-versie met iets minder rekenkracht voor een zachter prijsje, de ~700 euro die de afgelopen tijd de norm was gaat imho nergens over.

Ik kijk er in ieder geval naar uit. Opzich ben ik zeer tevreden met mijn GTX 1070, maar iets meer prestaties zijn altijd welkom. Daarnaast heb ik een Freesync monitor en wil ik dat graag gebruiken :)
Als je kijkt naar pure TFlops is die 13TFLOPS single heel erg vergelijkbaar met de nieuwe V100 chip van Nvidia die een fortuin zal kosten.
Dat kan iedereen gebruiken want is onderdeel van de DisplayPort 1.2a-standaard.
Maar niet verplicht te implementeren. Nvidia ondersteunt bewust geen Freesync en wil graag dat je een G-Sync scherm haalt.
Alleen G-Sync word steeds minder en minder, hoe komt dat? Omdat mensen er het geld niet voor overhebben. Ik zie dat er binnen 3 jaar geen G-Sync meer is.
nou als je naar de reeks gaming laptops kijkt die uitgekomen zijn kan je 1 conclusie trekken: er is meer dan 50% van alle gaming laptops die dit jaar uitgekomen zijn, hebben een model met g-sync scherm tegenover de 2/3 modellen van vorig jaar.
Maar waar is AMD (free-sync) in de laptop segment.....?
Die komen in 2h 2017, dus kunnen we 2h 2018 kijken wat dat teweeg gebracht heeft.
Wat betreft monitoren zie ik het nu al somber in, ze (Nvidia) moeten gewoon af van dat closed gedoe en alles gewoon open source maken, dat is wat iedereen wil.
Ja dat is alleen HP voor de rest maakt niemand freesync schermen voor laptops die in q2 2017 uitkomen. Ook niet vergeten dat het gros op de markt Nvidia in de laptops gebruikt. Low mid em high waar AMD alleen mid is
Heb je gisterenavond de 3 uur durende live stream niet gezien?

AMD komt in h2 2017 in de top 5 laptop oem's, asus, Dell, hp, acer, lenovo. Met Vega en Ryzen dus daar ga je pas in 2018 wat van zien, voor nu is het 98% Intel/Nvidia. Maar kan Nvidia GPU's en CPU's leveren? Kan Intel dat? AMD is de enige op de planeet die dat kan en goedkoper vergeet dat niet.
En daarbij wordt er natuurlijk Free-sync geleverd.
CPU's zijn niet relevant als we praten over display technologie. Ook praat jij over iets wat nog moet komen. Ik praat over producten die al op de markt zijn wat natuurlijk een heel verschil is als q2 2017.

En al die oems die je nu opnoemt zitten al vol met Nvidia spul. AMD komt nu pas.

Vergeet niet wanneer AMD in q2 komt vandit jaar volta van Nvidia ook uit komt. Dus ik hoop dat AMD catch-up hoeft te spelen dit jaar.
Niet helemaal waar, want Intel levert eigenlijk GPU's mee bij hun processoren (geintegreerd). Je merkt ook dat Intels geintegreerde GPU's keer op keer sneller worden, je kunt er nu zelfs al op gamen. (helaas geen ultra 60 fps, maar dat terzijde.)
Ik denk dat het niet gigantisch lang meer gaat duren voordat je geen eens meer een dedicated GPU nodig hebt. (voor gamen).
En binnenkort iNtel CPU met AMD iGPU als we de geruchten mogen geloven.
Eerder binnenkort Intel iGPU's met amd tech (in licentie) erin.
Al eens gekeken naar pc-monitoren? Daar vind je bijna geen G-sync meer.
http://www.gadgetreview.com/best-g-sync-monitors als je op deze site kijkt zie je dat ze praten over 11 g-sync monitoren. Hou rekening dat ze praten over de beste en niet over alle verkijgbare. Er zijn meer g-sync monitoren als freesync monitoren. Dat is gewoon een feit.
Een feit? Onlangs op Alternate gekeken en daar vind ik er geen een. Waarschijnlijk omdat ik alleen naar 4K monitoren gekeken heb dan.
ja een feit. asus, bto, msi, alienware, hp hebben meerdere laptop modellen tegenover de geen met free-sync. dat is een feit en makkelijk op te zoeken.
Je kunt als fabrikant inderdaad altijd per sé dwars liggen ja. Om dit gedrag, en nog vele andere misstappen van Nvidia, koop ik uitsluitend AMD :)
Nvidia, fuck you! -- Linus Torvalds
Dit is niet de gaming kaart.
Dat is dus precies wat ik zeg :P De gaming kaart zal niet lang meer op zich laten wachten.
Wat ik op zich wel gaaf vind is dat deze ene kaart inmiddels al sneller is dan de snelste supercomputer uit 2002 (https://en.wikipedia.org/...g#Historical_TOP500_table). In 15 jaar tijd is de technologie zodanig verbeterd dat het nu mogelijk wordt om dit met een fractie van de ruimte te doen. Als deze trend zich doorzet, dan zou voor 2025 de eerste kaart die op petaflops worden uitdrukt zich ook al kunnen aandoen.
Hij 1,5 keer sneller dan de fury x. Dat betekent dat ie sneller is dan een gtx1080 maar niet de ti versie.
Afwachten hoe hun gamer versie gaat worden.
Hopelijk kunnen ze de clocks op de gamer versie hoger krijgen zodat amd toch iets hebben tegen de gtx1080ti.

En als ik amd was, had ik de vega gewoon op de markt gegooid met ddr5 geheugen. Prestaties zal nog steeds in de buurt van de gtx 1070 en 1080 komen. En kunnen ze tenminste al wat cashen. En later met hbm2 komen. Want als de productie probleem bij het geheugen liggen, zal gewoon dit doen. Tenzij ze ook problemen hebben met productie van de vega chips.

[Reactie gewijzigd door Shan op 17 mei 2017 15:43]

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*