Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 154 reacties
Submitter: Vickiieee

Nadat eerder renders van de kaart al een indicatie over het ontwerp van AMD's nieuwe videokaart gaven, zijn nu ook foto's van de AMD Radeon Fury X op internet verschenen. De afbeeldingen tonen de compacte kaart in combinatie met waterkoeling en rode led-verlichting.

De foto's die Wccftech publiceert tonen een deel van de Radeon Fury X in een behuizing, met rood oplichtend de Radeon-tekst aan de zijkant en erboven een bios-switch. Ook is er een foto van de achterkant en een die de kaart met waterkoeler toont. Op de Chinese site Chiphell is vrijdag een grotere foto verschenen die de volledige kaart met waterkoeler laat zien. Opvallend is dat de ventilator van de waterkoeler die op de twee afbeeldingen is te zien verschilt. Op de foto van Chiphell is de bekabeling niet afgewerkt.

Eerder verschenen al renders van de Radeon Fury X. Het is inmiddels wel zeker dat het om een compacte dualslot-kaart met een lengte van ongeveer 19cm gaat. Wccftech zette ook de specificaties van de Fury X en Fury op een rij, maar die zijn nog wel onbevestigd.

De Fury X wordt op basis van die specs op de Fiji XT gebaseerd: die chip heeft 4096 streamprocessors, 128 rop's en 256 tmu's en de watergekoelde kaart zou een corekloksnelheid van ongeveer 1050MHz krijgen. De Fury, zonder X, zou dan opgetrokken worden rond de Fiji Pro met 3584 streamprocessors, 128 rop's en 224 tmu's, met een kloksnelheid van 1000MHz. Beide kaarten zouden met het 4GB hbm-geheugen communiceren via de 4096 bits brede geheugenbus. Die brede bus van het hbm-geheugen wordt gecombineerd met laaggeklokt geheugen van vermoedelijk effectief 1Gbps, maar dat zou met 512GB/s nog altijd fors meer geheugenbandbreedte opleveren dan de 320GB/s van de R9 290X.

Over de nieuwe generatie werd aanvankelijk onder de naam Radeon 390X bericht, maar die kaart lijkt een aanpassing van de R9 290X te worden met hogere kloksnelheden en meer geheugen. De topmodellen in de Radeon-lijn zouden de naam Fury gaan dragen, onder andere om uit te dragen dat het om een volledig andere generatie kaarten met hbm-geheugen gaat. AMD gaat de kaarten op 16 juni aankondigen. Wat de prijzen worden is nog onbekend en ook over prestaties zijn alleen geruchten verschenen.

AMD Radeon Fury X gelekte foto'sAMD Radeon Fury X gelekte foto'sAMD Radeon Fury X gelekte foto'sAMD Radeon Fury X gelekte foto'sAMD Radeon Fury X gelekte foto'sAMD Radeon Fury X gelekte foto's

Moderatie-faq Wijzig weergave

Reacties (154)

Ziet er tof uit, maar ik heb mijn twijfels bij AMD als ik het zo zie. Waterkoeling? Cool enzo, maar dat betekent dat het nodig is; oftewel, veel hitte en een hoog TDP. Het lijkt er toch op dat AMD al tegen de thermische limieten zit aan te hikken met hun chips en toch kunnen ze net Nvidia bijhouden/verslaan. Hoe lang kan dat nog doorgaan?

Stel nou dat Nvidia ook de TDP gigantisch gaat verhogen. We hebben daar al een voorbeeld van kunnen zien in de Titan X, wat direct een monster-kaart was. Mijn punt is dat Nvidia nog een hoop speelruimte heeft op het gebied van TDP en hitte ontwikkeling, AMD niet. Zou er niet van staan te kijken als AMD uiteindelijk niet meer kan meekomen.
Het is inderdaad goed mogelijk dat de kaart meer verbruikt en dus meer koeling nodig heeft.

Er is echter een alternatief dat door David Kanter op een podcast van Techreport werd genoemd:
Een luchtkoeler zou bij deze afmetingen simpelweg te weinig oppervlakte hebben om de hitte af te voeren, zelfs bij een wattage gelijk aan of lager dan een 290x/980Ti. Kaarten als de 980Ti kunnen het nog prima met een luchtkoeler redden omdat er een redelijk groot oppervlakte beschikbaar is voor de lucht om in contact te staan met de koelvinnen van een koeler, zelfs als men ook nog een radiale fan op de kaart wil plaatsen. Echter als je de afmetingen bekijkt van de kaart op deze gelekte foto's dan lijkt het me duidelijk dat er bij gebruik van een radiale fan nooit genoeg surface area overblijft om een heatsink op te monteren die meer dan 200Watt kan verwijderen zonder al te veel toeren van een eventuele fan.

Edit: zie hieronder de reactie van Freaky_Angelus voor eenzelfde verklaring.

[Reactie gewijzigd door Mathragh op 12 juni 2015 12:55]

Interessant idee in ieder geval. De reactie van Freaky_Angelus geeft ook wat meer inzicht inderdaad. Het zou dus zomaar kunnen zijn dat AMD probeert de grootte van de kaarten terug te brengen en efficiënter te koelen met waterkoeling. Toch een wat andere focus dan bij Nvidia. In dat geval zou AMD wel eens een goede richting op kunnen gaan, aangezien de populariteit van mATX systemen stevig aan het toenemen is. Misschien ben ik wel een beetje te negatief ;)

Off-topic: leuke discussie trouwens :P
Nou, als je het leuk vindt gaan we even verder ;)

In principe neem ik 250 Watt die (ook al doen we geen gloeilamp hitte omzetting) naar hitte gaat.

250W of 250J/s via water is 4,16 kJ/kg.K is ongeveer 60 ml per seconde per enkele graad die langs moet stromen. Bij een dT van 30 graden (80 GPU, 50 na koeling radiator) en je zit op 2 ml/s of 7.2 l/h. Dat zijn imo nog vrij lage getallen en de voornaamste reden van een buizenstelsel is dan het buffereffect in de leidingen. De uitdaging zit in het gelijkmatig aanvoeren van koud water naar ook de achterste HBM modules.

Gezien de afmetingen is dit ook te doen in een hybride ventilator blok op de kaart zelf, maar het gaat veel meer moeite kosten ;) Tegenstroom principe en je kan een gesloten watercircuit maken.

Zoals echter gezegd, je zal dit zeer nauwkeurig moeten maken en alhoewel aluminium altijd populair is, wordt dit een uitdaging. Zit trouwens nu ook te denken, dit wordt dus ook een alu-blok die meerlaags is zodat leidingen intern kunnen kruisen. Maakt wel een leuk onderzoekje met wat CFD berekeningen (eens kijken hoe mijn zondag is, heb wel zin in een uitdaging). Ik gok dat mijn opmerking 'duur' al wel over is gekomen ;)

[Reactie gewijzigd door Freaky_Angelus op 12 juni 2015 13:17]

Behoorlijke luxe uitleg! Nice :-)
ik denk dat je best wel eens gelijk kan hebben, en daar er ook een lucht gekoelde Fury uit komt, kunnen gemakkelijk zien of dat klopt, daar die dan een koeler moet hebben die langer is dan de kaart zelf zal zijn.

Iets dat we in het verleden al eerder hebben gezien bij een paar kortere kaarten van nVidia.
Er zijn ook wel situaties te bedenken waarbij de kaart expres groter is gemaakt dan nodig is, zie ook veel loze ruimte tussen alle componenten op de kaart, zodat een grotere koeler goed te monteren valt.
Ik vind het echter ook wel eens fijn om te zien dat videokaartjes weer wat kleiner worden en nog efficiënter worden gekoeld. Ik houd wel van het gesloten brick formaat, bied ook gelijk goede afscherming voor de elektronica en veroorzaakt geen luchtproblemen als ze naast elkaar geplaatst worden in CF opstelling. Daarnaast vraag ik me af hoe handig het is om meerdere van dit soort kaarten in een kast te monteren gezien je met meerdere kleine radiatoren zit in zo'n geval, zeker een 4-way opstelling kan lastig worden, maar mogelijk zijn er wel kasten te vinden waarbij dit niet zo'n probleem is. Daarnaast zie je in dergelijke configuraties meestal custom waterloops en is mijn argument niet erg relevant.
Ik ben zeer benieuwd naar de prestaties van de nieuwe line-up in elk geval!
maar mogelijk zijn er wel kasten te vinden waarbij dit niet zo'n probleem is.
Je kan altijd twee rads op elkaar stapelen als het echt moet, fan > rad > fan > rad > fan.

Is niet helemaal optimaal, maar werkt wel degelijk als je niet (meteen) een custom loop wilt.

q]Daarnaast zie je in dergelijke configuraties meestal custom waterloops en is mijn argument niet erg relevant.[/q]
Heb op het moment in mijn TJ11 Quad-SLI Titan v1, en daarvoor had ik Quad-CF 5870, als je eenmaal je loop hebt, zijn de kosten alleen nog maar de GPU blokken, niet echt super goedkoop, maar ook weer niet extreem duur, en het ziet er gewoon erg mooi uit.
Ja, mooi moment van gelijk posten...

Overigens, vanuit mijn werk gekeken, kan ik best een koeler met radiaal ervoor ontwerpen die ook werkt met 250W. Maar dan wordt de koeler wel duurder dan de kaart... en dan nog wat. Mooie hybride oplossing (Sapphire doet dat al een beetje indirect met Vapor-X) zou een waterkoeling voor de componenten zijn en dit laten leiden langs een oppervlak met luchtkoeling. Dan krijg je de opmerkingen van Watercoolertje en Sebastiaan1984 samen, doch niet stappelen. Wordt krap op 2 slots, maar is wel mogelijk en dan kan je met een radiale ventilator de lucht toch naar buiten blazen.

Ik vermoed dat alles tezamen nu een drie slot optie zou kosten en dan is de korter factor weer een beetje teniet gedaan.
Ik snap je redenering, maar denk persoonlijk dat er iets anders aan de hand is.

Door het HBM en de veel grotere compactheid van de kaart krijg je mogelijk minder absoluut gesproken warmte vanuit de kaart, maar een veel hogere concentratie waar deze zich bevindt. De kaart is erg compact en brengt door de thermische uitdrukking W/m2 dus problemen mee ;) Het zou mij niks verbazen als ze tot de conclusie zijn gekomen dat een goede verdeling met luchtkoeling veel te complex zou worden om netjes (en spoedig) gelijk te krijgen. Waterkoeling is om die reden vele malen makkelijker en sneller toe te passen en krijgt vele grotere toleranties op de thermische belasting. De 120mm axiale ventilator is namelijk een vrij standaard ventilator en drukt, in verhouding, zijn volume door een relatief klein koelblok t.o.v. de radiale ventilatoren die je normaal op de kaarten ziet. Dit zou zelfs een tweede reden kunnen zijn geweest, er zou teveel druk komen uit de compacte hoeveelheid koelblok die nodig zou zijn geweest.

Het stellen dat waterkoeling nodig is, is denk ik wel correct, maar dat hoeft niet te betekenen dat deze kaart meer hitte produceert in absolute getallen. Als de review dit kan behandelen wordt het leuk, water (en volumestroom) is vrij nauwkeurig te meten. De thermische belasting gaat interessant worden (ook als je dit wil integreren in een bestaande waterkoeling).
Amd heeft het verbruik van Hbm al gepubliceerd, 30W, waarvan een deel ook de memorycontroller op de gpu chip is. Met 4 van die chips rond de gpu is er ook aardig wat oppervlak om te koelen.

Ook is de fury chip waarschijnlijk een stuk groter dan de 290x, die al richting de 300W piekverbruik heeft. Tenzij de fury ver boven de 300W verbruikt gaat het verbruik per oppervlak dus juist flink omlaag.
Nee, net andersom voor de oppervlakte ;) Koeler heeft minder oppervlakte mogelijkheden.

Dat de Fury groter is en de W/m2 daarmee gunstiger is klopt, maar dat is voor het koelen van de koeler zelf niet zo.

Doordat het geheugen vlak naast de GPU geplaatst kan worden is het beschikbare oppervlak waarbinnen de ALU-vinnen genoeg oppervlak moeten genereren om overdracht aan lucht te kunnen doen juist kleiner geworden. Ongeacht of het geheugen efficiënter qua warmte is, de totale oppervlakte is kleiner. De totale uitstraling van GPU, geheugen en phase voedingen worden daardoor meer geconcentreerd. Simpel, kaart is kleiner dus koeler is ook kleiner (als je die zou toepassen). Daardoor wordt het moeilijker om lucht netjes te geleiden (zodat je koude lucht ook achter de GPU kan aanleveren) en blijft het resultaat dus óf waterkoeling (wat gemakkelijk(er) te geleiden is) óf hoge luchtsnelheden.

In mijn andere post stel ik nog een hybride optie voor waarbij de lucht niet geleid hoeft te worden, maar behalve duur is dat ook nog een uitdaging op geluid. Je houdt een nauwe ruimte over waar je met hoge snelheid en druk lucht doorheen gaat 'jagen' om die 250 a 300 Watt af te voeren.

Het totale oppervlak van de GPU maakt overigens het koelen van de GPU zelf wel makkelijker, maar alle stromingen er omheen worden beduidend complexer en door de kaart kleiner te maken is er toch echt minder oppervlak voor de koeler ;)

Zal overigens voor dit weekend 350W aanhouden, ok?
uit het radeon topic:
http://tweakimg.net/g/for...//i.imgur.com/l29o6zV.png

De hbm chips verbruiken iets meer dan 4W per stuk, daar hoeft dan denk ook geen heatsink op.

Dan kan je er gewoon een stel heatpipes overheen gooien, zoals bij elke gpu luchtkoeler (zelfs de reference 8800gtx had dit al). Waterkoeling is nice, maar het is absoluut niet noodzakelijk.
Ok, ik zit in klimaattechniek en ik werk elke dag met CFD modellen waarin o.a. warmteoverdracht plaats vindt. Dat is een drogredenatie op basis van expertise, maar neem even aan dat 4W meer dan zat is om iets gloeiend heet te krijgen. 4W op 1 cm2 is namelijk al gelijk aan 40x de zoninstraling... Dus 4 W zegt niks zonder het oppervlak.

Dus, nogmaals, dit gaat om wat je kunt overdragen aan de lucht in de beperkte ruimte die je hebt. Met deze beperkte ruimte en daar bovenop vereiste stromingen, omdat je niet alles simpel serieel kunt plaatsen en koude lucht ook achteraan moet brengen, is luchtkoeling dus zeer moeilijk. AMD besloot derhalve voor een goedkopere, betrouwbaardere en veel thermisch veiligere oplossing van waterkoeling.

Misschien niet absoluut noodzakelijk, maar zeker wel de logische en betere keuze gezien wat een, als het al mogelijk is, luchtkoeler zal gaan kosten.
ach, dan prak je er wat tussen zodat ze wel de heatpipes raken. Het is gewoon niet fundamenteel moeilijker om zo'n soort gpu te koelen.

Ik denk dat ze het gedaan hebben omdat ze met de reference 290x veel negatieve feedback hebben gekregen (herrie/terugklokken), terwijl de 295x2 juist geprezen werd. Het probleem is het verbruik van de gpu en de gewenste grootte van de koeler, niet dat het met hbm echt moeilijker wordt om te koelen.

Een 2 a 3 slots apparaat met 2 top down fans zoals op de meeste aftermarket gekoelde videokaarten zou er absoluut geen moeite mee hebben. En dat is zeker goedkoper en betrouwbaarder dan waterkoeling. Maar waterkoeling is wel kleiner en flexibeler, misschien was quad crossfire een harde eis.
En wat als er dus nu geen 2 top-down fans oppassen?

En al deel ik je mening dat in een 3 slots constructie luchtkoeling zou moeten kunnen, stel je het wel veel te simpel voor. 250~300W op 50~65% van de ruimte t.o.v. huidige videokaarten is dus een luchtkoeler die 150~200% efficiënter moet zijn. Dat is dus absoluut wel moeite.
Het past altijd. Er is geen wet die eist dat het koellichaam en de fans binnen de pcb omtrek moeten blijven. Bij m'n huidige videokaart steekt het ook aan 2 kanten uit.
De HBM chips zitten onder hetzelfde package verstopt. Er zitten er vier onder, dus samen is dat toch weer een 16W hoger TDP dan wanneer alleen de GPU eronder zat. Dat lijkt weinig, maar het is toch weer een beetje meer.

Over het algemeen vind je chips met een TDP van zo'n 15 Watt terug in ultrabooks die vaak nog wel actieve koeling nodig hebben, als je een inschatting wil maken.
Even de boeren logica erop los laten (natuurkunde is te lang geleden):

Als HBM een oppervlakte krijgt die minstens gelijk is aan die van een CPU (zie concept art her en der) waarom gaan we dan doen alsof dat alleen met water is te koelen? Het is niet alsof dat geheugen ineens 200W gaat slurpen, het gros blijft de GPU. Een 125W processor is ook prima met lucht te koelen. Praktisch gezien zaag je desnoods het blok op 20% door zodat er een stukje metaal is waar het geheugen zijn ding op kan doen (terwijl de fan er zoals normaal op gemonteerd zit).

Het is te betwisten of water koeling een must is voor deze kaart maar mocht dit zo zijn dan zal dit eerder het gevolg zijn van een hoog TDP dan in van het nieuwe HBM...

Überhaupt lijkt het me niet de bedoeling dat HBM onkoelbaar is met lucht want dan kan het niet mainstream worden ingezet. Je kunt bij een videokaart van 100 euro immers geen waterkoeling set gaan leveren... Daarnaast past het ook niet in de gemiddelde OEM pc.

TLDR Kan best dat deze kaart alleen te koelen is met water, maar het zal mij echt verbazen als dit terug te leiden is tot HBM. De redenatie dat het er "cool" uit ziet voor een premium product geef ik nog meer kans dan dat HBM de schuldige is ;).

[Reactie gewijzigd door sdk1985 op 12 juni 2015 14:52]

Lees a.u.b. de overige posts... Het is niet de TDP of de stelling of het HBM te warm wordt, het is de concentratie van de componenten en de daarmee volgende moeilijkheidsgraad van de luchtkoeler.

Als je de luchtkoeler minder ruimte geeft, neemt de oppervlakte die je met vinnen kunt maken voor de lucht af, derhalve de mogelijkheid om op die locatie te koelen. De luchtkoeler kan dus door de kleinere formfactor al minder koelen, ongeacht bron van wat het moet koelen.

Voeg dan daaraan toe dat je door het dichter bij elkaar plaatsen ook meer problemen veroorzaakt om koude lucht achter de GPU te krijgen (als je van rechts naar links denkt op fan, wat geheugen, gpu en weer geheugen) en dan snap je dat je 3D moet gaan denken in luchtstromingen, oppervlaktes en vin-pakketten. Al met al, HBM is de schuldige omdat het een kleinere kaart mogelijk maakt, niet omdat het 'warm' zou worden.

Overigens, je hebt het over een GPU die tussen de 200 en 300W verstookt v.s. een CPU die 125 W verstookt. Hoe groot zijn die CPU koelers? Als jij gecorrigeerd formaat haaks op je videokaart wil hangen, dan ja kun je prima met lucht koelen.
Door het HBM en de veel grotere compactheid van de kaart krijg je mogelijk minder absoluut gesproken warmte vanuit de kaart, maar een veel hogere concentratie waar deze zich bevindt
Wellicht neem ik je te letterlijk (?) maar dat is wat er staat en waar ik op in ga. Dat een compactere kaart resulteert in een kleinere heatsink en dus een grotere uitdaging dat staat echt niet ter discussie. Het is het aanwijzen van HBM als, gedeeltelijke, oorzaak waar ik op reageer.

De vergelijking van de 125W cpu ging opnieuw over het HBM, niet over de kaart in zijn geheel. Het is nog niet precies duidelijk wat HBM gaat verbruiken maar als de geruchten kloppen dan wordt het ongeveer 30W. Het zal in ieder geval echt geen 125W worden. Hieruit volgt dat als een Scythe Big Shuriken 2 Rev. B een cpu kan koelen met 58mm hoogte dan is 30W op een vergelijkbaar oppervlakte echt geen issue. Waterkoeling is dus niet nodig voor HBM. Misschien ben je het met me eens maar heb je het wat te stellig (/onhandig) verwoord.

[Reactie gewijzigd door sdk1985 op 12 juni 2015 15:45]

Intonatie ;)

Doordat het HBM zo dicht op de GPU zit is er geen ruimte om het totaal luchtgekoeld uit te voeren. Tenminste, niet naar mijn mening en ervaring, wat watergekoeld heel logisch maakt. Het is dus de compactheid die HBM mogelijk maakt die het moeilijk maakt op de rest. Overigens, doordat HBM zo compact is (gestapeld) kan die het ook nog moeilijk maken, want 4 W op 1 chip-stapel is vrij veel op deze wijze.

Maar laten we het anders afspreken.. Ik laat de pc met CFD modelering aan voor het weekend en kijk of ik nog een update kan posten ;)
Nouja, dit is dan ook de eerste chip met HBM, oftewel het geheugen ook in hetzelfde package verstopt. Dat maakt de package waarschijnlijk nog warmer en daardoor kan de gegenereerde warmte wel een ietwat vertekend beeld geven ;) Overigens gaan er al tijden geruchten over twee varianten; eentje met luchtkoeler en eentje met waterkoeler.

Volgens de opgedoken benchmarks is de Fury X ook een kaart die zich kan meten met de Titan X en de 980 Ti. Ik vind het niet meer dan gek dat daar een vergelijkbaar TDP tegenover staat, mits de geruchten kloppen natuurlijk.

En uiteindelijk is het de prijs die het verschil gaat maken. Als AMD deze kaart voor ¤1000 in de markt wil zetten, tja, dan gaat iedereen voor de 980 Ti. Zet AMD 'm voor 100 euro minder dan de 980 Ti in de markt, dan hebben ze (imo) een winnaar te pakken. Of er dan waterkoeling op zit of niet, en of hij dan iets meer stroom verbruikt of niet... dat maakt niet zoveel meer uit als de kaart in aanschaf lekker goedkoop is.

Ik ben het met je eens hoor, AMD staat op haar achterpoten en ze moeten nu echt laten zien dat ze Nvidia bij kunnen houden met de Fury X, anders kan dat (samen met Zen die te lang op zich laat wachten) wel eens AMD de kop kosten.
De tijd zal het leren.
Ben niet bekend met HBM, dus zou niet echt weten hoeveel effect dat heeft. Zoals jij het uitlegt kan het zeker een effect hebben op de hitte productie, ben benieuwd naar de reviews.

De benchmarks zien er zeker goed uit, alleen is de TDP wel een stukje hoger dan de Titan X/980Ti, 250W tegen 300W als ik WCCF Tech mag geloven (http://wccftech.com/amd-radeon-fury-x-specs-fiji/). Toch is er een positief punt te bekennen, aangezien de nieuwe Fury chip blijkbaar een stuk energie efficiënter is dan de chip in de 290X - mag ook wel als je het mij vraagt. Dus er is zeker nog hoop voor AMD.

Prijs is de afgelopen tijd waar AMD het een beetje van moet hebben. De 290X is bijvoorbeeld ontzettend aantrekkelijk. Prima performance voor een lage prijs, maar wel een stevig TDP van 290W en veel hitte. Is op zich een prima trade-off als je het niet erg vind.

Laten we hopen dat het een interessant strijd wordt tussen Nvidia en AMD de komende tijd :)
Het werkelijke verbruik is wat anders dan TDP.

AMD en Nvidia hanteren tegenwoordig een andere manier van TDP bepaling.

Nvidia's Titan X/980Ti hebben dan wel een TDP van 250, maar schieten vaker verder door dan de opgegeven TDP.

Het beste is om af te wachten op benchmarks. Sommige vendors bezuinigen namelijk op componenten die het stroomverbruik ook negatief kunnen beïnvloeden.

Verder schijnt het tegenwoordig zo te zijn dat men heel erg energie bewust wilt om gaan met hun PC en Maxwell opeens de heilige graal schijnt te zijn. Als je een efficiëntere computer wilt hebben, is downvolting ook een interessante optie.
Nvidia zal het de komende tijd mogelijk ook moeilijker krijgen met het (relatief) laag houden van de TDP van hun videokaarten, en dit heeft niets met NVidia of AMD van doen, maar eerder met het feit dat ze nog wel even door zullen moeten gaan met 28nm bij zowel TSMC als GlobalF, aangezien beide bedrijven geen 20/22nm High Performance machines gaan gebruiken en dus geen 20/22nm HP chips zullen gaan fabriceren.
Nvidia en AMD hebben te wachten tot zowel TSMC als GlobalF overstappen op 14nm High performance.

Nvidia (GPU) en AMD (CPU en GPU) zijn al en zullen dus nog moeten inzetten op zoveel mogelijk efficiëntie in hun ontwerpen om toch snellere videokaarten te kunnen fabriceren en daarbij de TDP niet te hoog op laten lopen.

TSMC en GlobalF kunnen wel 20/22nm produceren, maar puur alleen voor low power ARM ed. ontwerpen.
Ik denk niet dat fury's AMD redding is. Dit is high-end leuke ASP maar in verhouding stuk lagere volume sales om op te kunnen teren.
Als image prestige voor volk budged kaart koop van die gene die de kroon heeft volk? Nee die mythe volgers heeft meer nV.

De midrange en upper midrange is waar de volume sales zijn.

Ik denk dat AMD pas met 14nm gezonder kan worden als ook de CPU tak wat beter kan meelopen en niet meer ook de GPU tak de afgrond in trekt.
Ik vind het hele idee dat AMD "mee moet komen" met Intel en Nvidia uberhaupt maar een raar idee, als je kijkt naar omzetten en research-budgetten.

Een wat "hetere" kaart op 980 ti niveau zou ik al erg knap vinden eigenlijk?
Het is ook best knap te noemen dat je als underdog nog zo goed kan meekomen... Natuurlijk zijn de producten vaak niet zo fancy als die van nVidia, en is de software duidelijk minder goed... Ze beseffen dit ook duidelijk en prijzen hun kaarten daarom gunstig. We zouden alleen zo graag willen dat ze nVidia weer eens overtreffen met een product. Maar dit zal hem puur zitten in innovativiteit, met minder budget toch iets weten te maken wat beter en efficiënter is.

We snappen allemaal wel dat dat lastig is. AMD komt wat dat betreft eigenlijk best wel goed mee. Nu ontstaat alleen een onzekere periode, nVidia heeft duidelijk de betere producten en wat brengt AMD ons straks...? Hebben de producten nog wel meerwaarde, is er wel een goede reden (naast budget) om voor AMD te kiezen?

We zijn bang dat nVidia er met de winst vandoor gaat en dat is slecht voor onze portemonnee... DAT is de reden waarom we willen dat AMD "mee moet komen", net zo graag dat we willen dat een jonge Nederlandse F1 coureur met minder ervaring naar de top "moet" stijgen. Moeten is het goede woord niet, "we zouden het graag zien gebeuren" is allicht beter geformuleerd.

Inderdaad is het knap dat AMD een product neerzet wat zich kan meten aan een 980ti of Titan X, ik denk dat dat door veel van ons wel gezien wordt, zolang er maar een gezonde strijd blijft tussen beide partijen vind ik alles best.
Ik ben echter ook van mening beide partijen zich aan elkaar aanpassen, in die zin, dat nVidia inspeelt op AMD en zich terughoudt kwa ontwikkeling. Het is voor hun ook niet gunstig om te ver voor te lopen op de ontwikkeling van AMD. In die zin houdt AMD de ontwikkeling in videokaartenland tegen, iets wat ik wat minder leuk vind, maar zo kan je op veel manieren kijken... We mogen in elk geval blij zijn met de huidige twee concurrenten. Hoe zou iNtel zijn geweest zonder AMD, of nVidia zonder ATi... who knows ;)

Het nadeel van AMD's positie is al jaren hetzelfde, het bedrijf moet het vooral hebben van een gunstige prijs/prestatie verhouding, zowel op CPU als GPU gebied... en deels lijkt AMD te leven op sympathie,.. "ja, het is iets minder, maar toch wel knap van ze", hoelang gaan we dat als consument volhouden? Hoelang kunnen ze zich veroorloven om de kosten laag te houden en met weinig marge hun producten te verkopen... doen ze zichzelf de das om op deze manier? Hier kan je uren over speculeren... nadat ze (duidelijk zichtbaar) flink hebben geïnvesteerd in hun nieuwe line-up GPU's is wel te hopen dat ze dit terug kunnen verdienen... Ga ik uit respect voor AMD toch weer een videokaart van ze aanschaffen??.. ik weet het nog niet...

[Reactie gewijzigd door BruT@LysT op 12 juni 2015 17:26]

Nou velen zien AMD << Intel. Ja ze hebben het moeilijk met 28 nm vs 14. Momenteel lopen ze achter. Op performance en architectuur.
Maar dat is normaal want x86 valt onder iNtel.
Een of ander non monopoly regeling en deling.

Een FX9350 ? Maar op 14 nm zou ook stuk zuiniger voor midrange en high-end zou dan 8 module 16 core kunnen zijn.
Maar de beperking zit hem in wat global foundry kwa productie kan leveren.

Nou ATI == nV Het was stuivertje wisselen. Enige verschil is dat nV veel agressiever te werk gaat. Alleen door de naam van AMD CPU minder dan iNtel.

Trekt men die door naar ATI onder AMD.
En nVidia vind het best en kan meer vragen voor hun spul.

Want duurder is beter?!?. Wat soms ook zo is maar vaak betaal je puur voor naam soms ook voor een minder product.

Deze mentaliteit zit bij sommige diep vast geroest.

En toch innoveert AMD er nog op los. Maar ze hebben deels het bigchip gpu beleid laten varen. Ze richten zich op volume markt.

Het is nV kan mindere periode makkelijker dragen. GTX480.
AMD met sukkelende CPU tak heeft chronische mindere decades.
Als de GPU tak een ronde minder is tikt dat hard aan.

14 nm GF of 16 nm TMSC nieuwe kansen.
Ik vind het hele idee dat AMD "mee moet komen" met Intel en Nvidia uberhaupt maar een raar idee, als je kijkt naar omzetten en research-budgetten.
Misschien moet iemand dat dan eens doorgeven aan de AMD-marketingafdeling?
AMD zet z'n producten nog steeds in de markt alsof ze marktleider zouden zijn.
Wat misschien een ander voordeel is aan waterkoeling: Er is zo te zien maar 1 fan nodig op 120mm. 120mm fans zijn vaak stiller dan de normale fans die worden gebruikt op een videokaart. De aftermarktet of 3rd party koelers gebruiken meestal 2 of 3 fans zelfs. 1 120mm fan zou dus nog als voordeel kunnen hebben dat het stil is ipv dat het alleen maar is om te koelen :)
Het is sowieso standaard dat een GPU waterkoel setje met 1x 120mm fan wordt geleverd. Aangezien vele behuizingen geen 140mm fans ondersteunen en voor een massa productie van AMD komt dat zeker niet van pas, dus waarom baseer je een oordeel over een fan ? terwijl je de dikte en de koel prestatie's nog niet weet ? het kan ook vies tegen vallen dat de kaart op full stress 80 graden kan worden ? dikte van een radiator kan je beter na kijken en een oordeel over vellen, dan een oordeel vellen over een fan.

[Reactie gewijzigd door Jeroentjeeuh op 12 juni 2015 14:52]

IMO kan je er sowieso nu nog niet veel van zeggen.
Het is ook niet eens zo belangrijk dat de boel super koel blijft, maar wel dat de temperatuur goed gereguleerd is vanwege een goede buffer. Dat is met waterkoeling zeker weten een stuk beter dan met lucht. Ik ga er vanuit dat deze kaart met waterkoeling gerust naar de 80 graden Celcius gaat, en dat is goed te noemen in dit geval gezien het formaat van de radiator. Het doel is hier niet om zeer lage temperaturen neer te zetten, maar zoals eerder gezegd gaat het om de regulatie van de meerdere warmte componenten op een relatief klein oppervlak. Wie ooit waterkoeling heeft gebruikt weet hoe mooi te stijgende temperatuur curve eruit ziet vs. luchtkoeling die gelijk sky-high gaat, in het geval van de 290x zit deze binnen een paar seconden op 95 graden (wat tevens de thermische throttle grens is), Een 290x In combinatie met een H105 duurt al zeker een aantal minuten om op de 60 graden te komen, waarbij mijn kaart op den duur net de 70 graden weet aan te tikken en dan constant blijft. Overigens is 85 graden voor een GPU ook geen enkel probleem en zien we al jaren, zolang de temperatuur daar onder weet te blijven is het wel zo ok. Verwacht dus zeker geen super lage temperaturen, maar wat we bij de standaard 290X luchtkoeler zien kunnen ze echt niet nog eens flikken, dat gaat TE ver en zorgt tevens voor slechte prestaties, defecten en ook nog eens een slechte naam.

Ik ga er dus vanuit dat wat jij zegt klopt, de kaart wordt gerust 80 graden... en dat goed is genoeg, maar we weten niet hoe hard de 120mm fan hiervoor moet werken, dus over geluid kunnen we nu nog niets zeggen.

[Reactie gewijzigd door BruT@LysT op 12 juni 2015 16:48]

Dat is een goed punt inderdaad. Ik denk dat ik wat minder vertrouwen heb gekregen in AMD's positie op de GPU markt, omdat iedereen een stevige comeback had verwacht na de ijzersterke 900 serie van Nvidia. Dat ze dan uiteindelijk met grotendeels rebrands komen en één nieuwe videokaart... tsja, wat moet je daar dan van denken? Natuurlijk is nog niet al teveel bekend, maar de eerste geruchten zijn niet heel spectaculair.

Ik zie een herhaling van de CPU markt, waarbij ze uiteindelijk een laatste poging deden met de FX-9590. Lijkt een beetje een vergelijkbaar verhaal met TDP en warmte ontwikkeling. Kan ook zijn dat ik een beetje te pessimistisch ben over de positie van AMD.

Ben overigens geen Nvidia/Intel fanboy of iets dergelijks. Zou graag willen dat AMD stevig competitief blijft, maar het lijkt toch allemaal een beetje af te glijden.
Hoezo een herhaling van de CPU markt? De FX-9590 was gewoon een overclockte 8350.
De Fury, althans volgens geruchten, heeft meer shaders, HBM, en waarschijnlijk nog veel meer optimalisaties. Deze chip is niet meer te vergelijken met een 290x.
Ik heb er eerlijk gezegd ook geen goeie hoop in. Als we de benchmarks mogen geloven is de 390 iets sneller dan de 970 en de 390X kan zelfs niet meekomen met de 980. Wat is het bestaansrecht van deze kaarten dan? Ik had toch verwacht dat ze beter gingen presteren dan NVidia's kaarten. De tdp zal ook heel hoger liggen dan van nVidia. Waarom zou je dan voor AMD gaan? 8 GB vram ja maar als de gpu niet kan meekomen kan je vooralsnog niet 4K-gamen. Dat is dus ook geen voordeel.

Zelfde verhaal voor de Fury. Die kaart moest eigenlijk de 390 geweest zijn maar dat kan niet omdat AMD die duurder moet verkopen omdat het HBM nog te duur is om te produceren. Nadeel is ook dat HBM momenteel enkel met max 4 GB te produceren is wat te weinig is voor 4k-gaming. conclusie: de Fury(X) zal te duur zijn om te kopen. Ik vrees dat in beide gevallen AMD er dus niet veel van zal verkopen en weer achter het net gaat vissen. De waterkoeling van de Fury voorspelt ook al niet veel goeds, ik heb liever luchtkoeling.

Vooralsnog hoop ik dat dit maar geruchten zijn en geen feiten. We zullen zien de 16de juni..

Edit: al degene(AMD fanboys; even ter informatie: ik heb zelf een HD7950) die mij ongewenst gemod hebben mogen hun moderatierechten afgenomen worden.

[Reactie gewijzigd door Fredi op 12 juni 2015 20:48]

Bestaansrecht van deze kaarten? High-end gaming! Wellicht is 4K-gaming perfect mogelijk als je qua settings hier en daar een klein beetje omlaag gaat, met beperkte visuele gevolgen. Als je beweert dat het bestaansrecht van een 390 twijfelachtig is, trek je mijns inziens het bestaansrecht van een 970 ook in twijfel!

Of is het weer zo'n geval dat als de nieuwe kaarten niet beter zijn dan de huidige kaarten van de concurrentie, je alles meteen maar moet neerbliksemen?
Je snapt niet wat ik bedoel. Ik bedoel dat de 390X geen bestaansrecht heeft tov de Fury. De 390X presteert niet beter dan de 980 wat wel had gemoeten wil AMD een beetje concurreren met nVidia. De Fury presteert wel beter dan een 980 en zelfs 980ti, dus had AMD hem beter gepositioneerd tov de 980 maar ze kunnen niet op prijs concurreren omdat het HBM te duur is om te produceren en AMD er dus meer geld terug voor moet hebben. Komt daarbij dat de 390X niet mee kan qua tdp met de 970/980, dus de keuze is snel gemaakt denk ik dan.

En nee ik ben zeker geen nVidia fanboy want heb zelf een AMD-kaart(HD7950).
Nou het is gewoon een alternatie je kijk naar je budged en wat daar allemaal er rondom zit.

Zit je te kijken naar 970. Is R9-390 een optie
Kijk je naar 980 dan is R9-390X een goed kopere optie
Of de fury hangt daar wat boven maar voor betere prijs.
Dan de fury X tja als die net onder de 980ti komt deze zijn ook stuk minder zuinig dan 980
Dus dan is fury toch ook een alternatief. Maar prijs die iets meer is als een 980.

Voor 4 K kan dit mogelijk een specialistische kaart worden.
Maar ook voor triplemon.

Het is als nV al maximale uit 28nmmet 3de refresh gen.
En dan moet AMD op 28nm daar even flink overheen.

Ze kunnen niet tover want dat houd in dat Titan X architectuur een faal moet zijn om daar flink overheen te kunnen gaan.

TitanX kan je zien als de huidige lat wat mogelijk is.
AMD kan dat hooguit iets overheen toppen.

Uiteindelijk heb je dieshrink nodig voor flinke stap vooruit.

De titanX/980ti chip zal geheid ergens ook een bottlenekje hebben. En Fury chips hebben al bandbreedte voordeel.
Dus uiteindelijk zal het van de bench setting afhangen wie er boven uit steekt.
Wetende dat games nogal sterk kunnen reageren op gpu architectuur en merk. Is mischien moeilijk een winnaar te kiezen.

Ook kan je kwa selectieve games keuze maar ook settings
Het eindresultaat wat sturen.

Ik ben ook benieuwd ik verwacht geen wonderen.
Maar ik zou bij twijfel uitkomst, voor mijn favo gaan en dus fury.
Ik vind de Fury ook een mooie kaart maar nadeel vind ik toch wel die 4 GB vram. Ik heb nu een HD7950 met 3 GB en opdat de upgrade het waard zou zijn zou ik nu toch wel 8 GB willen, ook ivm 4K-gaming(dan kan ik een 4K-monitor kopen).
Als je zo het internet afleest, is het echt bizar wat sommige mensen hadden verwacht van AMD, totaal niet realistisch, maar omdat ze dat nu niet waar maken, is AMD zwaar kut en gaan ze zeker failliet.
Ik begrijp die negativiteit sowieso niet.

Deze Fury kaart is een wonder van techniek, in de toekomst met optimalisaties zou het vebruik nog omlaag kunnen.

Kan je voorstellen als AMD het budget had van Intel waar ze mee aan waren gekomen?

Ik vind het nog knap dat ze zoiets kunnen produceren, ik bedoel gestapeld geheugen waar heeft men dat eerder gezien?
Ik mag hopen dat die 3200rpm scythe fan (zwarte fan) niet gebruikt wordt op de definitieve versie. 290x sound all over again!
Maar is waterkoeling ook niet luidruchtig? Ik heb al verhalen gehoord dat de pomp nogal wat lawaai kan maken. Misschien zelfs luider dan luchtkoeling?
Dat kan absoluut, maar is minder vaak het geval dan een luidruchtige fan.
Als er veel hitte (en dus een hoog TDP) zou zijn, zou dat betekenen dat de GPU niet echt efficiënt is in stroomverbruik. Iets wat anno 2015 echt niet meer kan. ;)
Veel hitte staat niet gelijk aan hoger TDP.
Anders kan je met een 20 Watt soldeer bout niet solderen.
Het heeft wel wat te maken met TDP maar blijkbaar komt er meer bij kijken. Zoals warmte geleiding. Wat ook afhankelijk is van kontakt oppervlak en materiaal keuze etc.
De getoonde kaart is een kaart van MSI die niet altijd reference AMD koelers toepast op hun kaarten (TwinFozr bijvoorbeeld). Veel fabrikanten passen ook grotere (water)koelers (Windforce van Gigabyte of RoG van Asus) toe om het te zorgen dat er minder lawaai wordt geproduceerd. Mijn GTX670 heeft een redelijk reference koeler er op zitten maar is verre van stil.

Ik hoop trouwens echt dat AMD weer eens wat spierballen laat zien met deze kaarten. Nvidia heeft echt een ongezond concurrentievoordeel op het moment.
Alle leaks wijzen erop dat ie sneller is dan de Titan X in Games.
Voor minder geld, die overigens alles behalve een coole kikker is.

http://media.bestofmicro..../gallery/01-PCB_w_600.jpg

Iemand die 1000 Euro aftikt voor een video kaart, zal het roesten wat de TDP is.
De kans was groot dat ie ook een 57" Panasonic Plasma had staan thuis toen menig mens 32" LCD had staan... I know I don't care... (En nee, ik woon niet bij moeders, thuis haha)
Nu ga je er te snel vanuit dat AMD in dit geval de hitte niet onder controle heeft.

Er komt ook een variant met een soort van aftermarket achtige luchtcooler van AMD zelf. De kaart is zelf alleen heel eg klein. Daarbij zit bijna alles op de chip zelf al. Namelijk al het geheugen wat normaal om de GPU zelf heen zit. Het is dus nu enorm gemakkelijk er een AIO waterkoeler erop te schroeven. Deze koelen nou eenmaal beter dan luchtcooler wat ook uit DIY projecten is gebleken waarbij modders met tie wraps AIO waterkoelers op GPU's plaatsen.
ach amd en nvidia wisselen elkaar wel af, dan is x weer even de snelste dan x weer..
alsof het afgesproken is...
Het lijkt er toch op dat AMD al tegen de thermische limieten zit aan te hikken met hun chips en toch kunnen ze net Nvidia bijhouden/verslaan. Hoe lang kan dat nog doorgaan?
Op de compactheid van het nieuwe kaartje is al flink ingegaan maar recentlijk kwam er ook bericht over een nieuwe techniek van AMD die zich richt op voltage/energie efficientie m.b.t. voltage drops compenseren. Door aan te voelen wanneer een voltage drop zich voordoet en slechts tijdelijk het voltage te verhogen kan het gemiddelde voltage om een kaart stabiel te laten draaien omlaag. Ze zeggen daar 15% verbetering uit te kunnen halen:
http://wccftech.com/amd-carrizo-performance-efficiency-leap/
Waterkoeling is niet altijd beter dan luchtkoeling. Vooral de AIO waterkoelers presteren vaak gelijk of zelfs minder dan top-end luchtkoelers als de Noctua D15.
dit is altijd al zo geweest en zal ook niet snel veranderen denk ik, amd performt minder als je de kaarten vergelijkt.

Wat een belangrijk aspect is om mee te nemen is de prijs. Voor hetzelfde geld koop je 2 290's bijvoorbeeld die sneller zijn dan een gtx 980

[Reactie gewijzigd door waktak op 12 juni 2015 13:40]

'Altijd' is een groot woord. nVidia heeft ook heethoofden van kaarten gehad.

[Reactie gewijzigd door LongBowNL op 12 juni 2015 13:09]

Reken maar. De Fermi kaarten waren dramatisch in dat opzicht. De HD5xxx was een stuk geavanceerder toen en aanzienlijk minder heet.
Hoezo 'een stuk geavanceerder'?
Beiden zijn DX11-kaarten.
Woeptiedoe. Zoals de gebruiker boven mij al aantoonde waren de ATI 5000 kaarten per watt een stuk efficiënter. AMD had dat proces toen een stuk beter onder de knie. De Nvidia GT200 serie is qua verouderheid goed te vergelijken met de R9 2xx serie. Ook relatief inefficiënt.
Niet mee eens.
Fermi is meer dan alleen de GTX480.
De GTX460 en GTX5xx-kaarten zijn ook Fermi, maar doen qua efficientie niet veel onder voor vergelijkbare Radeons van die tijd.
Daarnaast had de Fermi een veel geavanceerder GPGPU-programmeermodel aan boord (volledig C++), en een veel betere tessellation-pipeline.
Alle Fermi-kaarten krijgen ook gewoon DX12-ondersteuning. Radeon 5000, 6000 en een groot deel van de 7000-serie niet.
Hoezo geavanceerder?

[Reactie gewijzigd door Scalibq op 12 juni 2015 14:15]

Hoe zijn we van temperatuur naar GPGPU gegaan? Struikel je nu over het woord 'geavanceerd'. Misschien verkeerde woordkeuze van nelizmaster. :)
My point exactly.
Daarnaast, het is maar net hoe je het bekijkt.
Fermi was een ontwerp dat leidde tot grotere dies dan dat van de Radeons.
Maar qua performance-per-watt ontliep het elkaar niet veel.
Als je dan kijkt naar het aantal watts per mm^2, dan was Fermi eigenlijk best zuinig.
Nou de eerste fermi de GTX480
Was net wel de snelste toen die net uitkwam.
Maar ook groot verbruiker. Dus niet helemaal dezelfde situatie.
GTX580 waar ik 3GB versie van heb is een iets wat verbetere refresh. Een beetje extra vermogen boeit
Mij niet voor paar procentjes.
De R9-290x en de HD2900XT. FX5800 zitten in dezelfde league van enige faal

Maar ATI had ook zijn moker de 9700Pro.
De 9500Pro had ik.

Uiteraard is de historie veel uitgebreider maar dat zijn toch wel de punten die ik mij het beste herinner.

Volgende dieshrink, komt vaak met nieuwe architectuur en dan hebben ze beide nieuwe kansen.
Oh?

RobinHood in 'nieuws: Foto's van AMD Radeon Fury X verschijnen online'

De GTX460 heb ik daar niet meegenomen, maar ook die deed het niet best vergeleken met zijn HD5850 concurrent, de 500 serie had ook veel meh kaarten, de 580 was natuurlijk een lachtertje, maar ook de GTX560ti was niet heel spectaculair.

Pas sinds de GTX970 en kornuiten doet Nvidia het echt beter op performance/watt dan AMD.
De GTX460 heb ik daar niet meegenomen, maar ook die deed het niet best vergeleken met zijn HD5850 concurrent, de 500 serie had ook veel meh kaarten, de 580 was natuurlijk een lachtertje, maar ook de GTX560ti was niet heel spectaculair.
Pffft, reality-check nodig?
GTX460 deed het prima qua power: http://www.anandtech.com/...e-gtx-460-the-200-king/17
http://www.anandtech.com/...ce-gtx-460-the-200-king/6
In Crysis is het verbruik keurig net onder de 5850, en de prestaties ook ongeveer vergelijkbaar.
Vandaar ook dat men in de conclusie de GTX460 uitroept als beste koop, een stuk beter dan de 5830, en veel goedkoper dan de 5850.
Nee hoor, mijn realiteit is helemaal prima, pratende bloemen, knipogende lantaarnpalen, en her en der een draak. Hoe zit het met die van jou?

Interessant dat Anandtech dat zegt, TPU weet te vertellen dat een HD5850 het 20% beter doet: http://www.techpowerup.co...Game_GTX_460_1_GB/29.html
Het zal er net aan liggen welke games je test, en op welke instellingen.
In sommige benchmarks was de 460 zelfs sneller dan de 5850, in andere was het gat behoorlijk groot.
Maargoed, de directe concurrent van de 460 qua prijs was de 5830, en die was bizar slecht, daar is TPU het ook wel over eens.
De 460gtx x2 sli schaalde mooi 100% in bf3 toendertijd niks mee ....
@Scalibq

Sorry maar "geavanceerd" en DX11 zijn wel twee verschillende dingen... Mogelijk is puur het opwerp van HD5xxx serie efficiënter qua architectuur en daarom in verhouding zuiniger. DAT mag ook gerust "geavanceerder" genoemd worden in mijn optiek. Gezien dit nergens gespecificeerd wordt vind ik je opmerking wel wat bot.

Het was overduidelijk niet een aanleiding om over de Fermi chip in kwestie en hun GPGPU model te hebben... Leuke informatie, maar ehhh,.. whatever :P

Maargoed, je hebt overduidelijk genoeg verstand van videokaarten dus let it be :)

[Reactie gewijzigd door BruT@LysT op 12 juni 2015 17:40]

Sorry maar "geavanceerd" en DX11 zijn wel twee verschillende dingen...
'Geavanceerd' werd specifiek genoemd, naast 'en aanzienlijk minder heet'... wat dus impliceert dat het niet slaat op de temperatuur/verbruik an sich, dus wat er overblijft zal dan zijn de feature-set danwel de manier waarop de features geimplementeerd zijn.

Daarom wees ik er in eerste instantie op dat beiden de DX11-featureset implementeren, om te vragen waar hij dan precies op doelde.
Het was overduidelijk niet een aanleiding om over de Fermi chip in kwestie en hun GPGPU model te hebben... Leuke informatie, maar ehhh,.. whatever :P
De Fermi *is* geavanceerder, met name op het gebied van GPGPU, en dus ook tessellation zoals ik al zei (originele Fermi kan nog steeds goed meekomen met de veel nieuwere architecturen van AMD waar het op tessellation aankomt).
Dus als je die claim wil maken, moet je er wel rekening mee houden dat de Fermi een heel ander beestje is dan de Radeon 5000.
Even als voorbeeld, de 480:
http://tpucdn.com/reviews.../images/power_maximum.gif

Die 320 watt is alleen de kaart zelf. En al was die nou buitengewoon qua performance... Ook niet echt. Wat hierin resulteerde in:

http://tpucdn.com/reviews.../images/perfwatt_1920.gif

De 5870 bood dus een 60%(!) betere performance/verbruik verhouding. Een hoog verbruik is niet alleen een AMD probleem geweest. Het was zelfs zo erg dat nvidia's 65nm chips net zo'n goede performance/verbruik verhouding hadden als hun 40nm chips... Op zijn minst apart...

[Reactie gewijzigd door Thekilldevilhil op 12 juni 2015 13:25]

Nee de 9700pro kon nV niks tegen zetten nV30 was komplete faal.
Hadden ze toen de nV30 gewoon gereleased als sub high-end kaart. Hadden ze veel meer kunnen binnen harken dan dubbele of triple revisie en extreem factory OC papieren tijger. Toch genoeg fans die zweren bij nV.
Ik heb ook last van dat merken trouw fenomeen.
Alleen had ik dat voor ATI en AMD CPU. Maar ja zolang ze niet te ver achter lopen. Een goede bang for the buck.

Op zich is het makkelijk. Gaat goed met AMD stel budged voor CPU of Gkaart hoger. Gaat het minder budged om laag. Is het ramp kijk bij ander merk.
Het ergste daarbij is dat de mobiele chips van AMD echt niets meer voorstellen tov maxwell
een R370X is 30-50% trager daan een GTX950/960M

Ben wel benieuwd of dat HBM geheugen er voor zorgt dat er geen drastische fps verlaging meer is als je switcht van 1440p naar 4K
Dat gaat niet gebeuren met nieuw geheugen. Ze moeten het aantal ROP's dan enorm verhogen om de pixeldoorvoer hoog genoeg te houden. Maar je vergoot natuurlijk ook gewoon de shader load. Er is niet een enkele bottleneck die zorgt dat je een minder dan lineaire schaling ziet van 720->1080->2160. De relatieve grote toename in pixels is helaas niet gratis!
Dat is waarom de R9-290x in unieke gevallen wel schaald en nV tegens soms voorbij gaat maar niet concequent. Vaker niet.
Tja aantal ROPs is flesse hals.
Nou met fury worden de rops ook stuk verhoogd.
De die-shrink in 2016 gaat dat allemaal weer veranderen
Is die kaart zo klein :o ? Ik heb hem flink groter verwacht...
Is dit niet toevallig een mini fury X of een gtx 750ti in een ander jasje? ;)


Hij ziet er wel mooi uit en zeker met die LED. Hopelijk kan je hem van kleur aanpassen zodat die kleuren bijpassen bij je kleuren schema van je kast.

Maar ik neem dit bericht met een flinke korrel zout. Dit zijn leuke speculaties maar vaak kloppen ze niet. Ik zie het wel a.s. dinsdag hoe al die kaarten eruit komen zien :)

@ Hier onder. Dank voor jullie uitleg. Als het het zo zie dan zou die kaart inderdaad zo "klein" kunnen zijn door die technologie

[Reactie gewijzigd door MarcRvB op 12 juni 2015 14:14]

De reden dat hij zo klein is, komt door het gebruik van HBM-stacked memory. Dit neemt een hoop minder ruimte in dan GDDR5.

Edit: Bron: http://www.amd.com/en-us/...software-technologies/hbm
Met een mooi plaatje om het te illustreren
http://www.amd.com/Publis...r5-vs-hbm-form-factor.png

[Reactie gewijzigd door LongBowNL op 12 juni 2015 12:32]

Nee, in dit geval is dit de hele kaart. Dit komt omdat alle geheugenchips op de GPU zitten en dus minder ruimte in beslag neemt dan andere kaarten.
De kaart is inderdaad heel klein maar ik vind dat men hier op Tweakers wel heel nuchter hierover doet.

Ik bedoel dit is toch revolutionair?

De interposer zal wel duur zijn om te produceren maar als dit in massaproductie gaat en goedkoper wordt is dit toch alsof we 5 jaar in de toekomst zijn beland?

Dit kan materiaal kosten besparen maar ook compactere systemen mogelijk maken.

Stel je voor een iMac met een dergelijke kaart erin? Die dan wel iets langzamer is en koeler draait maar dan heb je een compact systeem met toch een krachtige videokaart.

En als AMD dit integreert met de CPU dan is het helemaal mooi, dan heb je alles op de CPU waardoor je dus ook veel prestatiewinst krijgt.
Heuj! Toch leuk dat mijn submit doorgekomen is! :D

Al met al ben ik erg benieuwd naar de prestaties van deze kaart.
Ja, hij is klein.
Ja, hij wordt watergekoeld.
Ja, hij heeft twee 8-pins nodig met een maximale TDP van 375W (wat véél is).

Desalniettemin denk ik dat met de ingebouwde waterkoeling de kaart nog aardige prestaties neer kan zetten met degelijke temperaturen! Daarnaast ook ontzettend benieuwd met wat voor ontwerpen fabrikanten als ASUS, MSI, Gigabyte en EVGA op de proppen komen. Ook met waterkoeling? Of gaan zij voor een extended PCB met daarop een traditionele luchtkoeler?

Eén ding weet ik zeker: 16 juni gaan we er achter komen! oOo
Ja, hij wordt watergekoeld.
Ik dacht ook gelezen te hebben dat er 2 versies komen van de XT, 1 met Waterkoeling en 1 met Luchtkoeling
Ja, hij heeft twee 8-pins nodig met een maximale TDP van 375W (wat véél is).
Betekend alleen dat hij dat max geleverd kan krijgen, de kaart zelf heeft een TPD van 300

Ook heb ik gelezen over een Fury Nano? echter maar op 1 site gezien, dus de betrouwbaarheid is wellicht om over na te denken
http://www.tweaktown.com/...card-fury-nano/index.html
De TDP is voor reference stock klok. Je kan ook OC ' en en dat verhoogt de TDP. Als tegen de 300 wat zit moet 75 wat extra bij doen dus
Ik heb er eerlijk gezegd ook geen goeie hoop in. Als we de benchmarks mogen geloven is de 390 iets sneller dan de 970 en de 390X kan zelfs niet meekomen met de 980. Wat is het bestaansrecht van deze kaarten dan? Ik had toch verwacht dat ze beter gingen presteren dan NVidia's kaarten. De tdp zal ook heel hoger liggen dan van nVidia. Waarom zou je dan voor AMD gaan? 8 GB vram ja maar als de gpu niet kan meekomen kan je vooralsnog niet 4K-gamen. Dat is dus ook geen voordeel.

Zelfde verhaal voor de Fury. Die kaart moest eigenlijk de 390 geweest zijn maar dat kan niet omdat AMD die duurder moet verkopen omdat het HBM nog te duur is om te produceren. Nadeel is ook dat HBM momenteel enkel met max 4 GB te produceren is wat te weinig is voor 4k-gaming. conclusie: de Fury(X) zal te duur zijn om te kopen. Ik vrees dat in beide gevallen AMD er dus niet veel van zal verkopen en weer achter het net gaat vissen. De waterkoeling van de Fury voorspelt ook al niet veel goeds, ik heb liever luchtkoeling.

Vooralsnog hoop ik dat dit maar geruchten zijn en geen feiten. We zullen zien de 16de juni.
Heb er weinig verstand van hoor. Als dat HBM geheugen zoveel sneller is, raakt het dan ook niet minder snel vol? Of slaat het helemaal nergens op wat ik nu zeg.. zou goed kunnen :P
Amd presentatie gaf aan dat ze de 4 GB effecienter gaan benutten.
Dus het 4GB physiek maar effectief 4GB++

Maar ja zal ook game afhankelijk zijn.
Unieke aan de kaart is in ieder geval de kleine vormfactor.
En die is welkom in de markt. Een volledig atx systeem met gigantische kast is niet altijd even mooi, niet altijd even practisch.
Netto is het net zo groot als een normale kaart, leg de waterkoeling maar is achter de kaart :)

Waar moet je die laten als je CPU ook al een (closed) waterkoeling setje heeft?
Die eerste opmerking van watercoolertje.

Als een partner van AMD dit nou eens doet. Dan heb je een kaart van volledige lengte met watercooling. Dus een groot koel oppervlakte.

Dat zou ik wel eens willen zien!!!

[Reactie gewijzigd door sebastiaan1984 op 12 juni 2015 12:44]

Niet handig, dan blaas je alsnog alle warmte de kast in. En dat wil je niet. Ik heb zelf een r9 290 met een waterkoelertje vergelijkbaar met deze fury-x. Daar belderd een warmte uit dat wil je niet weten. En dan heb ik nog een grote kast, de Cosmos-S.
Met een klein kastje wil ik echt niet weten hoe heet ie binnen word.

@Watercoolertje,
In mijn cosmos-s zit een 360rad bovenin en dan heb ik 1 120mm rad voor mijn videokaart direct achter de processor. Wil je zoiets maken dat moet je er gewoon rekening mee houden als je de kast uitzoekt.
Een simpele houder bijleveren zou al voldoende moeten zijn :)
Het is ook zonde dat het geheel nog steeds 2 slots in beslag neemt. De beperkte lengte is wel mooi, maar het zou nog beter geweest zijn, als het geheel ook maar 1 slot dik was geweest.

Benieuwd of deze nieuwe generatie het Nvidia wat moeilijk kan gaan maken. Dat ze een waterkoelsetje installeren, belooft in ieder geval al niet veel goeds voor het verbruik...
De fan op de radiator is iig goed, een Gentle Typhoon :D
Maar desondanks wel vreemd, omdat Scythe hele GT-lijn EOL zijn. Misschien dat AMD zelf bij Nidec vergelijkbare GT fans inkoopt. :)
Ja inderdaad.. Dat zou mooi zijn!
Hoop niet dat ze namaak GT's o.i.d. gebruiken...
Als je die in Triple Crossfire wilt draaien heb je aardig wat gaten nodig in je kast. 8)7
Zo ongewoon zijn gaten aan de achterkant van de behuizing niet. ;)
Als je een framepje bouwt aan de achterkant dan heb je een behuizing die stil is en niet warm loopt, iets wat normaal alleen met custom waterkoeling mogelijk is...
Hieronder wat benchmarks die zijn opgedoken, maar de validiteit hiervan is niet te garanderen:
http://www.guru3d.com/new...-but-are-they-real,2.html
Als je het artikel leest dan zijn er een aantal merkwaardige zaken. Lijkt idd op een Photoshop. Even wachten dus op een echte review.
Ik snap niet waarom de Arres III http://tweakers.net/price...-gamers-ares-iii-8gb.html nooit wordt meegenomen. Deze is toch de snelste GPU die er is en single slot ;)
Ja, maar je moet er wel een custom watercooling loop voor aanleggen...
Vanwaar het Decepticon logo?
'Watermark' van de website waar de foto vandaan komt.

Veel websites plaatsen een doorzichtig plaatje (watermark) over de foto heen zodat andere websites de foto's wel kunnen gebruiken, maar niet kunnen claimen dat het hun foto's zijn. Er staat immers een watermark op van de andere site.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True