Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 118 reacties

Een Spaanse website heeft foto's gepubliceerd van de XFX AMD Radeon Pro Duo. Ook claimt de website de specificaties van de videokaart met twee Fiji-gpu's te hebben. De gpu's zouden een maximale kloksnelheid van 1000MHz krijgen.

AMD introduceerde zijn Pro Duo-videokaart half maart, maar heeft toen nog niet alle specificaties bekendgemaakt. Zo was de kloksnelheid van de dubbele Fiji-gpu nog niet bekend. De Spaanse website El Chapuzas Informático heeft nu meer informatie naar buiten gebracht. De Spanjaarden hebben de hand weten te leggen op informatie over XFX's uitvoering van de AMD Radeon Pro Duo.

De kaart zou een maximale gpu-snelheid van 1000MHz hebben, dat is iets langzamer dan de Fury X, die tot 1050MHz draait. Het hbm-geheugen, waarvan 4GB per gpu aanwezig is, draait op 500MHz, net als bij de Fury X. De videokaart beschikt in totaal over 8192 streamprocessors, 512 tmu's en 128 rop's. De kaart zelf heeft afmetingen van 281x116,5x42mm, maar daar zit ook nog een 120mm-radiator aan vast als onderdeel van de ingebouwde waterkoeling. Er zijn drie displayport 1.2-aansluitingen aanwezig samen met een hdmi 1.4a-poort.

Zelf maakte AMD bij de introductie bekend dat de kaart 1499 dollar gaat kosten en in het tweede kwartaal van 2016 op de markt komt. Volgens de uitgelekte informatie is de europrijs 1695 euro en is de kaart vanaf 26 april te koop. De videokaart komt volgens de Spaanse website in een zeer beperkte oplage op de markt. Mogelijk heeft dat de maken met het feit dat de nieuwe gpu's op basis van de Polaris-architectuur waarschijnlijk binnenkort gepresenteerd zullen worden.

XFX AMD Radeon Pro Duo

Moderatie-faq Wijzig weergave

Reacties (118)

Is 4GB niet een beetje weinig voor zo'n "highest end" soort kaart?.. Als ik meer dan anderhalf duizend euro ga uitgeven aan een dual-GPU kaart dan wil ik toch echt minstens 6GB per GPU.
Meer dan 4GB per gpu is niet mogelijk met hbm1. De nieuwe generatie, hbm2, maakt 16GB per gpu mogelijk. AMD gaat dat geheugen eind 2016 / begin 2017 voor het eerst toepassen in de Vega-gpu.

[Reactie gewijzigd door Xtuv op 17 april 2016 10:42]

AMD verklaarde dat het wel mogelijk is, echter dat de geheugencontroller dan veels te duur zou worden, en aangezien ze toch al met HBM2 bezig waar hebben ze dit achterwegen gelaten.
Tja, hadden ze wat mij betreft deze kaart ook achterwege kunnen laten...

Wat moet je nou met een 1700 euro kostende dual-GPU kaart die niet eens fatsoenlijk 4K (of vergelijkbaar) met hoge resolutie textures kan aansturen omdat je dan videoram tekort komt?

Je hebt niks aan meer GFX horsepower als je er geen hogere resoluties/textures/AA super/oversampling tegen aan kan gooien :/
met 8 gb in totaal denk ik wel dat je genoeg kan doen... er zitten tenslotte 2 gpu's op de kaart met ELK 4gbyte, niet 4 gbyte geshared voor de twee...

ik neem dan ook aan dat er op een of andere manier slim gebruik gemaakt kan worden van dit geheugen zodat bvb textures niet in beide delen van het geheugen hoeven geladen te worden (mirror) maar dat bv elke core een deel van de textures te verwerken krijgt OF dat het geheugen via een soort van HB-Bridge als unified kan worden aangesproken door beide gpu's (uiteraard wel protected adressing zodat de ene gpu niet zomaar iets kan aanpassen wat de andere aan het verwerken is; een beetje zoals het bij de xbox360/one werkt (ook amd gfx(360)/chipset(one) btw)
Nee het is gewoon 4GB effectief bruikbaar geheugen, CF of SLI vermeerderd (nog(*)) niks aan het bruikbare geheugen.

Elke GPU heeft gewoon een volledig kopie van de data in zijn eigen geheugen staan,

(*) DX12 zou daar in theorie wat aan kunnen veranderen, daar de verschillende GPU's verschillende dingen kunnen zouden kunnen doen, maar dt is meer theoretisch en zal ook in de praktijk waarschijnlijk flink tegenvallen.
Dus werkt deze Gpu eigenlijk gewoon als een crossfire in 1 kaart?
Compleet, behalve dat deze kaart maar een pcie slot inneemt, en dat de kaarten dus op x8/x8 werken.
Ja CF, en nee deze kaart heeft nagenoeg zeker weer gewoon weer met een PLX chip, een soort switch voor PCIe, en werkt dus met PCIe x16 naar 2x PCIe x16, of PCIe x8 naar 2x PCIe x16 (effectief x8 over de PCIe bus, en x16 naar elkaar), op die manier kan je zelf twee van deze kaarten in een S115x mobo prikken, en je zo een quad-CF systeem kan maken.
Jeetje, ik merk dat ik echt achterloop in ervaringen op dit gebied. Laatste keer dat ik een graka kocht was 512 of 1gb echt super veel! Waarom 8gb? Zoveel textures te cachen?
sommige programma's plempen veel in het geheugen. Dit kunnen textures zijn maar volgens mij ook voor berekeningen e.d. als je dan niet steeds alles uit het werkgeheugen/de hardeschijf hoeft te halen dan heb je mischien minder last van stutter e.d. in grote modellen.

mij lijkt dat wanneer jij in bijvoorbeeld solid works. heel veel onderdelen hebben dat het niet zozeer texturen zijn maar meshes (?) die moeten natuurlijk ook ergens vandaan komen en ingestopt worden.
Je moet voor de grap maar eens een 'ouder' spel spelen met max settings, je merkt meteen dat de lage polygon count en vooral de lage resolutie textures en het gebrek aan diepte (lagen over de textures zoals bumpmaps) het spel echt super lelijk maken.

Vergelijk Skyrim vanilla maar eens met Skyrim modded (ENB, ultra-res textures etc)
Skyrim vanilla draait als een tierelier op mijn 2GB GTX 770 maar als je al die grafische upgrade mods ertegenaan gooit dan krijg je enorme framerate dips wanneer hij nieuwe textures in moet laden in vram omdat hij gewoon niet genoeg plek heeft om voldoende te bufferen.
Graka... Die term brengt me terug naar lang vervlogen tijden. ;) Leuk om 'm weer eens te horen.

[Reactie gewijzigd door Forsakeneyes op 17 april 2016 03:32]

Helaas, zo werkt het niet. Het is dus wel maar 4GB. Tenzij dit in DX12 door de developer wordt ondersteund (geloof ik). Maar verder is het gewoon exact gespiegeld, dus je hebt effectief maar 4GB. Dat is helaas de beperking van SLI/Crossfire.
Eh, sla de benchmarks er eens op na, en ontdek dat een single fury in bijna alle 4K games het groene kamp verslaat. Dit is dubbele aan horsepower, 4GB heeft momenteel nog niet noemenswaardig een impact op performance.
Uhm....je hebt gelijk en ook weer niet.

De fury x verslaat ze inderdaad wel, maar om te zeggen dat 4GB geen limiterende factor is.....niet als het HBM is nee, maar als de Fury maar GDDR5 gehad zou hebben, dan zou dat plaatje er heel anders uitgezien hebben.
4GB is geen limiterende factor in vrijwel al die spellen. Ander zou de GTX980 ti wel winnen. Er zal een handvol spellen zijn, waar je aan die 4GB niet voldoende hebt, zeker met toevoeging van eyecandy mods. Denk echter dat die op 1 hand te tellen is.

Welke je weer vrij eenvoudig kan tackelen door wat met de settings te stoeien. Maw; ik zie het drama niet zo.

ps: zie hier de 4GB kaart vaak 8GB kaarten verslaan. Die weer amper de 290x 4GB kaart verslaan. 4 vs 8 maakt dus geen drol uit in veel spellen. Voorlopig niet en dat zal ook niet zo'n vaart lopen.

[Reactie gewijzigd door Madrox op 17 april 2016 23:08]

het punt wat ik maakte was dat die 4GB best wel een limiterende factor zou kunnen zijn...ALS het om GDDR5 zou gaan.

de bandwidth die HBM met zich meebrengt, maakt een hele hoop goed in dat opzicht
Daarnaast, is het mogelijk om met dx12 het geheugen anders te gebruiken dan dat met dx11 nu het geval is.
4Gb is meer dan genoeg voor 4K volgens mij hoor. Toen AMD kaarten met 8Gb GDDR5 begon uit te brengen hebben ze zelf toegegeven dat daar, voor gamers, in de nabije toekomst geen toepassing voor is (niet nodig voor 4K of VR volgens AMD zelf). Meer dan 4Gb per kaart zou volgens hen vooral mooi op de verpakking staan.
Onzin de kaart heeft genoeg geheugen voor 1440p ultrawide en 4k. De GPU kan het alleen niet echt goed aan. Je vergeet dat het HBM geheugen is. Dit is wel ff wat sneller als GDDR5.
4GB is prima genoeg voor 4K, trager geheugen gaat als het ware minder goed om met de ruimte op het geheugen. 4GB HBM is veel beter voor 4K dan 16GB gddr5.
Heb je ook voorbeelden van 4K-games die niet gelimiteerd worden door de core bij 2x Fiji, maar wl door 4GB HBM met 4096-bit bus?

Die zijn er niet. Maar wel leuk geprobeerd. Fiji heeft een hele andere bottleneck, en dat zijn de ROPs. Dat is de enige reden dat (als-) de 980ti een Fury X voorbij komt, en dat ie ook meer uit zijn OC haalt, en dat de 980ti sneller is op 1080/1440.

[Reactie gewijzigd door Vayra op 18 april 2016 09:24]

Met DX12 is shared memory mogelijk dus dan heb je wel 8GB als het het goed gebruikt. Maar zoals al gezegd HBM1.0 kan max 4GB. Op naar Vega met HBM 2.0 en dus 8GB of meer per GPU.
Ziet een pc de kaart als 1 gpu of 2 in crossfire?
Tot nu toe word iedere kaart van zowel AMD als Nvidia met 2 chips gezien als Crossfire of SLI.
Dat is niet juist. Ik heb een 5970 gehad,en die werd niet als crossfire herkend. Tot en met catalyst 13.4 ( geloof ik ) moest je de 2e gpu uitschakelen door middel van de Al setting in CCC. Na catalyst 13.4 was deze optie verdwenen en kon CF helemaal niet meer uitgeschakeld worden. Een drama... Games die geen CF ondersteunde en niet werkten daardoor kon ik niet meer spelen. Ik heb er destijds een 5870 bij moeten zetten om een crossfire opstelling te verkrijgen waardoor ik de mogelijkheid wel kreeg om de 5970 via het crossfire menu uit te kunnen schakelen. Voor mij dan ook nooit meer een dualGPU gpu kaart..
Crossfire werkt per definitie niet in "Windowed Full Screen" mode. Games die dus geen CF ondersteunen had je probleemloos in WFS kunnen spelen toch?
Ik begrijp je reactie niet helemaal. Je spreekt jezelf nogal tegen in je vraagstelling. CF werkt alleen in full screen. Bovendien heb ik het nergens over screen modus gehad, en heb je mijn reactie niet goed gelezen of begrepen.

De games waar ik over sprak ( zou niet eens meer weten welke trouwens, is voor mij alweer 3 systeempjes geleden ) waren games die simpelweg niet op wilden starten als de 2e gpu niet uitgeschakeld was. Zoals eerder gemeld, het systeem herkende de opstelling niet als zijnde een CF setup vanwege de interne CF link van de 5970. Het was dan ook een specifiek 5970 probleem. Dit kon eerst nog opgelost worden door de Al settings uit te zetten. In latere drivers was deze Al setting uit de drivers gehaald en konden 5970 gebruikers de 2e gpu dus niet meer uit zetten. Veel gebruikers van die kaart destijds hadden deze problemen en fora stonden er bol van. Dit alles is dus niet vergelijkbaar met "gewone" CF setups. De 7990 ( ook een dualGPU kaart ) heeft vergelijkbare problemen gekend. AMD heeft nooit gereageerd op support requests.
Ik heb mezelf niet helemaal goed uitgedrukt. Wat ik bedoelde was borderless windowed, en dan full screen. Dat is niet hetzelfde als fullscreen, maar en daarom denk je pc dat je "windowed" speelt, en dus zal hij in ieder geval crossfire niet inschakelen. Op die manier gebruik je dus maar 1 gpu. Of dat genoeg is om je problemen te fixen weet ik niet, maar het is voor mij goed genoeg om niet-CF compatible games te kunnen spelen.
Ik ben prima op de hoogte hoe CF werkt..
Bovendien denk dat je nog steeds niet kan lezen. Laat maar...
Hij ziet ze als 2 in crossfire. Dit is interessant voor mensen die een mini pc hebben maar wel ultieme power willen hebben zeg maar.
En hij zal marginaal sneller zijn. De voorgangers waren ook iets sneller(niet veel).
Dat hangt dan weer van game tot game af. Bij sommige haal je serieus wat winst. Bij andere kan je crossfire niet gebruiken en presteer je minder dan een single kaart. Omdat de dual kaarten lager geklokt zijn.
Ik doelde meer op 2x r9 furyx vs deze kaart. 2x r9 290 is iets langzamer als 1x r9 295x2
Zoals jehier kan zien.

uiteraard is crossfire vs non crossfire een heel ander topic.
In mijn bevindingen zijn twee losse kaarten vrijwel altijd sneller als de DUAL GPU variant. Meestal omdat laatst genoemde iets lagere kloksnelheden kent vanwege het hoge stroom verbruik en de hoge warmte ontwikkeling. Twee GPU's op 1 kaart prakken is vragen om problemen. Ik zie ze dan ook veel vaker stuk gaan dan single-gpu kaartjes. Al reden genoeg om niet voor zo'n optie te gaan imho. Single GPU kaartjes zijn vaker ook nog eens verder over te klokken, met nog meer winst tot gevolg. Twee keer een R2 290x kan overgeklokt zo 2x 300 Watt trekken, ik denk dat ze niet zomaar een single kaart 600 watt uit de muur laten trekken, om die wamte met een enkele koeler te bestrijden is ook een stuk lastiger. (ik geef hier een voorbeeld van de vorige generatie, uiteraard ligt dit bij deze kaart iets anders, maar over het algemeen zie ik deze trend wel telkens terugkomen.

Ik snap overigens dat de toms hardware site laat zien dat de dual-gpu kaart beter is. Mijn ervaringen zijn echter anders.

[Reactie gewijzigd door BruT@LysT op 17 april 2016 09:56]

Ik sta ook achter brutalist zijn reactie. 2 losse kaarten zijn tot nu toe altijd sneller geweest dan de dual kaarten. Ik weet niet hoe dit uitspeelt op de fury kaart. Maar het lijkt me ook gewoon logisch dat 2 losse sneller zijn. Vanwege de hogere clock snelheden.
Alternatief zouden dat soort mensen ook een grotere kast, MB en 2 grafische kaarten kunnen kopen.... Dit lijkt me nou echt een niche product, met als grootste plus de "patsfactor".
Ja maar niet iedereen wilt een 2 meter hoge Fulltower. Ik in ieder geval niet. Dit zijn juist mooie kaarten voor mITX kastjes. Totaal 2 verschillende werelden met dezelfde hobby.
O begrijp me niet verkeerd. Ik heb gewoon een leven. Ik game al jaren niet meer en ben mac gebruiker. En zal nooit van mn leven nog een gaming rig bouwen. Maar bekenden van mij gamen wel en die hebben allemaal een 2000+ gaming setup. Waarvan eentje idd een mITX gaming rig heeft waar gewoon een r9 295x van 1300 euro in zit.
Als zij dat graag willen moeten ze het zeker doen en is het aan mij niet besteed. En dat geld blijkbaar ook voor jouw. Jij vind het net zoals ik onzin maar zij vinden het wel leuk.
Achja voor ieder wat wils zullen we maar zeggen dan...

Ik zit al twee jaar te kwijlen over een nieuwe 'ultimate' PC build waar ik zelf een custom-loop waterkoeling set in wil zetten die (na mijn parts berekening) over de 1100 euro gaat kosten... en dat is dan ALLEEN het waterkoel gedeelte (terwijl je effectief bijna net zo veel kunt bereiken met luchtkoeling voor een fractie van de kost) dus tja...
No offense maar ben je nu juist zelf niet aan het patsen? ;)
Waterkoeling heb ik ook nog aan gedaan. Had zelf vroeger een 2600k i7 op 4,8 ggz draaien en 2 HD6990 beide op 980 Mhz. Ook watergekoeld omdat het met lucht echt niet te doen was. Het is een leuke dure hobby en als ik eerlijk ben mis ik het weleens het sleutelen.
Aquatuning was altijd mn favoriete winkel 8-)
Dude, vroeger? Ik heb nu nog steeds een i7 970 beest van een CPU, dat ding is ouder dan de 2600k waar jij het over hebt, en dat is ook nogsteeds een behoorlijk recente CPU (zoveel is er in aan tech niet veranderd, waar hebben we het over.. een paar jaar ontwikkeling? dat noem je vroeger?, VROEGER had ik een 286.....

...i7 2600k ... vroeger... pff hoe oud ben je.. :D

[Reactie gewijzigd door BruT@LysT op 17 april 2016 10:06]

Ik denk dat hij vooral doelt op het feit dat een 2600k ook NU, heden, nog een hele snelle en prima CPU is, wat dat betreft is er wel 5 jaar verstreken, maar de stagnatie is gigantisch. Je had die 2600k nog rustig 2-4 jaar kunnen houden en voor negen van de tien toepassingen zul je niets merken.
En wat als je vader Multi miljonair is. tuurlijk voor modaal nederland is het niet te betalen. Maar als je 400 miljoen p/j verdiend kan je ook wel 1600 euro voor een kaart uitgeven.
IPC als 2 GPU's. Deze kaart is vooral in de markt gezet voor AMD Liquid VR en het maken van VR content. In die situatie wordt er een GPU per oog ingezet en dus niet zoals bij normaal CF dat twee GPU's samen een scherm renderen. Nu gaat iedere GPU een eigen scherm renderen.
Als ontwikkelaars nu eens meer tijd steken in het ondersteunen van crossfire or SLI dan worden deze kaarten misschien ooit echt interesant en rechtvaardigd het de prijs.

Hopelijk gaan de VR ontwikkelingen hier iets aan doen.

[Reactie gewijzigd door Jonathan-458 op 16 april 2016 17:50]

Waarschijnlijk gaat DirectX 12 daar flink verandering in brengen. Dan wordt het helemaal makkelijk om verschillende kaarten (zelfs van verschillende merken en snelheden) te mixen. Ik verwacht dat wanneer spellen langzaamaan overgaan op DX12 dat dit probleem zichzelf oplost.
Met dx12 moet de developed het zelf in de engine bouwen.
De huidige dx12 titels ondersteunen juist helemaal geen sli/crossfire.

Het kost de ontwikkelaars veel tijd om multigpu support in te bouwen in dx12 en het is de kosten gewoon niet waard (te weinig gebruikers).
De markt emt SLI/Crossfire setups is extreem klein. Maar het aantal gebruikers met meerdere GPU's is enorm: hoeveel mensen gamen op een laptop of desktop die 2 GPUs heeft? Denk er even aan dat bijna alle CPUs tegenwoordig met een ingebouwde GPU komen.

En voor je zegt dat dit die GPU te zwak is om een verschil te maken: dat dacht ik ook, tot ik de cijfers zag (*): true, van 36 naar 40 fps is geen aardverschuiving, maar wel een grote boost voor iets waarvoor de gebruiker geen hardware moet bijkopen.

*: Dit zijn trouwens cijfers van een Titan X met een Intel GPU
De demo die je linkt gebruikt de intel GPU voor post processing, een lichte taat.

Technieken die met SLI/Crossfire gebruikt werden in DX11 (SFR maar voornamelijk AFR) verdelen het werk evenredig dus dat werkt juist weer voor geen meter op de IGP + dGPU setup.
De techniek die jij noemt die verplaatst licht werk (dat niet de complete geometrie nodig heeft) naar een tweede grafische adapter.
Als je dit zou doen met een tweede dedicated gpu ipv intel IGP dan schiet je daar niks mee op (je zit dan nog steeds te wachten op de GPU die het main render werk doet).
http://arstechnica.com/ga...t-amd-still-has-the-lead/

uuh nee. hier zie ik toch echt een flinke boost. en je IGPU gaat dat nooit niet reden,
Als je het gelinkte artikel zou lezen zou je zien dat Ashes gebruik maakt van SFR rendering.
Dit schaalt niet goed terug naar de IGP.

De techniek waar Kiang naar refereert rendert alles op de hoofd gpu en doet dan (een deel) van de post processing op de IGP.

SFR werkt inderdaad goed op twee dedicated GPU's (die ongeveer even snel zijn) maar niet goed op een dedicated kaart + IGP en is daarom de ontwikkeltijd niet waard.
De post processing techniek richt zich vooral op een zwaare kaart in combinatie met een lichte (met traag en/of weinig geheugen), deze techniek schaalt niet goed omhoog.

Gezien de kleine doelgroep zullen er weinig developers zijn die SFR zullen implementeren, zeker omdat een hoop moderne rendering technieken zich er niet goed voor lenen (in tegenstelling tot AFR).
De postprocessing techniek heeft een grotere kans van slagen (vanwege de veel grotere doelgroep) maar daar hebben mensen met twee (zware) kaarten natuurlijk weer bijna niks aan.
...Ik snap je punt niet: eerst roep je naar mij 'dat werkt alleen met een iGPU, en is neit goed voor dual dedicated opstellingen', en wanneer iemand aanhaalt dat dual gpu opstellingen ook veel baat hebben bij DX12 (via een andere feature van multiadapter), antwoord je 'ja maar dat is niet goed voor mensen met een integrated GPU'?

Voor beide soorten gebruikers heeft DX12 enorm handige features. Devs kunnen beide technieken gebruiken: n SFR, en postprocessing. Wederom: wat is je punt?
Het probleem is dat het de develop tijd niet waard is om SFR te implementeren.
Het argument dat het verplaatsen van post processing naar een andere GPU de doelgroep vergroot is niet valide omdat de originele doelgroep (de huidige sli/crossfire) er nauwelijks wat mee op schiet.
Fair enough, maar je moet wel beseffen dat die 'originele doelgroep' miniem is, en de andere doelgroep (met een heterogene setup, meestal iGPU+dGPU) veel, veel groter is.
De demo die je linkt gebruikt de intel GPU voor post processing, een lichte taat.
Dat is ook het enige dat je kan verdelen zonder grote performance hits: als je alternate frame rendering of zo wilt doen, moet je gesynchroniseerd geheugen hebben, en dat hebben de meeste opstellingen niet.

Maar: wat is je punt? De resultaten zijn nog altijd 14% hogere FPS. Wederom: dat is best veel voor een 'gratis' upgrade (zonder nieuwe hardware) waar enorm veel gebruikers van zouden kunnen genieten (Enorm veel PCs hebben een dedicated+integrated GPU)

Dat dit niet efficient is voor 'echte dual' GPU opstellingen, is imo niet relevant: dat is een minieme minderheid tov de gebruikers met iGPU+dGPU.

[Reactie gewijzigd door kiang op 17 april 2016 10:24]

Mijn punt is dat mensen die nu een sli/crossfire setup hebben dus ook maar 14% extra fps krijgen voor hun 2e kaart, terwijl dat met AFR zoals in DX11 een stuk hoger lag.
Zoals in de andere comment (die je negatief beantwoordde.. om welke reden?) gezegd werd is er voor hen ook een performance boost in DX12: http://arstechnica.com/ga...t-amd-still-has-the-lead/

[Reactie gewijzigd door kiang op 17 april 2016 10:30]

Omdat het 'of-of' is, en niet en-en.

Je hebt AFR, je hebt SFR, je gebruikt de IGP voor post processing. Maar het kan niet allemaal tegelijk. Keuzes dus, en juist de aanwezigheid van die keuzes maakt dat het uiteindelijk allemaal heel beperkt geimplementeerd wordt. Theoretische snelheidswinst zegt nul komma nul over hoe het daadwerkelijk in een applicatie terechtkomt.

Het gaat altijd om economische haalbaarheid. Dat is ook het probleem met de nieuwe SFR vanuit DX12. Het staat of valt met developer support. Dat zaken nu redelijk (frame pacing is nog lng niet op orde!) tot goed draaien binnen Ashes zegt echt helemaal niets over elke game daarbuiten. Ashes is een speelbare AMD tech demo, wees je daarvan bewust.

[Reactie gewijzigd door Vayra op 18 april 2016 10:07]

AFR en SFR tegelijk kan inderdaad niet. Maar je kan SFr en IGP voor post processing wel degelijk tegelijk gebruiken: niets aan die techniek voorkomt dat.
SFR n de IGP voor post processing gebruiken? Dat levert niets op. Die IGP voegt aan SFR veel te weinig toe, en als ie daarvoor in gebruik is, dan is er voor post processing helemaal geen power meer over...

De SFR benchmarks tot nu toe laten juist zien dat het alleen zinvol is met krachtige GPUs.

[Reactie gewijzigd door Vayra op 18 april 2016 10:32]

Ik heb het over 2 dedicated GPUs gebruiken voor SFR, en je iGPU voor post processing.

Hehe, wat vermoeiend zeg :+
Inderdaad. Want het kwartje lijkt maar niet te vallen bij jou, dat het nut dermate beperkt is, (zker met SFR) en dat de problemen met bijvoorbeeld frame pacing nog lang de wereld niet uit zijn. Daarom zeg ik theoretisch en technisch vast wel haalbaar, maar totaal nutteloos in de praktijk.

Alleen SLI/Crossfire nu werkend hebben op alle games is al lastig genoeg. Vervolgens gaan we opeens SFR/AFR en IGP allemaal supporten? Natuurlijk :)

[Reactie gewijzigd door Vayra op 19 april 2016 09:18]

Jouw euro lijkt niet eens te vallen (dat je over onbestaande munten praat toont ook al aan dat je in het verleden blijft hangen :+) dat je blijft zeiken over SLI en crossfire, twee technieken die nooit goed gewerkt hebben, en waarvoor devs steeds vendor-specifieke implementaties meosten maken om het aan de praat te krijgen. Dat tot het verleden bannen, samen met je kwartjes, is het doel van DX12, en het nut om het op deze manier te doen :+

En daarnaast, nogmaals: het aantal gebruikers met 2 krachtige GPUs is miniem. Echt, achterlijk klein. Het aantal met een IGPU+DGPU is enorm. Die laatste groep 10% fps boost geven is dus waardevoller dan die eerste achterlijk kleine minderheid een boost van 50% bezorgen.

Snap dt nu eens ;)

[Reactie gewijzigd door kiang op 19 april 2016 09:58]

Mhm. Het enige doel van DX12 is het leveren van een API, en de support wordt verschoven naar developers (!). Developers - je weet wel die mensen die elke grote game release voorzien van een day one patch en dan nog geen goed werkend product leveren. Developers, dus talloze kleine bedrijfjes die allemaal voor hun eigen productje het wiel gaan heruitvinden, met een hijgende publisher in de nek.

Ja, dat zal echt een paradijs van GPU combinaties gaan worden.

Verder roep je een boel over weinig dual GPU systemen en dat SLI/Crossfire nooit goed heeft gewerkt, maar dat is natuurlijk grote onzin, want dan was er allang geen markt meer voor geweest. Het wordt dermate veel benut dat er nog steeds support voor is. De scaling is ook best OK, tot het punt dat twee lagere GPU's voor dezelfde aanschafprijs meer performance kunnen bieden dan n dure krachtige. Kortom, ik denk dat je DX12 met zijn opties zwaar overschat en de huidige oplossingen zwaar onderschat. Maar dat is een heel natuurlijk verschijnsel, want er is nog veel onzekerheid rondom de uiteindelijke praktijk die DX12 gaat heten. Er zijn een paar tech demo's en benches en die zien er uiteraard veelbelovend uit, maar: been there done that...

[Reactie gewijzigd door Vayra op 19 april 2016 10:12]

Is microstuttering niet vele malen problematischer met VR? Ik weet niet of Crossfire/SLI de oplossing zijn in deze...
Ik denk dat SLI/CF setups heel goed moeten schalen met VR.
aangezien elke kaart een beeld kunnen renderen per oog. Bijna geen SLI/CF specifieke optimalisaties nodig.

gewoon twee verschillende viewports en renderen die hap. (viewport per gpu)
vind ik ook.

net als vroeger toen 3D video/game rendering een 2e kaart nodig had. die je aansloot via de vga-poort


dan zou je flink wat betere image-res krijgen
Ik denk dat hierin inderdaad het probleem zit. MIjn grootste probleem met mijn crossfire ervaring was gewoon de support van de titels. Je zat altijd te ouwehoeren om het aan de gang te krijgen op de manier dat het eigenlijk moet werken.
Als je gewoon een beetje gamed is n betere videokaart handiger als twee mindere.
Wel opzoek naar een nieuwe generatie kaart, maar zolang dat crossfire bij steeds meer games gewoonweg niet werkt trap ik er niet meer in. Division bijvoorbeeld heeft nog steeds geen crossfire ondersteuning. Dat kost je dan bijna de helft aan snelheid.

[Reactie gewijzigd door RemcoINC08 op 16 april 2016 17:43]

Bij DX12 zou dit iets minder het probleem moeten zijn, daarnaast zijn eerste testen met crosSLI ook al succes vol gebleken.
Dat hangt geheel van de developer af.. Het was aan de fabrikanten om te implementeren, nu word dat verplaatst naar de developers. Gezien de meesten liever een snelle goedkope port hebben vrees ik het ergste...
/edit- verkeerd gelezen/

[Reactie gewijzigd door jmjap op 16 april 2016 18:42]

Voor een heel beperkte groep leuk waarschijnlijk. Ik hoop dat de nieuwe architectuur straks gehakt maakt van dit monster voor de helft van de prijs...
De komende Polaris GPU's zijn niet ontworpen voor ultieme performance, maar vooral op efficintie en lage prijs. Dit is omdat ze voor het eerst gebruik maken van 14nm techniek. Waarschijnlijk komen eind 2017 kaarten uit die deze efficintie schalen naar snellere kaarten.

Dus verwacht komend paar maanden niet een enkele GPU die dit monster aan kan. Je kan wel een kaart verwachten die sneller is dan een enkele Fury GPU.
Voor welk type gamers zijn videokaarten in dit segment nou eigenlijk weggelegd?
In principe hoef je niet meer dan 300 euro uit te geven voor een fatsoenlijke videokaart die actuele games met een fatsoenlijk framerate op het scherm zet zonder dat je moet pielen met settings dus wat zou je bewegen zoveel geld uit te geven?
Lange termijn investering kan het ook niet zijn want videokaarten raken op meer manieren achterhaald dan alleen hoe snel ze zijn.

[Reactie gewijzigd door Alpha Bootis op 16 april 2016 21:19]

er zijn nu eenmaal mensen die alles op de max willen n 60 fps en 4k/1440p die geven hier graag meer voor uit.

of die met een 120hz scherm gamen. de meeste zullen hun schouders ophalen maar er zijn gewoon mensen die dit 'nodig' hebben.

ikzelf ben al tevreden met een Fhd schermpje en een 970 hoor. snel genoeg voor nu, en ik verwacht nog wel voor een tijdje.
Dat is heel erg simpel: Idioten.

Dit type dual GPU kaarten is de minst interessante GPU die je mogelijk kan aanschaffen. De prijs is hoger dan twee dezelfde kaarten los, twee losse kaarten houden hun waarde veel beter en hebben een grotere afzetmarkt als je ze doorverkoopt, en je zit altijd met gebrekkige support in je maag, vroeg of laat. Verder is het lastiger om dual GPU te koelen dan twee losse, wat het overklokpotentieel beperkt. De performance ligt dan ook vaak lager dan twee losse kaarten samen.

Er is dus letterlijk maar n voordeel aan dual GPU en dat is de form factor. Je hebt maar 1 slot nodig ipv twee. Verder is het compleet zinloos en kent het alleen nadelen.

De GTX 690 en de R9 295X zijn hetzelfde lot beschoren, ze dalen sneller in prijs dan gelijkwaardige single GPU's, ze worden bijna niet verkocht of overgekocht, etc etc etc.

[Reactie gewijzigd door Vayra op 19 april 2016 09:33]

Met dx12/Vulkan en de ingebouwde a-synchronous computing komt multi gpu helemaal terug. Mits developers niet te lui zijn.
Gewoon een "Niet omdat het moet, maar omdat het kan kaart" Echt een stevige prijs aangezien de nieuwe kaarten om de hoek komen kijken, maar deze heeft wel veel compute power dus is een heel andere markt. Hoop alleen dat ze Crossfire wat meer gaan ondersteunen want het gaat met DX12 niet de goede kant uit.

Tot nu toe hebben bijna alle DX12 games geen ondersteuning voor Crossfire/SLI

[Reactie gewijzigd door Cyclonic op 16 april 2016 18:45]

Voor die prijs zou ik wel een hdmi 2.0 uitgang willen hebben.
Tja onbegrijpelijk he. Maar wl 4K capable zijn... Typisch AMD.
Wel weer een flinke smak geld! De eerste en meteen laatste Dual GPU kaart die ik nieuw heb gekocht is alweer bijna 10 jaar geleden. Bijna 1000,- heeft m'n goeie ouwe Geforce 7950GX2 gekost. Keihard voor gespaard toen. Als ik die prijzen nu zie.... Zijn high-end modellen alleen maar duurder geworden.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True