Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 80 reacties

AMD komt naar verluidt met een nieuwe videokaart, die is uitgerust met een Hawaii XTX-gpu, een uitgebreide versie van de Hawaii XT. Laatstgenoemde vormt de basis van de Radeon R9 290X. De nieuwe kaart heeft wellicht vier Compute Units meer dan de 290X, voor een totaal van 3072 cores.

De komst van de kaart wordt gemeld door Videocardz, dat in het verleden bewezen heeft over goede bronnen bij videokaartfabrikanten te beschikken. De naam van de kaart en de specificaties zijn nog onbekend, maar de site zegt reden te hebben om aan te nemen dat de kaart met Hawaii XTX-gpu 48 Compute Units krijgt. Het aantal cores komt daarmee uit op 3072 en het aantal tmu's zou ten opzichte van de R9 290X zijn gestegen naar 192. Het aantal rops zou met 64 gelijk blijven.

Hoewel de naam nog onbekend is, lijkt een naam als R9 295X waarschijnlijk. AMD gebruikte eerder de xx5-aanduiding voor nieuwe varianten van videokaarten. De kaart zou de concurrentie moeten aangaan met de GeForce GTX Titan Black en de GTX 780 Ti. Er gingen al langer geruchten dat bij de Hawaii XT-gpu niet alle functionaliteit geactiveerd was.

Mochten de geruchten kloppen, dan wordt de R9 295X de snelste kaart met enkele gpu van AMD. De snelste kaart blijft de R9 295 X2, met twee gpu's.

AMD Hawaii gpu-varianten
 Hawaii PROHawaii XTHawaii XTX
Videokaart Radeon R9 290 Radeon R9 290X Radeon R9 295X?
Compute Units 40 44 48
Cores 2560 2816 3072
Tmu's 160 176 192
Rops 64 64 64
Moderatie-faq Wijzig weergave

Reacties (80)

Mag ik opmerken dat de hoger geklokte R295 al bestaat in paren van 2 op de R295x2?
Ik vraag me dus af of de naamstelling klopt.. Zelfs voor AMD-begrippen zou dit wel verwarrend werken.

Daarnaast is een clusteruitbreiding in sommige gevallen ongunstig voor de performance als een programma optimalisaties voor een specifieke architectuur bevat. En bump in de GPU-clock lijkt me dan logischer en ik gok: 1018MHz gelijk aan de R295x2 clock

Er zal in de drivers rekening gehouden moeten worden met de mogelijkheid van het aansturen van meer units, hoewel de de GPU zelf ook al veel in de juiste banen kan leiden.
Als iemand inzicht in de instruction-scheduler van de Hawaii-GPU heeft kan deze uitsluiten of de hardwar zonder meer automatisch gebruik maakt van de extra clusters. Als dit namelijk niet het geval is, is er wel wat gesleutel nodig zoals een aparte class tbv crossfire ed.
Dan ben ik benieuwd waarom de bestaande R9 GPU's 'generfed' zijn. Waarschijnlijk dat het met warmteontwikkeling te maken heeft. Dat is op te lossen door er betere koeling op te plakken. Als het met stabiliteit te maken heeft hebben ze misschien nu genoeg ervaring met drivers om dat op te kunnen lossen.
Kan me goed indenken dat deze high-end kaart ook een ditto prijs (500+) krijgt aangezien de Titan dusdanig geprijsd is dat er genoeg marge overblijft.
Eerder ligt het aan het proces, zo'n giga-chip kent nogal wat uitval, en NVidia heeft ook eerst de 780 als normaal gesleten met de peperdure high-end Titan als halo. Daarna pas kwamen de volledig geactiveerde kaarten, gewoon vanwege uitval. Het zou me weinig verbazen als AMD eenzelfde beslissing genomen heeft, en nu pas het proces voldoende onder controle heeft om genoeg halo-kaarten te kunnen leveren.
Precies dit dus, alleen was het tot voor kort nog ontkend door AMD dat er uitgeschakelde core's in zitten, maar bij de gk110 was dit gelijk al bekend.
Dat gaat nog lastig worden als ze de volgende stap van verkleining van de torren gaan nemen. Daar had ik al over gelezen dat het al moeilijk ging en ook langer ging duren.
douw er een R9 295x2 hou je meer over in je beurs, en nog een betere kaart :P(zeggen de meeste benchmarks)
TDP van 300 watt? Performance per watt zal er wel niet beter op worden.
Nee, maar slechter ook niet.

de 290x doet maar zon 20 watt minder op dan zelfs de titan black, dus ik snap al het geroep rond "de rampzalige perf/watt" niet goed meer bij hawaii. Hun performance/watt is er bijna 40% op voorrruitgegaan sinds Tahiti.

Slecht kan je het niet meer noemen, want dan valt Nvidia zn 780ti en titan blacks ook bijna in die "slechte" categorie...
Kuch

http://www.techpowerup.co...SUS/GTX_750_Ti_OC/26.html
Voor elke gelijk gepositioneerde kaart scoort nvidia van een paar procent voor de 770 vs 280x tot 1/3 beter bij de 750ti
Is het niet ook Bang for the buck.

Prijs performance Watt

Performance / ( prijs x Watts)
Met $3000,- eindig je ver onderin.
Iemand die voor een top high end kaart gaat boeit het verbruik niet.
Voor marginaal betere prestaties betaal je de absolute hoofdprijs.
Het verbruik zal van geen enkel belang zijn.
Tevens is een top high-endkaart nooit lang een top high-endkaart en rijp voor vervanging.
Gelukkig heeft AMD daarin nog wat speling in t.o.v. Nvidia
Dan heb je de GTX750Ti zeker nog niet bekeken? De Maxwell-architectuur slaat een flink gat met AMD op het gebied van performance per watt.
Verder zat de 290X al iets boven de 780Ti: http://techgage.com/artic...rce-gtx-780-ti-review/10/
Dus ik weet niet waar jij die ruimte denkt te zien...

Edit: en waarom wordt er bij computerjunky hierboven zo hard met -1 moderaties gestrooid? Wat hij zegt is gewoon waar. Exmatproton niet, daarentegen, maar vreemd genoeg wordt die veel positiever gemodereerd...

[Reactie gewijzigd door Scalibq op 25 juni 2014 18:44]

De maxwell architectuur offload ook werk naar de CPU, iets wat ook wel het verbruik op de gpu ten goede komt, maar niet voor het systeem..
De maxwell architectuur offload ook werk naar de CPU, iets wat ook wel het verbruik op de gpu ten goede komt, maar niet voor het systeem..
Ik denk dat je twee dingen door elkaar haalt. De nieuwe Maxwell kaarten (800 en hoger) komen met ARM processoren (Denver cores) aan boord die een deel van de cpu taken moet overnemen om zo minder afhankelijk te zijn van de system cpu.

Nvidia kaarten worden straks dus effectief geleverd met een SoC. Dit is goed nieuws voor het systeem.

[Reactie gewijzigd door Persei84 op 25 juni 2014 18:03]

Andersom bedoel je.

Nvidia kaarten zijn al een paar generaties zuiniger dan amd kaarten.

De 290x gebruikt 24 watt meer dan de 780TI.
Ow? Dan loop ik achter! Mijn excuses
Voor de 6xx serie van nvidia was Amd wel de zuinigste maar helaas is dit niet meer het geval.
Ook bij cpu's is dit al een aantal jaar niet meer het geval wat erg jammer is aangezien dat toch aangeeft dat ze moeite hebben met het echt sneller maken van de cores en moeten compenseren met hogere mhz wat je ook terug ziet bij de cpu's en gpu's.
Hhmmm, dit was voor toch meestal de reden om voor Ati kaarten te gaan. Ik moet zeggen, ik draai nu al een behoorlijke tijd een 6 serie kaart, heb al lang geen upgrade meer gedaan. Thnx voor de heads-up :)
Ik heb zelf 12 jaar lang nvidia gehad en ben nu door de prijs overgestapt naar amd maar ik moet zeggen ik mis nvidia wel.

De kaarten lijken sneller out of date en trage fps te geven dan dat dat het geval was met mijn nvidia kaarten.
Zo waren de 6800 GT/ 8800 GT en gtx 285 echt beesten van kaarten.
Helaas zijn ze me nu echt veel te duur.
Ben benieuwd naar de benchmarks die gaan komen.
Ik niet, de winst tov het vorige model kun je zo uitrekenen en is zo`n 8% in theorie.
In de praktijk......................waarschijnlijk merk je het niet eens.
Als de winst ook echt 8% zou blijken te zijn, zou ik dat niet niks noemen. Het wordt waarschijnlijk ook als een incrementele upgrade t.o.v de 290X op de markt gezet (getuige de waarschijnlijke naam 295X).

Het hangt natuurlijk af van je setup. Als je gewoon 1080p/60Hz wilt gamen, zal een 290X ruim voldoen voor de meeste games. Maar voor meer extreme setups - denk dan aan 1440p, 3x1080p, 4k, al dan niet op 144Hz - kan een beetje meer oomph nooit kwaad.

En sowieso zijn high-end kaarten niet gericht op de gemiddelde gamer.
T.o.v. de 290 is de winst zelfs 20%. Voor 3 videokaarten in dezelfde high-range is dat een behoorlijk verschil! Dat krijg je er met alleen het overclocken van een non-X niet meer bij. Dit had in mijn ogen de X variant moeten worden, voor de huidige prijs/performance-verschil.

Dit zullen trouwens wel cherry-picked Hawaii chips zijn. Ik ben benieuwd welke gewone R9 290 als eerst unlocked naar 295X. :+

[Reactie gewijzigd door chaoscontrol op 25 juni 2014 17:45]

Ik weet het niet 100% zeker maar ik denk dat je met de high-end Kaveri APU's in een Asrock-am1h-itx moederbord al 3x1080p@30Hz kan aansturen. 1*HDMI en 1* Displayport (opgesplitst naar 2x HDMI). .

De drivers (vooral Eyefinity) worden nu zelfs bruikbaar voor dergelijk exotische setups.

[Reactie gewijzigd door Bulkzooi op 25 juni 2014 17:34]

Die Kaveri APU's zullen het kunnen aansturen, dan een game erop willen spelen is iets heel anders.
ik heb geen enkel probleem met mijn potje free cell :P
Zou er veel verschil zijn tussen de 290X en de "295X" ? Het verschil tussen de 290 en 290X was ook al minimaal.
ik dacht dat de 290X al een volledige chip was, ik wist dus niet dat er nog ongeactiveerde units op waren!

290 vs 290X: het verschil zou groter moeten zijn, maar spijtig genoeg kan de 290X de kloksnelheid niet maximaal behouden door overhitting (met referentie koeler). Een goeie 290X met dus een custom koeler doet wel een stuk beter dan een 290 (ook met custom koeler om de vergelijking te maken).

leuk leuk dat er nog eentje komt!
Even ter informatie; Ook de R9 290 (en zeker de wat goedkope versies) heeft last van oververhitting. Bij 85 gr. Celsius begint ook deze kaart te throttelen waardoor de performance achteruit gaat. ;(

Ik heb dit zelf opgelost door een full-sized waterblock van EK te plaatsen, waardoor het stil is en perfect gekoeld wordt. Overigens kom je met een degelijke aftermarket cooler ook ver, maar eigenlijk is dit alles niet de bedoeling bij een dergelijke kaart.
De theoretische winst bij dit model is zo`n 8%, weinig in verhouding tot bv. de 780 en 780ti versie waar de winst bijna 20% is
Leuk als je nog moet, hoef je niet meer en heb je al iets snels kun je hier beter niet aan beginnen.
Ik gok dat ze hiermee dan ook op het prestatie niveau van de 780ti gaan zitten, of iets erover.
Qua prestatie winst is het weinig, maar sneller dan het snelste van de concurrentie is natuurlijk het streven in de GPU wereld.
Zou kunnen, ik betwijfel of het nog iets gaat betekenen voor het gamen.
Meestal is er voor een echte upgrade meer power nodig.
Het zet in ieder geval de markt in beweging.
Als dit gepaard gaat met een kleine prijs verlaging voor de andere dan zou dat mooi meegenomen zijn :)
amd heeft de prijzen al verlaagd nog geen 2 weken geleden. :)
Als ze een reference hiervan willen uitbrengen mogen ze wel wat aan die cooler doen.
Al ziet de stock cooler er wel netjes uit :P

Maar ja, ik mag aannemen dat hij net zo warmte kan genereren als de 290(x) en in dat geval moet de cooler toch echt aangepast worden
Als ik me niet vergis is het een gerucht.. :) wat dus niets zeker maakt ;)

Gezien de zware waterkoeling op de 295x2 denk ik zomaar dat ze wel een betere koeling gaan gebruiken.. en een ref.-model lijkt me niet echt noodzakelijk.
Vraag me af waarom ze hier dan nu pas mee zouden komen. De koeling misschien?
Simpelweg yields...

Niet alle chips uit een wafer zijn even goed .. en dit zijn vaak relatief grote chips. waardoor het goed kan dat meer naar de buitenrand van het wafer er meer 'defecte' clusters zijn.
Als AMD genoeg perfecte exemplaren heeft kan het op die basis makkelijk een lijn cherry-picked GPU's uitbrengen.

In basis hebben ze gewoon de beste chips achter de hand gehouden, en even een kleine voorraad opgebouwd in de hoop te voorkomen dat ze weer direct uitverkocht zijn.
Lijkt me een slimme zet.

Nvidia heeft er een handje van om snel weer te reageren, wat ze ook nu hebben gedaan
Denk niet dat de benchmarks veel hoger zullen zijn dan die van de 290x.. Zeg dat er 10% performance verbetering is, dan zal de prijs wel 30% hoger zijn dan die van de 290x. Niet echt de prijs waard als je het mij vraagt, nou zijn er vast veel high end pc builders die het het niet mij eens zijn, maar de prijs/kwaliteitverhouding zal wel niet helemaal goed zijn.
helaas is prijs kwaliteit niet altijd interessant als je pure performance wil.

Ik wil graag een 4k scherm maar doe dit nog niet omdat ik weiger SLI of Xfire te gebruiken omdat ik het gewoon een slecht product vind. De compatibiliteit is waardeloos en vaak duurt het maanden voordat er nieuwe drivers komen en moet je hopen dat het probleem opgelost is en als er een nieuw spel uitkomt begint het riedeltje weer van voor af aan...

Een single gpu kaart is dan ook mijn enigste hoop en zelf weiger ik meer dan 375 voor een gpu te betalen maar anderen kopen wel gewoon om dezelfde rede de snelste single gpu kaart die beschikbaar is.
Ik snap je redenering niet.
Je begint met 'helaas is prijs kwaliteit niet altijd interessant als je pure performance wil.'
Neem aan dat je hiermee bedoelt dat je prestaties het belangrijkst vind, en niet kosten(?).

Maar vervolgens wil je geen SLI of Crossfire, en je wilt ook niet meer dan ¤375,- uitgeven voor een single GPU.

Wat wil je dan, héél veel single-GPU presaties voor 3 euro?
Hij heeft best een punt. Ik denk dat ie bedoelt dat prijs kwaliteit niet meer aan de orde is wanneer je voor maximale performance wil gaan, simpelweg omdat je gedwongen bent om in relatief inferieure productlijnen te stappen (want dat is SLI/Crossfire nog steeds, simpele reden is dat er een driver nodig is, het werkt niet out of the box voor alle games zoals één GPU dat wel doet) of de hoofdprijs te betalen voor het ultimum aan single GPU goodness, dat puur door de marktpositie en flagship-status veel te hoog is geprijsd.

Als meer gamers deze lijn zouden aanhouden en weigerden om meer dan zeg 400 euro voor een GPU neer te leggen, stopt die Titan nonsense ook vrij snel natuurlijk. Want laten we eerlijk wezen, elke Titan iteratie is tot nu toe een dikke cash cow geweest, puur omdat Nvidia anders de Quadro lijn zelf uit de markt zou prijzen. En 400 euro als bovengrens is heel, heel redelijk denk ik. Dat zou namelijk de 'oude' GTX 690 op een prijspunt van 780-800 euro plaatsen, en dat is toch al heel wat redelijker dan de destijds gevraagde 1k.

En bovendien, je zegt 'wat wil je dan' maar als je naar de prijsdalingen kijkt die worden doorgevoerd, zeker als je het vanaf de HD7xxx / GTX 6xx serie bekijkt, dan zijn de marges gewoon torenhoog geweest. Dus die ruimte is er gewoon. We betalen nu voor een rebrand met wat sneller geheugen en leukere koeling gewoon bijna 40% minder dan bij release...

[Reactie gewijzigd door Vayra op 25 juni 2014 20:17]

Als je voor performance gaat is prijs/kwaliteit wel degelijk nog van belang. Het is alleen dat de grenzen worden opgerekt.

Daarnaast is de Titan nooit gericht geweest op gamers.

Ik wil zelf drie schermen van 1920x1200 gaan aansturen in games (5760x1200) en wil ook niet aan de SLI/Crossfire. Dan is het enige alternatief een dikke single gpu. Ja, 600 euro voor een GTX780Ti vind ik ook teveel, maar als ik de 5760x1200 echt graag wil draaien zonder SLI/Crossfire dan zal ik er toch aanmoeten, overpriced of niet. Niemand verplicht mij om 5760x1200 te draaien.
Daarnaast is de Titan nooit gericht geweest op gamers
Lol, daat heb je een punt! De TITAN is voor iedereen die zijn banksaldo een TITANIC-koers wil geven. Het is een model wat uitgebracht is om limieten op te zoeken in mijn mening... maar vooral wat de limieten zijn wat iemand wil betalen... Nvidia ziet kans om te cashen op basis van een mining-hype.. en gelijk hebben ze!
De 290x was ook duurder dan de adviesprijs omdat de vraag onwijs was vanwege de mining prestaties, en er veel kaarten voor dit doel gekocht zijn.
drie schermen van 1920x1200 gaan aansturen in games (5760x1200)
Is 3840*720 niet een betere doelstelling met single GPU?
Ik snap dat je liever full HD & native resolutie per scherm gaat, maar die res gaat met een single GPU wel ten koste van de eye-candy wat ik in zulke resoluties wel degelijk een issue vind worden (resolutie is mooi, als je het effectief kan gebruiken)

Wees niet zo voorbarig ook met het uitsluiten van multiGPU opstellingen daar zaken als DirectCompute en OpenCL ook meer gebruikt worden. Dat kan mooi op de vrije ruimte op de GPU's uit gevoerd worden, want de door mij genoemde reso gaat best wel werken op de kaart in dit artikel.. alleen met full eyecandy zal je in de nabije toekomst gewoon al snel weer tekort komen... Leuk dat je er dan een bij kan plakken denk???

Daarnaast is het vaak ook mogelijk om te schalen waarbij je met een goede keuze ook al een redelijke vorm van 'AA for free' hebt ;) :Y)

[Reactie gewijzigd door Atmosphere op 27 juni 2014 00:16]

Ik zou het niet zo snel een rebrand noemen daar er wel degeljk meer resources beschikbaar komen in de vorm van extra 'cores' en TMU's (texture mapping units)

Het verschil zou afhankelijk van de applicatie veel ruimer uit kunnen vallen als de eerder hierboven gespeculeerde 8%
De speedbump welke verwacht wordt voor de XTX zal waarschijnlijk al die 8% opleveren en het is echt onwaarschijnlijk dat de extra core's en TMU's geen enkele verbetering opleveren.

Crossfire/SLI is voor beide kampen een 'speciaaltje' waar ook de maker van de gebruikte software rekening mee gehouden moet hebben. Zelfs in een single GPU opstelling werkt de nieuwste software vaak niet vlekkeloos.. en ik heb hier zelf genoeg ervaring meer (met zowel team rood als team groen :+)
Dat is PC-gaming, het is geen console waar de range aan te ondersteunen hardware beperkt is naar 1 type)

Dat bestaande techniek des al niet ge-rebrand maar wel verbeterd goedkoper is lijkt me niet meer dan logisch, groot deel van de R&D zal terugverdiend zijn en de winstmarge zal desondanks gewoon hoger liggen.
En nog even over kosten.. Ga eens opzoek naar kostprijs van een Titan Z / Titan Black en zet deze een naast de prijs van een 295x2
Ja ik game persoonlijk alleen als ik het spel op zijn hoogste kan draaien.
De graphics zijn immers een belangrijk deel van een nieuw spel en ik genet volop van nieuwe staaltjes techniek (water in assasins creed : black flag was geweldig op ultra) en dus wil ik alles op ultra draaien.

Het feit dat ik geen 600 euro aan een high end kaart uitgeef betekend niet dat er geen mensen zijn die net als mij alleen single gpu setups willen en wel ervoor kiezen die 780TI OC aan te schaffen ondanks dat je met een SLI setup met 2 kaartjes van de helft van de prijs in theorie meer fps heb voor hetzelfde geld.

Het feit dat een single gpu altijd goed werkt en sli niet is al 1 rede om voor een high end kaart met minder ideale prijs/prestatie te kiezen.

Ik zelf wacht tot de nieuwe serie uit komt of de prijs zakt en dan heb ik een high end model voor minder. zo heb ik er nu een 7970 OC Dual Bios inzitten op 1050 mhz ipv de stock release clock van 925 mhz die bij release in begin 2012 meer dan 500 euro kostte maar 7 maanden later aangeschaft heb voor 379 euro en ze waren er goedkoper maar heb besloten hem lokaal te kopen vanwege makkelijke garantie.
helaas is prijs kwaliteit niet altijd interessant als je pure performance wil.
Daar heeft u zeker gelijk in. Ikzelf gebruik geen SLI of Xfire omdat er inderdaad te weinig drivers voor beschikbaar zijn, vooral na de release van een game. Als je graag goede kwaliteit voor een lager prijsje wilt kan je inderdaad beter bij AMD kijken. Misschien is een normale r9 290 wat voor u? (Niet de standaard editie, deze wordt te heet en te luid) Daar kunt u geloof ik de meeste spellen op high/ultra spelen op een 4k scherm.
Voor mij was de hoofdreden om van SLI af te stappen voornamelijk het geluid. Er hadden ook 2 iets stillere kaarten in m'n systeem gekund, maar dan nog heb je ipv 1 fan (en dus 1 constant geluid) twee fancontrollers die allebei op hun eigen tempo de fanspeed aanpassen (want in SLI zijn twee kaarten bijna nooit even warm, zelfs niet met exhaust/ref koeling) en dus hoor je vrijwel altijd dat fans harder of zachter gaan draaien. Het zijn die wijzigingen in fanspeed die opvallen en de aandacht weer op die koelers richten. Heel hinderlijk.

Compatibility is tegenwoordig best aardig in orde, soms moet je wat tweaken en heel enkele keer sta je inderdaad met lege handen (Elder Scrolls Online... looking at you). Maar dat geluid... En als je veel niet- triple A games speelt, kom je ook al gauw van een koude kermis thuis. Voor mij is de SLI ervaring in elk geval een leerpuntje geweest, al was het benchen, overklokken en de geweldige scaling heel tof om aan het werk te zien.

[Reactie gewijzigd door Vayra op 25 juni 2014 20:22]

Hij zij u tegen me haha.

Ik zit te wachten op een daling van de 290X die is nu 399 ¤ maar voorlopig voldoet mijn 7970 nog voor bijna alles op mijn 4k wens na dan hehe maar dat duurd nog wel 2 generaties voordat dat lekker draait denk ik.
Hebben ze mooi te tijd om de schermpjes met ips uit te brengen en ze beter te maken :)
Ik hoop toch dat je crossfire bedoelt, xfire is een programma
Ik weet niet zeker of u dit als troll bedoelde of serieus maar hieronder heb ik het uitgelegd.
X = kruis oftewel cross.
Xfire is een afkorting voor crossfire. :)
Tegenwoordig is de juiste naam CrossfireX trouwens.
CrossfireX wordt gebruikt voor hybrid opstellingen en brugloze opstellingen waarbij over PCIe gecommuniceerd wordt en niet over de dedicated brigdeconnector op beide kaarten.

Maar dat is dan wel de huidige standaard en zou je misschien daarom kunnen stellen dat het tegenwoordig CrossfireX is...
Misschien ging ik wat te veel af op de Wikipedia van Crossfire, CrossfireX was de merknaam die gebruikt werd toen een Mastercard niet meer nodig was en er meer dan 2 videokaarten gecombineerd kunnen worden, maar dat is al sinds de X1950Pro zo. (http://en.wikipedia.org/wiki/AMD_CrossFireX). Ik zie nu wel op AMD's eigen website dat ze gewoon Crossfire gebruiken als naam, het is in feite gewoon hetzelfde want voor de R9 290 is Crossfire grotendeels hetzelfde gebleven.

Wat jij bedoelde met die PCIe brug is XDMA, dat wordt inderdaad gebruikt voor brugloze Crossfire, maar CrossfireX gebruikt dus wél een brug. En XDMA valt ook gewoon onder Crossfire, het is maar de naam van het protocol.

Hybride oplossingen heten Hybrid Crossfire en nu eigenlijk Dual Graphics.
Als je 4K gaming wil voor minder dan ¤375 ga je nog minimaal een generatie moeten wachten en ik denk zelfs meer. Je kan nu op een +¤375 al niet serieus 4K gamen, voor de volgende generatie mag je op dat prijspeil prestaties van de huidige topmodellen verwachten en alleen de ¤500+ videokaarten die 4K gamen mogelijk maken. Grotere sprongen verwacht ik niet, je kunt niet verwachten dat mid-range plots 4K kan.
4k gaming op single gpu is ook met een tital black nog niet mogelijk en met 2 is het al niet optimaal.

Serieus 4k gaming is nog wel 4 jaar weg als het niet meer is en ik denk 3 generaties verder.
Games worden zwaarder door nieuwe consoles en er is nog altijd 4x de informatie van FHD om te renderen.

En ik koop alleen high end kaarten omdat die vaak een hogere bus voor het geheugen hebben en meer rekenkernen waardoor ze toch vaak beter presteren dan gelijk geprijsde midrange kaarten. Al wil ik 350 a 375 geen midrange noemen maar gewoon high end.
alles boven de 400 is gewoon insanity range.

[Reactie gewijzigd door computerjunky op 26 juni 2014 04:43]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True