Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 105 reacties

AMD brengt de videokaart met twee Fiji-gpu's aan het begin van het tweede kwartaal van 2016 uit. De fabrikant laat de release in lijn vallen met de beschikbaarheid van vr-brillen. AMD heeft dit verklaard tegenover een Franse technologiesite en AnandTech.

AMD liet in juni weten aan het eind van 2015 met een videokaart met twee Fiji-gpu's te komen en de Franse site Hardware.fr vroeg de fabrikant of er sprake van uitstel was, nu de kaart nog niet in zicht lijkt. Daarop verklaarde AMD: "De productintroductie voor Fiji Gemini was aanvankelijk in lijn gebracht met de beschikbaarheid voor consumenten-hmd's, die in juni op het vierde kwartaal van 2015 gepland stonden." Hmd staat voor head mounted display.

"Dankzij vertragingen bij het vr-ecosysteem, is de verwachting nu dat hmd's aan het begin van het tweede kwartaal van 2016 beschikbaar komen voor consumenten. Om de optimale vr-ervaring te bieden passen we het introductieschema voor Fiji Gemini hier op aan om deze beter in lijn met die van de markt te laten vallen", meldt AMD verder in de verklaring. Volgens de fabrikant zouden meerdere zakelijke klanten de kaart al hebben ontvangen en er erg positief over zijn.

AMD lijkt dus te wachten met de videokaart tot vr-brillen als die van Oculus, Sony en HTC beschikbaar zijn en zich onder andere op gebruik voor virtualrealityberekeningen te richten. AMD bracht begin dit jaar de LiquidVR-sdk uit om de latency bij rendering van vr-content met Radeon-kaarten terug te dringen. De sdk is samen met Oculus ontwikkeld.

Update, 20.30: Ook AnandTech heeft de verklaring gekregen, waarmee het niet om speculatie gaat. Het artikel is hierop aangepast.

Dual Fiji Fury

Moderatie-faq Wijzig weergave

Reacties (105)

AMD Blijft maar nieuwe producten uitstellen, dat kan op termijn helaas wel eens problemen gaan opleveren voor ze, hopelijk schiet deze videokaart wel op.
Nu lijkt dit wel zo (want inderdaad, deze dual GPU-Fiji zou eigenlijk deze winter moeten uitkomen), maar is dit wel zo op alle vlakken? nVidia heeft op dit moment geen "moderne" Dual-GPU kaart en ik zie ze dat op dit tijdstip ook niet meer doen. De huidige Maxwell architectuur bestaat al sinds begin 2015 en de nieuwe AMD Fiji chips sinds zomer 2015.

Bekijk daarnaast even dit artikel: http://wccftech.com/amd-am4-cpu-apu-motherboard/
Begin 2016 moeten de nieuwe AMD AM4 socket moederborden en CPU's komen. Laat deze alsjeblieft met 8 cores, op 4.5Ghz+ en met de beloofde 40% IPC improvement komen. Kijk op het plaatje, er staat in de beschrijving dat er een test-CPU is verstuurd met een 65W TDP en "4C" wat meestal op het aantal Cores duid. Daarnaast zien we bij eentje staan "No-GPU" wat bij de andere dus niet staat, wat weer kan duiden op een APU op Zen.

Ik dwaal nu een beetje af, maar het gaat wel weer een beetje de goede kant op. Stel we krijgen een echte knaller qua CPU van AMD voor een redelijke prijs en dan de nieuwe GPU serie in Q2 2016 en dat alles op 14/16nm dan mag AMD zich eens in de handen wrijven.

Je moet in je achterhoofd houden dat AMD al bezig is met de Zen architectuur sinds de eerste (moderne) FX-CPU's de deur uit zijn gegaan wat dus een jaar of 5 is. Intel zit op dit moment een beetje te slapen en kan niet van het ene op het andere jaar een CPU uitbrengen die zeg 20% beter is als de CPU's die ze nu hebben. De huidige trend van Intel is namelijk een 5% per generatie verbetering, AMD moet 40% IPC improvement hebben over Bulldozer, en Bulldozer is al een stukje beter dan FX.

Misschien is het op dit moment een beetje slap voor AMD, maar dat is het ook jaren voor Intel geweest, en in mindere mate ook voor nVidia. AMD heeft ten tijde van Maxwell geen nieuwe generatie GPU's kunnen uitgeven omdat men gegokt had op het 22nm (citation needed) proces wat de chipbakkers verkloot hebben, waardoor men dus met een chip-design zat wat direct de prullenbak in gemieterd kom worden. Daarnaast zie je dat AMD problemen heeft gehad van een ernstig tekort aan HBM chips wat ook een mogelijke reden kan zijn voor een verlate release van de nieuwe Dual-GPU.
Ben bang dat je het allemaal toch een beetje te rooskleurig inziet.

Intel is helemaal niet aan het slapen. Intel loopt een generatie of twee voor op alles en iedereen als het aankomt op het produceren van chips en dat alleen geeft ze al een grote voorsprong omdat ze in theorie met chips kunnen komen die kleiner, zuiniger en meer transistors bevatten dan de concurrentie.

Daarbij is Intel zich duidelijk aan het focussen op het terugbrengen van energie verbruik want de toekomst ligt in de mobiele markt en niet in desktops waar het verbruik tot op zekere hoogte irrelevant is zolang het maar binnen de perken blijft.

Intel komt maar mondjesmaat met verbeteringen omdat er geen concurrentie is dus waarom zouden ze extra resources besteden aan een 20+% verbetering terwijl iedereen die op zoek is naar performance toch automatisch bij intel uitkomt?

40% IPC verbetering tegenover Bulldozer klinkt leuk maar het is niet alsof Bulldozer nou zo briljant was. En 8 cores @ 4.5Ghz? Leuk maar is dat realistisch met een energieverbruik dat ook maar in de buurt komt van Intel terwijl performance vergelijkbaar is?

De laatste keer dat AMD echt iets in de melk had te brokkelen was ten tijde van de Athlon 64 en zelfs dat was alleen mogelijk omdat de P4 Netburst architecture redelijk rampzalig was.

Ben bang dat in CPU land AMD het puur op prestaties nooit meer gaat winnen van Intel. Met APU's kunnen ze wel wat leuks doen maar het probleem hier is dat het energie verbruik veel slechter is dan van Intel dus de hele ultrabook/high end laptop markt (en de bijbehoorende hogere marges) kunnen ze vergeten. Je ziet zelden APU's buiten budget/mid-end laptops na en hier en daar wat mini systemen of goedkope desktops.
Niet om het 1 of ander, Bulldozer is best briljant, probleem was dat AMD dit keer op het verkeerde paard gegokt had. Ondertussen is Intel ze op elk vlak wel lang en breed voorbij, maar dat maakt het Bulldozer ontwerp geen slecht ontwerp..
Inderdaad er Is software waar de bulldozer architectuur uitblinkt.
Dit zin vooral applicaties die echt Multi threaded zijn echter zijn die er maar heel weinig. Het Is heel moeilijk gebleken software zo te schijven dat deze veel threads kan gebruiken. We komen nog steeds amper aan 4 threads waar bulldozer er 8 tegelijk aan kon in zijn 4 module configuratie. Maar dat werd dus amper benut.

Intel had hier veel voordeel van aangezien die architectuur heel. Goed was in 1-4 threads met hoge snelheid verwerken.
Maar als je een 8 core excavator vol Kan benutten kan hij een 6700k makkelijk bijhouden of zelfs verslaan. Helaas kan dat bijna nooit.
Dit is inderdaad een groot probleem, voor bulldozer moet er specifiek geoptimaliseerd worden. Maar als dat gebeurd zie je dat low end AMD bulldozers met alle gemak GTA 5, BF4/H of andere zware games de i3tjes en lagere i5jes vandaag de dag nog gewoon links en rechts voorbijstreeft. Dit soort games/software blinkt goed uit in multithreaden, want het heeft eigenlijk altijd wel meerdere calculaties te doen. Maar speel Sins of Solar Empire en de goedkoopste i3 loopt rondjes om de mid-high end bulldozers. Zelfs Windows 7 heeft een update nodig om Bulldozer optimaal te benutten.
het hele probleem wat AMD had was dat ze niemand konden vinden die 22nm chips kon bakken voor ze. terwijl intel met zijn eigen chip dat wel kon. Nu zowel Intel als AMD op 14nm kunnen bakken gaat de strijd weer eens eerlijk worden. en denk zeker in game pc's een 4/6 core Zen CPU goed tot ijn recht komt. zeker als je ze kan OC.(en AMD dit ook goedkeurt). komen ze een stuk beter uit de bus dan de voor velen toch duren Intel chips. een game pc kan prima met minder kracht. een 4/6 core die de kracht heeft van een i5 4460 met de nieuwe snufjes aan board voor +- 100 euro is voor 90% van de game pc's prima.
de CPU's van begin 2016 zijn nog geen zen's maar de excavator cores voor de desktop op AM4.

4.5ghz zie ik zen ook niet zo 123 doen. maar als ze 3.5ghz doen dan is dat ruim voldoende om intel weerstand te bieden in het grootste deel van de market en daarmee hun marktaandeel en dus winst te vergroter.
Tjah Dual gpu is nogal dood gebloed door slechte driver support en game support voor sli en crossfire ik kan het Nvidia niet kwalijk nemen dat ze deze route liever niet nemen.
en hoeveel man koopt dit nou eigenlijk? die kaarten kosten nieuw 1000 euro per stuk.

AMD beloofde veel met bulldozer maar heeft dit niet echt goed waar kunnen maken in mijn optiek dus eerst zien en dan geloven met die ZEN cpu's

[Reactie gewijzigd door firest0rm op 24 december 2015 01:15]

Mmmmm... is het mogelijk om 4 van deze kaarten in SLI te draaien? En ja, ik weet dat ik een kleine kernreactor nodig zou hebben om het van genoeg power te voorzien. Maar... ik vroeg me het gewoon af.
1) uiteraard kunnen ze niet in SLI, maar alleen in Crossfire
2) nee, Crossfire gaat maximaal tot totaal 4 gpu-chips. 2 van deze is dus het maximum
Overdrijven is ook een vak, een simpele haardroger doet zo 2000 watt uit een normaal stopcontact, een desktop gaat dit nooit nimmer halen, zelfs niet met 4 van deze kaarten
Das geen simpele haardroger maar een verfstripper
En een kleine kamer kan je warm stoken met 500watt
Geen vriendin of zus?
Philips salondry pro 2300
2300 watt, weer wat geleerd ;)
grap is wel dat dat ding maar 3 minuten aan staat natuurlijk,
met een echt machtige bos mischien 5 ofzo maargoed is toch een ander verhaal dan uren per dag...

maargoed tenopzichte van zeg een 100PK auto, is het allemaal kattepis,
die warmt e wordt niet hergebruikt in huis, en we hebben het over 75kilowatt met 20% efficientie... kortom zo'n 375kilowatt als je even lekker doortrapt...
rijd je zuinig ach dan pak je zo'n 200 kilowatt.

mensen moeten zich niet zo zorgen maken om energie verbruik binnen,
buiten is het echt erg, en isoleren dat huis. daar zit de besparing...

OT:
dual fiji is leuk hoor, maar tegen die tijd hoopte ik eigenlijk wel op de volgende generatie 14nm kaarten eigenlijk.... lijkt me een beetje te laat dit :?

[Reactie gewijzigd door freaq op 24 december 2015 03:09]

Ik weet niet hoe je rekent, maar 375kw is grofweg een 911 die vol vermogen wegsprint ;) Voor je normale sedan bij 120 zit je bij 1:15 op een 72kw (waarvan dus maar 18kw daadwerkelijk in beweging wordt omgezet), de rest is warmte.

Overigens heb je maar een beperkt deel van het jaar profijt van die warmte in huis, de rest van de tijd is het domweg verspilling. :)

[Reactie gewijzigd door neographikal op 24 december 2015 09:51]

Even nagerekend.
Die 72kW is wat er aan chemische energie uit de benzine (met een energie capaciteit van 32.4MJ/L) vrijkomt bij een verbruik van 1:15 en 120km/h.

Die 18kW zou duiden op een gekozen efficiëntie van 25% wat haalbaar is voor een benzine auto. Het is trouwens de energie nodig om die snelheid te behouden, dus om vooral de windweerstand te overwinnen. Wat natuurlijk ook warmte oplevert. Dus een auto bij 120km/h levert ongeveer 72kW aan warmte aan de omgeving.

Dan valt een haardroger van 2.3kW of een videokaart met 0.43kW (aanname 2x verbruik Radeon R9 390X/380X) best wel mee.

Dan vergeten we even dat voor elektrische energie er ook al veel meer verlies aanwezig is, eerst bij de opwekking maar vooral ook bij transport.
OK ff compleet off-topic, maar 2,3 KW op je hoofd zetten?! allemachtig, droog in 2 seconden, voor de vrouw met haast? (of haar tot op haar enkels :+ )
whahahaha! vergeet in dat geval de staubsauger van een extra 800 watt niet ! ;)
Een haar droger gebruik je maar even, een pc meestal uren.
Als je geen verstand hebt van componenten plaats dan niks. Het heeft te maken met de connectors, zelf heb ik een R9 380 gaming 4gb. 2 gpu''s dus ook 2 keer een pci-e stroom connector. Kijk nu eens naar de laatste voedingen. Die hebben allemaal max 4 connectors. Maar ga jij het maar proberen met patent gekoelde kaartjes want dat is het enige hoe je meer dan 2 recente videokaarten erin kan plaatsen. En mijn mening over patent gekoelde kaartjes is slecht. Kan je net zo goed nog een oude ati 9800 pro 8x ago gebruiken.
Als je geen verstand hebt van componenten plaats dan niks. Het heeft te maken met de connectors, zelf heb ik een R9 380 gaming 4gb. 2 gpu''s dus ook 2 keer een pci-e stroom connector. Kijk nu eens naar de laatste voedingen. Die hebben allemaal max 4 connectors. Maar ga jij het maar proberen met patent gekoelde kaartjes want dat is het enige hoe je meer dan 2 recente videokaarten erin kan plaatsen. En mijn mening over patent gekoelde kaartjes is slecht. Kan je net zo goed nog een oude ati 9800 pro 8x ago gebruiken.
Leg mij eens uit wat dit te maken heeft met haardrogers? En wat zijn patent gekoelde kaarten? Bedoel je de standaard fabriek koelers?
Een haardroger gebruik je niet uren per dag of week, dus geen goede vergelijking.
En daarom ben je dus een kleine kernreactor nodig....
Je vergeet denkelijk dat je haar sneller droog is dan dat je battefield 4 uitspeelt
Scheelt je een hoop stookkosten in de winter, zo'n setup :D
Ik denk niet dat daar profielen voor zijn. 4-weg Crossfire was voor de Radeon 295x2 ook al het matje, dus verwacht ik niet dat je vier dual-gpu's in je systeem kwijt kan. Plus, de schaling zou compleet waardeloos zijn, of de CPU gaat een bottleneck vormen. En voor zover ik weet ondersteunt geen enkel moederbord 8-weg Crossfire of SLI.
Maar het is een leuk idee! ;)
Het zit niet in het moederbord, het zit in de drivers. Met extenders kan ik 7 x 2 GPU's aansluiten (Asus p9x79-ews). Maar die gaan echt niet samenwerken in Crossfire. Los van elkaar werken ze trouwens wel. Dus multi-monitor werkt, alleen allemaal tegelijk voor één spel.

[Reactie gewijzigd door Milmoor op 24 december 2015 12:27]

Inderdaad, Het hardwarematige limiet voor gpus is hoeveel pci-e slots je hebt. De videokaarten zal je niet met elk moederbord kunnen gebruiken met 7 x 2 gpus.. Je hele systeem moet natuurlijk wel die lanes tegelijkertijd kunnen aanzetten. Denk aan dat Asrock H81 BTC moederbord. die kan in ieder geval 7 gpus aan. Mogelijk 14 chips maar ik ken niemand die dat heeft geprobeerd.

Bron 7 Card mining rig
Je moet ook nog de pci-e lanes hebben. Dan wel via cpu dan wel via de chipset.
Nee dat kan niet aangezien AMD crossfire gebruikt en NVIDEA SLI. Dus dat gaat niet werken. Ook gebruiken de laatste kaarten 2 pci-e power connectors en 4 connectors is nog steeds max wat in theorie betekent dat je maar voor 2 kaarten stroom hebt.
Verspilling van geld daar alleen een SLI of Crossfire een aanzienlijke performance winst geeft.

Tri of Quad setups laten duidelijk een verhoudingsgewijs matige performance winst zien en is zonde van de investering in dergelijke setups
Stroom voorziening is het probleem nog niet zo zeer.
Koeling is het probleem !
Vooral als je kaarten van dit kaliber op zo'n kleine afstand van elkaar af hebt zitten.
Niet schrikken je van je case temperatuur in dat geval...
Jammer, had hem liever al in de winter gehad }>
het TDP is voor dual high end gpu kaart anders niet bijzonder hoog met 375 watt. (iets meer als 2x een nano)
Tdp zegt helemaal niks, alle recente DualGPU kaarten van AMD gingen over hun TDP heen qua stroomverbruik.
in furmark ja. wat totaal niet representatief is, en door nvidia in de software gelimiteerd wordt zodat de resultaten niet een gebruikt kunnen worden om onderling te vergelijken.

[Reactie gewijzigd door Countess op 23 december 2015 23:19]

Dit zijn de feiten in games, niet in synthetische test als Furmark.

HD6990
http://www.xbitlabs.com/i...deon-hd-6990/6990watt.png

HD7990
http://www.xbitlabs.com/i...rce-gtx-titan/zpw-xbt.png
Is weliswaar van het hele systeem, maar als een 7990 ~200w meer verbuikt dan een 7970 zal het totaal verbruik net boven de 400w uitkomen(zie elke test van de 7970).

R9295x2
http://www.xbitlabs.com/i...deon-r9-295x2/zpw-xbt.png
Zelfde als hierboven, ruim 260w meer dan een 290x levert een totaal verbruik van toch zeker zo'n 550w op.

Dit is overigens zeker niet alleen bij AMD zo, de DualGPU modellen van Nvidia kunnen er ook wat van ;)
bij allemaal word het hele systeem gemeten en bij een dual GPU kaart moet dat toch altijd beduidend harder werken als bij een single GPU kaart.

daarbij wordt bij allemaal vervolgens het opgegeven TDP van 1 kaart gebruikt als reference om het verschil in het echte verbruik te meten. maar heel veel single kaarten verbruiken beduidend minder als hun TDP. en door dat elke keer maal 2 te doen wodt het verschil tussen echt verbruik ook 2 keer zo groot.

alles bij elkaar heb je dan gemakkelijk 50 watt verschil of meer.

de 295x2 had trouwens een opgegeven TDP van 500 watt. en dus vallen alle kaarten binnen de marge.
voor zover ik weet is de TDP enkel de GPU op de kaart, wat zit daar verder allemaal nog op aan chips etc etc om de boel draaiend te houden/aan te sturen?
Dat valt inderdaad wel mee dan. Maar met de 14nm kaarten zo dichtbij wacht ik liever op de volgende generatie kaarten. Red het tot die tijd nog wel met mijn 780 ti.
Had je in ieder geval geen verwarming aan hoeven zetten. Heb zelf veel van deze kaarten gehad en heb er nog steeds 1 zijn toch wel de mooiste kaartjes om te zien zeker voor een goede bild met window
AMD: Our Next Generation (Arctic Islands) GPUs will offer Double the Performance Per Watt of the Current Generation

Fiji GPU has a total of 4096 stream processors and 8.9 Billion transistors and the die size is 596mm^2. So for double the performance, we are looking around 18 Billion transistors for the Greenland (Arctic Islands) chip. Ofcourse, if the die size is ~500mm^2 initially then anything in the range of 15 Billion transistors goes. For the ~500mm assumption, after accounting for performance increases via architectural improvements, a gain of 66%+ (anything between 70-80% realistically) can be expected. While that is not a full 100%, it is close enough.

http://wccftech.com/amd-n...-watt-current-generation/

Fiji crossfire scaled zo'n 80% van wat ik lees, dus is deze dual kaart dan wanneer de Arctic island uitkomt niet al overbodig, of zal de Arctic Island dan veel duurder zijn? Dat is wat ik me af vraag.
Double the performance.. Per watt. Ik lees daar totaal niet in dat er 2x zoveel transistors in zitten. Totaal niet eigenlijk.
Dan lees je het toch verkeerd? Staat er letterlijk ik verzin dat niet. :P
Ja en nee, het staat een beetje vaag weergegeven om jou als consument te foppen.

Twee keer de performance per Watt. Dus voor 1 Watt die de huidige generatie verbruikt zou de nieuwe generatie er maar 0,5 Watt voor nodig hebben. In andere woorden, bij dezelfde performance verbruik je de helft.

Kortom, dit betekend niet letterlijk 2x de performance, óf AMD moet dus het dubbele aantal transistors erin proppen, wat weer betekend dat je hetzelfde verbruik maar de dubbele performance krijgt...
''Kortom, dit betekend niet letterlijk 2x de performance, óf AMD moet dus het dubbele aantal transistors erin proppen, wat weer betekend dat je hetzelfde verbruik maar de dubbele performance krijgt...''

Ze gaan er in het artikel ook vanuit dat ze inderdaad het dubbele aantal transistors gebruiken, ik denk dat ze dat doen door de intro van het artikel:

There have been reports in the past about Nvidia’s Pascal having 17 Billion transistors (more than twice as many as the Maxwell flasghip) and even now at AMD’s earnings call, Lisa Su stated that the next generation AMD graphic cards will double the performance per watt delivered by the current generation (Fiji) lineup.

Omdat Nvidia het doet zal AMD het ook doen denken ze misschien, maar het zullen allemaal nog wel veel aannames blijven en voorspellingen.

Van Nvidia zijn iig veel bronnen dat ze de transistor count gaan verdubbelen.
Om even aan te geven, de Fury Nano werd ook verkocht met 2x de performance per watt vergeleken met de R9 290x. (AMD Marketing)
net als de geplande dual GPU kaart van nvidia zie ik ook hier niet zo veel heil in een dergelijk kaart.
Met 14/16nm krijg je, een paar maanden nadat deze uit komt een kaart met even veel transistors (nog wat meer zelfs als de geruchten kloppen) maar dan op een enkele GPU.
Om heel eerlijk te zijn, zie ik nog steeds liever een single-GPU kaart dan een dual-GPU.
Zie je ook liever twee single-GPU's in SLI / CrossFire of één gual-GPU?
Geen van beide. Geen SLI/CrossFire, en ook geen dual-GPU kaart :).
Precies! Gewoon lekker 1 enkele top of the line kaart, werkt net zo fijn. Iets minder performance in benchmarks, je hoeft een stuk minder in te stellen.
Werkt juist fijner ;). Geen gezeik met drivers enzo. Geen microstuttering. En ga zo maar door.
:o hoe wil ik dan op 7680x1440 nog lekker gaan gamen met 1 kaart ?

Nee ik ben 98% tevreden met mijn 2 stuks r9 295x2.
Het enigste is met 3 schermen strepen in beeld maar dat is simpel verholpen door de 2D clocks handmatig verhogen.

Microstuttering nog geen enkele keer last gehad, dat CF niet ondersteund word wel helaas een enkele keer.

Ik heb zo,n idee dat iedereen niet over de laatste generatie r9 200/300 spreekt maar over de series daarvoor wat totaal niet relevant is voor nu.
CF word steeds beter, in Grid 2 haal ik met 2x r9 295x2 ( quad gpu ) een scaling van 95% zonder microstuttering of andere ongein.
Kijk anders even een paar recente reviews, daarin zie je dat het gros van de games crossfire niet zonder haken en ogen zomaar ondersteund en dat er uberhaupt niet veel games uit komen die gewoon cf ondersteuning. #justcause3 #fallout4 etc
#games die niet af zijn en ik niet speel :Y)

Ik snap wat je bedoeld, ik zou CF/SLI niet aanraden aan mensen die zorgeloos willen gamen.

Maarja als je wilt gamen op 7680x1440 moet je toch iets.

Daarbij games die ik speel op het moment ondersteunen prima CF.
Battlefield 3
Battlefield bad company 2
Space engeneers
Project reality
The mean grean
Grid 2

World of warships dan weer niet maar die ondersteund ook geen 7680x1440 resolutie, wel gek genoeg 2560x4320 :P
Jouw energierekening is dan niet echt bepaald laag te noemen. En ik denk toch ook wel dat je kast onderhand in de fik zal staan.
Mijn energierekening is idd niet laag maar dat boeit mij niet ;)

Als je kast in de fik staat is er toch iets behoorlijk goed mis denk ik :o
Het enigste is dat mijn kamer tussen de 26-32 graden schommelt kwa temperatuur als ik geen raam open zet, maar dat is het dan wel zo,n beetje.
Überhaupt is die resolutie niet goed gangbaar zonder veel moeite te doen (4 GPU's! Zoals jij hebt). Volgend jaar zal dit beter worden :). De HBM 2 GPU's van Nvidia :9~.
Ik hoop het idd, binnen kort eens mijn kaarten te koop zetten in V&A van tweakers dan maar ;)
Ik vind de Hawaii chip in de R9 290X geweldig. Nvidia kwam daar na met nog wat mooiers maar voor zijn tijd Was het een erg goede chip die goed presteerde.

De nieuwe crossfire engine die communiceert over de pci-e bus is ook een hele verbetering.

Ik gebruik zelf nog steeds een refferenced R9 290X. Hij draait hier op 890-1250 door de lagere clocks zakt de v-gpu van zelf. Daarnaast geef ik hem via afterburner ook nog -50mv (niet alle 290 / 290x kaarten kunnen zo laag in 2d stand -24mv is veiliger)

Op dit manier Is hij aanzienlijk stiller en vind ik het erg goed te doen. Ik wil de warme lucht uit de kast hebben (het Is maar een kleine kast dual en tripple fans werden naar langer gebruik te warm de warmte kan niet weg)

Ik ben erg benieuwd naar de nieuwe generatie gpu's van AMD met hbm2 en hopelijk een grote revamp van de GCN architectuur in de vorm van GCN 2.0.
2x 1 kaart in mijn waterloop. Gewoon omdat het er geweldig uitziet.

Maar ik geef dan ook veel om looks.
Amd belooft het je.
Ik ben er klaar mee. Concurrentie is leuk maar ik kies gewoon het beste.
Dat zijn Intel en Nvidia en dat alle vele jaren consequent.
Mocht AMD op mirakelse wijze een konijn uit de hoed trekken dan zien we wel weer.
principes > kleine performance verschillen.

intel is meermaals veroordeeld voor monopoly misbruik en nvidia is moedwillig de PC game market aan het verzieken (game works) voor korte termijn winsten. geen van beide komt hier de deur in tot de markt er radicaal anders uit ziet.

daarbij is 'vele jaren' bij nvidia vs AMD HEEL overdreven. pas vanaf de 7xx serie was nvidia sneller en zuiniger, en dan alleen omdat ze hun GPGPU prestaties compleet hebben weggesneden en verruimt voor game prestaties.

daarvoor was AMD sneller, zuiniger en goedkoper vanaf de hd4xxx serie tot aan met de hd7xxx serie. met de later uitgekomen 6xx serie wist nvidia AMD pas te evenaren.

met fury heeft AMD ook de GPGPU prestaties gesneden (tot 2 keer nvidia's performance, ipv 4 tot 8 keer) en gelijk is het verschil in verbruik maar 30 watt in games. nvidia is dus alles behalve magische beter. AMD kan dus precies het zelfde doen als nvidia (heeft dat al gedaan). en bij de volgende generatie op 14/16nm gaat AMD echt het verschil niet meer zo groot laten worden als bij de 290x.

tot de 14nm producten van AMD werken mijn phenom 2 en hd7970 nog prima.
Hou toch op man met het gezeur over gameworks. Je kan het uitzetten hoor. Waarom zou nvidia geen extras mogen toevoegen die bij de mogelijkheden van hun kaarten passen. Dat is nog niet meteen de markt verzieken. Daarnaast was amd alleen zuiniger tot de 6xxx serie. De 7970 gebruikte al meer dan de 68o terwijl ze gelijk presteren en gelijk geprijst waren. Er is echt wel een reden voor dat nvidia beter gaat, eigenlijk een hoop kleinere redenen. Als eigenaar van kaarten van beide merken verkies ik qua algemene gebruikerservaring toch wel nvidia. De fury x is een enorme tegenvaller en de 390x is alleen echt leuk als je er 2 van hebt om 4k in crossfire te draaien of puur bang for the buck terwijl je mindere drivers en hoger verbruik accepteerd.

[Reactie gewijzigd door Rin op 24 december 2015 11:06]

ik hou op met zeuren als nvidia niet langer bewust AMD en hun eigen oudere kaarten saboteert met het BEWUST ONNODIG gebruik maken van BELACHELIJKE hoeveelheden tessellation die NIKS toevoegen aan de grafische kwaliteit.

met 16x was er NIKS aan de hand geweest en had NIEMAND het verschil gezien maar nvidia kiest er bewust voor om hun eigen klanten te naaien en die van AMD.

iets toevoegen zou nog iets zien. bewuste sabotage is iets anders.

en dan heb je hairworks. dat is niks toevoegen, dat is iets kopiëren, en vervolgens als propriatory technologie op de market zetten die alleen goed werkt op hun kaarten terwijl tressFX gewoon beschikbaar is en op kaarten van beide merken prima werkt. markt verzieken is wel het minste dat je dat kan noemen.

en ja alles van gimpworks KAN wel uit maar dat doen reviewers niet. en dan heeft nvidia zijn doel al bereikt want hun nieuwe kaarten LIJKEN daar door veel beter als dat ze zijn in vergelijking met AMD en hun eigen oude kaarten.
De 7970 gebruikte al meer dan de 68o terwijl ze gelijk presteren en gelijk geprijst waren
De 7970's was er al en de 680 was IETJES zuiniger, maar dus pas later op de markt.

[Reactie gewijzigd door Countess op 24 december 2015 11:34]

Wat een onzin, reciewers gingen juist zonder gameworks benchmarken en gameworks is meer dan alleen wat tessellation. Niks sabotage, amd had ook tressfx etc. Sterker nog de sourcecode van een zooi nvidia api's staan gewoon op github. AMD moet gewoon eens meer moeite in optimalisaties gaan steken. Nvidia saboteerd hun oudere kaarten helemaal niet. 3 jaar lang plezier gehad van een 670 en zelfs tot deze zomer presteerde deze goed. Ik neem aan dat je refereerde naar het moment dat een 960ti sneller was dan een 780ti in project cars. Dat heeft er meer mee te maken dat de maxwell texture compressie zich uitermate goed leent voor die game.
Zelfs hier op Tweakers hadden ze met Witcher 3 Gameworks express aangelaten voor een "eerlijke vergelijking". Countess heeft echt een punt hiermee.
Zelfs op tweakers? Ik noem tweakers nou feen tionbeeld qua reviews. Bij de neesten staan het gewoon uit. Daarnaast viel het enorm mee de nadelen. Amd had tijdens launch gewoon weer geen game ready driver beschikbaar en daar kan je alleen op zeuren bij amd. Tressfx draaide ook beter op amd kaarten, hoor je mensen zeiken? Nope, maarja nvidia is dan ook niet de underdog.

Daarnaast is gameworks wel meer dan alleen veel tedselation, zaken als interactieve rook en water voegen grafisch veel toe terwijl de library klaar voor gebruik is.
Bij de neesten staan het gewoon uit.
bull. shit.

het is echt zoeken naar reviews waar ze zelfs maar getest hebben met en zonder. laat staan alleen maar zonder.
Daarnaast viel het enorm mee de nadelen.
uhmm zonder hairworks zat AMD met een 290x gewoon op de nagenoeg de zelfde performance als een GTX980 op launch day!

jouw herrennering van de feiten laat veel te wensen over.
Amd had tijdens launch gewoon weer geen game ready driver beschikbaar en daar kan je alleen op zeuren bij amd.
zie hierboven. 290x en 980 waren zonder hairworks gewoon nagenoeg gelijk (3pfs verschil)

Het feit dat jij toch denk dat AMD zijn zaakjes niet op orden had op launch day BEWIJST GEWOON MIJN PUNT. dat is PRECIES wat ik al de hele tijd duidelijk wil maken!!

daarbij MAG AMD vaak niet betrokken zijn bij gameworks games in een vroeg stadium, en had AMD gewoon haar drivers klaar voor de witcher tot nvidia op het laatste moment ineens hairworks toevoegden en al AMD's werk in een keer in de prullenbak kon met die feature aan.
Daarnaast is gameworks wel meer dan alleen veel tedselation, zaken als interactieve rook en water voegen grafisch veel toe terwijl de library klaar voor gebruik is.
AMD heeft die effecten gewoon beschikbaar op hun website, gratis te gebruiken. zonder contract zonder verplichte andere propitiatory rommel.

[Reactie gewijzigd door Countess op 27 december 2015 13:11]

Je praat uit onderbuik gevoelens en heb deze discussie al ooit met je gevoerd. AMD heeft vaak gewoon geen srivers beschikbaar en ze zijn gigantisch langzaam met bugs crushen. Daarom hebben ze bij game launches hun zaakjes niet op orde. Wel erg toevallog dat bij gaming evolved titels Nvidia alsnog de drivers op orde hebben terwijl ze niet eens direct betrokken zijn bij de ontwikkeling. Net zoals in het bekende gameworks artikel te lezen in door devs dat nvidia gewoon heel erg driver minded is en er heel veel resources in steekt en ze gameworks ook niet als sabotage zien naar AMD maar op zijn hoogst ongelukkig.

Oftewel dat denken dat AMD zijn zaakjes niet op orde heeft is geen denken maar een algemeen conceptie in de gehele industrie. Dat weerlegt juist jou punt.
Wat een onzin, reciewers gingen juist zonder gameworks
op launch day? dus echt niet. LATER zijn een paar van de technische competente reviewers dat gaan doen ja. maar toen was de schade an gedaan en had nvidia hun zin.
amd had ook tressfx
wat een open standaard is, die nu over goed werkt op AMD als op nvidia hardware.

en idd er is tressFX. hairworks is dus niet nodig. maar nvidia maakt het toch, en wel op zo'n manier dat het alleen goed werkt op hun nieuweste generatie kaarten, zonder dat die aanpak het visueel beter maakt. ze hadden prima met tressFX uit de voeten gekunt OF hairworks zo gemaakt dat die niet default op 64x tessellation werkt. maar op 16x.

dan was er niks aan de hand geweest. er was visueel geen verschil te zien, en het zou net zo goed werken op AMD als op nvidia's kaarten, zowel oud als nieuw.

maar nvidia koos toch voor 64x.

mag jij mij uitleggen hoe dat geen bewuste sabotage is van AMD klanten en hun eigen klanten.
Ik neem aan dat je refereerde naar het moment dat een 960ti sneller was dan een 780ti in project cars.
nee. ik refereer aan elke nieuw te introduceren gameworks features. elke keer is het het zelfde verhaal.

[Reactie gewijzigd door Countess op 27 december 2015 13:09]

Tressfx oogt in beweging niet half zo goed als hairworks en dat komt juist door het hogere tesselatie niveau, in tesselation is AMD juist minder sterk. Tja dat jij het dan anders intepreteerd. Hairworks is overigens alleen wen onderdeel van een groter geheel zoals realistische kleding beweging waar het tesselatie op x64 laten draaien in beweging zeer veel verschil maakt en gewoon geen enkele vorm toont van groffe polygonen. Tuurlijk maakt nvidia gebruik van de functies waar hun kaarten in uitblinken, waarom zouden zijn anders de kaarten ervoor optimaliseren. Dan zou AMD maar eens beter zijn best moeten doen dan alleen met kaarten komen die gigantisch veel raw power hebben maar het eigenlijk niet kunnen gebruiken.

64x hairworks in the witcher draait overigens uitstekend op higher end nvidia kaarten en oogt fantastisch. Helemaal in beweging zie je het verschil bij de grotere harigere monsters in de game. Geen screenshot die er geen eer aan doet en dat staat los van AMD . 64x vs 16x is wel degelijk een verschil in beweging en met name van dichterbij bij closeups. Systemen moeten gepushed worden om niets achter te blijven en het probleem van AMD is dat ze al jarenlang dezelfde architectuur alleen maar sneller gemaakt hebben en dat laat hiermee dus zijn achilleshiel zien. Geen efficient gebruik van bandwidth etc door slimme algoritmes waardoor zelfs maar 256bit voldoende is bij nvidia en daarme 512bit al matched bij AMD bewijst dit keer op keer. Tuurlijk wil ik AMD sterker zien wat competitie komt de prijzen alleen maar ten goede maar eerlijk is eerlijk, nu is het gewoon niet goed en dat komt mede door de drivers. Dan heb ik het nog niet eens gehad over laptop gpu's wat al helemaal een drama is.
Dus eerst gaat men een bril kopen dan een systeem?
Lijkt mij toch handig dat ik een maand van te voren mijn systeem samenstel en test.
Dan komen ook al de nieuwe generatie GPUs.. dus tja

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True