Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 93 reacties
Submitter: Jurgen1994

Nvidia heeft na enige tijd uitstel zijn duurste GeForce-kaart tot nu toe beschikbaar gemaakt en ook de laatste details over de specificaties zijn nu bekend. De kaart van 3000 dollar beschikt over twee GK110-gpu's met alle cores ingeschakeld.

Nvidia kondigde de Titan Z in maart aan, maar daarna bleef het stil rond de monsterkaart, wat tot geruchten leidde dat Nvidia tot uitstel had besloten om de prestaties te kunnen opkrikken, in een poging de concurrentiepositie te verbeteren. Twee Titan Black-kaarten in SLI of een enkele Radeon R9 295 X2-kaart zouden namelijk betere prestaties bieden, tegen een aanzienlijk lagere prijs.

Woensdag is de Titan Z dan toch verschenen en onder andere MSI, Zotac, EVGA, Palit, Gainward en Gigabyte kondigen hun versies van de kaart aan. De Titan Z is opgetrokken rond twee GK110 Kepler-gpu's met alle features ingeschakeld voor een totaal van 5760 cores, 480 texture mapping units en 96 raster operating units. Via de 384 bits brede bus wordt gecommuniceerd met 12GB gddr5-geheugen.

De kloksnelheid bedraagt 705MHz met boost clock tot 876MHz. Het geheugen loopt op 7GHz. De kaart neemt drie slots in bezit en betrekt energie via twee 8pins aansluitingen. De tdp ligt op 375W, wat aanzienlijk meer is dan dat van de Titan Black, maar de prestatie-per-Watt-verhouding van de Titan Z is wel stukken beter, ook ten opzichte van de Radeon R9 295 X2, die een tdp van 500W heeft.

MSI GeForce GTX Titan ZMSI GeForce GTX Titan ZMSI GeForce GTX Titan ZMSI GeForce GTX Titan ZMSI GeForce GTX Titan ZMSI GeForce GTX Titan ZMSI GeForce GTX Titan ZMSI GeForce GTX Titan Z

  GTX Titan Z GTX Titan Black GTX 780 Ti AMD Radeon
R9 295 X2
Streamprocessors 2 x 2880 2880 2880 2 x 2816
Texture Units 2 x 240 240 240 2x 176
Rop's 2 x 48 48 48 2x 64
Core kloksn. 706MHz 889MHz 875MHz 1018MHz
Boost Clock 876MHz 980MHz 928MHz -
Geheugen 7GHz GDDR5 7GHz GDDR5 7GHz GDDR5 5GHz GDDR5
Geheugeninterface 2 x 384bit 384bit 384bit 2 x 512bit
Geheugenhoeveelh. 2 x 6GB 6GB 3GB 2x 4GB
Tdp 375W 250W 250W 500W
Adviesprijs in dollars $2999 $999 $699 $1499
Moderatie-faq Wijzig weergave

Reacties (93)

Hoe is dit beter dan tweemaal een Titan Black en dat voor $ 1000,- meer.. :|
Inderdaad als renderkaart wat fantafriday zegt en dan wel meer afzonderlijke cores beschikbaar voor het renderwerk als je beperkt X16 sloten op het moederbord hebt zitten. Zo denk ik dat 2 van dit soort kaarten in een systeem meer dan 2x de performance heeft van een instap-Tesla-kaart, waarbij alles bij elkaar even veel kost. In die zin nog best een interessant alternatief dus.

Zo heeft een instap Tesla K10 kaart tweemaal een Kepler GK104 chip, wat met veel geluk overeenkomt met een GTX690. De duurdere Tesla's (K20 en K40 bijvoorbeeld) hebben dan wel een GK110 chip, maar geven lagere SP/DP prestatie dan bijvoorbeeld deze Titan Z. Een highend Quadro K6000 heeft dan wel een GK110 chip, maar blijft ook in prestatie achter.

Zo kan je dat simpel naast elkaar zetten natuurlijk (kaart type, chip, prijs, SP perf, DP perf, DP per Watt, euro per DP):
- Tesla K10, 2xGK104, gem. 5000 euro, 5340GFlops, 190GFlops, 0,76GF/watt, ¤26,3/GF-DP
- Tesla K20X, GK110, gem. 5200 euro, 4591GFlops, 1312GFlops, 5,58GF/watt, ¤3,96/GF-DP
- Tesla K40, GK110, gem. 5300 euro, 5364GFlops, 1430GFlops, 6,09GF/watt, ¤3,71/GF-DP
- Quadro K6000, GK110, gem. 4500 euro, 5196GFlops, 1732GFlops, 7,70GF/watt, ¤2,60/GF-DP
- GTX Titan, GK110, gem. 900 euro, 4500GFlops, 1500GFlops, 6,00GF/watt, ¤0,60/GF-DP
- GTX Titan Black, GK110, gem. 920 euro, 5121GFlops, 1707GFlops, 6,83GF/watt, ¤0,54/GF-DP
- GTX Titan Z, 2xGK110, gem. 2900 euro*, 8122GFlops, 2707GFlops, 7,22GF/watt, ¤1,07/GF-DP

Het verschil tussen de Titan kaarten om bijv. wel te kiezen voor de Titan Z kan je dan nog als volgt stellen: het TDP van een Titan Black is 250W, die van een Titan Z 375W. Kortom, een duurdere Titan Z levert ons meer GFlops per W en zal dus ook over de hele gebruiksperiode goedkoper zijn aan stroomverbruik. Bijkomend voordeel is dan nog dat je sloten overhoudt t.o.v. maar gewoon alles vol te zetten met meer Titan Blacks. :)

Zo valt al snel te zien dat qua ruwe double precision renderpower de "consumenten" Titan kaarten hun prijs compleet vertegenwoordigen en stukken goedkoper zijn dan de professionele kaarten. Waarom dan soms toch gaan voor de prof. kaarten? Door support van de fabrikant, om ECC VRAM, om speciale drivers, om het lagere TDP, waarbij het laatste natuurlijk wel kan lonen als je 24/7 deze kaarten aan het werk zet.

Voor simpel wat gaming zitten er waarschijnlijk minder voordelen aan, maar dat was met de Titan ook al toen we nog alleen de GTX600 serie konden kopen. Enkel voor gaming zou je kunnen stellen dat de Titan kaarten leuk is voor mensen die gewoon graag de dikste hardware kopen, zonder te kijken naar performance/euro. Een GTX780 die rond de 430 kost levert daarentegen weinig in op single precision (slechts 500GFlops t.o.v. een normale Titan) en is daarmee dus naar verhouding stukken aantrekkelijker zou je zeggen. Dat is dan ook de magere (maximale) 10% performance verschil die je weleens zag in diverse gamebenchmarks op reviewsites.

* prijs verwacht in euro's

Bronnen:
- GTX700/Titan serie: klik
- Quadro K serie: klik
- Tesla K10/K20/K40 serie: klik

[Reactie gewijzigd door marcel87 op 28 mei 2014 19:52]

So much information cant process it all!

On-topic
Mooi rijtje informate
Haha bedankt, vind het zelf ook informatief om eens de vergelijking te maken. Het is wel even wat uitzoekwerk. En ik bedenk me net dat ik AMD helemaal niet heb meegenomen in de vergelijking, dat zal ik zo hieronder nog even doen dan! :)

Voor AMD hetzelfde (kaart type, chip, prijs, SP perf, DP perf, DP per Watt, euro per DP):
- R9 290, Hawaii Pro, gem. 360 euro, 4848GFlops, 606GFlops, 2,20GF/watt, ¤0,59/GF-DP
- R9 290X, Hawaii XT, gem. 400 euro, 5632GFlops, 704GFlops, 2,43GF/watt, ¤0,57/GF-DP
- R9 295X2, Vesuvius, gem. 1300 euro, 11466GFlops, 1433GFlops, 2,87GF/watt, ¤0,91/GF-DP
- W9000, Tahiti XT, gem. 2900 euro, 3993GFlops, 998GFlops, 3,64GF/watt, ¤2,91/GF-DP
- W9100, Hawaii XT, gem. 3500 euro*, 5238GFlops, 2619GFlops, 9,52GF/watt, ¤1,34/GF-DP

Nu zien we ook fijn een vergelijking met AMD, zowel de (ultra) highend consumentenlijn als de kaarten uit het professionele segment. De W9100 overschaduwt dan wel NVIDIA's K6000 in ruwe GFlops waarden, maar kost meer per effectieve GFlop en heeft een 50W hogere TDP.
We zien ook prachtig dat de R9 295X2 niet echt mee komt met de Titan serie, waaronder de nieuwe Titan Z. Ja, hij is een stuk goedkoper, maar het TDP is 125W meer en staat wat betreft double precision een eind onder NVIDIA's tegenhanger(s).

Voor wat betreft gaming is die R9 295X2 natuurlijk een beest van een kaart. Sodeju!!! Ruim 11000 GFlops SP en is daarmee goedkoper dan bijv. tweemaal een Titan of Titan Black in je gamingcomputer. Ook de Titan Z blijft buiten schot, die zou dan simpelweg te duur zijn voor wat betreft toegevoegde waarde op gamingprestaties. Zelfs met de 500W TDP zou de R9 295X2 qua performance per Watt de 2-way SLI Titan setups evenaren qua efficiëntie, dat is dan wel opmerkelijk. Bijvoorbeeld 500W vs 2x 250W met Titan Black in SLI.

De keuze professioneel vs consumentenkaart is hetzelfde als gesteld bij mijn eerdere bericht. De keuze AMD vs NVIDIA kan natuurlijk nog liggen aan de specifieke toepassing, soms is dan nog AMD een betere keus, een andere keer is dat NVIDIA. Zowel in profi toepassingen als in gaming natuurlijk.


* verwachte prijs, nog geen exacte prijsinformatie beschikbaar

Bronnen:
- Radeon R9 serie: klik
- Firepro W serie: klik

[Reactie gewijzigd door marcel87 op 28 mei 2014 20:25]

goeie info :)

Maar ik moet zeggen, zo interessant is dat beetje extra performance per watt ook weer niet.. Dat van minder ruimte is nog wel interessant hier en daar.

Voor renderwerk heb je op zich geen FP64 nodig. Een 780 met 6GB is ook best een aardige vervanger voor een titan, gezien de prijs.
Reken wel dat het bij een Quadro om nauwkeurigheid gaat, iedere framepje moet perfect zijn, iedere berekening moet kloppen. Bij een spelletje maakt het niet uit als er een keer een mislukt beeldje tussen zit of een artefact hier of daar. Daar kijk je overheen. Zet je je kaart in voor uitvoeren van berekeningen. Iets dat je met een quadro kan doen via programma's als matlab e.d dan wil je dit niet omdat je model dan onjuiste resultaten geeft.
Vaak is ook te zien dat Quadro kaarten meer geheugen hebben dan de GeForce tegenhanger. Dit is puur voor het opslaan van berekeningen.

Bij de Quadro kaarten zorgt Nvidia er ook voor dat je support krijgt voor de verschillende CAD en rekenprogramma's. En kan je zelf voor bepaalde pakketen geoptimaliseerde drivers downloaden.

http://stackoverflow.com/...-quadro-and-geforce-cards

http://www.nvidia.com/Download/index.aspx?lang=en-us
Stel je voor ik gebruik Blender met een enorme hoeveelheid aan vertices/objecten voor complexe scenes. Dan hoort een Quadro kaart toch een betere keuze te zijn aangezien deze voor een snellere/soepelere 3d Viewport zorgt met zo min mogelijk lag.
Dat kan natuurlijk. Daarom heb ik ook gesteld dat soms Quadro een betere keus is, gezien de specifieke voordelen die dit soort kaarten dan weer hebben. Vergelijkbaar overigens met wat Brilsmurfffje zegt.

Verder als je kijkt naar deze benchmark, dan blijkt maar weer snel dat de standaard Titan van 800 euro (atm) het nog niet zo slecht doet. Ik weet niet hoe complex die render van zo'n auto is en of dit overeenkomt met wat jij bedoeld, maar hoe dan ook het geeft wel wat aan.

Het ligt er ook maar aan wat een programma gebruikt: OpenCL, OpenGL of CUDA en dan nog dus specifiek single of double precision. De ene keer is de Titan top, de andere keer kan je beter een andere nemen. Mijn posts hierboven zeggen daar niets specifieks over.
Zo lijkt mij het dan ook logisch dat iedereen die zulk specifiek spul nodig heeft, dit ook grondig uitzoekt voor de daadwerkelijke aanschaf i.p.v. uit te gaan van de theoretische max. GFlops performance.
Deze max. performance heb ik hierboven gebruikt om de kaarten op algemeen (prestatie)niveau met elkaar te kunnen vergelijken, dit wil dus niet perse iets zeggen over de performance in een specifiek programma. Daarvoor zijn er wel talloze reviews te vinden op internet.

En daarbij blijft nog steeds het feit staan dat je achter je oren mag krabben of een soepelere 3D VP ervaring 2000 euro extra waard is. Het ligt er maar aan of tijd=geld is (professioneel) of dat het hobbymatig is. Daarom hoeft een snellere Quadro nog steeds niet de beste keus te zijn om maar eens wat te noemen.
Hetzelfde gaat altijd op bij i5 vs i7, LGA1150 vs LGA2011, Intel vs AMD, AMD vs NVIDIA, i7 vs Xeon, Enthusiast vs Xtreme. Hobbymatig maakt die vlekkeloze rendering van 3sec sneller minder of niets uit. Een prof die er 40 uur per week aan werkt of een pc in een renderfarm van 24/7, zal het eerder wat uitmaken.

[Reactie gewijzigd door marcel87 op 29 mei 2014 18:30]

Ze zeggen zelf ook dat het meer een render kaart is dan een gaming kaart zoals de titan black ;)
Waarom heet het dan een GTX en geen Quadro?
Omdat ze dringend een nieuwe kaart nodig hadden in de GTX reeks. Remember, de Titan core is nog altijd een downscaled Tesla core!
Een voordeel is dat je niet vast zit aan SLI met deze kaart. Wordt als 1 GPU gezien, dus ook spellen met gebrekkige SLI-ondersteuning werken hier probleemloos op. Maar of dat de meerprijs waard is... :P
375W TDP, misschien ietsje opgehoogd na de 295x2? om nog een beetje in de buurt te komen?

Goed, de 295x2 doet 500W, die zal sowieso iets beter presteren.
AMD verstookt standaard meer energie dat zegt nog niet dat ze ook beter presteren. AMD heeft gewoon twee chips op een printplaat geplakt ik denk dat nVidia iets meer heeft gedaan zodat ze het energieverbruik lager hebben kunnen krijgen.
Ik vind dit een niet geheel correcte opmerking.
Elke keer dat ik op deze site nieuwsberichten lees over grafische kaarten word er weer gezegd
dat AMD meer stroom verbruikt dan Nvidia. Dit is volgens meerdere reviews incorrect. Als bron wil ik dit gebruiken:

Een vergelijking tussen de AMD R9 290 & R9 290X en de Nvidia 780 (non Ti):http://nl.hardware.info/r...n-sapphire-stroomverbruik

Een vergelijkingstabel waarbij de (geteste) Asus versies van de R9 290 (non en wel x) en de 780 (non en wel ti) worden vergeleken. Ook de Titan (non en wel black) zitten hier bij (de titan Black is niet getest)
http://nl.hardware.info/v...6862-204393-177972-204854

Je zult zien dat de verschillen niet heel erg groot zijn:
De 290X minder gebruikt dan de op de zelfde wijze geteste 780ti (beide zijn OC versie)
De 290 gebruikt minder dan de 780 (wel moet ik hierbij waarschuwen de 780 is met de oude testmethode getest en die gebruikt een ander moederbord-bios en verbruikt daardoor ook meer)
Nu kun je gaan zeggen dat de 780 ti véél sterker is dan de 290x (maar dat scheelt niet echt heel erg veel) het zelfde geld voor de 780 naar 290 (eigenlijk zijn de prestaties van alle vier de kaarten wel erg vergelijkbaar en vind ik de 780ti en de 290x onzinnig duur naar prestatieverschil, maar dat hoor in het high-end segment).

Nvidia promoot zich wel heel erg door te zeggen wij zijn veel zuiniger, dat zie je ook als je de officiële (door de fabrikanten opgegeven) waardes bekijkt, maar tests wijzen uit dat het verschil in praktijk veel kleiner is.

Wat mij wel heel erg opvalt is dat AMD met het "zelfde" verbruik en nagenoeg de zelfde koeloplossing wel veel meer herrie maakt (en erg warm is). Ik vraag mij sterk af hoe dat komt, is er iemand die een idee heeft?

Ik denk dat AMD dit (gedeeltelijk) slechte imago te danken heeft aan de processors die ze produceren, die idd veel minden efficiënt zijn dan die van Intel.

Om weer op het echte onderwerp uit te komen, de Titan Z:
Ik denk dat hij onder load heel veel meer gaat gebruiken dan die opgegeven 375 W. Nou geldt voor alle gpu's en cpu's ze hebben vaak een (veel) hoger piekvermogen dan het TDP dat ze opgegeven krijgen. Maar ik denk dat als je een systeem bouwt met deze 1X gpu, en andere snelle hardware je toch heel gauw piekvermogens gaat meten van bijna 700 W.
Maar er is in de (semi) professionele markt blijkbaar wel vraag naar dit soort kaarten het zou mij niet heel erg verrassen dat deze kaart nog best aardig verkoopt. (lees zijn R&D + productie kosten ruim terugverdient).

Totaal off toppic:
Ik hoop niet dat ik nu als AMD fanboy gemerkt word, dat ben ik totaal niet. Mij zul je nooit horen zeggen dat een AMD kaart beter is dan die van Nvidia. Ik zou eerder zeggen dat de AMD kaarten geschikt zijn voor mensen die wat meer op hun portemonnee letten en geïnteresseerd zijn in Mantle, True audio (wat ik nog een gimmick vind) en hopen op een goed werkende adaptive sinc. en dat Nvidia kaarten meer geschikt zijn voor mensen die het aller beste willen, minder "herrie" g-sinc en wat minder naar de kosten kijken.
(als ik heel eerlijk ben zou ik zelf voor een AMD 290 gaan, maar dat komt omdat ik het geld niet zou hebben om nog duurdere kaarten te kopen.)

On toppic:
conclusie is dat ik mij erger aan deze opmerkingen omdat het niet geheel correct is en denk ik dat deze (mooie) kaart uiteindelijk veel meer stroom verbruikt dan er werkelijk is opgegeven.


"Disclaimer":
Ik weet er zijn veel site's die een ander beeld laten zien (ook bv. die review van anandtech.com die haarbal aanhaalt, maar veel verschillen zijn te verklaren met: (1) gebruikte game waar het verbruik op gemeten is crysis 3 draait beter op Nvidia en Metro LL draait goed op AMD (2) de drivers van de kaarten en (3) de gebruikte hardware. Maar ik ga er in goed vertrouwen van uit dat alle site's onafhankelijke en betrouwbare resultaten leveren. (zelf vind ik Hardware.info erg degelijk en zelfkritisch schrijven)
Dat is een totaal incomplete site die ook nog kaarten overklokt. Appels worden met peren vergeleken en spelletjes op bepaalde resolutie worden vergeleken met andere resolutie.

Bij de R9 staat niet eens of hij overklokt is en zo ja naar welke frequentie.

Geen touw aan vast te knopen. Op grond daarvan claimen dat stroomverbruik wel meevalt is echt onzin.
Ik ben het niet met je eens:

1. als je de tijd neemt om de testmethodes van HWI zie je dat alle kaarten op het ZELFDE systeem worden getest. Ze doen hun best om alles met het zelfde besturingssysteem en de zelfde drivers te testen. (de drivers van de grafische kaart zijn wel altijd de nieuwste en dan soms ook ongelijk). De resultaten die HWI levert in hun tabellen zijn zonder dat zij het zelf hebben overgeklokt. Ze testen ze zoals ze uit de fabriek komen.

2. Als je de tweede link klikt kun je zien dat de kaarten die ik daar vergelijk de kaarten zijn uit de DirectCU II OC reeks van asus. Ik heb bewust voor de OC kaarten gekozen, veel gamers gebruiken die uit de fabriek al overgeklokte kaarten. Maar let op met nadruk uit de fabriek. Ze zijn dus juist vergelijkbaar.

Maar goed het kan zijn dat ik toevallig de foute sites gebruik als ik "onderzoek" doe naar de eigenschappen van tech.
Wel wil ik opmerken dat als je zo'n kaart koop je de stroomkosten (minder) zullen uitmaken. Een eigenaar van een heel grote auto met een grote motor gaat echt niet klagen dat dat ding geen 1:20 rijd.
En dat mensen die zeggen dat de 2 achtpins connectoren betekend dat de kaart dan ook nooit meer dan die opgegeven 375 W gebruikt. Kijk dan naar de r9 295X2, een voorbeeld van een kaart die véél meer stroom verbruikt dan die 357 W.
toch lijkt het me stug dat ze dezelfde prestaties halen met een kwart minder verbruik, maar goed, misschien kunnen ze wel heel goed cherrypicken :)

edit: hoewel, 780Ti in sli is blijkbaar 110W zuiniger.
http://www.anandtech.com/...radeon-r9-295x2-review/17

[Reactie gewijzigd door haarbal op 28 mei 2014 18:45]

Nvidia's chips zijn gewoon zuiniger. Verder zijn het gewoon twee chips op een kaart, net als bij AMD. Maar AMD heeft er een watercooler op gezet en de chips over hun normale snelheid geklokt, Nvidia heeft gekozen voor luchtkoeling en heeft zo te zien de chips lager geklokt om niet in de problemen te komen met de koeling.
Yes! Nou kan ik hem eigenlijk gaan kopen!
Oh wacht, nee, ik heb verstand in mijn harses...
Knap staaltje engineering, maar ik zou toch wel eens de verkoopcijfers van dit ding willen zien na een jaar.

[Reactie gewijzigd door TweakingRens op 28 mei 2014 17:54]

Ik vind het toch een prachtkaart hoor. (bang/buck is waardeloos)
Als ik een Custom WC had i.c.m. ongelimiteerd budget had ik veel liever deze Titan Z dan een 295x door de superieure performance per watt en het vermoedelijk belachelijk grote OC-potentieel. (125 watt erbij baseclock naar >900, turbo naar >1ghz en gaan)
Daarnaast ga ik er stiekem van uit dat de GPU's cherrypicked/golden-samples zijn om met minimale power maximale klok te waarborgen.

[Reactie gewijzigd door eL_Jay op 28 mei 2014 18:04]

Pff hij is best goedkoop als je het maar met juiste vergelijkt.
Hij schijnt ook heel goedkoop te zijn wanneer je.de rekenkracht zakelijk op de juiste manier inzet. Voor de meeste consumenten is.hij uiteraard te duur of zelfs overbodig.
Dat is ook waar ik op doelde. Als je zelf gebaat bent bij die extra futures. Dan is dit toch bijna een koopje, zeker als je ook nog graag een spelletje speelt.
Weet ik maar je werd weggemod vandaar mijn reactie ;)
Hij schijnt ook heel goedkoop te zijn wanneer je.de rekenkracht zakelijk op de juiste manier inzet. Voor de meeste consumenten is.hij uiteraard te duur of zelfs overbodig.
Nog steeds duurder dan twee lossen 780i die op hun beurt weer meer werk kunnen verzetten dan deze dual gpu. Pas als je meerder kaarten nodig, bijvoorbeeld tussen de 4 en 8 GPU's, onder de 4 ben je beter af met losse en boven de 8 kan je denk ik beter gaan kijken naar speciale nodes. GPGPU(HPC) clusters worden al tijdje gebruikt, nvidia heeft kant en klare nodes waar je 48 gpu's in kwijt kan.

Edit/
Je kan meer dan twee keer zoveel rekenkracht kopen als je losse 780i koopt. Je kan dus workstation vullen met 4 x 780i tegenover 1 dual gpu kaart, je houd zelfs nog geld over.

[Reactie gewijzigd door mad_max234 op 28 mei 2014 20:21]

Als je het vergelijkt met de Nvidea Quadro kaarten is dit nog vrij goedkoop.
Maar ondersteund deze ook alle features van een Quadro? Ik heb in het verleden meegemaakt dat een identieke GPU (zelfde serie / cuda cores / geaardige clocks etc) in de Quadro uitvoering bijna 2x zo goed presteerde dan de consumenten versie in specifieke applicaties (3D rendering) omdat er in de bios/driver of hardwired in de chip iets gelocked of uitgeschakeld is (geen idee wat exact, misschien een combinatie). In het verleden was dit geloof ik puur een bios dingetje en kon je de kaarten soms omflashen, maar bij de recente versies lijkt dit niet meer te kunnen met een bios alleen.

Hetzelfde gebeurt ook trouwens bij de AMD FireGL series v.s. de consumenten radeon's.
Lijkt me de ideale kaart in een SLi setup, als de kachel dan 's winters uitvalt kun je je lekker aan de PC opwarmen
Denk dat je dan toch beter 4x 290X kan hebben XD
Ik heb een GTX760 wat de helft zo zwak is en er is geen enkel spel wat ik niet op superduper ultra 1080 kan spelen. Meestal is mijn FX4100 de bottleneck (maar OC'd ook weer geen probs)
Als je genoegen neemt met 30 FPS ja...
BF4, arma 3, thief 3, wolfenstein tno etc allemaal hoogste settings op ~60fps. Af en toe een drop in FPS maar dat is eerder door de CPU die aan het bottlenecken is.
Met GPU-Z zie ik ook nooit een verbruik boven de 80%.
Is wel 'maar' 1080p. Maar voor mij en velen meer dan genoeg.

En met de optimizaties van Nvidia en Microsoft er aan gaan komen.
BF4, arma 3, thief 3, wolfenstein

maximale settings 1080p met 60 FPS ?? met een FX4100 ?? HELL NO !!

zelfs de singleplayer van Battlefield 4 trekt jou kaartje niet eens... (38 fps)

http://www.guru3d.com/art...r_platinum_review,15.html

Wolfenstein

nou ik heb een r9 290 kaartje van AMD, alles max out haal vaak de 60 fps. maar ik zie hem ook vaak onder de 60 zitten en dan wilt een GTX 760 kaartje hem easy maxout draaien op 60 FPS ? nouja zeg...

laat ik maar niet verder op in gaan, je kan me veel wijs maken, maar dit slaat toch echt alles...

[Reactie gewijzigd door Jeroentjeeuh op 29 mei 2014 00:14]

Ik haalde met een evga 760 sc ook 60 frames continu in bf4 op 2x mssa 1080p.
sorry hoor, maar dat is geen maximale settings en ja u heeft vaak drops onder de 60 de GTX 760 is zo geweldig niet
Vaak drops? Alleen levelation af en toe een dropje wat lager. Komt zelfs met levelation en granaten spam niet onder 50fps.

Als jij met je r9 290 met Wolfenstein op ultra FPS drops hebt, heb je ergens een dikke bottleneck zitten.
Vreemd, want doet het gewoon gewoon op Ultra allemaal. Bij BF4 is het met levelation in Siege of Shanghai wel even een drop onder de 60fps. Of als 64man tegelijk granaten gooien in Metro bij de liften.
FX4100 word wel bijna gemaxxed (80-90%) maar kan dat ding OCen. Zit normaal op 3.6ghz en speel alsnog alles op ultra zonder OC. Maar kan inderdaad niet echt iets op de achtergrond laten draaien.
Maar goed ik kan de FX4100 OCen naar 4.5ghz. En voordat ik de CPU overbelast is DX12 al uit en zullen games hopelijk minder moeilijk doen over de CPU.

Met BF4 en Wolfenstein word het CPU verbruik trouwens nauwelijks hoger of lager als je Medium-high-Ultra settings kiest. BF4 op medium vraagt nauwelijks minder CPU dan als ik het op Ultra zet.

Misschien moet jij je physics niet via de CPU laten gaan.

[Reactie gewijzigd door batjes op 29 mei 2014 14:43]

Ik zelf heb een test systeem gehad

fx 8120 met een r9 290 sapphire kaartje van AMD met mantle en zonder

(zonder mantle)
De processor was gewoon een gigantische bottleneck, als ik de map siege of shangai ging joinen, maak niet uit waar ik ging staan haalde ik gewoon 50 fps (dus lag) Ik zelf heb dan MANTLE aan gezet en JA hoor draaiend (zwaar boven de 60 FPS) maar voor korte duur na mate meerdere dingen in het beeld kwam daar ging mijn FPS weer (proccessor kan het niet aan)

ik zelf had dan mijn intel setje weer aangesloten

3930k boost tot 4ghz
r9 290 Sapphire kaart van amd

zonder mantle was het net niet mogelijk om de game voluit te draaien met 1 kaartje ( r9 290 Sapphire) met MANTLE aan was het gewoon met 2 vinger in de neus en kon de game prima spelenen boven de 60 fps en dat op FULL HD 1080p (1920x1080)

echter geeft guru3d zelf al aan dat je met de Singleplayer BF4 maar 38 fps haalt, OK er zou wel nieuwe drivers aanwezig zijn, maar ik geloof nooit dat je opeens 40 fps bij heb gekregen, en dat je de game nu opeens soepel kan draaien.. laat staan Multiplayer die veel zwaarder is omdat der mee gerenderd moet worden(64man,grotere maps,voertuigen,physics,particels)

echter wolfenstein,arma als dat al niet draait op mijn r9 290 kaartje, die uitermate veel sneller is dan u kaartje in combinatie met een 3770k 3.4ghz, vind ik het heel knap dat hij bij u wel max out draait...

als je genoegen neemt met 30 FPS.. SURE dan geloof ik je direct.

DX 12 ok het maakt het voor je processor lichter ,maar ook echter voor je videokaart, omdat de hardware direct wordt aangesproken. Met DX11 / DX11.1 is dat niet het geval, het gaat eerst door de drivers heen en dan pas wordt je hardware aangesproken, echter als DX12 gaat komen, dan maken de developers daar gebruik van, en halen ze der alles uit, ga der maar niet op wachten dat je op eens met een fx4100 processortje met een gtx 760 in 1 keer alle games gaat draaien, Ik zal je dan even snel uit je dromen halen, want dat gaat echter niet gebeuren, omdat der dan meer mogelijk is. De hardware word direct aangesproken en developers gaan daar dan ook gebruik van maken.

[Reactie gewijzigd door Jeroentjeeuh op 29 mei 2014 15:24]

Dat probleem heb ik dus niet. Nogmaals het is alleen levelation of als de helft tegelijk granaten/rpgs af laat gaan in mijn directe omgeving. Dan klapt mijn FX4100 over de 90% heen en dropt de FPS. Maar dit veranderd nauwelijks als ik de graphics op medium zet.
Ik heb hem momenteel niet eens overclocked. Tot nu toe alleen nodig bij zwaardere single threaded games zoals Sins of Solar Empire.
En geen Mantle, standaard zuigende Nvidia drivers (volgende word zeer zeker weer AMD). Nvidia doet wel veel aan game specifieke optimizatie. Misschien dat het daar mee te maken kan hebben.

Ik kan nu bijna alle games op hoogste settings spelen. X rebirth lukte bv niet, zelfs op medium had mijn system al dikke moeite om boven de 30FPS te komen. Het ziet er dan ook nauwelijks beter uit dan freelancer. Planetary Annihilation lukt ook niet en net zo min krijg ik stabiel 60fps met War of the Overworld. Maar dit lijkt mij eerder slechte optimalizatie.
Maar met AAA titels over het algemeen loop ik nog niet tegen het limiet van mijn system aan. (wel dichtbij met 80-90% cpu load).

Het lukt met niet shadowplay erbij te draaien als ik BF4 op ultra heb anders zou ik een filmpje voor je maken.
http://i.imgur.com/6ousNng.jpg
http://i.imgur.com/PfYnk6I.png

[Reactie gewijzigd door batjes op 29 mei 2014 15:33]

Of als je een 1280x720 monitor hebt, met 1200p zul je veel eerder nieuwe kaart nodig hebben dan iemand op 720p.
alles op superduperultra? ik heb met gtx770 regelmatig moeite op 1200p
GTX760 is leuk voor outdated games op 1080p.
Met mijn 1200mhz GTX titan haalde ik in veel games maar 50 fps op 1080p met een hoop AA en ultra

[Reactie gewijzigd door A87 op 29 mei 2014 22:21]

Ik trek toch vrijwel alle spellen op ultra. Zojuist watch dogs geprobeert en dan heb ik met auto rijden wel veel FPS drops op ultra. Zodra fps meer dan heel af en toe onder 60fps dropt pas ik het ook wel aan. FPS > mooie fancy graphics.
2x duurder dan de R9 295X.
Kan me niet voorstellen dat ze er hier veel van gaan verkopen..
Maar goed daar zal hij ook wel niet voor bedoeld zijn.
Het is een render kaart (zeggen ze zelf kon 123 de bron even niet vinden). Die zijn over het algemeen vrij duur vergeleken met gaming kaarten.
Hij wordt anders ook als gamingkaart geadverteerd :Y) :

http://i.imgur.com/nGU079d.png
Dat zal dan wel zijn vanwege dat die kaart alleen normale drivers krijgt, geen ECC VRAM heeft en ook geen speciale support, zoals we dat wel kennen van de professionele kaartenlijn van beide fabrikanten. Dat gaat ook op voor de andere Titan kaarten, de normale Titan als de Titan Black.

Misschien hoopt NVIDIA met deze marketing dat er zo nog wat gamers intuinen zodat ze de verkopen nog iets omhoog kunnen krikken. Maar goed, ieder is baas van zijn eigen geld en zou dan zelf de beslissing moeten maken of die paar procent extra de gigantische meerprijs waard is voor enkel wat gamen. haha :P
Deze kaarten worden veel gebruikt voor real time video rendering (openCL/CUDA) met Red 4K - 5K - 6K camera bestanden. Meestal is 1 kaart dan niet genoeg, maar 2 of 3 de norm. Hoe meer geheugen hoe beter. En vergeleken met quadro kaarten een schijntje.

[Reactie gewijzigd door black9wolf op 28 mei 2014 19:32]

Belachelijke kaart en belachelijke prijs, maar stiekem vind ik het een heel leuk ding :) Ook gewoon heel knap in elkaar gezet. Maar het zal begrijpelijk bijna niet verkopen.
Dat vind ik ook. Prijs/prestatie verhouding is ver te zoeken, maar het is toch inderdaad wel een leuk ding.
Het is gewoon dubbel zo duur dat kan je toch niet maken. Kost dit dan zoveel meer om het te produceren.
Als je dan alle cores inschakeld om aan hoge verwachtingen te voldoen, verlaag dan de core niet zo fors. Voor dit bedrag mag ook een over the top luxe kwaliteits (water)koeler meegeleverd worden naar mijn idee.
Mooie kaart en eindelijk aangepast/af om de concurrent (295x) te kunnen bijbenen, wat ik somber in zie op extreem hoge resoluties. Deze ronde wint denk ik de 295x van AMD maar we zullen zien?
Ik ben benieuwd of het 4k gaming aan kan. Met min van 40 fps
enigste aan deze kaart wat interessant is is het stroomverbruik de rest is allemaal of slechter dan de 295x2 op de 6gb na dan.

De 7 ghz vs de 5 ghz klinkt leuk maar is irrelevant gemaakt door de limiterende 384 bits bus ten opzichte van de 512 bits bus in de amd.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True