Door Jelle Stuip

Redacteur

Nvidia GeForce GTX 980 Ti Review

Titan X junior

01-06-2015 • 00:00

280

Singlepage-opmaak

Conclusie

Dat Nvidia's 980 Ti een snelle videokaart zou zijn, stond eigenlijk al vast voordat we ook maar een benchmark gedraaid hadden. De gpu werd geleend van monstervideokaart Titan X, waarbij er twee sm-units werden uitgeschakeld en het geheugen werd teruggebracht van twaalf naar zes gigabyte. Dat is nog altijd genoeg om in alle door ons geteste games minstens 60fps te halen op full hd en daarmee is de 980 Ti rond de 30 procent sneller dan een gewone GTX 980.

Voor gamen op full hd zullen de meeste mensen echter geen 750 euro in een GTX 980 Ti investeren, want daarvoor is in de meeste gevallen een GTX 980 meer dan genoeg. Bovendien is de 980 Ti dankzij zijn 6GB geheugen juist interessant voor hoge resoluties, zoals 2560x1440 en 3840x2160 pixels. Dat betekent echter niet dat je recente zware games op die resoluties meteen op ultra-instellingen kunt spelen, want dat kan zelfs met een Titan X niet, maar je komt een heel eind.

Al met al is de 980 Ti dus een heel snelle videokaart, met een bijbehorende prijs. Een GTX 980 kost op dit moment namelijk ongeveer 550 euro, terwijl de 980 Ti 750 euro gaat kosten. Dertig procent meer snelheid voor een 36 procent hogere prijs, dus. Maar dan heb je wel de op een na snelste videokaart van dit moment.

Reacties (280)

280
258
184
18
1
0
Wijzig sortering
Ik vind het erg jammer dat jullie Project Cars gaan testen zonder de 15.5 drivers van AMD zo krijg je een vertekend beeld. Hopelijk posten jullie snel een update met deze drivers want ze zijn inmiddels 3 dagen beschikbaar:

http://support.amd.com/en...atalyst-windows-beta.aspx

Dan over de 980 TI:
nVidia heeft weer een prachtige kaart op de markt gebracht. Dankzij boost clocks bijna net zo snel als Titan X met hetzelfde verbruik.
En nu ook voor een veel betere prijs van de Titan X was gewoon te duur voor wat je kreeg.

Over 2 weken komt de R9 390X van AMD uit en dan kan de strijd weer los gaan barsten. Leuke tijden voor mensen die hun VGA kaart willen upgraden want de prijzen zullen wel wat gaan veranderen en er zullen ook wel wat meer kaarten op V&A komen te staan.

[Reactie gewijzigd door Astennu op 23 juli 2024 07:38]

Raar ook dat ze mantle hebben uitgeschakeld omdat nvidia kaarten dat niet ondersteunen. Dan moet je ook alle nvidia only optimalisaties uitschakelen die amd niet heeft. Slaat nergens op. Nu weten we alsnog niet hoe de amd kaaren kunnen presteren op hetzelfde systeem.

CaptainPanda suggereerd dat het uitschakelen van mantle alleen te verklaren is doordat nvidia die eis stelde. Lekker objectieve reviews krijg je op deze manier. Kunnen wij tweakers nog vertrouwen of worden we bedonderd waar we bij staan? Lijkt mij dat er een serieuze reactie vanuit tweakers.net moet komen waarom ze mantle hebben uitgeschakeld.

[Reactie gewijzigd door SpiceWorm op 23 juli 2024 07:38]

Die uitspraak heb ik wellicht wat voorzichtiger moeten doen, aangezien het puur een vermoeden is en ik dit nimmer kan bewijzen. Maar bij deze review heb ik eigenlijk toch wel echt de neiging om het te geloven, aangezien de snelst geteste kaart van AMD, de 290X, op dit moment vanaf ongeveer €360 te koop is. Dat is minder dan de helft van de prijs van deze GTX 980 Ti. Het probleem daarvan is dat de enige conclusie die kan worden getrokken een wagenwijde open deur is: deze 980 Ti blaast de veel goedkopere concurrentie weg. Ik kan het mij gewoon werkelijk niet voorstellen dat er op de redactie niemand is die deze monumentale fout over het hoofd heeft gezien en daarom twijfel ik aan deze review.

Het opzettelijk niet inschakelen van Mantle versterkt dit twijfelende gevoel, want ik kan echt geen enkele fatsoenlijke reden verzinnen waarom er niet met Mantle is getest anders dan het met opzet manipuleren van de uitkomst. Ik bedoel maar, welke gamer gaat niet Mantle gebruiken als dat beter is (dat is dus in dit geval en niet zo'n beetje ook)? Het resultaat nu is gewoon iets wat totaal niet de werkelijkheid reflecteert en gewoon puur een kunstmatige restrictie is....tja, dan ga ik echt twijfelen aan de objectiviteit.

Het enige waar het echt om draait - en dit heb ik ook al vaker gesteld op deze website - is welke prestaties worden verwacht voor de uit te geven prijs. Iemand die deze GPU van €750 overweegt, gaat echt geen 290X overwegen van €360 en dan is deze review gewoonweg incompleet. Waar is namelijk die AMD 295X2 van ook rond de €750? Of zelfs een Crossfire-opstelling van die 290X (€720)?

Wat ik in ieder geval wel weet, is dat 3 van de 4 games die ook op hier zijn getest elders wél zijn vergeleken met een 295X2:
Battlefield 4, Dragon Age: Inquisition, Far Cry 4
Wat gek, op de hoge resoluties (> 1080p) - precies de resoluties waarop een potentiële klant van dit soort videokaarten zijn games zal spelen - presteert de 295X2 steeds iets/veel beter dan de 980 Ti en dat voor dezelfde prijs. Letterlijk in 9 van de 10 geteste games op Anandtech is de 295X2 sneller, dus des te gekker dat Tweakers deze weg heeft gelaten...

[Reactie gewijzigd door CaptainPanda op 23 juli 2024 07:38]

Ja ik ben het hiermee eens. Ik zou toch wel de 295x2 willen zien die maar 550 euro tegenwoordig kost. Maar ik heb het gevoel dat ze AMD nogal slecht af wouden zetten op een of andere manier. Het feit dat ze ook nog is project cars gebruiken zonder 15.5 driver versterkt dit nog erger.

Ik zou ook wel is 2x 290's willen zien, die nu tegenworodig voor 220 over de toonbang gaan en gelijk presteren aan een titan x op performance. of 2x 970 sli.

Ik begin nu grote vraagtekens bij de reviews van tweakers te zetten.
Deze review is zoizo erg karig kwa volledigheid ten opzichte van een hoop andere reviews die te vinden zijn op het net ( net als dat ik het vreemd vind dat tweakers nog steeds geen titan X review heeft. ). Dus ik zou voor deze keer even verder kijken dan alleen op tweakers om een compleet beeld te krijgen van de 980TI en de concurrentie op dit moment ( over 2 weken wordt veel spannender:P ).

[Reactie gewijzigd door Mschrijver88 op 23 juli 2024 07:38]

Voor echte reviews van videokaarten moet je dan ook gewoon echt niet bij Tweakers zijn. Met deze review, maar ook met zat andere reviews, laat Tweakers zien dat ze gewoonweg niet volledig zijn. Of ze het niet willen, niet kunnen, de tijd niet hebben, bevooroordeeld zijn en dus niet objectief, ik weet het niet. Dit soort dingen gebeuren echter keer op keer weer.

CaptainPinda en Gatygun hierboven schrijven heel terecht al een paar onbegrijpelijke punten. Als Tweakers zichzelf serieus neemt m.b.t. het testen van videokaarten, dan gooien ze de hele boel overhoop. De buren (Hardware.info) doen dit stukken, maar dan ook echt stukken beter. Om maar te zwijgen van andere review-sites zoals Anandtech, Overclock3d, TechGuru, TechPowerUp etc. etc. etc. (Zie deze reactie van SmokingCrop voor een aantal wél volledige reviews! :Y)

Laat Tweakers er dan bij zetten: 'Beknopte review met zeer selectief aantal videokaarten'. :9

Edit: Reactie van Smokingcorp.

[Reactie gewijzigd door Vickiieee op 23 juli 2024 07:38]

Zie mijn reactie hier trouwens nog even. Mantle is dus, wat Wout al zei, niet sneller dan DirectX op ons testsysteem.
Om te beginnen: wij laten ons niks opleggen door fabrikanten. Wij hebben onze eigen testmethoden en protocollen en daar heeft verder niemand iets over te zeggen. Dat CaptainPanda dat soort uitspraken doet die compleet uit de lucht gegrepen zijn, zegt meer over hem dan over ons. We hebben hier op de redactie geen fanboys en het maakt ons echt geen bal uit welk merk of welke fabrikant beter uit de bus komt.

Jelle zit op dit moment in Taipei voor Computex, dus de precieze details kan ik je niet geven, maar ik weet wel dat er niet veel tijd was voor de review. We kregen de kaart op donderdag binnen en het embargo stond op maandag. Jelle heeft het hele testsysteem zelfs in het weekend mee naar huis genomen om daar verder te benchmarken. Veel tijd was er dus niet, en mede daardoor is Mantle niet getest.

Wellicht hadden we dat wel gedaan als er meer tijd was geweest, maar ook dan was het niet zeker. Mantle levert namelijk vooral winst op bij trage cpu's en wij testen videokaarten altijd op een systeem met een i7 4960X. En met die testopstelling is het verschil tussen Mantle en DirectX nihil (zie ook dit artikel). Bij Dragon Age levert Mantle zelfs lagere framerates op.

tl;dr: voor de volledigheid was het mooi geweest, maar veel tijd was er niet en we weten dat Mantle op ons testsysteem nauwelijks anders presteert dan DX11.
Vooruit, het eerste is iets wat we moeten geloven. Daarom heb ik ook toegevoegd dat voorzichtigheid in het doen van die uitspraak wat beter was, dus daarvoor excuses.

Toch ben ik niet volledig overtuigd. De verklaring om geen Mantle te gebruiken was oorspronkelijk 'om de omstandigheden gelijk te houden', terwijl dus juist het tegenovergestelde werd gedaan. De omstandigheid is nog steeds gamen en hoe dat wordt bereikt (DirectX of Mantle), maakt echt niks uit. Als bekend is dat Mantle misschien beter kan zijn, moet gewoon daarmee worden getest. In de autowereld wordt een op benzine rijdende BMW M5 ook gewoon vergeleken met een elektrische Tesla Model S; de manier (brandstof <-> elektrisch vermogen) is anders, maar het resultaat is hetzelfde: snel en praktisch zijn voor ongeveer dezelfde prijs. Hier precies hetzelfde: we willen gewoon weten welke gameprestaties we mogen verwachten voor een bepaalde prijs en juist die belangrijke info wordt compleet weggelaten.

Nu wordt ineens een andere verklaring gegeven: tijdgebrek. Deze inconsistentie geeft mij toch een beetje een nare bijsmaak, als ik eerlijk ben. Wordt dit dan nog ingehaald? Of worden deze resultaten maar gepost en het - al dan niet wel of niet moedwillig - onvolledig informeren van de lezer maar op de koop toe genomen? De review staat er toch, mensen lezen het nu al en onthouden dat de 980 Ti geweldige prestaties neerzet, terwijl AMD slomer is (niettemin een AMD-kaart die de helft goedkoper is!).

In de post van Gamebuster hieronder lees ik juist dat Mantle enorme verbeteringen geeft en dat is een recentere ervaring waarin hij expliciet aangeeft dat de prestatie met de tijd beter zijn geworden. Datgene wat je stelt in de 'tl;dr', namelijk dat Mantle nauwelijks anders presteert, is ook maar puur een aanname. Wie moet ik nou geloven?

De rest van de punten blijft staan: de review zegt nu alleen dat een dure Nvidia-kaart veel sneller is dan AMD-kaarten die minder dan de helft kosten. Werkelijk relevante informatie die een realistisch beeld tonen van de 980 Ti is dan in mijn ogen ook volledig absent, omdat AMD er heel selectief uit wordt gelaten.

Eén van de nieuwe games is Project CARS, waarvan de laatste tijd bericht is dat deze Nvidia heel hard voortrekt. Als er dan al zo weinig games worden getest, is het gewoon heel erg opvallend dat juist deze game wordt gekozen, welke vol zit met Nvidia-reclame en waarvan onmiskenbaar is dat Nvidia daarin veel beter voor de dag komt op het gebied van prestatie. Een heel vreemde keuze, dus niet gek dat ik de boel wat wantrouw, nietwaar?

In de conclusie wordt ook alleen maar de selectieve indruk gewekt dat een gamer die een dure videokaart wil, eigenlijk alleen aangewezen is op de 980 of 980 Ti. Er wordt met geen woord gerept over een AMD 290X in Crossfire of een 295X, wat gewoon perfect overwogen zou kunnen worden.

Tja, dat er nou geen tijd is, is dan maar een omstandigheid waar overmacht aan het spel is en niet veel aan kan worden gedaan. Desalniettemin had dat best vermeld kunnen worden en de algehele tekst kunnen worden geschreven zonder een ondertoon waarin Nvidia wordt voorgetrokken. Het totale gemis van AMD doet bij mij gewoon de alarmbellen rinkelen.

Concluderend wordt er beweerd dat geen enkele fabrikant iets oplegt en dat er ook geen merkvoorkeur is, maar tegelijkertijd zien we wel:
- Een oneerlijke vergelijking waarin de duurste geteste kaart van de concurrent (290X) minder dan de helft kost. De échte concurrent, zij het de twee 290X'en of een 295X is gewoon niet eens overwogen.
- Mantle wordt weggelaten, eerst met een drogreden en daarna weer met een andere, misschien wat betere reden (tijdgebrek), maar alsnog weinig overtuigend is omdat het bekend is dat dit de volledigheid en juistheid van de recensie schaadt. Ondertussen wordt de recensie gewoon online gezet en pas hier in de comments komen we hierachter.
- Een game als Project CARS wordt gebruikt in de benchmark, waarvan bekend is dat AMD daar door de twijfelachtige bedrijfsvoering van Nvidia flink in wordt benadeeld en dit geval zelfs niet getest is.
- In de algehele tekst wordt er niet gerept over AMD en de conclusie is zo in elkaar gezet dat een lezer met meer dan €500 te besteden heeft alleen maar aan Nvidia moet denken, als het aan Tweakers ligt. Het staat er niet letterlijk, maar dat is precies wat de indruk van de lezer nu is en dit was gewoon perfect bij te sturen.

Het trekken van de conclusie laat ik dan maar aan de lezer over.

[Reactie gewijzigd door CaptainPanda op 23 juli 2024 07:38]

Ik ben het met je eens dat er zeker dingen beter hadden gekund, maar ik vind het erg jammer dat jij en veel anderen er dan maar meteen vanuit gaan dat we ons dingen hebben laten opleggen door Nvidia.

Voor de toekomst kunnen we zeker een aantal zaken bekijken. Om te beginnen Mantle hertesten, om te kijken of de prestaties op high-end-cpu's inderdaad vooruit zijn gegaan. Realiseer je wel dat Mantle ontwikkeld is om cpu-overhead terug te dringen, dus het is niet gemaakt om een gpu sneller te maken in situaties waar de cpu geen bottleneck is, zoals bij onze testmethode. Verwacht er dus geen wonderen van.

Daarnaast moeten we meer kaarten in huis krijgen ter vergelijking. Dat lijkt me wel duidelijk. We horen van Nvidia nu al tijden dat de Titan X er echt aan zit te komen, maar tot nu toe hebben we nog niks liggen. Zelfde geldt voor de 295X2. Met dat wachten zijn we nu wel klaar, dus we gaan kijken of we die dingen niet gewoon zelf kunnen regelen.

Over bewoordingen en toon van de review kan ik weinig zeggen, want ik heb de review niet geschreven. De boodschap is echter aangekomen.
Ik ben het met je eens dat er zeker dingen beter hadden gekund, maar ik vind het erg jammer dat jij en veel anderen er dan maar meteen vanuit gaan dat we ons dingen hebben laten opleggen door Nvidia.

Relax, het houdt iedereen gewoon scherp ;) Toen tweakers commercieel werd waren er natuurlijk meteen meerdere die dachten dat er qua objectiviteit het een en ander ging veranderen. Sponsoren van dingen, gratis dit, extra dat, je weet wel...

Tot nu toe is het mij niet opgevallen dat jullie partijdig zijn, misschien is de test gewoon net ff te snel uitgevoerd en daar door iets te kort door de bocht. Laat het dan maar een les zijn, beter iets meer tijd nemen en dan maar iets later een review, dat is beter dan...
Vergeleken met de review van techpowerup en anandtech scoren de Radeon R9 290 en 290X bij Tweakers met uitgeschakelde mantle beter. Voor wat betreft technische uitvoering is de review goed inderdaad.

Alhoewel er op de algehele uitvoering van de review wel het een en ander is op te merken (Zie CaptainPanda's reactie hierboven) is mijn vertrouwen dat Tweakers technologie objectief test hersteld. Ik denk dat het vooral een ongelukkige samenloop van omstandigheden deze schijnbaar niet-objectieve review heeft geproduceerd. Een opmerking dat de 980 ti net zoveel kost als twee exemplaren van de R9 290 had veel gedoe gescheeld.
Eens met deze. Waarom zou je dit uitschakelen? Waarom zou je ervoor kiezen om dat spel te spelen zonder Mantle als je dit gewoon kan inschakelen?

Mantle maakt echt een enorm verschil in Battlefield 4. Het is voor mijn setup het verschil tussen 30-70fps met forse framedrops en een stabiele, soepele 60fps+.
Ik weet een hele goede reden om Mantle uit te schakelen in BF4, "betere" frame rates en minder happeringen met mantle uitgeschakeld dan met Mantle aan (moet wel zeggen dat ik BF4 al maanden niet meer gespeeld heb maar dat was mijn ervaring met BF4 op R9 290 met en zonder Mantle).
Ik heb een R9 290X in Crossfire. Bij mij werkt Mantle aanzienlijk beter dan DirectX op dit moment. Wel moet ik erbij vermelden dat het eerder (tot aan eind 2014) echt dramatisch was, precies zoals jij omschrijft. Iedere AMD driver update en BF4 update was een significante en merkbare verbetering.

Inmiddels, vanaf eind 2014, werkt het echter erg goed.

Ook merk ik dat het verschil tussen wel-Mantle en niet-Mantle aanzienlijk groter is bij een crossfire setup dan bij een niet-crossfire setup. Met DX haal ik bijv. 40fps met een enkele kaart en 45-70fps met Mantle. Met 2 kaarten had ik met DX zo'n 50fps en met Mantle 55-110fps.

Crossfire lijkt in mijn geval dan ook alleen nut te hebben in combinatie met Mantle. Dit was ook al het geval voor eind 2014 patches, alleen toen ging het gepaard met random framedrops, memory leaks en crashes.

GTA V heeft wel een significante performance boost met crossfire overigens; het is niet zo dat Crossfire "niet werkt". De rest van de games die ik speel hebben vrijwel geen baat bij Crossfire, gezien ik voornamelijk wat oudere games speel die allemaal prima op max draaien op een enkele 290X.

[Reactie gewijzigd door Gamebuster op 23 juli 2024 07:38]

Omdat Mantle helemaal niet sneller is dan DirectX op ons testsysteem. Op systemen met een trage CPU is Mantle sneller, op systemen met een snelle CPU (zoals bij ons) scheelt het niks. Gezien wij de videokaart testen en niet het hele systeem is er geen toegevoegde waarde voor Mantle in de tabel. Desalniettemin heb ik Mantle wel nog even gebenched.
Ah kijk, dat kan ik waarderen :)
3 dagen is een beetje weinig voor een hele review.

Ook tevens het voordeel van Nvidia, die vaak eerder drivers beschikbaar hebben.
Hele review? je hoeft een game met in dit geval om slechts 1 kaart want meer AMD kaarten hebben ze niet getest. En ze hebben 3 resoluties getest kortom 1 uurtje werk om te die resultaten te updaten. De overige games hoeven niet perse getest te worden want de fixes zijn vooral voor Project cars en The Witcher 3.

Als je nu 5 kaarten 6 resoluties en 10 games had gehad snap ik het maar dit is niet het geval.

In het ergste geval hadden ze 6 apps x3 resoluties is 18 tests opnieuw moeten draaien. (aagezien ze 1 AMD kaart testen) valt nog erg mee als je het mij vraagt.

Dat nVidia ze in dit geval eerder beschikbaar heeft is inderdaad een voordeel maar heeft ook veel met Gameworks te maken. Dat soort ongein wordt ik zelf niet zo blij van. En niet Maxwell 2 kaarten (de Geforce 7xx serie met uitzondering van de 750 TI) schijnen er soms ook last van te hebben die presteren in sommige games ook erg slecht net als de AMD kaarten. En dat allemaal door specifieke optimalisaties die andere kaarten die dat niet ondersteunen dan extra benadelen. Het spel zal daar dan slecht draaien.

Of bv onnodig hoge tesselation factors als default kiezen om AMD kaarten expres in de problemen te brengen Die zijn namelijk geoptimaliseerd voor lagere Teselation factors (volgens mij tot 8x aangezien daar na de kwaliteit verschillen kleiner worden en het wel veel zwaarder wordt).

Je kan hier als gebruiker omheen werken door in de AMD driver een profiel te maken voor dat spel en de tesslation factor vast te zetten. Maar het is gewoon jammer dat de gamers hier van de dupe moeten zijn.

Volgens mij mogen AMD en nVidia beide niet klagen over hun marktaandeel. Maar toch gunnen ze het elkaar vaak niet waardoor de consument dan weer de dupe wordt van dat soort optimalisatie gevechten.

[Reactie gewijzigd door Astennu op 23 juli 2024 07:38]

Ch3cker Teamlead Testlab @Astennu9 juni 2015 14:27
Je hebt duidelijk geen enkel idee hoeveel tijd zo'n review maken kost.

Er zijn 7 kaarten getest, op 1920x1080, 2560x1440 en 3840x2160. Deze 7 kaarten op 3 resoluties zijn allemaal opnieuw gebenched met de op dat moment laatste driver en in 4 verschillende games plus 3DMark en Heaven. Helaas kwam de 15.5 driver van AMD net te laat, op vrijdagmiddag, om deze nog mee te nemen in de review.
Laat het me maar weten als je weer een 290 te koop heb ;p


On-topic: kloppen de bf4 benchmarks wel? Ik krijg toch anders echt rond 70-90FPS op ultra (afhankelijk van de map, met een R9 290). Ook zonde dat de nieuwste drivers van AMD niet zijn gebruikt, wellicht maakt het geen verschil, maar het is toch wel zo eerlijk.
Singleplayer (wat T.net) test is veel zwaarder voor de videokaart, jij haalt die 70-90fps waarschijnlijk in MultiPlayer
Natuurlijk op multiplayer... Dat lijkt me ook wat je wilt testen (ja het is minder gelijk, maar wie speelt er nou BF4 SP?!).
Niemand natuurlijk :+

Maar de benchmark van Tweakers is SingePlayer dus om jouw resultaat te vergelijken ermee moet je ook in SIngle Player testen ;)
Ik heb het zelf niet getest maar volgens mij zijn de 15.5 drivers imet BF4 niet sneller dan de 15.4 drivers.
Nee qua drivers verschilt het waarschijnlijk niets. Maar ik had het over mijn ervaring vs. T.net's benchmark.
Bij mij haal ik ook 70-90 R290 (non x). Klopt volgens mij niet.
Je begrijpt dat die titan X er alleen is om de rest van de kaarten "goedkoop" te laten lijken? Dit is een wel bekende en vaak gebruikte marketing strategie.
Dat niet alleen. Het is ook een soort van Premium product met een WOW factor. The best of the best voor veel te veel geld. Een soort van Status symbool als je het kan betalen. Er zijn mensen die het om die rede kopen. En op deze manier is het voor nVidia ook nog eens lucratief ook. Ze maken er in ieder geval geen verlies op en het helpt voor de merknaam.
Absoluut, een vlaggenschip.
Ze maken leuke kaarten, maar m'n volgende wordt toch AMD. NViDIA maakt zich de laatste tijd flink vaak schuldig aan het onnodig saboteren van spellen zodat ze verschrikkelijk werken op AMD kaarten en oudere NViDIA kaarten, en zo de mensen dwingen het nieuwste weer te kopen. Ik ben nu op mobiel maar er is genoeg over te vinden op internet.
Dus omdat NVidia samenwerkt met gamestudio's stap je maar over naar AMD om die extra optimalisaties niet te hebben?

[Reactie gewijzigd door Strunkie op 23 juli 2024 07:38]

Optimalisaties voor Nvidia, of dingen saboteren voor AMD?

Kijk maar naar The Witcher, schroef de idioot hoge tesselation eens terug naar x8 en AMD kan opeens prima mee komen. En optisch zie je geen verschil.

Jaja, Tesselation is een DX11 standaard, ik weet het, echter, boven de x8 zie je nauwelijks verschil, waarom zou je dan de boel hoger zetten? Toch niet om je concurrent lekker te dwarsbomen?

Moet overigens zeggen dat ik de review van Tweakers nogal lackluster vindt. 2 AMD games, 1 game met wat voordelen voor Nvidia en 1 game die helemaal voor Maxwell geoptimaliseerd is, en waarbij de nieuwste AMD driver niet gebruikt is.

Waar zijn alle games ertussen? Games die even goed/even brak draaien welke videokaart je ook hebt? Dat zegt naar mijn mening meer dan dit reviewtje.

En wat meer kaarten, hoe doet een GTX780[ti] dit, en een SLI opstelling van 290's en GTX970's? Dan zit je rond dezelfde prijs als een GTX980ti, en welke performance heb je dan?

De eerste met een review betekend niet dat je de beste review hebt.
Dat weet ik, maar, telkens als ik omhoog scroll, zie ik staan:

Wij stellen technologie op de proef.

Niet:

Andere, buitenlandse, websites stellen technologie op de proef, wij doen ons best

Kijk ook maar op het forum, wanneer worden nou statistieken van Tweakers erbij gepakt? Ik pak ze alleen voor verbruik, wanneer ik lui ben. De benchmark scores zijn zo beknopt dat ze eigenlijk nutteloos zijn als vergelijkingsmateriaal. Zelfs de mods komen met cijfers van TPU en consorten, alleen HWi wordt minder gelinkt :X

Dankzij TPU kan ik wel zien dat bij de GTX980ti Nvidia het eindelijk voor elkaar krijgt om de performance niet in te laten storten op hogere settings, hij is telkens zo'n 30% sneller dan een 290x, op zowel 1600x900 als op 4k. Wel haalt vanaf 1440p een goedkopere CF R9 290 setup hem in op de gemiddelden pagina.

Het maakt mij wel nieuwsgierig naar de nieuwe kaarten van AMD. Zal een 390/490[x] sneller zijn? En waarmee komt Nvidia dan, de GTX980titi?
Die lijn was ik al helemaal vergeten.. (heb namelijk een custom CSS), maar je hebt groot gelijk.

Benchmarks worden nooit erbij genomen. En terecht ook. Waarom voor een test met 4 games gaan als er een test is met 21 games, een geluidsmeter van $ 4000 en een apparaat om precies enkel de wattage van de kaart te meten, overclockingstest en waar je in een oog opslag de procentuele vergelijking kan maken met 16 andere kaarten..

Ik zie Tweakers liever meer focussen op andere producten. Alsook meer interessante tests. Bv. een serie smartphones van 1-2 jaar geleden opnieuw testen en vergelijken met de review van toen + of ze nu veel bang for the buck zijn door de veel lagere prijs.

Ik denk niet dat Nvidia nog met iets komt, of het is misschien met een Black edition in Q4.
Hopelijk komt Pascal er snel aan in 2016.

[Reactie gewijzigd door SmokingCrop op 23 juli 2024 07:38]

Ik denk niet dat Nvidia nog met iets komt, of het is misschien met een Black edition in Q4.
Dat denk ik zelfs niet, Titan Black is alleen maar uitgebracht omdat de 780ti sneller was dan de Titan, de Titan (originele) was dan ook geen volledig ingeschakelde chip, wat de Titan X wel is.

Straks nog de nieuwe AMD kaarten en dan is 2015 wel weer klaar voor videokaarten.
Ja ik denk het ook, een GTX 980 titi?! LOL
Andere, buitenlandse, websites stellen technologie op de proef, wij doen ons best

Dat vind ik nog een compliment voor deze volstrekt nutteloze review.
AMD plaatst in AMD-gesponsorde games ook grafische effecten die overduidelijk voor AMD geoptimaliseerd zijn. Het beste voorbeeld is TressFX in Tomb Raider. Zet je dat aan op een Nvidia-kaart dan schrik je je dood, zelfs met een GTX 970.

[Reactie gewijzigd door dusty-2011 op 23 juli 2024 07:38]

Dat is 1 game.

Andere AMD-optimized spellen draaien ook gewoon meer dan prima op Nvidia, en van Mantle in BF4 en BF:H hebben ook goedkope Intel CPU's profijt.

Nvidia's meuk daarintegen legt in spellen als TW3 AMD gewoon lam.

[Reactie gewijzigd door RobinHood op 23 juli 2024 07:38]

Ik hoor hier wel een beetje fanboism hoor, "nVidia meuk' uhu.. Zowel AMD als Nvidia maken gebruik van optimalisaties voor verschillende games. De ene keer heeft AMD weer een snelle kaart tegen vooral een mooie prijs, de andere keer komt Nvidia met een mooie oplossing.

Al dat gezeur en chagrijnig gedoe, beetje sfeermakerij hoor. Kies nu maar gewoon de kaart die bij je budget past en waar je plezier aan gaat beleven, degene met best bang for buck, of wahtever iemands overtuiging is..

De ene keer koop ik een AMD de andere Keer een Nvidia. Simpel..
Zodra het de prestaties van de andere fabrikant laat instorten, puur om het laten instorten zoals de Tessel bij TW3, kan ik het niet anders dan meuk noemen.

Als AMD zoiets flikte, zou ik daar ook zeker kritisch over zijn. En als Nvidia zijn leven verbeterd, en AMD gaat telkens dit soort "optimalisaties" plegen, ben ik ook heel snel uit het rode kamp vertrokken.
Dat klopt niet wat je hier zegt. TressFX wordt nu even snel(of langzaam) gedraaid door AMD kaarten als NVIDIA kaarten. In het begin was dit niet zo, maar nadat nvidia hun drivers geupdate hadden wel.
TressFX is opensource in tegenstelling tot Hairworks. Dus Nvidia kan wel fatsoenlijke drivers schrijven voor TressFX, waar AMD dat niet kan doordat Hairworks closed source is.
maar TressFX is een open standaard waar nvidia dus net zo goed voor kan optimalizeren als AMD, en dat hebben ze dus ook gedaan. dus binnen 2 maanden liep het op nvidia net zo goed als op AMD bij launch. en bij elke toekomstige game zal dat gelijk vanaf launch zo zijn.

met nvidia hairworks (dat overigens op geen enkel punt beter is als TressFX en dus buiten de performance op AMD verlagen geen enkel bestaansrecht heeft) kan AMD dat niet omdat nvidia alles gesloten houdt. als ze het doen moet dat via reserve engineering wat veel meer tijd en geld kost en veel minder effectief is.

[Reactie gewijzigd door Countess op 23 juli 2024 07:38]

Nee NV Hairworks is niet geavanceerder. HEt is wat je ermee doet. En wat je beschikbaar hebt om te verwerken.
Bij NV kan je vanaf enkele honderd cuda cores 3 titanX van 4 voor hairworks doen.
Met TressFX zou dat ook kunnen als ze OpenCL zouden gebruiken maar dan met NV en AMD GPU
HairPhysics is geen gameplay physics, maar een effect physics. ideal voor optioneel beschikbare GPGPU compute power.
Interactie met andere objecten is een extra complexiteit wat weer meer rekenkracht vereist.
dat haar clipt net zo goed door verschillende objecten. daarbij is dat een keuze van de designers (het hitbox model is een simpler model als dat van de graphics) en niet een limitatie van TressFX.

[Reactie gewijzigd door Countess op 23 juli 2024 07:38]

bij de aller eerste versie van tombraider lag het haar een paar centimer boven het lichaam om clipping te voorkomen, dat is later bijgesteld, maar daardoor komt clipping dus soms voor.
Anoniem: 668222 @RobinHood2 juni 2015 09:39
Het is best zuur om deze dingen te lezen terwijl er geen harde bewijzen zijn. Is het Nvidia die de tessellation toe past of is het de game ontwikkelaar, is het bewust gedaan of onbewust? Nvidia heeft zelf ook een dikke performance hit door hairworks dus ik denk niet dat het bedoeld is om AMD kaarten slechter voor de dag te laten komen.
Ze noemen dat ook wel eens "stemmen met je geld". Of vind jij dat zulke praktijken moeten gesteund worden? Wellicht vond je het ook goed toen er op benchmarks volop vals gespeeld werd? Of dat het rondje zwartmaken dat ze in het verleden heel graag speelden een goede zaak was?
Concurreren door kwaliteit te leveren is nooit Nvidia's ding geweest, ze vonden de achterbakse praktijken daarvoor veel makkelijker. Wat ze ondertussen een bak geld heeft opgeleverd waardoor ze een tijdje geleden eens begonnen zijn met wat meer moeite in hun gpu's te steken.
Zoals Intel en Microsoft "samenwerken" met OEM-verkopers, door alleen hun spul te laten verkopen?
Het zijn gewoon marktverstorende praktijken, vuil spel.
Hier een bron: http://arstechnica.co.uk/...ed-witcher-3-performance/
GameWorks is a collection of propriety technologies and APIs that Nvidia offers to developers so they can include tricky effects like realistic hair, shadows, and destruction in games without having to create them from scratch. But GameWorks' capabilities are necessarily Nvidia-optimized; such code may perform poorly on AMD GPUs. The situation has led vocal gamers to allege that Nvidia is playing dirty, paying developers to ensure that code doesn't run well on non-Nvidia systems. Nvidia has denied the claims on several occasions, but they continue to be made.
Of AMD moet ook dit spelletje gaan meespelen, of hopen dat een overheid/toezichthouder ingrijpt.
Vergeet niet dat AMD soms ook wat geld 'investeert' (bij de maker/uitgever) om zo betere performance te krijgen in een game (bv. Battlefield 4l ;)

[Reactie gewijzigd door caesar1000 op 23 juli 2024 07:38]

Toch raar dat AMD's "investeringen" in zulke games nooit voor barslechte prestaties bij Nvidia zorgen he.
Oh nee? Ik kan me nog goed herinneren, dat de AMD-feature TressFX in Tomb Raider veel beter draaide op AMD-kaarten dan op Nvidia-kaarten. Dit is dus volkomen vergelijkbaar met een Nvidia-feature HairWorks die slechter draait op AMD-kaarten.
Je bedoelt die feature die je af kan zetten en het spel normaal kunt spelen? Wat bij Nvidia's shenanigans minder het geval is? Sure Hairworks (Nvidia's variant van TressFX, wat ook minder goed draait op AMD) kan je afzetten, heb ik dan ook geen problemen mee. Maar Gameworks zit dieper in de game engine geïntegreerd en zorgt daardoor voor onnodige performance verliezen... En Gameworks kan je jammer genoeg NIET af zetten, net omdat het dieper zit.
Op welke manier zorgde AMD's feature die je net zo goed af kon zetten (ik zette die ook af op mijn AMD kaart) er voor dat Nvidia slecht presteerde?

Hairworks (raar genoeg) is niet het probleem. En eigenlijk hoeft Gameworks ook niet zo'n groot probleem te zijn, een aantal Gameworks games worden later genoeg gepatched zodat ze toch aan een aanvaardbaar tempo draaien. Maar het is toch altijd o zo toevallig dat het de Gameworks games zijn waar het qua performance nergens op slaat tot je een aantal patches verder zit (als je al dat geluk hebt).
En Gameworks kan je jammer genoeg NIET af zetten, net omdat het dieper zit.
Onzin, gameworks zijn extra effecten, en die kunnen tot nu toe gewoon allemaal uit.
project cars heeft de nvida physics engine geintegreerd in de game engine. en enkel en alleen nvidia kan een deel van die berekeningen offloaden naar de GPU.

AMD kan dat niet en dus schiet de CPU load bij een AMD kaart omhoog. en daar komt bij dat nvida physics op de CPU niet geweldig draait ivm andere physics engines.
Er is geen gpu physx in project cars, ook niet op nvidia kaarten. Geen idee waarom dat gerucht zo hardnekkig is.

Bovendien is het gros van de simulatie gewoon code van de developer zelf, physx wordt alleen maar gebruikt voor botsingen tussen auto's.
Ik hang meer AMD aan maar het is ook logisch. Dat dev de gameplay physics niet op GPU laat draaien.

Race game is de Core Physics is de Race simulatie van auto's.
Dit is gameplay physics. Dan neem je de mainstream market. Omdat Cuda NV only is valt GPGPU physics weg. Alleen voor optionele effect en GFX verrijkende Physics.

Zou men dat wel doen dan wordt AMD totaal niet speel baar en
kan je het bijna NV exclusive game noemen.
En dan is het erg opvallend dat concurrent extreme achter loopt.
Denk dat Gameworks al genoeg damage doet voor de concurrent.
Onzin, Countess. De PhysX in Project Cars draait op de CPU. En verder geldt het volgende:
- Project Cars is not a GameWorks product. We have a good working relationship with nVidia, as we do with AMD, but we have our own render technology which covers everything we need.
- NVidia are not "sponsors" of the project. The company has not received, and would not expect, financial assistance from third party hardware companies.
- The Madness engine runs PhysX at only 50Hz and not at 600Hz as mentioned in several articles
- The Madness engine uses PhysX for collision detection and dynamic objects, which is a small part of the overall physics systems
- The Madness engine does not use PhysX for the SETA tyre model or for the chassis constraint solver (our two most expensive physics sub-systems)
- The Madness engine does not use PhysX for the AI systems or for raycasting, we use a bespoke optimized solution for those
- The physics systems run completely independently of the rendering and main game threads and utilizes 2 cores at 600Hz
- The physics threading does not interact with the rendering, it is a push system sending updated positional information to the render bridge at 600Hz
- Any performance difference with PhysX would not be reflected with differences in comparing rendering frame rates. There is no interaction between PhysX and the rendering
- Overall, PhysX uses less than 10% of all physics thread CPU on PC. It is a very small part of the physics system so would not make a visual difference if run on the CPU or GPU
- Direct involvement with both nVidia and AMD has been fruitful in assisting with the game performance at various stages of development. Both AMD and nVidia have had access to working builds of the game throughout development, and they have both tested builds and reported their results and offered suggestions for performance improvements.
- Testing of the game with different driver versions has produced a variety of performance results on both nVidia and AMD hardware. This is entirely to be expected as driver changes cannot always be tested on every game and every card, and this is the reason why both companies produce game-specific driver profiles, to ensure that they can get the best out of the game.
- Project CARS does not use nVidia specific particle technology - the system we use is a modified version of the same technology we used on the Need for Speed: Shift and Shift Unleashed games, and was entirely developed in-house. The reason the performance drops when there are a lot of particles on screen is simply because processing a large number of particles is very expensive."

Bron: http://www.pcgamer.com/pr...performance-on-amd-cards/
Anoniem: 668222 @Nha2 juni 2015 09:42
Ik heb het idee dat AMD juist de problemen heeft met de drives en niet dat gameworks het probleem is. Waarom, omdat AMD in sommige gameworks games als nog beter uit de bus komt dan Nvidia.
In een wereld waar devs geen idiote streken uithalen moeten er geen drivers aangepast worden op een game per game basis. Het idee dat dit nodig is is absurd.
zorgt daardoor voor onnodige performance verliezen
En juist voor nodige performance winsten op nVidia kaarten..
Het probleem ligt dan toch echt bij de developers.. Het is niet alsof AMD's mantle zo compatible is met een nVidia kaart..
Als een game voor mantle geschreven is, zal die ook veel beter presteren op een AMD kaart, net zoals een game die geschreven is met de Gameworks framework beter presteert op een nVidia kaart..
Het probleem ligt dan toch echt bij de developers..
Inderdaad. Doordat ze blijven Gameworks gebruiken en weinig tot geen moeite doen om hun game voor AMD te optimaliseren.
Het is niet alsof AMD's mantle zo compatible is met een nVidia kaart..
Als een game voor mantle geschreven is, zal die ook veel beter presteren op een AMD kaart, net zoals een game die geschreven is met de Gameworks framework beter presteert op een nVidia kaart..
Behalve dan dat Mantle het best werkt als je een trage cpu hebt. Zelf heb ik helemaal niets gehad aan Mantle, het verschil met DX11 was heel minimiem op mijn setup. Waar dat met Gameworks wel eens een ander verhaal is.

GTA5 draait hier als een zonnetje (AMD) en Witcher 3 draait brak (Nvidia). GTA5 ziet er dan nog eens beter uit ook oO

Dat iets beter draait op een Nvidia dan een AMD is op zich geen probleem. Zolang het genoeg geoptimaliseerd is en geen technieken overvloedig gebruikt zodat de performance op AMD ook in orde is.

Waarom werd er gekozen voor Hairworks en niet voor TressFX dat ondertussen wel zijn source code beschikbaar maakt (geloof niet dat dit in Tomb Raider al het geval was maar ondertussen wel dus)? Of beter nog, waarom wordt je de keuze tussen TressFX en Hairworks niet aangeboden?
En waarom draait elk Gameworks game brak zelfs met de Nvidia specifieke opties af?
Het enige spel (wel, 2) dat ik kan herinneren dat Nvidia technologie gebruikte dat de slechtere performance rechtvaardigde door echt goede graphics te hebben was Metro (2033 en Last Light).

Mijn probleem ligt ook niet zozeer bij Nvidia of Gameworks zelf, maar bij de game devs. Nvidia maakt het hun echter wel heel makkelijk om geen reet te geven om AMD's performance door hun Gameworks aan te smeren met nog wat andere voordelen er bovenop (marketing, Nvidia devs, ...).
Wat het al helemaal erg maakt is dat er genoeg andere games zijn die er even goed of zelfs beter uit zien en op beide merken behoorlijk presteren.

Ik zou graag Witcher 3 spelen, maar daarvoor moet CDPR eerst eens hun rotzooi opruimen. Witcher 2 was na een jaar ook nog altijd niet vooruit te branden. Dus ik heb er weinig hoop op.
helemaal niet volkomen vergelijkbaar

Nvidia kon hun drivers optimaliseren om TressFX goed te laten draaien, wat ze dus ook gedaan hebben

AMD kan niet hun drivers optimaliseren om iets uit Gameworks goed te laten draaien

Dat is dus totaal niet volkomen vergelijkbaar
Je bedoelt dus gewoon dat de developers bij AMD niet capabel genoeg zijn om dat te kunnen.. Klopt wel met de hele trackrecord van AMD drivers, die zijn altijd ruk geweest.. (heb zelf ook een paar AMD kaarten gehad)..
Anoniem: 668222 @Sinester2 juni 2015 09:43
Zie mijn reactie heir boven.
TressFX was al een tijd uit en Nvidia had alle tijd om de code te vragen om daarmee de drivers te optimaliseren. Die source code is zelfs open source, maar Hairworks dus niet. AMD moet het van de binary code hebben wat vele malen meer tijd en moeite kost.
En een leuk weetje: in een ideale wereld optimaliseert een spelmaker het spel en niet de GPU makers via drivers.
In real world optimaliseren de render team naar driver team toe. en visa versa.
Dat is die generieke abstractie van API layer waar de driver tussen zit.
Met DX12 Mantle en Vulcan wordt die invloed minimalistisch. En moet de dev zelf afhandelen zoals het beste bij hun engine en games past.

Ik verwacht dat driver invloed en optimalisaties en game profiles minder relevant worden met de nieuwe API .
En een leuk weetje: in een ideale wereld optimaliseert een spelmaker het spel en niet de GPU makers via drivers.
QFT.
Ja en nvidia prop dingen in maps waar je als speler niet bij kan komen. Maar je gpu wel voor moet werken. En waarom doe je dat? Juistem om amd te dwarsbomen. Tevens komen amd drivers altijd nadat de game is uitgebracht. Terwijl nvidia deze code al wel in handen had. Das wel raar vind je ook niet?
Ter toevoeging, die game was Crysis 2 waar tessalation werd toegepast op water dat onder de grond zat en niet te zien was. Daar had niet alleen AMD last van, maar ook nVidia (in mindere mate vanwege de betere tessalation units op nVidia GPUs.).
Ik geloof dat een van de Arkham games ook bekend stond voor een overgebruik aan tesselation, maar daar was het tenminste niet onder de map :)
Bij Crysis 2 was het inderdaad wel heel erg.

Ook even vermelden dat AMD een optie heeft om tesselation te verminderen, wat bijvoorbeeld in Witcher 3 voor betere prestaties zorgt (met Hairworks aan iig). Wanneer tesselation een probleem is kan je dit altijd even uitproberen.
Alleen maar rebrands? Wist niet dat de r9 290(x) en r9 390(x) rebrands waren 8)7 en nvidia doet net zo hard mee aan rebranding.

Nvidia speelt een vuil spelletje het hun grote pot geld. Vrijwel iedereen weet het. Maar niemand kan het bewijzen.
Ja, de nieuwe topmodellen van AMD zijn geen rebrands. Omdat het vrij moeilijk is om topmodellen te rebranden. Het is lastig om een topmodel neer te zetten dat duidelijk sneller is dan het vorige topmodel, als het een rebrand is. Maar de overige modellen zijn vrijwel allemaal rebrands:
R9 280X = rebrand
R9 280 = rebrand
R9 270X = rebrand
R9 270 = rebrand
R9 260X = rebrand
R7 250X = rebrand
De nieuwe modellen van AMD zijn dus de R9 285, R9 290 en R9 290X.

Laten we nu eens kijken naar de huidige line-up van Nvidia:
GTX Titan X = nieuw
GTX 980 ti = nieuw
GTX 980 = nieuw
GTX 970 = nieuw
GTX 960 = nieuw
GTX 750 ti = nieuw
En de rebrands? Welke rebrands? In ieder geval niet in de huidige line-up...

[Reactie gewijzigd door dusty-2011 op 23 juli 2024 07:38]

Blijkt dat nvidia's rebrand periode over is. Op de mobiele versies na dan.

Dus ik moet je daar gelijk in geven. En vind het ook wel raar dat je -1's krijg en ik +1 8)7

Gewoon alle 2 op 0.
Typische nVidia fanboy, ook in het lagere segment heeft AMD nieuwe GPUs geintroduceerd hoor ;)

Maar Maxwell is ook al weer een zeer lange tijd op de markt, kijk maar naar de 750TI, dus om nu te zeuren dan AMD rebrands heeft en nVidia "nieuwe" kaarten vind ik wel erg ver gaan. De huidige modellen zijn ook gewoon verbeterde modellen van het ontwerp van de 750ti wat dat betreft is de stap 7970->R9 280x of 7950 -> R9 280 niet veel anders want dat heeft AMD daar ook gedaan.

Technisch gezien is de 980ti toch ook gewoon een Titan X met iets minder ram en een paar SM units uitgeschakeld. Komt nog is bij dat bijvoorbeeld de 600 -> 700 serie ook gewoon rebrands waren of licht gemodificeerde GPUs gebaseerd op het oude ontwerp met uitzonderin van dus de 750(ti). En wat zit er onder de 960/750 dan? ook gewoon nog oude kaarten.

[Reactie gewijzigd door DarkBlaze op 23 juli 2024 07:38]

Typische nVidia fanboy, ook in het lagere segment heeft AMD nieuwe GPUs geintroduceerd hoor ;)
Nou, geef is aan welke ;)? Zijn allemaal rebrands

Alleen R9285/R9290/R9290x zijn nieuw, de rest (op HD7790/260x na) is allemaal GCN 1.0
De huidige modellen zijn ook gewoon verbeterde modellen van het ontwerp van de 750ti wat dat betreft is de stap 7970->R9 280x of 7950 -> R9 280 niet veel anders want dat heeft AMD daar ook gedaan.
Nee, R9280x is letterlijk een R9280x, sterker nog GPU-z herkende de kaart kort na release als een 7970 GHz edition.
De GTX900 voegt in ieder geval nog nieuwe functies toe aan de GTX750(ti)

Nvidia is overigens ook een zooitje, de 700 series heeft zowel Fermi, Maxwell als Kepler kaarten :X

[Reactie gewijzigd door !mark op 23 juli 2024 07:38]

Oké, de 280x is inderdaad eerst uit gebracht met de XT2 chip van de 7970ghz maar dat was om de oude voorraden op te maken later zijn er alleen nog maar XTL chips verkocht.

Voor mij is een rebrand de zelfde kaart 1 op 1 overzetten naar de nieuwe serie en dat heeft AMD ook gedaan maar sommige modellen hebben wel betere specs dan hun voorgangers.
voor dat spelletje heb je meer invloed en geld nodig (denk ik) maar ik snap dat door dit soort fratsen AMD wel meer karakter lijkt te krijgen. Alsof je voor david kiest in een gevecht tegen goliath.
/offtopic
Ken je ook dat verhaal van David en Uriah
Dan kots je david meteen weer uit /tothier

Maar goed de 980Ti is dus een Titan met wat minder spieren
Nog ff wachten en dan zien wat AMD met de r300 gaat brengen
Hoop toch echt dat het stroomverbruik beter is dan de oude r2x0 serie
Dan zien we wel wie van de 2 mij gaat verbazen met mooi/smooth gameplay
De geruchten over standaard watercooling doen het ergste vrezen voor de r300 serie. Dat zet men er niet op als de hitte ontwikkeling en dus het energieverbruik minder zou zijn. Maar ik wacht idd ook met interesse wat de r300 serie met de videokaart markt gaat doen. Meer iig dan dit soort dure kaarten waar ik toch het geld niet voor heb. Maar al vallen wsl de nieuwe amd kaarten ook tegen dan is er misschien iig wat prijsdruk op nvidia komt!
En ik zit toch ook te wachten op 950(ti) die misschien niet veel meer prestatie dan de 750(ti) heeft, maar wel ondersteuning voor de nieuwe hdmi 2.0 codecs? Nouja de 650ti dan nog maar een tijdje doorgebruiken.
Ja maar er gaan ook geruchten dat hij een tpd van 256w zou hebben. En welgestelde 6 watt meer als de titan. Dus zou ook prima op lucht kunnen.
Volgens mij is die waterkoeling nodig voor HBM, HBM is namelijk redelijk zuinig maar produceert wel veel hitte op een klein oppervlak.
Oja dat zou idd ook wel een reden kunnen zijn. Maar als ik het goed begrijp komt er een high end kaart de r390 en dan schuift de rest gewoon een nummer op ? (r290->r380 , r280->r370 etc)
Er zijn inderdaad geruchten die dat beweren, echter zou het mij verbazen als ze niet andere modellen maken op basis van Tonga (R9 285). Ook zullen de andere kaarten zuiniger worden, door betere productie (zie HD7850/7870 en R9 270)
Het gaat er meer om dat er geruchten gaan dat nvidia studio betaalt om amd zo lang mogelijk buiten de deur te houden. En dat is natuur niet oke.
Beetje rare stap ja, want studio's kiezen er zelf voor om samen te werken met Nvidia. Daar kun je NVidia niet de schuld van geven, maar natuurlijk zou het wel fijn zijn als games gewoon op verschillende videokaarten perfect werkt zonder dat je daarvoor speciale kaart voor moet aan schaffen, maar nogmaals de studio beslist en niet de gebruiker.
Zover ik weet zijn de huidige geruchten dat nvidia een zak geld geeft aan die studio's die 'er zelf voor kiezen' om met hen samen te werken. Als underdog kun je je dat niet zo snel veroorloven.
Mooi vb. is toch wel Project Cars. AMD heeft daar een veel te hoge achterstand op nVidia, dat zou niet mogen. AMD heeft waarschijnlijk weer veel te laat inzage gekregen ih spel. Ik heb ook de indruk dat nVidia het spel vuil speelt en de game developers een zak geld toestopt.

Ik stel voor dat Tweakers de review update met de 15.5 beta drivers van AMD.
CARS is heel simpel. Een spel dat zeer zwaar leunt op physics en gebruik maakt van de Physx engine van nVidia zal altijd in de problemen komen op AMD GPUs. Dan kan je als developer kiezen om ofwel een goede spelervaring neer te zetten voor iedereen die het spel kan draaien of je kan er voor kiezen om je spel kreupel te maken op bepaalde systemen waardoor het slechtere reviews zal krijgen.
Probleem is alleen dat de Physx in Project Cars via de CPU berekend worden en niet de videokaart.
Het echte probleem is wat Sherlock aankaart.

Nvidia maakt allemaal exclusiviteitsdeals waarmee hun voorrang krijgen zodat games beter draaien op nvidia dan op amd kaarten.

Tevens proberen ze het nvidia framework te slijten wat zoals in witcher 3 zit. dit framework is gedeeltelijk closed source waardoor amd bijvoorbeeld bepaalde dingen gewoon niet kan optimaliseren...

daardoor loopt amd in bepaalde gevallen achter.

Nu vind ik deze hele review lekker "easy mode" doordat men mantle bij bepaalde dingen gewoon niet mee berekend. bijvoorbeeld bij BF4 :

Omdat Nvidia-kaarten Mantle niet ondersteunen en we de testparameters gelijk wilden houden, hebben we Mantle niet ingeschakeld.

Wat een onzin om mantle niet te nemen , je wilt toch een goede vergelijking in performance, als je mantle neemt bij bv BF4 schiet de fps van amd's zo 20-30 fps omhoog. Dan is het lijstje ineens heel anders.

Het zijn zeker leuke kaarten voor nvidia , maar de manier van hoe ze met developers omgaan en hoe nvidia het express amd moeilijk maakt.... Vanwege die optiek zal ik ook volgende keer weer een AMD kaart halen. Ik hoop dat de 390x versies nvidia lekker op hun plek gaat zetten. Zal tijd worden!
Ch3cker Teamlead Testlab @Aionicus5 juni 2015 15:01
Speciaal voor jou heb ik Battlefield 4 met Mantle nog even gedraaid op de 290X. Zie hieronder de resultaten :

1920x1080
DirectX : 75.4 / 50.7
Mantle : 73.9 / 51.6

2560x1440
DirectX : 51.7 / 33.3
Mantle : 50.0 / 29.4

3840x2160
DirectX : 41.7 / 20.7
Mantle : 42.0 / 14.6

Zoals je kan zien heeft Mantle geen meerwaarde ten opzichte van DirectX. Sterker nog, bij de 4K resolutie is Mantle qua minimum FPS nog ongeveer 25% trager.

Mantle is echter wel heel goed in de CPU ontlasten. Voor systemen met een tragere CPU kan Mantle dus wel degelijk uitkomst bieden, zoals we eerder al eens belicht hebben.

We testen hier echter de videokaart, en niet de games. Als je de videokaarten met elkaar wilt vergelijken probeer je de bottleneck bij de videokaart te leggen, en niet bij de CPU. We proberen er daarom alles aan te doen om de CPU niet de bottleneck te laten zijn, en gebruiken daar dan ook een van de snelste processors op de mark voor. Bij deze processor is Mantle dus niet meer interessant.
Grappig , even youtube zoeken naar de combinatie processor + bf4 en dan mantle en je krijgt daadwerkelijk filmpjes te zien waarbij men een jaar geleden al 5-8 fps meer eruit wist te pompen. Nu vind ik het wel top van je dat je het even hebt getest .

linkje : https://www.youtube.com/watch?v=uUL1SEUioQY

het filmpje hierboven spreekt je alleen tegen , zelfde type processor en daar hebben ze al wel die fps veranderingen , misschien kan je ook zoon filmpje maken zodat het nu duidelijk is. Het filmpje hierboven geeft namelijk aan dat er wel degelijk al meer fps bij kwam en dat is een jaar geleden!

[Reactie gewijzigd door Aionicus op 23 juli 2024 07:38]

Ch3cker Teamlead Testlab @Aionicus5 juni 2015 18:37
Uh, dit is gewoon een filmpje met daarin een grafiekje, wat iedere leek kan maken. Wat voegt dit toe aan de cijfers die ik je net gegeven heb?

Overigens klopt de FPS in het filmpje voor Mantle gewoon met mijn resultaten. Blijkbaar heeft AMD in de driver inmiddels iets meer performance weten te halen uit de DirectX API. De 20-30 fps meer op mantle zoals jij eerder aanhaalde is echter complete onzin.
20-30 fps op low cpu is wel degelijk mogelijk , ik gaf het aan in de trend van dat zelfs al is het maar 5-8 fps dat het meegenomen moet worden , complete onzin is het dus niet , en om eerlijk te zijn :

jouw statistieken die je hierboven neerzet zijn net zo betrouwbaar als dat filmpje. iedereen kan zoiets even typen en neerzetten.

Dat filmpje hierboven laat zien dat er een fps verschil is. De personen die bv BF4 met mantle spelen (ook de high ends) halen er allemaal meer fps uit. dat zou genoeg moeten zijn.

Misschien dat ik bij een vriend op de zaak wel even mijn 290x of mijn vriendin's 290 in een testbank stop met dezelfde cpu als die ze hier gebruikten.

onze i5 en i7 bakken hebben weliswaar een mooie overclock , desondanks krijgen ze via mantle toch fps winst.
Ch3cker Teamlead Testlab @Aionicus5 juni 2015 22:30
20-30 fps op low cpu is wel degelijk mogelijk , ik gaf het aan in de trend van dat zelfs al is het maar 5-8 fps dat het meegenomen moet worden , complete onzin is het dus niet
Ik quote eventjes :
Wat een onzin om mantle niet te nemen , je wilt toch een goede vergelijking in performance, als je mantle neemt bij bv BF4 schiet de fps van amd's zo 20-30 fps omhoog. Dan is het lijstje ineens heel anders..
Ik denk dat ik daar genoeg mee zeg.
Dat filmpje hierboven laat zien dat er een fps verschil is. De personen die bv BF4 met mantle spelen (ook de high ends) halen er allemaal meer fps uit. dat zou genoeg moeten zijn.
Dat laat dat filmpje niet zien. Het filmpje laat een paar cijfers zien en een vaag beeld van wat gameplay. Verder ondersteunen de cijfers mijn cijfers die ik speciaal voor jou nog even heb gebenched. Waar wil je precies naar toe?
Waar ik naar toe wil is het volgende (en dat je dat nu nog niet snapt 8)7 :

Mantle geeft een fps verschil ook nog op de setup van hierboven. Dus dat moet gewoon meegenomen worden. Anders trek je niet het volledig haalbare uit de kaarten.

Dat houd in dat de grafiekjes zouden veranderen en dus een daadwerkelijk beeld geven ipv een vertekend beeld.

Met het filmpje geef ik aan dat het net zo betrouwbaar is als wat jij loopt uit te kramen.

Nu kwam ik erachter dat we toevallig ook precies hetzelfde moederbord type + cpu op de zaak hebben staan. Even mijn eigen 290x aangesloten en uit het korte testje op mantle haalden we al een performance increase van 6%.

Einde verhaal.
En dit : 'Even mijn eigen 290x aangesloten en uit het korte testje op mantle haalden we al een performance increase van 6%.' en jou filmpje is natuurlijk een stuk betrouwbaarder dan mijn cijfers, van een vastgesteld stukje gameplay, in een gecontroleerde omgeving.

Nogmaals, Mantle geeft geen prestatie winst op snelle processors, zoals ook hier is te lezen.
Wat een onzin om mantle niet te nemen , je wilt toch een goede vergelijking in performance, als je mantle neemt bij bv BF4 schiet de fps van amd's zo 20-30 fps omhoog. Dan is het lijstje ineens heel anders..
Het testsysteem bevat een Intel Core i7 4960X overklokt naar 4,4GHz. Op zo'n testsysteem biedt Mantle geen voordelen. De framerate met Mantle zal niet noemenswaardig anders zijn. De genoemde 20-30 fps meer daar zullen sommigen best over dromen, maar dat soort verschillen zien we alleen bij zeer zwakke CPU's. De Intel Core i7 4960X behoort niet tot die categorie, het is een CPU die duizend euro kost. Mantle levert al bijna geen prestatiewinst meer bij een Intel Core i5 processor van 200 euro. Alleen bij budgetprocessortjes levert Mantle echt betere prestaties.

[Reactie gewijzigd door dusty-2011 op 23 juli 2024 07:38]

Daar heb je het verkeerd , mantle geeft wel degelijk een performance boost , misschien is het maar 5% met een echte high end i7 maar mantle hoort gewoon meegenomen te worden. Je kan geen goede vergelijking maken als je niet de volle kracht benut van de kaart die je reviewed.

de 290x gainde al 5-8 fps in filmpjes van een jaar geleden met mantle , met dezelfde processor die ze hier gebruikten. De 290 ging nog wel met meer fps omhoog.

In andere woorden voeg die fps toe bij de lijst en dan zou de 970 onder de 290x en 290 staan. Het eindresultaat blijft natuurlijk dat de 980 ti bovenaan staat , maar het geeft een meer naar waarheid geproduceerd eindresultaat. Als we dan nog de resolutie opschroeven dan zal die lijst ook nog veranderen.
Met alles in bovenstaande post eens. Nividia speelt een vies spelletje en iedereen met een Nvidia kaart die nu zegt dat AMD het zelf gewoon verpest en dat ze incompetent zijn komen er vanzelf wel achter dat het een keer fout zal gaan dan. Tot dusver kan Nvidia zonder problemen dit soort praktijken beoefenen en uiteindelijk zal de prijs van een Nvidia kaart nog hoger zijn dan hij nu al is. AMD vs. Intel CPU's all over again.
Anoniem: 668222 @Aionicus2 juni 2015 09:48
Ik vind het nog al raar dat AMD Nvidia gpu physx de schuld geeft terwijl de game alleen maar cpu physx ondersteund. En later als nog de game goed kan optimaliseren omdat AMD de drivers verbeterd heeft.
Omdat Nvidia-kaarten Mantle niet ondersteunen en we de testparameters gelijk wilden houden, hebben we Mantle niet ingeschakeld.

Wat een onzin om mantle niet te nemen , je wilt toch een goede vergelijking in performance, als je mantle neemt bij bv BF4 schiet de fps van amd's zo 20-30 fps omhoog. Dan is het lijstje ineens heel anders.
Precies, wat een drogredenering. De echte reden is inderdaad dat Nvidia heeft opgelegd dat Tweakers geen Mantle mocht gebruiken om de review überhaupt te mogen doen. Heel jammer dit.

Een werkelijk onafhankelijke review neemt simpelweg óók Mantle mee om de resultaten objectief te houden en om de lezers volledig te informeren, punt. Maar goed, ethiek en bedrijfsvoering zijn toch soms tegengestelde zaken.

Andere redenen: Nvidia-geoptimaliseerde spellen én het expliciet niet noemen van de R9 295. Duidelijk lijkt me, ook al mogen mensen dit 'ongewenst' vinden. Kritisch zijn is blijkbaar een een eigenschap die niet iedereen kan waarderen. :)

[Reactie gewijzigd door CaptainPanda op 23 juli 2024 07:38]

Mijn ervaring is dat AMD altijd al brakke drivers had en altijd achterliep met spelondersteuning.. Enuh, ik vind het juist een hele rare situatie dat AMD (of nvidia) hun drivers zou optimaliseren voor bepaalde games (dat er bij bepaalde games bugs in de drivers naar boven zouden komen is een ander verhaal)..
Ik vind de drivers van AMD allesbehalve brak. Ok, het is al een half jaar geleden dat ze nog eens een whql hebben uitgebracht, de laatste zijn allemaal beta's. Maar die beta drivers lopen heel stabiel, ik heb nog nooit crashes of artefacten gehad(HD7950). Ik denk dat die beta's dus hetzelfde zijn als de whql's maar ze hebben de Windows testen gewoon niet doorlopen omdat dit te duur is(gelezen in een vd reacties op Tweakers, of het waar is weet ik niet).

Dat AMD heel laat komt met driverondersteuning voor bep. nieuwe games(ik zou trouwens niet weten dewelke, de games die ik speel heeft AMD altijd netjes op tijd een driver uitgebracht), hoe komt dat? Omdat de meeste games geoptimaliseerd zijn voor nVidia en AMD dus veel tijd nodig heeft om het spel goed draaiende te krijgen met hun drivers denk ik.
NV doet het goed met hoge ASP voor hun spul. Die marges geven ze veel kapitaal. Zonder CPU zwart gat waar AMD kapitaal verdwijnd.
Kan NV hun TWimtbp afdeling groot inzetten CUDA flink pushen. Wat ook flinke kosten post is.

Wat NV doet doet AMD ook. Maar op veel kleinere schaal omdat dit kosten zijn en het bedrijf de kapitaal daar ook voor moet hebben om zo agressief zich bij dev op te dringen. Heeft AMD niet dus kan niet op NV manier helemaal meekomen.

Ik zal zeker een NV kaart kopen maar niet zoon dure. Alleen voor die klote slet dev games die Cuda PhysX gebruiken en zich voor de NV car laten spannen. Maar van AMD koop ik dan wel hun high-end.

Het is sowieso een hele slechte game industrie status dat de twee leidende Physics middleware Havok en PhysX hun beleid bepaald wordt door PU bakkers respectievelijk iNTel en NVidia. Houd in dat GPUPhysics beperkt blijft tot effectPhysics of men GPUphysics mijd.

Zelf alleen probleem met NV met Vista gehad. ATI deed het veel beter met verse Vista. Voor de rest met beide merken geen problemen.
want studio's kiezen er zelf voor om samen te werken met Nvidia.
dat valt dus tegen. het zijn in ieder geval niet de technische mensen die er voor kiezen om met nvidia samen te werken maar de mensen van marketing... die daarvoor een grote zak geld krijgen van nvidia. ow ja en ze moeten beloven om AMD pas op het aller aller laatste moment te betrekken bij de game. daar deze dus geen drivers kan uitbrengen bij launch en al helemaal geen inspraak heeft op de code van de game om die ook voor hun hardware te optimaliseren.

maar als meer mensen zouden besluiten om games met nvdia gameworks links te laten liggen zou dat studios kunnen overhalen om dat soort gesloten deals niet te accepteren.
ik geef hem gelijk ,de kaarten worden achtelijk Duur!!!
750/1100 euro??? is van het zotte
Persoonlijk vindt ik het wel meevallen. Ik heb ooit eens de Orchid Voodoo 3dfx geïmporteerd uit de US voor 750 dollar omdat toen niemand in Nederland nog had gehoord van de 3DFX. Orchid was ook de eerste fabrikant die in zee ging met 3DFX. Het was ook de allereerste release van 3DFX. Ik kan zelfs stellen dat ik toen één van de eerste in Nederland was met zo een kaart.

Ter vergelijking dit was een alleen een 3D accelerator, dus geen 2D video. Met 2mb frame buffer en 4mb texture memory met een max resolutie van 800x600 pixels.

Dus nu krijg je aanzienlijk meer bang voor de bucks met een GTX980 TI.
Volgens mij ben je een 0 vergeten want in BEF (Belgische Frank) is het 30255/44374

[Reactie gewijzigd door Damic op 23 juli 2024 07:38]

BEF? Wat houdt BEF in?
Zonder gekkigheid, het is belachelijk duur dat je een videokaart uitbrengt wat ongeveer 700+ euro kost?

Of het ligt het aan mij dat het zo ontiegelijk duur is?

300/400 voor een videokaart waar je "bang for you bucket" hebt vind ik wel te doen.
Top kaarten zijn altijd duur geweest. Het echt dure high end spul biet niet genoeg bang for buck en dat hoeft ook niet. Het zijn onderdelen bedoeld voor de mensen die het kunnen veroorloven en zo gek zijn het er ook effectief voor over te hebben.

Heb zelf ooit ook nog een PC gehad van €2500 waarbij de grafische kaart van €500 na een jaar al vervangen werd door een nieuwer exemplaar van €600.
AMD kaarten zijn nog altijd bang for you buck, je ziet ze overal in de uitverkoop, vooral in duitsland zijn die kaarten erg goedkoop, weet niet waarom...

Het lijkt wel of in Duitsland altijd heel goedkoop is kwa elektronica.

Precies wat jij zegt, dat harstikken zonde... Dat je al na een jaar je kaart al moest vervangen, maar kijk naar nu en naar toen.

Nu zitten we in een tijdperk dat niet met de elke maand sneller videokaarten uitkomen, die race zijn we al voorbij.

Vroeger kon je wel zeggen dat elke maand of om de elke maand een nieuwe videokaarten uitkwamen. Opgeven moment kom je in een tijd dat haast niet meer sneller kan, en DAAR zitten we nu in.

Ben is benieuwd hoe de videokaart landschap over 5 a 7 jaar uit gaat zien.
Sorry, maar de breedte van de geheugenbus (384 bits) en de geheugengrootte (6 MB) van deze GTX 980Ti hadden de uitvoering van de standaard GTX 980 moeten zijn, met haar huidige prijs van 550 Euro. Dan had de prijs/prestatie geklopt.

Met een dergelijke 980 GTX had nVidia een leukere kaart gehad voor hoge resolutie gaming. Dit hoge resolutie gaming ontwikkelt zich met de betaalbare schermen sneller dan nVidia zich lijkt te realiseren. Hiermee had ze de 970 niet hoeven beschadigen en die als prachtige 1080p kaart (en misschien zelfs 1440p) kunnen laten bestaan. De geheugenbus (256bit) van de 970 en geheugengrootte 4 echte MB's aan geheugen zouden dan genoeg verschil maken met de 980.

Het is toch lullig dat haar topkaart tot nu toe, de GTX 980 gesmoord wordt door haar geheugen bandbreedte zodra ze boven 1080p aan het werk gaat?? En met topkaart bedoel ik een kaart die met veel moeite nog te betalen is. De originele Titan kan ik daar niet onder rekenen. Die is voor een heel klein markt segment bedoelt. En dat geldt ook voor deze GTX 980 Ti. Als games worden uitgelegd voor de performance van dit kaliber kaarten, dan wordt PC gameland behoorlijk leeg.

Je hebt als merk toegang tot het cutting edge procede, en hebt de kans om een energiezuinige killer GPU te maken als ook haar datapad op orde was geweest. Had nVidia gedaan zoals hier net geschetst had ze AMD op alle vlakken afgetroefd. Daar zouden geen (veronderstelde) schemes in de gamingindustrie voor nodig zijn, een ook niet enkele te dure exoten voor de happy view.

nVidia had de kaarten in handen, ze had ze meedogenloos kunnen uitspelen. Ze heeft dit niet gedaan. Fascinerend. AMD komt goed weg met de gratie van de verkeerde keuzes die nVidia heeft gemaakt. En wij gebruikers zitten met een impasse opgescheept van schitterende 1440p of hoger beeldschermen die met normale grafische hardware niet voldoende zijn aan te drijven.

Edit: typo's

[Reactie gewijzigd door teacup op 23 juli 2024 07:38]

Ja right??? {Heb zelf ooit ook nog een PC gehad van €2500 waarbij de grafische kaart van €500 na een jaar al vervangen werd door een nieuwer exemplaar van €600. }

Gast zo'n kaart van 500 euro gaat echt wel langer mee als 1 jaar!!!!
of je bent gewoon opgelicht waar jij de pc hebt gekocht.

heb zelf asus 7970 uit 2012 en doet het prima waarom zou ik nu ati of nvid halen?

Omdat ZIJ nu mooie verkoop praatjes van Nvid/Ati hebben???

of dacht jij alles wat nieuwer uitkomt het beste is?{ videokaarten}elke kaart word 3x gebruikt kijk maar wat er nu gebeurd 970-980-980x-980gtx-980 ti enz...... zelfde met ati.

dat noemen wij weg gegooid geld.maar zo te lezen heb jij geld zat om naar 1j kaart vervangen

[Reactie gewijzigd door noway op 23 juli 2024 07:38]

is toch zo als we terug rekenen naar gulden!!!!
in de Gulden tijd kosten de top kaarten nooit zoveel!!!!

top kaart van asus agp 256mb was rond 500 gulden
Ik kan me nog een advise prijs van NV kaart herrinneren van FL 1600,-
Sinds AMD met hun performance klasse. tussen midrange en high-end in.
Is het wat meer bang for the buck geworden.

Dat zie je meer aan de DIE grote. Niet al te groot
Ze maken leuke kaarten, maar m'n volgende wordt toch AMD. NViDIA maakt zich de laatste tijd flink vaak schuldig aan het onnodig saboteren van spellen zodat ze verschrikkelijk werken op AMD kaarten en oudere NViDIA kaarten, en zo de mensen dwingen het nieuwste weer te kopen. Ik ben nu op mobiel maar er is genoeg over te vinden op internet.
voor dat spelletje heb je meer invloed en geld nodig (denk ik) maar ik snap dat door dit soort fratsen AMD wel meer karakter lijkt te krijgen. Alsof je voor david kiest in een gevecht tegen goliath.
Is dit niet een beetje over the top?

Als we even kijken naar de cijfers van AMD sinds de inlijving van Ati dan zien we dat er al die jaren nauwelijks marge is gedraaid op de graphics afdeling. We praten dan over bijvoorbeeld 50 miljoen operationele marge per jaar. Operationele winst, dus daar gaan nog kosten vanaf. Dit betekent dat AMD zijn kaarten vaak rond het kost punt verkoopt. Het is zelfs voorgekomen dat er geen winst werd gemaakt. Helaas kunnen we het nu niet meer zien hoe het gaat doordat AMD meer zaken bij "graphics" heeft gegooid. Maar tussen 2006 en 2012 kon dat wel.

2012: 1417 omzet 105 = 7%
2011: 1565 omzet 51 = 3%
2010: 1663 omzet 149 = 9%
2009: 1167 omzet 35 = 3%
2008: 1132 omzet 9 = 0%
2007: 992 omzet -39 (verlies)
2006: 189 omzet =6 (verlies
Dit is bij elkaar 304 miljoen Operating income. . Ter vergelijking Nvidia haalde allen al in 2012 872 miljoen EBITA, dus voor belasting en rente, binnen. Nvidia haalde in 5 maanden binnen waar AMD 7 jaar over deed(!).

Wat AMD dus doet heeft veel weg van Product dumping. Ze hebben Ati omgebouwd van een "premium" product met een gezonde marge naar een prijsvechter zonder gezonde marge. Ten tijde van de Ati Radeon 9800 Pro werd dat nog de rolls royce van de videokaarten genoemd en zat ik zelf met een "budget" Nvidia FX 5900 XT waarvan ook gezegd werd dat het beeld kwalitatief slechter zou zijn. Zonde toch?

Die lage marges is echt iets waar niemand beter van wordt want bij weinig winst is er veel minder ruimte voor R&D (zie ook het dalende R&D budget bij AMD) en dus uiteindelijk ook innovatie. Uiteindelijk heeft iedereen hier last van want de concurrentie (in dit geval Nvidia) kan de prijsstelling van AMD niet negeren. Zolang Nvidia dus niet een heel erg superieur product heeft kan ook Nvidia geen winst maken, puur door de prijsstelling van AMD.

Persoonlijk vindt ik die situatie zorgwekkender en meer "verstorend" werken dan zaken als gameworks waar ontwikkelaars zelf voor kiezen. Niemand belemmert AMD om ook een gameworks/hairworks variant uit te brengen. Het is voor makers van een game niet onmogelijk om beide via de opties van een game beschikbaar te maken.

Los van dat alles heeft AMD toch ook Mantle en TrueAudio. Waarom altijd die eenzijdige weergave van verontwaardiging (dit werkt overigens twee kanten op)? Misschien nog eens nadenken waarom Nvidia groen en AMD rood is. Allemaal symboliek zodat de consument zich met het bedrijf identificeert. Dat lijkt goed te lukken...

[Reactie gewijzigd door sdk1985 op 23 juli 2024 07:38]

"Het is voor makers van een game niet onmogelijk om beide via de opties van een game beschikbaar te maken."

Wel als Gameworks het verbiedt om dingen van AMD te implementeren. En die leuke Nvidia dingetjes krijg je alleen met, jawel, Gameworks.

Dus als bedrijfje kun je kiezen:
AMD's behoorlijk open dingen ondersteunen, geen gebruik maken van Gameworks en een vrij kleine zak geld krijgen. Voordeel is wel dat het ook op Nvidia prima draait.
Nvidia's gesloten dingen ondersteunen, geen gebruik maken van AMD en een flinke zak geld krijgen. Op AMD draait het wel kut de eeste maand[en], maar, money!

De meeste bedrijven, zeker kleintjes zoals die achter pCars en TW3, kiezen dan echt voor optie 2. Wat kan AMD hen boeien zolang die niet langs komt met de creditcard.

AMD heeft namelijk al de nodige variaties van wat Nvidia heeft, zoals TressFX, en iets als TrueAudio is uniek, maar die worden nauwelijks gebruikt omdat Nvidia dan direct begint te kloten.

Mantle vind ik daarom een heel slim idee van AMD, DX12 draait in de huidige benchmarks beter op AMD kaarten, omdat het veel van Mantle kopieërt. Zoals hieronder staat: close-to-metal optimaliseren, en misschien wel wat Nvidia optimalisaties dwarsbomen omdat het dan buiten spec valt.
Wel als Gameworks het verbiedt om dingen van AMD te implementeren. En die leuke Nvidia dingetjes krijg je alleen met, jawel, Gameworks.

Dus als bedrijfje kun je kiezen:
AMD's behoorlijk open dingen ondersteunen, geen gebruik maken van Gameworks en een vrij kleine zak geld krijgen. Voordeel is wel dat het ook op Nvidia prima draait.
Nvidia's gesloten dingen ondersteunen, geen gebruik maken van AMD en een flinke zak geld krijgen. Op AMD draait het wel kut de eeste maand~[en], maar, money!
Je presenteert nu geruchten als feit. Op basis daarvan kun je toch niet lekker discussiëren. Tegen beter weten in doe ik toch een poging...

Er van uit gaande dat wat jij suggereert waar is dan verandert mijn punt NIET. Immers ook AMD kan een vergelijkbare library opzetten met vergelijkbare eisen. Het wordt dan vechten om de beste titels binnen te halen. Dat was nu juist het hele punt... Dat spel kennen we toch al jaren bij de consoles met exclusives etc?

Maar dat uitgangspunt vindt ik niet echt realistisch. Immers indien wat jij suggereert waar is dan springt de SEC daar echt wel bovenop. In Amerika doen ze niet lullig dat zijn meteen miljarden claims en gevangenis straffen... Ze gaan zelfs undercover (zie FIFA...).

Dit is wat Nvidia te zeggen had mbt closed source en verbod op AMD:
Rev Lebaradian, Nvidia’s Senior Director of Engineering said on the podcast. “That’s just false. We have source code licensing, and with close partners we’ve always shared source code and they can do whatever they want with it. Optimize for any platform they like.”

“There’s nothing about the contract that Nvidia does that prevents a developer for optimizing for anybody. Nobody would agree to that kind of stuff,” Nvidia’s Tom Petersen, one of the company’s Distinguished Engineers, added during the interview

Directly addressing allegations from AMD in a piece by Jason Evangelho in Forbes, Lebaradian said: “I’d love to see any proof of that.”
Moeten we nu op tweakers mee doen aan het modder gooien en de welles nietus?

Die hele zak geld redenatie (die je ook vaak over MS hoort) zet ik überhaupt mijn vraagtekens bij. Ik kan het in ieder geval zo 1,2,3 niet terugvinden in de jaarcijfers. Of gaan we nu ook aannemen dat er illegale geldstromen zijn?

Persoonlijk vindt ik het allemaal een beetje ver gezocht tot er concrete bewijzen zijn (en dus een rechtzaak). Nvidia zit al jaren in een luxe positie waarbij ze gewoon goede marges halen. Het is dus in ieder geval niet nodig om het op die manier te spelen.

Is het niet aannemelijker dat het voor ontwikkelaars gewoon tijd en dus geld scheelt als je gebruik kunt maken van libraries? Als ik zelf een programma schrijf en ik kan gebruik maken van het opensource mediainfo.dll dan gebruik ik die toch gewoon in plaats van het wiel uit te vinden... Scheelt weer 100 uur werk. Ik heb dan geen zak geld ontvangen en toch gebruik ik het... Laat AMD dan ook maar met iets zinnigs komen. Mantle was een leuke poging maar ze kregen te weinig engines mee.

Maar goed mijn punt met betrekking prijsstelling van AMD, op basis van cijfers van AMD zelf, verandert niet... Los van het modder gooien en de "exclusives" is AMD gewoon slecht bezig, zoals ze zelf jaarlijks erkennen in het 'annual report'. Jammer voor AMD, jammer voor Ati en jammer voor gamers... Ik vrees dat we die verlaagde AMD binnenkort nog wel gaan merken en dat de gpu tak van AMD in een vergelijkbare situatie komt als de cpu tak.

[Reactie gewijzigd door sdk1985 op 23 juli 2024 07:38]

source
AMD has its own hair rendering solution, called TressFX, which was able to render and tessellate hair much better on their own hardware than it was on Nvidia’s’. However, within a month or two of Tomb Raider‘s release, the software was running comparably on both cards, because AMD’s more open agreement allowed developers, as well as Nvidia, to optimize their drivers and code to work better with the technology. Because Nvidia’s use agreement doesn’t allow for that sort of tinkering and redesigning, it either works and you implement it across the board, or you don’t use it at all.
Je quote nu de mening van meneer Brad Bourque staff write van digitaltrends.com. In mijn quote van Nvidia wordt het tegenovergestelde beweerd; de code is niet closed en kan worden aangepast door de dev's. Aldus:
Nvidia’s Senior Director of Engineering said on the podcast. “That’s just false. We have source code licensing, and with close partners we’ve always shared source code and they can do whatever they want with it. Optimize for any platform they like.”

Read more: http://vr-zone.com/articl.../80948.html#ixzz3bcv7biDb
Wie is Brad Bourque dat we zijn mening moeten geloven in plaats van een officiële statement? Werkt hij aan Tomb Raider? (nope, zie linkedin).
En hier staat heel duidelijk dat ze AMD niet de source code geven.
Seeking some clarification, I asked if perhaps AMD’s concern was that they’re not allowed to see the game’s source code. Cebenoyan says that a game’s source code isn’t necessary to perform driver optimization. “Thousands of games get released, but we don’t need to look at that source code,” he says. “Most developers don’t give you the source code. You don’t need source code of the game itself to do optimization for those games. AMD’s been saying for awhile that without access to the source code it’s impossible to optimize. That’s crazy.”

As for the Nvidia-specific source code: “The way that it works is we provide separate levels of licensing,” Cebenoyan explains. “We offer game developers source licensing, and it varies whether or not game developers are interested in that. Now, like any other middleware on earth, if you grant someone a source license, you grant it to them. We don’t preclude them from changing anything and making it run better on AMD.”
Het hele artikel
Waarom zou je AMD de source code geven? Er staat dat NVIDIA de source beschikbaar maakt voor partners (i.e. game developers, niet AMD), en dat ze vrij zijn om veranderingen door te voeren.
However,within a month or twoo of Tomb Raider‘s release, the software was running comparably on both cards, because AMD’s more open agreement allowed developers, as well as Nvidia, to optimize their drivers and code to work better with the technology.
Maar het was dus ook niet direct goed, oftewel Nvidia kon ook niet voor release optimaliseren. AMD heeft binnenkort ook een nieuwe driver die de prestaties moet verbeteren voor beide games. Ben wel benieuwd hoe goed de kaarten dan zijn, want voor zover ik weet heeft Nvidia niet plotseling meer inzicht gegeven in hun software. Dus alle verbeteringen die ze weten te behalen hadden ze ook eerder kunnen doen als ze met de ontwikkelaars hadden samengewerkt. En die zijn natuurlijk niet tegen samenwerking, Maar als je na 2 jaar ontwikkelen voor hairworks plotseling nog 2 maanden voor release de vraag van AMD krijgt of je hun versie wilt implementeren, tja dan begrijp ik wel dat je dat niet meer gaat doen.
bron
Maar het was dus ook niet direct goed, oftewel Nvidia kon ook niet voor release optimaliseren.
Dus alle verbeteringen die ze weten te behalen hadden ze ook eerder kunnen doen als ze met de ontwikkelaars hadden samengewerkt
Waar haal je deze aannames vandaan?

dat artikel uit je bron, hij heeft een aantal goede punten, maar sommige punten zijn zo onjuist of biased dat ik het hele stuk maar moeilijk kan lezen
[...]
Er van uit gaande dat wat jij suggereert waar is dan verandert mijn punt NIET. Immers ook AMD kan een vergelijkbare library opzetten met vergelijkbare eisen. Het wordt dan vechten om de beste titels binnen te halen. Dat was nu juist het hele punt... Dat spel kennen we toch al jaren bij de consoles met exclusives etc?
[...]
For the love of god. Doe dit nou niet. Je wil echt geen console wars op pc hebben. Dit resulteert uiteindelijk op dat pc A spel C kan draaien maar pc B niet etc.

Concurreren op prijs/snelheid is prima, de grootste winnaar is dan de consument. Maar met console-achtige taferelen zijn gamers de grootste verliezer.
[...]


For the love of god. Doe dit nou niet. Je wil echt geen console wars op pc hebben. Dit resulteert uiteindelijk op dat pc A spel C kan draaien maar pc B niet etc.

Concurreren op prijs/snelheid is prima, de grootste winnaar is dan de consument. Maar met console-achtige taferelen zijn gamers de grootste verliezer.
Dit scenario is volgens de geruchten al werkelijkheid... Immers Nvidia zou exclusiviteit afdwingen. De reden dat het nooit zo ver zal gaan als jij nu beschrijft (allen speelbaar op hardware x) is dat Intel IGP's nog altijd door19% van de steam gamerss wordt gebruikt (en op basis van algemene pc verkopen nog veel meer). Men krijgt dus altijd een basis game op basis van bijvoorbeeld DirectX en een vendor specific versie met alle extra's van Nvidia OF AMD. Dit is iets wat we nu al zien (Nvidia met gameworks en Physx maar ook AMD met Thief enTrueAudio bijvoorbeeld).

Dus als AMD met AMD Gameworks komt is dit niet de ondergang van pc gaming... Het zal altijd draaien op zowel Intel als Nvidia.

Ik zou me er dus niet te veel zorgen over maken. Die exclusiviteits regels zijn tot heden überhaupt nog geruchten. Er zijn nog geen documenten opgedoken waaruit blijkt dat men geen Gameworks (nvidia) EN Trueaudio (AMD) kan implementeren.

Daarnaast gaat nu gewoon anders. Dingen kunnen naast elkaar bestaan. Vroeger (denk in de jaren 90) hadden we 3dfx met hun prioritaire glide. Er kwamen toen een aantal games uit die alleen op glide werkte. Mantle is net als glide een propriotiaire api. Echter anno 2015 was het direct al mogelijk om je game te starten MET en zonder mantle. Mantle was op die manier geen bedreiging voor versnippering van de pc gaming markt. Een exclusieve AMD gameworks variant zal niet anders verlopen. Geen uitgever gaat meewerken aan een game die alleen op Nvidia hardware of AMD hardware draait...

[Reactie gewijzigd door sdk1985 op 23 juli 2024 07:38]

[...]
Men krijgt dus altijd een basis game op basis van bijvoorbeeld DirectX en een vendor specific versie met alle extra's van Nvidia OF AMD. Dit is iets wat we nu al zien (Nvidia met gameworks en Physx maar ook AMD met Thief enTrueAudio bijvoorbeeld).

Dus als AMD met AMD Gameworks komt is dit niet de ondergang van pc gaming... Het zal altijd draaien op zowel Intel als Nvidia.
Dat is de situatie nu. Maar wat als die Nvidia/AMD libraries veel meer doorontwikkeld zijn? Dat de extra vendor specific features waar je over hebt zo uitgebreid is geworden dat je de heflt van het spel mist als je uitzet?

Ik zie dit echt verkeerd lopen als AMD ook met hun features komen en 3-4 jaar later deze brand specific features een groot deel uitmaken van een spel. Dan is het dus of bepaalde merken videokaart kopen of spel spelen die kwa graphics 1-2 generaties acherlopen.

Je moet even verder denken dan nu. Ga na wat voor gevolgen dit heeft voor de pc gaming markt een paar jaar later.
Ja je wilt geen exclusives. Ik ben ook een console gamer. Wat inhoud wil je een exclusive spelen moet je bij behorende platform hebben.
P1
PS3
Xbox3 Elite
Vita
Wii
WiiU
PC iNtel met NV
PC AMD met AMDTI

Ook geen PU bakker die middleware bezitten.

Daarom geen Gameplay Cuda PhysX hooguit in tech demo's niet in Retail games.

Tja je bent als gamer toch genaaid. Kies je voor platform dan mis je de andere exclusives.
Kies je voor meerdere platformen wordt je flink op kosten gejaagd.

Loose loose situatie.
Zou het ook niet kunnen dat de software developers (drivers) van AMD momenteel onderbemand zijn omdat ze ook drivers moeten schrijven voor de consoles waar AMD hardware in zit? Daardoor verwaarlozen ze misschien de pc-markt en kunnen ze niets to gameworks van nVidia zetten?

AMD is in ieder geval niet goed bezig. Vroeger was het altijd stuivertje wisselen wie de performanste videokaart had: AMD of nVidia. Nu begint AMD serieus achter te lopen qua prestaties en verbruik. De nieuwe 3xx reeks zal qua prestaties wel meekomen met nVidia maar het verbruik zal wel weer hoger liggen.
Hoe weet je dat amd meer verbruik heeft? Er zijn geruchte dat het 6w meer verbruikt als de titan. Maar ook geruchten dat het VEEL meer verbruikt. Lijkt mij dus gewoon even wachten tot amd iets heeft gezegd. Tevens maak iedereen zich zo druk om het verbruik. Maar vergeten even dat ze ook veel goedkoper zijn dan nvidia. En wat heeft nvidia nu te bieden buiten de 970/980/titan? Pre 300 euro is amd altijd de betere keuze.
Waterkoeling en ook al reviews gelezen, weet niet meer waar.

Ik vind dat het prestatie/watt ook wel goed moet zitten. Getuigt van een goed gpu-architectuur. Vergeet ook niet, hoger verbruik is ook meer warmte in je kast dus meer geluid.

HBM vind ik dan weer wel veelbelovend van AMD. Grote stap vooruit voor 4K gaming denk ik en kan ik eindelijk een 4K monitor kopen.
als je vind dat prestatie/watt ook goed moet zitten dan is eigenlijk alleen de 970 interessant. want de rest van de nVidia kaarten lust ook wel wat prik.

http://www.anandtech.com/...orce-gtx-980-ti-review/16
Wel als Gameworks het verbiedt om dingen van AMD te implementeren. En die leuke Nvidia dingetjes krijg je alleen met, jawel, Gameworks.
Laten we eens kijken naar GTA V. Die game biedt zowel AMD-features als Nvidia-features. Het kan dus wel. Nvidia heeft o.a. PCSS en TXAA als features. AMD heeft AMD CHS schaduwen.
TXAA en PCSS zijn GameWorks-features. En deze zitten gewoon ingebouwd in een door AMD-gesponsorde game, met ook AMD-features erin.

[Reactie gewijzigd door dusty-2011 op 23 juli 2024 07:38]

Niemand belemmert AMD om ook een gameworks/hairworks variant uit te brengen
Dit zie je wel vaker voorbij komen, maar iedereen waaronder jij weten dondersgoed dat dit niet gaat gebeuren.

Zelf al zou AMD een eigen gameworks hebben, wordt alsnog die van nVidia gebruikt, reden is simpel, nvidia gooit er een zak geld tegen aan en nvidia is een bekender merk voor GPU's
. Het is voor makers van een game niet onmogelijk om beide via de opties van een game beschikbaar te maken.
Niet onmogelijk, alleen zullen ze het bijna nooit doen, want 2x meer werk en dus 2x meer geld
dus kiezen ze voor de bekenste in dit geval nVidia, en dan praat ik nog niet eens over de mogelijkheid dan nVidia dit gewoon verbied

[Reactie gewijzigd door Sinester op 23 juli 2024 07:38]

[...]

Dit zie je wel vaker voorbij komen, maar iedereen waaronder jij weten dondersgoed dat dit niet gaat gebeuren.

Zelf al zou AMD een eigen gameworks hebben, wordt alsnog die van nVidia gebruikt, reden is simpel, nvidia gooit er een zak geld tegen aan en nvidia is een bekender merk voor GPU's
Iedereen die Nvidia kent, kent AMD ook. Er is zelfs een tijd geweest dat AMD meer videokaarten verkocht dan Nvidia. Zie de verkoop van 2002 tot 2013: http://img.techpowerup.org/131030/discrete.jpg

Dus laten we AMD niet zieliger maken dan nodig... Ze hebben Ati voor 5.4 miljard aangeschaft en we zijn nu 9 jaar verder.

AMD kwam pas heel recent met Mantle en TrueAudio. Nvidia kwam in 2008 met PhysX en gebruik daarvan is ook niet bepaald storm gelopen... Ik herinner me Mafia II en Borderlands als games waarbij het, een beetje, nut had.
[...]

Niet onmogelijk, alleen zullen ze het bijna nooit doen, want 2x meer werk en dus 2x meer geld
dus kiezen ze voor de bekenste in dit geval nVidia, en dan praat ik nog niet eens over de mogelijkheid dan nVidia dit gewoon verbied
Maar wat is twee keer meer? Redeneren op basis van procenten is niets zeggend zonder een inschatting te maken van de absolute waarden. Als het goed in elkaar zit dat is het makkelijk te implementeren. Om mijn originele voorbeeld aan te halen; downloaden en implementeren van mediainfo.dll stelt een amateur instaat om binnen 1-2 uur informatie uit media bestanden te halen. Deze functionaliteit zelf programmeren zou honderden uren kosten. Echter omdat er een library beschikbaar is met een documentatie ben je "zo" klaar. Het is aan AMD en Nvidia om met goede tools te komen.

Het is zeker niet ondenkbaar dat een game meerdere varianten ondersteund. Denk aan DX11/DX9 switches, Mantle switches en wat verder terug de OpenGL, Hardware T&L, etc popups voor het starten van je game.

[Reactie gewijzigd door sdk1985 op 23 juli 2024 07:38]

huh dus omdat Nvidia commercieel zijn zaakjes wel voor elkaar heeft en AMD niet stap je over naar AMD!? das toch wel een beetje raar! Er zijn altijd al studios geweest die hun games geoptimaliseerd hadden voor een bepaalde chip...en zolang als die studios bestaan al!!

Dus dit nu pas concluderen getuigd ook niet van een gedegen onderzoek voor je vorige aanschaf!
Ummm, waarom kost in de EU 750 euro terwijl die in de US voor 650 dollar over de toonbank gaat.
Wij betalen nu 15% meer voor die kaart, of is dit toch noodzakelijk vanwege de koers.
  • In de EU betalen wij €750 inclusief belasting
  • In de VS betalen ze $650 exclusief belasting
Prijs EU exclusief belasting: €750 / 1.21 = €620 = 681 U.S. dollars.
In Europa betalen we exclusief belasting dus $31 oftewel €28 meer dan in de VS.

In oktober (2014) kreeg je nog rustig $1.30 voor 1 euro. Nu krijg je voor 1 euro nog maar $1.10. Daarom zijn de Europrijzen tegenover de Dollarprijzen dus relatief meer dan de een paar maanden terug.

@BonSie: Elke Amerikaanse staat heft zijn eigen belastingen, en heeft ook een ander BTW tarief over goederen. 6% is daar zo'n beetje gemiddeld, maar er zijn ook staten die helemaal geen BTW heffen, en het hoogste wat je tegenkomt is zo'n 10%.

Voor een fabrikant is het dus veel makkelijker om de prijs exclusief BTW op te geven, waarna de consument/verkoper in zijn eigen staat daar nog de belasting bij optelt.

[Reactie gewijzigd door Balance op 23 juli 2024 07:38]

Zie ook deze grafiek die heel duidelijk laat zien hoe snel de euro gekelderd is t.o.v. de dollar. 1.30 was blijkbaar voor het laatst net voor 1 sept '14

[Reactie gewijzigd door Eomer op 23 juli 2024 07:38]

Ik weet niks van de amerikaanse economie, is het zo dat ze daar geen BTW over producten betalen?
Jawel, maar omdat de BTW per staat verschilt (en geldt voor de staat waarin je woont, en NIET voor de staat waarin je bestelt) vermelden ze em er nooit bij.
A ok, maar de prijs van 650 dollar is toch ook inclusief BTW, of is het daar gewoon lager, is natuurlijk lastig te zien aangeizen ie nog nergens beschikbaar is.

Man wat is dit verwarrend, ik hou het maar bij ICT in plaats van economie.

[Reactie gewijzigd door BonSie op 23 juli 2024 07:38]

Alle prijzen van producten in amerikaanse webshops zijn zonder BTW (sales tax). De sales tax is ~6 tot 9 % afhankelijk van de staat waar je woont. Verzendingen naar het buitenland zijn tax free, maar daar betaal je dan weer invoer belasting en btw over zodra het in NL langs de douane komt.

Overigens zijn Nvidia kaarten bij introductie altijd duurder en dalen ze in prijs zodra ze daadwerkelijk beschikbaar zijn in de winkel. Dit is de afgelopen jaren eigenlijk altijd het geval geweest, een prijs van 699 euro is dan ook niet onrealistisch.
Dus samengevat na alle reacties, is deze kaart zo duur vanwege onze hogere BTW en lagere euro waarde tegenover de amerikanen.
Moest vandaag even mijn oide factuur bij halen wegens garantie. In 2011 kocht ik 2x4gb voor 35 euro. Nu kost deze set 70 euro. En de goedkoopste rond de 50 euro.
Ram chips waren in die tijd geloof ik in overvloed en kelderde die markt volledig. Zijn ook Ram fabrikant(en) failliet gegaan daardoor.

Staat dus nog even los van de wisselkoers :9
Inderdaad heel raar. Mag toch hopen dat het een fout is van tweakers..
Denk dat het geen fout is van Tweakers want Hardware.info vermeldt ook €750. Heeft te maken met taxes in de US.

[Reactie gewijzigd door caesar1000 op 23 juli 2024 07:38]

Klopt.

In Amerika komt er nog VAT + State Tax overheen. Daarnaast is de waarde van de Dollar inmens gestegen tegenover een paar maanden geleden.
De dollar is in verhouding met andere valuta meer waard geworden. De euro minder. Dus een dubbel effect. Daarnaast betalen we hier veel meer belasting dan in de USA. Waar het eerst advies prijs in dollars = verkoop prijs hier in euro was is het nu al snel adviesprijs +5 a 7% voor de verkoop prijs in NL.
Met name de V.A.T. die er bij afrekenen nog bij komt.
750 EUR = 824 USD
Lijkt me sterk dat ze daar een 175 USD aan taxes zullen betalen..
Al kan het wel kloppen voor Europa, want dan kom je op een 20-25~% uit.
USA heeft naargelang de staat een verschillende tax, maar 6% is niet abnormaal.

[Reactie gewijzigd door SmokingCrop op 23 juli 2024 07:38]

Nee daar niet maar in de EU wel. Wij betalen 21% x 7.50 en ean zit je er al bijna.
Voorheen was het toch altijd het geval van munt omwisselen, of was dat bij videokaarten niet zo.

980 was ook 550 dollar en 550 euro.
Toen stond de euro nog goed tov. de dollar.
Nu is de ECB maandelijks 60 miljard euro aan het bijdrukken tot september 2016..
Slecht voor zaken die gehandeld worden in dollars, zoals de PC Hardware markt, maar goed voor export enz.. Daarom dat er zoveel producten een 10+% gestegen zijn in prijs tov. 6 maand geleden.

Toen was 1 USD = 0,70~ EUR, nu is dat 1 USD = 0,90~ EUR
Zie nu inderdaad dat de euro harder is gedaald dan ik dacht. Amerikaanse economie zit ook wat anders in elkaar.
De dollar is qua koers dichter naar de euro gekropen, dit zal een extra verschil maken naast het feit dat US advies prijzen voor zover ik weet altijd zonder BTW en andere mogelijke belastingen zijn omdat deze in de US staat afhankelijk zijn, in plaats van hier hetzelfde in het hele land.
Je draait nu oorzaak en gevolg om, de euro is lange tijd ~25% meer waard geweest dan de dollar, waar er in Europa ongeveer dat percentage aan belasting opkomt. Toevallig heeft dat tot een aantal jaar Euro = Dollar geleid m.b.t tot Hardware. Nu de euro minder waard wordt betaal je er hier dus gewoon meer voor
Lees ik er nu overheen of testen ze hem nu niet tegen de Titan X terwijl het toch echt een Titan X light lijkt te zijn.

Ze hadden op zijn minst even kunnen verklaren waarom dan niet. Bedankt PiweD, voor de toevoeging. Jammer voor jullie, maar het is alsnog een duidelijk verhaal.

[Reactie gewijzigd door artificial_sun op 23 juli 2024 07:38]

Daar lees je helaas niet overheen, Nvidia heeft ons een Titan X beloofd, maar dat sample laat nog altijd op zich wachten. Voor zover ik na heb kunnen gaan hebben andere websites een sample op kunnen pikken tijdens gtc, maar daar waren wij niet aanwezig, dus voorlopig geen Titan X vergelijking :(

Edit: heb het ook even in de tekst toegevoegd.

[Reactie gewijzigd door PiweD op 23 juli 2024 07:38]

Begrijpelijk, maar de benchmarks voegen nu erg weinig toe. Logisch dat deze kaart sneller is dan een gewone 980, maar hoeveel langzamer is hij dan een Titan. De titel is nu gebaseerd op een aanname. Sowieso qua prijskaartje niet echt een kaart voor de doorsnee tweaker, maar toch. ;)
De titel refereerde eigenlijk naar de gpu die dezelfde als de titan x is, maar dan met 2 units uitgeschakeld dus 'kleiner' :) En dat ie sneller is dan de gewone gtx 980 is natuurlijk geen verrassing, maar hoe veel sneller was nog de vraag. Het liefst had ik 'm ook met de titan x vergeleken, maar die mogelijheid hebben we dus niet :(
Neem aan dat Nvidia deze niet voor de benchmark beschikbaar heeft gesteld en Tweakers geen 1000 - 1200 euro mocht besteden aan een Titan. Wel zonde, want de benchmark is zonder een goede een op een vergelijking met de Titan niet echt compleet.
youtube staat vol met benchmarks, mocht je je nieuwsgierigheid niet in bedwang kunnnen houden ;) https://www.youtube.com/watch?v=VQou5h0Zh2k
Dat niet alleen.
Hoezo niet in de test vergelijking de 780Ti meenemen ?
Directe voorganger en mensen die een eenmaal een Ti hebben gekocht blijven dat (denk ik) veelal doen.
Dus dom en een gemiste kans.
*edit*
Ja ik heb een 780Ti

[Reactie gewijzigd door Anoniem: 190625 op 23 juli 2024 07:38]

Op hardware.info staat de Titan X wel in de vergelijkende benchmarks.

http://nl.hardware.info/r...iew-de-betaalbare-titan-x
Anoniem: 674354 @Ramonmaas951 juni 2015 08:56
Edit: heb het ook even in de tekst toegevoegd.
Is vanwege zijn reactie erbij gezet. Graag even goed opletten :) Zou veel onnodige opmerkingen besparen.
Dat is later in de tekst toegevoegd, lees de comments hierboven. ;)
Lees even de reactie van PiweD, het is er later bij gezet.(nav mijn reactie) Als je je ongegronde commentaar verweiderd kun je misschien een -1 vermijden.

[Reactie gewijzigd door artificial_sun op 23 juli 2024 07:38]

Ik neem aan, dat je het artikel niet om 4 uur 's nachts voor je had? Gezien de reactie van Piwed om die tijd geplaatst is, dat het in de tekst erbij gezet is? ;)
" Maar dan heb je wel de op een na snelste videokaart van dit moment"
zeker de AMD R9 295 vergeten ? Zoals zo vaak als het voordeel van Nvidia moet worden aangetoond....

En niemand die over het stroomverbruik zeurt terwijl dicht in de buurt komt van de zogenaamde stroomslurper R9 290x waar zowat iedereen over valt......Deze review valt bitter tegen
" Maar dan heb je wel de op een na snelste videokaart van dit moment"
zeker de AMD R9 295 vergeten ? Zoals zo vaak als het voordeel van Nvidia moet worden aangetoond....
De 295 bestaat uit twee GPUs op een PCB. Veredelde Xfire dus. Die vergelijking kan je m.i. dan ook helemaal niet trekken. Zeker aangezien er veel mensen zijn die weg willen blijven van crossfire en SLI vanwege matige schaling (bij veel games) en micro stuttering.
Hoezo? Het is toch gewoon 1 videokaart? Ik heb nooit iemand horen mekkeren dat de Titan Z of de 690 GTX geen videokaarten waren. De 295 en destijds de 7990 vallen dus ook gewoon in het rijtje 'videokaart'. Als je het over de prestaties per chip hebt, sure, fine. Dan klopt de claim. Echter staat hier kaart, en dan reken ik ook per kaart.

@Molotov: hij zuipt net zoveel als de Titan X, en presteert ongeveer zo goed. Ik vind het niet zo gek, power per Watt doet hij het vergelijkbaar met de andere 900-series. Niks nieuws daar.
Een videokaart. Met twee GPUs. Dus met SLI of CF.

SLI en CF. Altijd gerotzooi met nieuwe games. ALtijd. Wachten op nieuwe drivers. Op nieuwe profiles. En zelfs dan zijn er vaak bugs en performance problemen. En een hoop (oude) games die helemaal geen CF of SLI ondersteunen.

Nee, dank je wel.
Waarom reageer je op deze discussie chain? Je opmerking is prima, en ik ben het ook grotendeels met je eens, maar hij sluit echt totaal niet aan met waar het over gaat.

Anyways, ik verbaas me ook altijd weer heel erg dat werkelijk nergens over de r9 295x2 wordt gepraat als het over de nieuwe nvidea kaarten gaat. Die 295 echt een beest van een KAART (ja het is 1 kaart, snap niet dat dit een discussie kan zijn...) waar nvidea een jaar na dato nog steeds geen antwoord op heeft. Zeker niet als je een handelbare tower wil bouwen (voor LAN oid).

Begrijp me niet verkeerd, ik heb zelf een gtx 970, en zou deze voor geen goud in willen ruilen voor een 290 (voor dit segment is, in mijn opinie, nvidea gewoon het beste). Maar het is niet te ontkennen dat wanneer je de beste kaart wilt kopen, dan moet je de 295 nemen.
Simpel, in de review-notes staat dat je de kaarten NIET mag vergelijken met een 295. Doe je dat wel, dan was dat je laatste gratis review-sample van NVidia, en aangezien websites draaien op gratis spul (wat is de laatste keer dat Tweakers zelf spullen kocht?) houdt men zich eraan...

(ps, is speculatie, maar het is bekend dat NVidia best strikt is met review-notes)

[Reactie gewijzigd door FreezeXJ op 23 juli 2024 07:38]

Dit artikel gaat over de gtx980ti van nVidia. Dus waarom hebben we het over AMD producten ? (Serieus, ik wordt daar een beetje ziek van. Hier en op andere fora. Thread over nieuwe nVidia drivers ? Meer dan de helft van de thread gaat over AMD. Enzovoorts).

Er werd hier even gesuggereerd dat een videokaart met 2 GPUs niks anders is dan een videokaart met 1 GPU. En dat is gewoonweg niet waar. Niet als je het praktisch bekijkt. Resultaten in specifieke games zijn onvoorspelbaar. Zowel voor nVidia's SLI als AMD's CF.

Ik heb 8 jaar geleden ooit een videokaart met 2 GPUs gekocht. De Geforce 7950 GX2. Wat een rot-ding. In een hoop games had ik niet de fps die ik verwachtte. Af en toe een extra bug in m'n games. En wat ook heel erg merkbaar was, was de langere laadtijden. Ik speelde toen Vanguard met vrienden. Vanguard gebruikte de Unreal engine. Met cellen. Iedere keer als je door het landschap reed, werden er nieuwe cellen geladen. Iedere minuut of zo. Dan haperde de game eventjes, een paar seconden. Bij mij met m'n GTX7950GX2 duurde dat twee keer zo lang. Dus als mijn vrienden weer vrolijk verder reden, had ik nog steeds een zwart of bevroren scherm. Dat krijg je als je dezelfde models en texture en geometry twee keer naar vram moet kopieeren. Ik heb snel (binnen een jaar) een 8800gtx gekocht. Wat een verademing.

De situatie zal nu wel iets beter zijn. Maar nog steeds lees ik een hoop geklaag over spellen en drivers die geen SLI of CF ondersteunen, of niet op tijd, of met bugs.

Buyer be ware.
Die zogenaamde stroomslurper is gewoon een echte stroomslurper.
30% trager en verbruikt 50~ Watt meer gemiddeld bij gaming dan de 980 Ti.
De GTX 970 is evensterk als de R9 290X, maar die verbruikt 100~ Watt minder

http://www.techpowerup.co...eForce_GTX_980_Ti/29.html
http://www.techpowerup.co...eForce_GTX_980_Ti/31.html

[Reactie gewijzigd door SmokingCrop op 23 juli 2024 07:38]

R9290x vallen mensen over omdat de prestaties per watt gewoon fors tegenvalt, een GTX970 is ongeveer net zo snel en heeft veel minder energie nodig.

Deze 980ti heeft absoluut gezien ook wel veel stroom nodig, maar nog steeds minder dan een 290x terwijl hij al gauw 40% sneller is.
Die R9 295 is nou niet echt wat je wil hebben. Microstuttering, enorm verbruik en verplichte waterkoeling.

Misschien hadden ze het beter kunnen verwoorden als "een na snelste chip" ipv videokaart.
Dus jij hebt zo`n kaart? En dit is jou ervaring?

Ik zeg inderdaad alleen dat de R9 295X een van de snelste kaarten is op dit moment en niet in deze test voorkomt, en met een [2] chip die dik 2 jaar oud is dat natuurlijk een toppertje , bovendien goedkoper dan de nieuwste Nvidia kaarten die , als ik de tests mag geloven [ http://nl.hardware.info/r...iew-de-betaalbare-titan-x ], hij op hoge resoluties verslaat . Ikzelf heb daar het geld niet voor over omdat ik game op 1080p met een GTX770 4gb ,die het goed doet en geen €750,- budget heb voor een videokaart .Volgende maand kan het allemaal weer andersom zijn als AMD met hun nieuwe kaarten uitkomt .....

[Reactie gewijzigd door john molotov op 23 juli 2024 07:38]

Nee, dit is algemene kennis onder Tweakers.

Crossfire (en sli) hebben gewoon inherente tekortkomingen. Stuttering is daar een van.

En dat een twee jaar oude chip nog mee kan komen? Ja, als je er twee op een kaart propt. Dan vind ik het knapper dat één kaart nu twee top kaarten bijna inhaalt.
Er is een niet watergekoelde versie van de 295x even ter duidelijkheid.
http://www.powercolor.com/au/products_features.asp?id=549

Dit is een mooi kaartje maar ik moet zeggen als ze een 290x standaard WC uit zouden brengen ik hiervoor zou tekenen, ik heb totaal geen moeite met 2 extra radiatoren in mijn PC.
Wij betalen btw, zij niet.

Prijs van tweakers klopt gewoon.

[Reactie gewijzigd door outlandos op 23 juli 2024 07:38]

In Amerika betaal je in de meeste States ook gewoon Sales Tax, alleen die hoeft de merchant niet de vermelden bij het weergeven van de prijs. Dit komt er meestal pas in de winkelwagen erbij op.
En dat komt omdat het per staat verschilt mestaal tussen de 6-9%. Das best lastig om dan prijzen te noemen.
Mooie kaart met monster performance. Daar betaal je dan ook goed voor. Eerst maar eens m'n monitor upgraden voordat ik aan dit soort praktijken begin. :D
Je kan ook nog eventjes wachten tot AMD zijn nieuwe 300 serie uitbrengt :). Dan komt er een leuke prijsoorlog tussen Nvidia en AMD :).
Ja, daar zit ik ook zeker op te wachten. Even wat gezonde concurrentie op de markt!
Als je voor futureproof wil gaan lijkt het een goede keuze al gaat het wel snel met de techniek
Futureproof bestaat niet. En als uhd de toekomst word ben je zo te zien totaal niet voorbereid. Tenzij je flinke framedrops of nog een tweede kaart van €750 installeert. Maar wacht dan lekker op de 390x met HBM kijken wat dat doet.

[Reactie gewijzigd door echtwaarisdatzo op 23 juli 2024 07:38]

Amd is toch ook bezig met mantle?
Dat word ook vast niet door elke game ondersteund. Games zoals battlefield hardline worden er beter en mooier van volgens AMD. Maar dan moet je wel met een AMD kaart draaien die catalyst drivers gebruikt. Lijkt mij ook niet eerlijk voor de Nvidia gamers.
mantle is dood verklaard daar komt Direct x 12 voor in de plaats. Je mag AMD wel dankbaar zijn dat ze een prestatie trucje naar buiten hebben gebracht. Dat AMD kaarten hier profijt van hadden met het MANTLE trucje ? Ja zeker! maar helaas houdt het op aangezien AMD alles open source geeft en NVIDIA juist AMD dicht zet.

aangezien dat de concurrentie opzich wel na de noppe is. Heeft AMD nu wel een probleem met het ondersteunen van de games. Als je geduld hebt(week tot weken) voor een AMD fix voor een bepaalde game ok, u keuze maar NVIDIA zou dan toch echt de weg zijn als je gelijk van een nieuwe game wilt genieten en een normale performance wilt neerzetten.

[Reactie gewijzigd door Jeroentjeeuh op 23 juli 2024 07:38]

DX12 lijkt heel erg op Mantle, staat in het AMD en/of R9 topic wel wat leuke posts over.

Mantle is ook niet echt dood, het gaat verder, nu het eerste doel bereikt is, namelijk dat closer-to-metal API's normaal zullen worden, gaat AMD vrolijk verder, maar met andere doelen.

Het slimme van AMD is overigens wel dat hun kaarten tot nu toe meer baat lijken te hebben van DX12 dan de kaarten van Nvidia. De code is toch meer gespecialiseerd in waarin AMD goed is, want het is voor een flink deel Mantle code, en dat kan nog wel eens irritant worden voor Nvidia.

AMD doet dus ook gewoon closer-to-metal aan optimalisatie :+ Waarom per 1 game optimaliseren, als je gewoon de twee belangrijkste API's voor jou kan optimaliseren? :+
Ja, maar dan zit je nog met de developers/ontwikkelaars aangezien NVIDIA een grote zak geld naar de ontwikkelaars toe gooit om de juiste performance uit de NVIDIA kaarten te gaan persen en de NVIDIA trucjes worden gebruikt zit AMD nog met een probleem. De Developers kunnen het nog steeds voor AMD verpesten.

[Reactie gewijzigd door Jeroentjeeuh op 23 juli 2024 07:38]

Daar heb je zeker een punt, en dat zal ook zeker wel blijven gebeuren totdat Nvidia een flinke douw krijgt voor concurrentievervalsing.

Al hoop/denk ik dat DX12 juist omdat het zo close-to-metal is een stuk lastiger is om echt te optimaliseren voor 1 bepaalde videokaart-serie. Wel kun je dan weer gaan verzuipen in allerlei extra grafische dingen, en misschien gaat Nvidia PhysX weer eens pushen.

Als AMD slim is geweest, wat ze dit keer misschien ook wel zijn geweest, hebben ze bij Vulkan en DX12 gepusht om dingen waar ze slecht in zijn niet echt te benutten, maar dingen waar ze goed in zijn wel.

Dat lijkt iig gebeurd te zijn bij het CPU gedeelte, DX12 zou veel beter schalen qua cores dan DX11, waardoor singlecoreperformance minder belangrijk wordt, de achilleshiel van AMD.
ja, hier heeft u zeker een punt !

Ik zal ook zeker willen zien dat NVIDIA en AMD (tressFX) beter haar werk gaat verrichten in het ontwikkelen van de Physxs/hair engine en vele games het ook laten ondersteunen. Zodat we toch iets van een meerwaarde aan een game kunnen verwachten aangezien dat de consoles ons tegen houdt( neem een voorbeeld aan the witcher downgrade) Dan laat de nextgen grapics ook nog wel op zich wachten en zie DX12 ook geen verschil in brengen, al is de bandbreedte wel groter.
mantle is dood verklaard daar komt Direct x 12 voor in de plaats. Je mag AMD wel dankbaar zijn dat ze een prestatie trucje naar buiten hebben gebracht. Dat AMD kaarten hier profijt van hadden met het MANTLE trucje ? Ja zeker! maar helaas houdt het op aangezien AMD alles open source geeft en NVIDIA juist AMD dicht zet.
Er zat 6 maanden tussen de aankondiging van Mantle en die van Direct x 12. Aangezien DirectX 12 integraal onderdeel wordt van Windows 10 (en gelinked is aan de nieuwe WDDM 2.0) lijkt het me persoonlijk heel sterk dat Microsoft in 6 maanden ineens dacht 'goh dat Mantle is een goed idee laten we heel Windows 10 omgooien en snel DirectX12 aanpassen'

Het is waarschijnlijker dat AMD te laat op de hoogte was van de richting waarin DX12 ging.

Zie ook: sdk1985 in 'nieuws: AMD tegen ontwikkelaars: richt je op DX12 of glNext in plaats van Mantle'

[Reactie gewijzigd door sdk1985 op 23 juli 2024 07:38]

Aankondiging he, het kan zijn dat AMD en MS al tijden onder de radar bezig waren, en Mantle een proefballonnetje was.

Het is al gebleken dat veel text en code van DX12 verdacht veel op die van Mantle lijkt ;)

In een van de twee AMD topics stond een mooi stuk tekst, van zowel Mantle als DX12, en DX12 kopieerde opvallend veel.
Ik hoop echt dat AMD nieuwe snellere kaarten gaat tonen die op de 14nm gebakken zijn,

Kan echt niet meer wachten.
Reken daar maar niet op die komen pas volgend jaar.

Betekend niet dat het niet mogelijk zou zijn dat fiji de titan x verslaat. Zou zomaar kunnen aan de geheugen bandbreedte zal het niet liggen.
of je hier helemaal gelijk in hebt ? Ik weet het niet.. aangezien AMD met mantle aankwam had Microsoft ineens haar optie's open en heeft AMD om hulp gevraagd betreft de Direct x12 gebeuren. zoals VasZaitsev ook al aangeeft DX12 lijkt verdacht veel op Mantle.

Link 1
http://www.extremetech.co...e-and-destroy-amds-mantle

Link 2
http://semiaccurate.com/2...adopts-mantle-calls-dx12/

Link3
http://www.tomshardware.c...us-shaders-gcn,28844.html

google staat der vol mee dit zijn de eerste 3 linkjes die me snel opvielen.

[Reactie gewijzigd door Jeroentjeeuh op 23 juli 2024 07:38]

Ik zie Nvidia een beetje als apple.Ze maken goede maar dure produkten. AMD zorgt voor bijna het Zelfde voor beduidend minder geld. Een goede zaak vind ik. Niet iedereen kan een iphone betalen en zullen er heel wat gamers blij met AMD zijn om toch die zware games te kunnen draaien met een goedkopere kaart.
http://www.techradar.com/...industry-standard-1218560
"AMD told TechRadar that it'd be willing to make Mantle, or an API based on it, available across the industry. Even, the company said, if it means Mantle is adopted by competitors like Nvidia."
Zelfde verhaal met GSync en FreeSync. GSync komt met heftige licensies.
Mantle levert je niet een hele waslijst aan effecten op die je op een Nvidia kaart niet kan hebben. Mantle maakt een Nvidia systeem ook niet kreupel.
Daarnaast heeft Mantle allang zijn doel bereikt en wordt enkel nog gebruikt om te experimenteren.

Mantle vergelijken met wat Nvidia uitspookt is wel een heel kromme vergelijking.
Weer een leuke review van opnieuw een beest van een kaart uit de groene stal _/-\o_
Jammer dat er niet is overklokt :?

[Reactie gewijzigd door calsonic op 23 juli 2024 07:38]

Op dit item kan niet meer gereageerd worden.