Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 154 reacties
Submitter: TinusTegengas

Nvidia heeft op zijn Taiwanese Facebook-pagina laten doorschemeren dat er op 2 juni, tijdens de Computex-beurs, een nieuwe videokaart wordt geïntroduceerd. Waarschijnlijk gaat het om de GTX 980 Ti, die krachtiger is dan de 980, maar minder snel dan de Titan X zou worden.

Op de Facebook-pagina van Nvidia Taiwan stond volgens Wccftech tijdelijk een aankondiging van de introductie op 2 juni, die via Twitch live te volgen zou zijn. Op de achtergrond van de aankondiging was een onbekende kaart te zien. Naar alle waarschijnlijkheid gaat het om de GeForce GTX 980 Ti. Deze zou de positie van krachtigste reguliere consumentenkaart overnemen van de GTX 980, als de Titan X met zijn prijs van 1000 dollar niet als normale consumentenkaart meegeteld wordt.

De GTX 980 Ti krijgt volgens eerdere geruchten 2816 cuda-cores en een corekloksnelheid van 1000MHz. De kaart wordt opgetrokken rond de GM200-gpu en net als bij de Titan X is er dus een 384bit brede bus. In tegenstelling tot de Titan X wordt de 980 Ti echter niet met 12GB gdd5, maar met 6GB gddr5 gecombineerd.

Nvidia GTX 980 Ti

Kaart Nvidia GeForce GTX Titan X Nvidia GeForce GTX 980 Ti (geruchten) Nvidia GeForce GTX 980
Gpu 28nm GM200-400 28nm GM200-310 28nm GM204-400
Cuda-cores 3072 2816 2048
Tmu'ss 192 176 128
Rops 96 96? 64
Kloksnelheid 1002 MHz 1000 MHz? 1127 MHz
Boostkloksnelh. 1089 MHz 1079 MHz? 1215 MHz
Geheugensnelh. 1753 MHz 1753 MHz 1753 MHz
Geheugenbus 384bit 384bit 256bit
Geh.hoeveelheid 12GB gddr5 6GB gddr5 4GB gddr5
Bandbreedte 336 GB/s 336 GB/s 224 GB/s
Tdp 250W 250W 165W
Aansluitingen 1x 6pin; 1x 8pin 1x 6pin; 1x 8pin 1x 6pin; 1x 8pin
Interfaces 1x dvi, 1x hdmi, 3x displayport 1x dvi, 1x hdmi, 3x displayport 1x dvi, 1x hdmi, 3x displayport
Advieprijs in $ 999 699-749 549
 
Moderatie-faq Wijzig weergave

Reacties (154)

Met die 980ti krijg je veel meer bang for the buck dan die Titan X IMHO.
Realiseer je wel dat dat alleen maar zo 'lijkt' omdat de Titan zwaar overpriced in de markt wordt gezet en de GTX 980 eigenlijk ook een veel te hoge prijs heeft afgezet tegen zijn prestaties.

Zo ken ik er ook nog wel een paar...

[Reactie gewijzigd door Vayra op 28 mei 2015 11:04]

Dat heet 'Decoy Pricing' heb ik pas geleerd

Decoy Pricing Makes Less Expensive Items Look Like a Deal
Decoy pricing is used by retailers to push you towards the purchase of a particular model that pads their profits. The folks at Apple have been using this strategy for years to get consumers to drop money on products that appear to be an excellent value when compared to more expensive models. For example, they currently produce the Apple Watch in thirty-eight different designs, ranging in price from $349 to $17,000. The uber expensive versions are never going to be top sellers, but that’s okay—that’s not their job. Their job is to make the $349-$549 versions look like really good value by comparison. Consumers who might otherwise scoff at the idea of paying over $300 for a smartwatch might not scoff so hard when the alternative is $17,000. To avoid decoy pricing tricks, consider your actual needs first, then find the best version of a product that fills those needs.
Als je er op begint te letten komt het erg vaak voor
Bron: http://twocents.lifehacke...use-to-fool-yo-1706225322

[Reactie gewijzigd door musback op 28 mei 2015 14:29]

Yup, zo werkt dat met 'Flagships'.

Dat besef is overduidelijk nog lang niet bij iedereen ingedaald, als je zo afgaat op de reacties.

Bizar.
Niet altijd. Dit gebeurt alleen bij de marktleiders van het moment.

Ga voor jezelf maar eens na. Voor AMD is de titan of de 980 de afleiding (the decoy). De 290x lijkt een ontzettend goede prijs/prestatie verhouding te hebben als je kijkt naar die kaarten. Heeft hij op zichzelf ook wel, maar laat dat even achterwege.

Hetzelfde geldt voor CPU's. De FX-8350 is een vrij goedkope CPU als je kijkt naar wat je kunt kopen bij Intel. In het blauwe kamp kun je 10x zoveel geld uitgeven voor een CPU. "Prijsbewuste" kopers gaan dan toch maar voor een 8350, want ja, toch 8 cores voor maar 10% van de prijs.

Ik snap dat dit een beetje een scheve vergelijking is, aangezien AMD toch meestal competitieve prijzen mee geeft, maar ik kan zo snel geen ander voorbeeld verzinnen.
Voor AMD is de flagship card momenteel de 295X2, en niet de 290X.

Tenminste zo zetten ze hem wel zelf in de markt, en natuurlijk niet zonder reden, want de snelste GPU hebben ze allang niet meer.

Maar verder heb je inderdaad gelijk. Dit is ook de reden dat AMD en Nvidia constant strijden om die snelste single GPU kroon.

[Reactie gewijzigd door Vayra op 28 mei 2015 19:08]

De 295x is gewoon een dual 290x toch? Ik heb zelf laatst een 980 gehaald om mijn 290x te vervangen (ja physx enzo), maar echt veel sneller is die niet hoor. Dus om nou te roepen dat AMD allang de snelste niet meer heeft. Ze gaan nog redelijk head to head volgens mij..
Ja vind ik ook. Als je de verschillen qua fps kijkt met de 980 en 970.. Dan betaal je dus voor 5-10 fps iets van 200 euro meer..
Alles boven de 970 is een sigaar uit eigen doos. En de 970 heeft zelfs ook nog een dikke marge.

Dit hele pricing scheme is erop gericht om de high end exclusief te doen lijken, met bang for buck heeft het allemaal niets meer te maken vind ik :P

[Reactie gewijzigd door Vayra op 28 mei 2015 11:10]

Klopt helemaal. Van de week een 2de hands GTX780 overgenomen. 2560x1440 gaming is het prima voldoende voor. Dat noem ik nou bang for the buck.

DIe nieuwe kaarten zijn zo verschrikkelijk duur, ik snap dat het een moeilijk staaltje techniek is, maar voor jan modaal met 2 kinderen is dit echt niet meer te doen mijns inziens.
1 GTX 780 for gamen op 1440p?!

Neem je dan genoegen met framerates beneden de 30 fps? Of zet je alle details op "low" of "medium"? Anders zie ik 1 GTX 780 niet voldoende zijn namelijk. Niet voor hedendaagse games in ieder geval...

Heb er zelf drie in SLI en wordt al behoorlijk tegengewerkt door de lage hoeveelheid VRAM (3 GB) wanneer ik textures en dergelijke op "ultra" wil zetten in moderne titels (ook bij 1440p). Hopelijk wordt het beter met directx 12 en daarvoor geoptimaliseerde gametitels, wat de mogelijkheid moet brengen het geheugen van de kaarten in SLI op te tellen...

[Reactie gewijzigd door Roy81NL op 28 mei 2015 13:21]

Als je blind alle schuifjes op ultra wil zetten zonder daarbij oog te hebben voor werkelijke verschillen in graphics en speelbaarheid, dan heb je voor elke nieuwe game inderdaad tri-SLI nodig ja.

Als je een beetje tweakt kun je op 1440p met een 780 prima uit de voeten en is het verschil met 'alles op ultra en kijk mij een PC Masterracer zijn' zo goed als nihil.

Je moet niet blind afgaan op de benchmarks van een paar reviewsites. Ik draai The Witcher 3 op een GTX 770 met gemak door een beetje met instellingen te klooien, geen enkele noodzaak voor een upgrade. Het is een illusie dat alles op max moet voor een goede ervaring, dat heet marketing en epeenen.
Volgens de benchmark van the witcher 3 hier op tweakers, scoor je met een enkele GTX 770 op 1080p 37 fps gemiddeld met een minimum van 15 fps wanneer je de instellingen op "high" (niemand heeft het nog over "ultra") zet...

Ik draai de game op 1440p (nog 1,8x meer pixels dan 1080p) en vind het toch wel belangrijk alles op "high" te kunnen zetten ("ultra" heb ik het niet eens over). Hoe moet ik dat voor mekaar krijgen dan met een enkele GTX 770?!

Een tweede videokaart levert dan, in geoptimaliseerde titels tenminste, al bijna een verdubbeling in framerates op. Het verschil tussen speelbaar en niet speelbaar. (De derde doet inderdaad vrij weinig en wellicht een beetje overkill. Uitsluitend voor de liefhebber met een glazen zijpaneel in z'n behuizing...)

Blijkbaar heb je andere standaarden dan ik en neem je genoegen met veel lagere framerates (rond de 30 fps ipv rond de 60 fps of hoger)...

[Reactie gewijzigd door Roy81NL op 28 mei 2015 20:05]

En daarom zijn benchmarks maar een deel van de werkelijkheid.

Ik heb Vsync aan, (1080p) textures op high, Hairworks uit, DoF aan, Motion Blur uit, Shadows op high, Foliage distance op medium, Detail level ultra, rest op high of ultra. En alles blijft boven de 45 fps (gevechten) en 60 fps als ik gewoon een beetje rondloop. In Novigrad zak ik ook naar de 50 fps.

Prima speelbaar dus, TW3 is geen twitch shooter ofzo. Als ik daar de Ultra instellingen naast zet vind ik de verschillen ook niet echt groot, in veel gevallen niet eens zichtbaar, en Hairworks is ronduit lelijk. Heb ook geen last van stutter oid, het 'voelt' allemaal prima soepel aan.

Dit is wel met een GTX 770 op 1310mhz / 7800 mhz, dus een tandje sneller dan de reguliere clocks :)

[Reactie gewijzigd door Vayra op 28 mei 2015 20:16]

En hoe kan het dat hier op tweakers met dezelfde hardware (videokaart dan) 37 frames gemiddeld gehaald wordt met een ondergrens op de onspeelbare framerate van 15 fps?

Jouw ondergrens van 45 fps scheelt een factor 3 met de benchmark van tweakers op high bij 1080p. Hier klopt iets niet dunkt me. Geloof best dat je met een beetje tweaken er iets meer uit kan halen, maar dit niet.
"Op de lagere medium-instelling, waarbij Hairworks uitgeschakeld is,"

bovenstaande is letterlijk overgenomen uit de benchmark van Tweakers. Hairworks zorgt op Kepler en op AMD kaarten voor een performance hog. Daarom vallen de oudere kaarten op de 'high' instellingen zo ver terug. Wat verder een setting is die op 'high' van grote invloed is, is Foliage Visibility Range, Water Quality en Grass Density. Allemaal zaken die je zonder visueel veel in te leveren (de verschillen zijn vooral zichtbaar als je in de verte kijkt, dichtbij verandert er niets tot weinig) kunt terugschroeven naar medium.

De rest staat bij mij op High, Detail level op ultra. Heb het nog even voor je gecheckt. Daarom zeg ik, een beetje tweaken en het beeld kan compleet anders zijn.

Je ziet overigens wel vaker dat sommige settings een hele zware performance hit zijn, dit moet geen verrassing zijn hoor ;)

[Reactie gewijzigd door Vayra op 28 mei 2015 21:34]

Precies wat ik wilde zeggen. Ik hoef echt niet alles op ultra. Beetje tweaken en dan gaat het goedkomen. Die 3GB zou prima/voldoende moeten zijn.

Wat ik eigenlijk storend vind is dat ik hiervoor 2x R 290 in crossfire heb gehad, en met nagenoeg dezelfde instellingen in Far Cry 4 (2560x1440 veel op ultra) een fijnere game ervaring heb met een enkele 780. Dit schijnt door de frametimes te komen, wellicht heb je daar zelf ook al last van bij SLI. Dat weet ik niet. Ik gebruik de wat oudere drivers (347.88) van Nvidia na veel op fora gelezen te hebben.
Dat heeft deels met frametimes te maken (wat zowel bij SLI als crossfire een probleem is, maar ik dacht bij Nvidia minder vaak voorkomend), en deels met het feit dat Nvidia een deal heeft met de developer waardoor AMD pas veel later kan optimaliseren (en sommige delen van de code niet door AMD in te zien valt).
Nvidia heeft onboard hardware om die frametimes te regelen waarbij bij Amd kaarten dat software matig gebeurd. Daarom werkt sli in veel gevallen beter dan crossfire. Overigens blijf ik beide ruk vinden en kan je mijn inziens altijd nog beter een dure high end kaart nemen ipv 2 goedkopere in sli of crossfire. Ik had ooit 2 7950s in mijn kast zitten maar moest bijna in 80 procent van de games de 2e kaart uitzetten omdat het gewoon niet goed werkte..
http://www.anandtech.com/bench/product/1036
Er is toch heel wat mogelijk.
De rest is al gezegd door Vayra en BastiaanNL
Alsof het gericht is op jan modaal met 2 kinderen...
GTX970 lijkt me toch nog wel en dan vind ik persoonlijk 370-400 euro veel geld.
Ja maar je zit toch ook niet te zeuren over de prijs van een Ferrari als je jan modaal bent met 2 kinderen? Je haalt wat jezelf waard vind voor de prijs en wat je kunt missen. Dan kun je over vrijwel alles in de wereld wel gaan zeiken.

Hoezo schaar je de 970 GTX van 400 euro onder jan modaal als je het te duur vind voor jan modaal?
Is een Ferrari tegenwoordig al vergelijkbaar met een hogere midrange segment (kaart)? hmmm Maar goed, zelfs de midrange merken vind ik ook fors aan de prijs, of dit nu auto's of videokaarten zijn.
Zolang Jan modaal denkt dat ie zich in het zuur moet werken om toch die midrange kaart of auto te moeten betalen zal er ook niets veranderen aan de prijsniveaus. Alles te maken met vraag en aanbod. Als straks nog maar 1.000 mensen die 980Ti koopt ipv 200.000 eerst zal NVIDIA zich ook vast wel even achter de oren krabben.
Laten we het speciaal voor jou (marcel87) bij een Audi A6 houden. Een leuk midrange modelletje. Er wordt voor vrijwel elke prijsklasse een videokaart uitgebracht. Het probleem is alleen dat iedereen een snelle midrange 970 GTX of highend 980 GTX wil voor de prijs van een Kia Rio (figuurlijk dan).
Audi a6 = gtx 980
Ferarri = titan x

:D
Mee eens en 't kan nog gekker:
GTX 770 zie ik 2e hands al rondhuppelen voor ca.¤180,- Big Bang for m'n buck. 8)7
Presteert gem. 10 fps lager dan de 780, geen 1440p idd, maar meer dan afdoende voor mij.
En dan over 2 of 3 jaar een 2de hands GTX 980 (Ti) op de kop tikken.

Maar 'k snap het wel, als je 't geld hebt of 't is echt je core hobby dan koop je die 980 of titan, gewoon omdat 't kan of moet.
Maar de price/performance verhouding is wat mij betreft zoek in 't high-end segment.
Aldus sprak Jan Modaal :P

[Reactie gewijzigd door Arny III op 28 mei 2015 18:12]

Dit hele pricing scheme is erop gericht om de high end exclusief te doen lijken, met bang for buck heeft het allemaal niets meer te maken vind ik :P
Enig idee hoe krachtig zo'n kaart is ?
Een Titan X heeft zo'n 7 TeraFlops aan rekenkracht.
Moet je eens kijken hoe krachtig supercomputers zijn.
http://en.wikipedia.org/w...g#Historical_TOP500_table

Een Titan X heeft meer rekenkracht dan alle supercomputers die ooit in de vorige eeuw gebouwd zijn. Tijdens de eeuwwisseling was de IBM Asci/Red 9632 de snelste computer op aarde. 2.4TeraFlops. 7000 Pentium CPUs zaten er in. 230 Vierkante meter. Dat ding kostte letterlijk miljoenen dollars. Een beetje videokaart vandaag de dag heeft meer TeraFlops. Zoals ik al zei: 7TFlops voor een Titan X.

Kijk eens naar het lijstje van snelste autos uit 1999.
http://sportscarstandings.com/Top-10-Fastest-Cars/1999
Denk je dat je daar nu eentje van kunt kopen voor 1000 euro ?
Dat is allemaal heel leuk, maar de Wet van Moore is niet voor niets van toepassing op dit soort componenten.

De Wet van Moore is niet van toepassing op auto's, dus totaal niet vergelijkbaar. De ontwikkelingen in de auto-industrie zijn compleet anders en al sinds de eerste benzinemotor is er sprake van enorme stagnatie. Daarom is een component voor een computer over vijf jaar ook vrijwel niets meer waard, en een oldtimer wel.

Om jouw bizarre gedachtegang door te trekken: met een Titan X kom ik niet elke dag naar mijn werk.

Nog helemaal los daarvan; over de originele Titan kon je de lijn naar supercomputers nog enigszins trekken omdat die Double Precision aankon, maar dat is bij de Titan X helemaal niet meer het geval. Het is echt alleen functioneel als een GPU primair voor gaming. Dus de vergelijking met een supercomputer gaat totaal niet meer op en er is geen enkele rechtvaardiging te vinden voor een dergelijke adviesprijs, dat was bij de eerste Titan al moeilijk, maar nu helemaal.

[Reactie gewijzigd door Vayra op 28 mei 2015 14:23]

Een euro is gelijk aan een gulden. Correct ? Qua koopkracht. Vroeger koste een pilsje twee. Misschien iets meer. Tegenwoording kost een pilsje ook twee. Misschien iets meer. Twee is een mooie prijs voor bier.

Ik weet nog dat 1 MegaByte RAM duizend gulden kostte. Net zo veel als een Titan X dus.

Je hebt helemaal gelijk dat je met een videokaart niet naar je werk kunt rijden. En dat er een wet van Moore is. Allemaal mooi en aardig. Maar ik blijf bij mijn argument: het is fantastisch en ongelofelijk wat je allemaal krijgt aan compute-power voor 1000 euro.

En als je 1000 euro te veel vindt, dan koop je toch een kaart voor 300 euro ?

Iedereen vind warm water uit de kraan de normaalste zaak van de wereld. Moet je eens een maandje in de derde wereld zitten. Dan kun je misschien weer plezier hebben aan zoiets simpels als water uit een kraan. Ik heb ooit (lang geleden) zelf waterleiding aangelegd, naar de kamer waar ik woonde. Dat was fantastisch. Ik kan stromend water nu een stuk meer waarderen. Zelfs 20 jaar later.

En nu allemaal oprotten met die voetbal van m'n grasveld !!!
Maar dat is het hele punt juist, voor die 1000 euro krijg je helemaal niet zoveel. Waar je in de originele Titan met hetzelfde prijskaartje, nog double precision had is dat nu niet het geval.

Nvidia heeft features uit de GPU gesloopt, noemt het Maxwell en kan vervolgens een minder waardevol product voor dezelfde prijs verkopen als zijn voorganger. Dat gaat lijnrecht tegen de normale ontwikkelingen in, feitelijk is het product nu duurder terwijl het minder biedt.

Oh, last but not least, de nieuwere Titan X heeft last van throttling die de originele Titan niet had. Mooi product!

Maar blijf er vooral om juichen :)

Om jouw vergelijking met warm water te gebruiken: Nvidia levert nu koud water dat je zelf mag opwarmen voor dezelfde prijs als het warme water van voorheen.

[Reactie gewijzigd door Vayra op 28 mei 2015 17:47]

Oh, last but not least, de nieuwere Titan X heeft last van throttling die de originele Titan niet had. Mooi product!
Oh? Dat ben ik nog nergens tegengekomen eigenlijk. Zelfs niet op de site van HardOCP. Ik zie wel heel veel berichten en reviews via Google langskomen die betrekking hebben op de GTX Titan en throttle problemen, maar niet voor de Titan X.
Alstublieft:

http://www.techpowerup.co...Force_GTX_Titan_X/34.html

"Under load, the card reaches its thermal limit of 84°C after a minute of gaming or so, which will cause it to lower Boost clocks, and, in effect, performance."

[Reactie gewijzigd door Vayra op 28 mei 2015 19:43]

Dat is inderdaad één melding. Nogmaals, ik ben het verder niet tegengekomen. Ook niet in de overclock-artikelen. Al is het inderdaad aannemelijk dat de referentiekoeler zuigt, maar als dit al een probleem is, dan is het niet erger dan bij de vorige generatie.
Het is wel een vrij betrouwbare en complete bron, Techpowerup staat daar ook om bekend. Terugvallen van boost clocks is NIET aan de orde bij bijvoorbeeld de GTX 970 en 980 AIB koelers die nota bene de helft of minder kosten.

Op een kaart van 1000 euro mag je toch verwachten dat je op stock koeling voluit kan gaan... De Titan X zit na een minuutje op 100% load al tegen de temp limit aan. Dat is ook niet een 'silicon lottery' dingetje, pas wanneer de temp limit omhoog mag naar 91 graden kan het kaartje voluit.
hoeveel sneller is de Titan X dan de GTX 980 (25% ongeveer)
hoeveel kost hij extra (100% ongeveer)

kortom overpriced einde verhaal.
Nvidia heeft nu gewoon een cyclus welke exclusiviteit gebruikt
als je de echte highend wil zodra het er is mag je gewoon 400$ meer betalen. en als je iets langer wacht dan geven we je een practisch even snelle kaart met minder geheugen, voor de redelijke prijs.
Voor de weinigen met een 4k scherm scheelt het echter wel iets meer.
Een enkele kaart (met 1 GPU aan boord) die soepel 4K draait met alle toeters en bellen ingeschakeld moet nog uitgebracht worden. Het top-segment van de Pascal GPU's zullen dit hopelijk gaan brengen.

Ik wacht daar nog even op in ieder geval en sla deze generatie over. Qua technologie en performance zit het allemaal nog te dicht bij Kepler, de Maxwell generatie.
Soms wil je gewoon de snelste hebben en dan is bang for buck niet belangrijk.
Als de kaart tussen de Titan X en de GTX 980 moet komen, dan denk ik dat de kaart een betere bang for the buck gaat krijgen dan de Titan dat heeft, die twee verschillen nauwelijks, als je de kloksnelheden niet meerekend (want die kun je overclocken en zoveel MHz scheelt het niet eens) en ervan uitgaat dat de geruchten van de GTX980Ti kloppen, schelen die twee op slechts 3 punten eigenlijk; RAM, TMU's en CUDA-cores. De geruchten impliceren dus dat GTX980Ti de afgevallen Titan X kaarten zijn, wat mogelijkheden schept voor modders. :)
Inderdaad, daarop baseerde ik ook mijn reactie :P. Het zijn nog wel geruchten natuurlijk, dus misschien veranderd het een en ander.
Weet je de prijs al dan?

Ik ben zeer benieuwd, ik hoop vooral dat de 970 eens wat gaat zakken in prijs :(

Edit:
Ik bedoel de "echte" winkelprijs, die 970 blijft ook zo duur. En simpel omrekenen van dollar -> euro kan ook niet.

[Reactie gewijzigd door Devroet op 28 mei 2015 10:58]

Dat staat er bij. Het is natuurlijk nog een schatting/gerucht. Én het is in dollars, dus het wordt nog goedkoper in euro's.
Daar zou ik echt niet vanuit gaan, gezien de huidige koers en het feit dat fabrikanten nog wel eens 1/1 omrekenen van dollars naar euro's.
Daar zou ik echt niet vanuit gaan, gezien de huidige koers en het feit dat fabrikanten nog wel eens 1/1 omrekenen van dollars naar euro's.
Heeft niets te maken met omrekenen. Prijzen in USA zijn vaak zonder belastingen. In EU met.
Nog afgezien van de wisselkoers. Op het moment geldt dollar=euro nog meer.
Sterker nog, als je met de huidige koers rekent. Voor een $100 vid kaart:
$100=¤91,80 (ex btw!)
¤91,80*1.21=¤111.08

Eerlijk gezegd ben ik wel blij met dollar = euro dan :P
Nog goedkoper... Really? Heb je ooit wel eens op newegg of Amazon gekeken? De prijzen liggen daar vaak lager dan hier in Europa, komt ook nog eens bij dat de euro (iets) meer waard is. Vaak wordt het dollar teken vervangen door het euro teken als het gaat om omrekenen.
Omrekenen is het punt niet, de belastingen wel. ;) USA geeft vaak prijzen zonder belastigng, hier gebeurd dat weer wel.

[Reactie gewijzigd door CH40S op 28 mei 2015 11:22]

Nee, zit nooit op die sites haha.
De 999 dollar kostende Titan X kost in Nederland toch echt tussen de 1100 en 1145 euro.
Tja, de prijzen "in dollars" die er nu bijstaan voor de Titan en 980 zijn ook de huidige adviesprijzen, dus volgens deze prijsschatting is er geen sprake van een prijsverlaging voor de huidige modellen. Natuurlijk hopen we allen op een 50-tal eurotjes minder maar wie weet. (GTX980 aan 499 euro en GTX970 aan 349 euro advies??)

[Reactie gewijzigd door Terrestraeon op 28 mei 2015 15:45]

Ik bedoel de "echte" winkelprijs, die 970 blijft ook zo duur. En simpel omrekenen van dollar -> euro kan ook niet.
als je de BTW er bij doet (na bereken wisselkoers) dan heb je gewoon de prijs die het gaat worden te pakken.

[Reactie gewijzigd door Countess op 28 mei 2015 13:21]

Nog steeds het 28nm procede, dit belooft nog wat goeds als de komende chips naar 22nm of 14nm worden verkleind inclusief een nieuw gpu design.
Jep, dat wordt de Pascal GPU :). Er gaan geruchten dat het 22nm wordt.

Bronnen voor Pascal GPU: http://en.wikipedia.org/wiki/GeForce_1000_series
nieuws: Nvidia's Pascal-gpu gaat 32GB geheugen ondersteunen
http://blogs.nvidia.com/blog/2015/03/17/pascal/

[Reactie gewijzigd door AnonymousWP op 28 mei 2015 10:58]

22nm? Waar zou dat geproduceerd moeten worden?

Alleen Intel en GF hebben een 22nm procédé. Productie bij Intel zal zeker niet gaan gebeuren, en GF lijkt me ook onwaarschijnlijk. Samsung en TSMC (de enige twee kandidaat fabrikanten voor Nvidia) hebben geen 22nm, Samsung heeft 20nm en 14nm FinFET. TSMC heeft 20nm en tegen het eind van het jaar 16nm FinFET.

Er schijnen echter wat problemen te zijn met TSMC's 20nm waardoor deze niet echt geschikt blijkt te zijn voor GPU's, zie bijvoorbeeld dit soort berichten. Daarnaast is 20nm maar een minimale verkleining t.o.v. 28nm, terwijl je zowel qua ontwerp als productie weer opnieuw een leercurve hebt en waarschijnlijk tegenvallende yields bij een groot ontwerp als een GPU.

Ik vermoed eerder dat Nvidia met de Pascal direct naar 16nm FinFET gaat, gezien deze tegen de tijd dat Pascal uitkomt al beschikbaar zou moeten zijn, en er met FinFET tenminste een echt voordeel valt te behalen.

[Reactie gewijzigd door knirfie244 op 28 mei 2015 12:37]

Je zegt het zelf al :P. TSMC dus misschien?
Tegenwoordig levert een proces srink geen echte winst meer op, iig niet de eerste series producten die er gemaakt mee worden.

Tegenwoordig is het meer een economische winst, daar er geen klok winst meer gehaald wordt uit een kleiner proces, en ook lekstroom begint steeds meer een probleem te worden bij elke srink.

Dat is dan ook de reden dat we al 3 jaar op 28nm zitten, een kleiner proces ontwikkelen wordt steeds minder snel rendabel, en het zal me niks verbazen als ook 20/22nm voor 3 jaar of meer gebruikt zal worden.

Edit: op de reacties hier onder.
ik zeg niet dat er geen winst meer behaalt wordt met een kleiner proces, wat ik zeg is dat het tegenwoordig veel langer duurt voordat een kleiner proces beter presteert tegenover het voorgaande proces.

Je zal waarschijnlijk zien dat bij de volgende kaarten met 20/22nm, er eerst een mid-range proef kaart uit zal komen, waarbij men ervaring met het nieuwe proces begint te krijgen, voordat men aan de grotere ontwerpen begint.

Een trend die voor het eerst is begonnen met de HD 4770, de eerste 40nm GPU, waarmee men waardevolle lessen had geleerd over het moeilijke 40nm proces, en daarmee een succesvolle lancering van de HD 5000 mogelijk maakte, in tegenstelling tot nVidia's Fermi/GF100 welke enorme problemen had, en daardoor bijna een jaar te laat kwam.

Het volgende verhaal van Anandtech over de ontwikkeling van de HD 5000 is zeer intressant, als je echt wilt leren hoe men GPU's maakt, daar het een enorme kijk in de keuken geeft, over hoe men bij AMD en nVidia GPUs maakt, het verhaal mag dan wel 5~6 jaar oud zijn, het proces is niet veel veranderd, behalve dan dat de eerste problemen waar men voor het eerst echt tegenaan liep bij 40nm, dat die tegenwoordig alleen maar erger zijn geworden.
Anandttech: The RV870 Story: AMD Showing up to the Fight

[Reactie gewijzigd door player-x op 28 mei 2015 14:10]

Volgens mij geldt dit inderdaad wel voor cpu's, maar niet voor gpu's. Bij een gpu heb je namelijk nog steeds veel voordeel van meer EU's/TMU's/meer afkortingen . Bij een kleiner proces zijn de transistoren zuiniger waardoor je meer transistoren kunt plaatsen zonder een onhandelbare hoeveelheid hitte te produceren.

Het probleem van oververhitting is sowieso al groter bij gpu's dan bij cpu's en er zal dus waarschijnlijk meer winst gemaakt kunnen worden door over te stappen naar een kleiner proces.
Maar een chip maken die nog groter is dan de titan X wordt erg lastig op 28nm, voor nog meer performance moet je eigenlijk wel een kleiner proces hebben.
Met wat mazzel gaan de prijzen net zo als met de introductie van de GTX780ti.
Toen ging er een dik bedrag van de GTX 780 en GTX 770 af.
Als dat nu ook met de GTX 980 en GTX 970 gebeurt zie ik het wel zitten.
We zullen zien of nVidia de noodzaak ziet. Het zou wel prettig zijn, na bijna een jaar naar release zitten wij Europeanen nog boven de introductie prijzen.
Dat heeft ook te maken met de wisselkoers van de Amerikaanse dollar ten op zichte van de Euro. Helaas wordt hier in Europa op hardware simpel gedaan: vervang het Dollar-symbool voor die van de Euro.

[Reactie gewijzigd door CH40S op 28 mei 2015 11:00]

Komt omdat de prijzen in amerika altijd zonder btw worden weergegeven.
Voeg BTW toe, dan omzetten naar Euro, en voila.
De btw is in Amerika zo'n 8% in de meeste staten.
Dus inderdaad. Pak de USA-prijs. Gooi er 8% op en dan omrekenen.
We betalen hier 21% BTW. Dat ze in Amerika zo'n 8% betalen, is niet belangrijk voor onze prijzen.
Het gaat erom dat iemand aangeeft dat de prijzen in dollars even hoog is als de Euro.
Dus $100 wordt ¤100.

Misschien even de reacties hierboven lezen.
Ik heb de reacties hierboven gelezen hoor.

En ik blijf bij mijn standpunt dat je er 21% BTW bij moet doen in plaats van 8%. Om de prijzen eerlijk te vergelijken.

[Reactie gewijzigd door kami124 op 28 mei 2015 15:54]

ik denk dat een eerlijkere verglijking is om van de prijzen hier 21% af te trekken en terug te rekenen naar dollar. Dan liggen ze volgens mij redelijk dicht bij elkaar.
Je kan het inderdaad ook andersom rekenen, maakt relatief niks uit. Door eerst de 21% BTW eraf te halen, oftewel 17,4% eraf te halen.
Als de nieuwe kaarten van AMD genoeg prestaties leveren zit het er dik in.
Heb er wel vertrouwen in.
Dat verwacht ik niet...
De TI vult juist het grote gat tussen de 980 en titan x.

Daarnaast is de 290X directe concurrent van de 970, dus behalve als AMD deze hard laat dalen zal hier weinig beweging in komen.

De nieuwe AMD kaarten zijn grotendeels herbruik van de Hawai chip en ik verwacht dat de gerebrande 290X (die de gtx 980 moet concurreren) niet onder de 600 euro gelaunched wordt.
Op hogere resoluties concurreert de 290X ook behoorlijk met de GTX980 (kijk hier maar eens). Ik ben ervaringsdeskundige van het feit dat het op dit moment moeten kopen van een graka een duivels dilemma oplevert. Oudere, minder zuinige, techniek maar een goede prijs prestatie verhouding of nieuwe efficiëntere techniek met minder prijs/prestatie.

[Reactie gewijzigd door teacup op 28 mei 2015 12:31]

Minder zuinig vormt voor mij persoonlijk als koper van 2x R9 290 en 1x GTX 780 echt geen probleem. Maar kan mij voorstellen dat anderen hier wel naar kijken.

Ik doe even de aanname dat mensen die willen gamen op 2k of 4k er minder om geven. Puur onderbuikgevoel.
Nou ik geef wel om stroom gebruik als gamer, ik ga denk ik de ASRock Z97M Killer kopen met Intel Xeon E3-1240L v3 (en de rest zo als een kast 250GB SSD en ga maar zo door) omdat die CPU maar 25w max gebruikt en toch snel is, en de GPU word even een Geforce GTX 750Ti, omdat ik dan voorlopig geen ¤500 a ¤700 heb voor een Geforce GTX 980 of 980Ti, en de Geforce GTX 980 gebruikt ook is 120w minder stroom dan de Radeon R9 290X.

En ik vind 120w verschil als je gamed toch een erg groot verschil, ook al is de Geforce GTX 980 ¤200+ duurder.

[Reactie gewijzigd door AmigaWolf op 28 mei 2015 16:41]

Wat ik dus niet begrijp is dat er van de GTX 980m zowel een 4GB als 8GB kaart te krijgen was, terwijl bij de gewon GTX 980 alleen 4GB beschikbaar was. Nu wordt het beter, maar alsnog geen 8GB. Zeker voor Eyefinity-achtige (hoe heet dat bij NVIDIA...) setups ben ik geneigd met iets mindere grafische kwaliteit genoegen te nemen, maar door het grote aantal pixels heb je wel gewoon flink veel geheugen nodig.

Tweede puntje: als ik het typenummer van de GPU zie, dan is het meer een aanpassing van de Titan dan van de 980. Waarom het dan toch een 980Ti noemen?
Tweede puntje: als ik het typenummer van de GPU zie, dan is het meer een aanpassing van de Titan dan van de 980. Waarom het dan toch een 980Ti noemen?
Terechte opmerking. Een marketingtechnische drijfveer lijkt mij hiervoor het meest logisch. Een opgepepte GTX980 klinkt beter dan een gesmoorde Titan. Toch zou een enthousiasteling van het laatste enthousiaster worden, want van de Titan geheugenbus zijn ze afgebleven. Deze bandbreedte is noodzakelijk voor hoge resolutieschermen (1440p, UHD). Dat de GTX 980 relatief wat achterblijft bij hoge resoluties zie ik als een bewijs dat de geheugenbus van de standaard GTX980 niet goed schaalt met de rest van de kaart.
Als Nvidia de kaart "Titan light" zou noemen, dan zou nauwelijks iemand nog een echte Titan kopen.

Maar ik deel casparvi's verwarring wel. De naam die een kaart krijgt zegt feitelijks niks over wat er onder de motorkap zit en wordt volledig door marketing gedreven. Dat zie je nog extremer bij rebrands van kaarten van een oudere generatie.
"...zegt feitelijks niks over wat er onder de motorkap zit..." Precies! Ik snap het vanuit marketingtechnisch oogpunt inderdaad wel, teacup heeft gelijk dat een gepimpte GTX980 beter klinkt dan een gematigde Titan. Maar voor de kritische consument is het gewoon vervelend, omdat het de vergelijking van kaarten lastiger maakt: nu moet je eerst overal specs bij gaan zoeken. Gelukkig hebben we als Tweakers vaak wel goede bronnen (niet in de laatste plaats dit soort nieuwsberichten), maar het maakt het onnodig arbeidsintensief wanneer je een beetje research wil doen voor het aanschaffen van een nieuwe kaart.

Ow well... such is life, I guess.
Dat ze de kaart als 980Ti op de markt brengen Is helemaal niet zo vreemd als je naar de vorige release cyclus met de 780Ti kijkt.

Dat was ook een release die zeer duidelijk afgeleid was van de hoger geprijsde Titan.

Bovendien zitten er meer mensen te wachten op een GTX 980Ti dan op een zwakkere Titan. What's in a name? Marketing.
Goed dat ze nu gebruik maken van een bredere bus. Net als het gebruik van 6GB geheugen. De nieuwere games zoals The Witcher 3 en GTA V kunnen dit goed gebruiken. Vooral wanneer je op hogere resoluties wilt spelen als bijvoorbeeld 4K. Al denk ik dat zelfs deze kaart het ontzettend lastig gaat hebben met The Witcher 3 op 4K icm hoge settings.
In tegenstelling tot GTA gaat The Witcher 3 vrij goed met geheugen om.
4k Ultra textures: 1,7 GB.

Rockstar kan er wat van leren ;)
Ik been blij dat Rockstar uberhaupt iets heeft geleerd :) Dat de game niet zo zuinig is met Vram neem ik voor lief. Toch genieten dat we na al deze tijd toch zo'n game afgeleverd krijgen, dat was wel anders met deeltje vier...
Ik heb het VRAM gebruik van TW3 anders nog niet boven 2GB uit zien komen, ook niet op 4k.

En normaal ram gebruik blijft ergens rond 6+GB steken.

Die game is prima geoptimaliseerd.
Nou als je de Titan X met 999 euro geen 'normale consumentenkaart' meer vindt, dan vind ik dat je 700-750 ook niet meer als een 'normale consumentenkaart' moet vinden..
Dat zijn toch stevige prijzen voor een 'normale consumentenkaart'...
wil niet zeggen dat de kaart zijn prijs niet waard is, maar dat zal de Titan X ook wel zijn voor liefhebbers..
Ik vind het allemaal onzin, die benamingen.. Wat mij betreft zijn het gewoon allemaal consumenten videokaarten, want we kunnen ze gewoon allemaal kopen als consument..
Het is gewoon absurd.
Ik heb hier nog ergens een bon liggen van mijn gtx 285 OC (snelste single gpu van dat moment) van net na de release voor 325 euro!
Ook mijn gtx 6800 en 7800 heb ik maar 300 en 350 euro voor betaald...
En mijn huidige amd 7970 OC dual bios was maar 365 euro in begin 2012.

Nu betalen we gewoon het dubbele voor een high end kaart.

Ik zeg allemaal aan de pacman en ze lekker laten barsten in hun dure troep.
Games zijn toch bagger de laatste 3 jaar met zoveel bugs dat ze vaak niet eens speelbaar zijn.
niet heel erg spannend.. Ben meer benieuwd naar de nieuwe Amd kaarten + hbm geheugen!
Ik ook, misschien is dat gelijk een goede vervanger voor mijn R9 280X
Ik zal je dit vertellen, ja die komt er. Maar de vraag is wil je nu al upgraden? Ik zou dan minimaal naar de 390 kijken, volgens geruchten wordt de 380X gewoon een rebranded 290X...
Volgens de laatste geruchten wordt de 390x een rebrand van de 290x met iets hogere clocks en 8GB. De nieuwe fiji gpu (hbm) moet een nieuwe high end worden ala de nvidia titan met bijbehorend prijskaartje. We zijn straks dus weinig opgeschoten de afgelopen 3 jaar sinds de 290x...

[Reactie gewijzigd door Rutger Mulder op 28 mei 2015 16:18]

Allemaal geruchten. Gewoon nog even afwachten en dan weten we of AMD gaat knallen of gaat vallen.
Welke geruchten heb jij gelezen dan? En dat HBM geheugen is echt aanzienlijk sneller. Als dat daadwerkelijk toegepast gaat worden, legt deze kaart én de titan x het hard af. Maar goed het zijn echt geruchten, want de ene site zegt 8gb HBM en de andere 4gb, hoe dan ook het is zodanig veel sneller en vrij zeker dat het gebruikt gaat worden. Ze moeten nu wel :P Volgende maand zou die aangekondigd worden op de E3 beurs.

De 390x word 60% sneller dan de 290x naar eigen zeggen, als ik dat simpelgweg bij de nu behaalde frames in benchmarks optel kom ik ongeveer op de performance van een 980 sli setup uit.

Het gaat iig nog lang duren voordat we 4k kunnen gamen op een enkele kaart, zonder de instellingen omlaag te draaien. Naar mijn mening kun je dan net zo goed op 1080p met flinke anti-alliasing gamen. Ga je iets minder dicht op je monitor zitten, dat probleem ook opgelost :*)

[Reactie gewijzigd door echtwaarisdatzo op 28 mei 2015 16:33]

Worden kaarten niet zeer instabiel wanneer er steeds rebrands verschijnen? Dit merk ik namelijk ook al af en toe met mijn R9 280X. Games lopen nog heel goed inclusief Witcher 3 en GTAV, maar de kaart heeft soms last van artifacts.
Waarom zou een kaart instabiel worden als er een andere sticker opgeplakt wordt?

Je zou eerder verwachten dat gerebrande kaarten stabieler zijn: die hardware is dan al langer in omloop, zodat de fabrikant alle problemen kent en heeft kunnen oplossen, bijv. beter reference design, betere koeling en een volwassenere driver.

Als je kaart last van artefacten heeft zonder dat je hem overgeklokt hebt (en je een voldoende goede voeding gebruikt), dan is ie gewoon stuk en moet je een beroep op garantie doen.
Dan heb je vast en zeker het MSI model, want daarvan is bekent dat de koeler niet goed is. 2 vrams worden op het MSI model namelijk NIET gekoelt en dus heeft de MSI r9 280x last van artifacts.

Andere modellen zoals bijvoorbeeld de ASUS r9 280x heeft NERGENS last van en loopt als een zonnetje ;)

Heeft dus NIKS met de R9 280x te maken, maar met de koeling van de kaart.
Ik ben vooral benieuwd om te zien hoe deze kaart presteert ivm 2 GTX970 kaarten in SLI.
Voor twee 970 kaarten ben je nu (nog) pakweg 780-800 euro kwijt.
De 980ti gaat pakweg 700 - 750 euro zijn... (als ik naar de prijs in het artikel kijk)

Dan ben ik wel eens benieuwd naar de prestaties :)

[Reactie gewijzigd door JanAd op 28 mei 2015 11:51]

970 SLI is al sneller dan één Titan X, dus als je SLI geen probleem vindt, hoef je niet te wachten op de benchmarks van de 980Ti: http://hexus.net/tech/rev...-titan-x-r9-295x2/?page=2
Gaat alleen op als je applicaties (lees spellen) SLI ondersteunen natuurlijk. ;)
Maar een 970 SLI is voor 4k op ultra soms nog net iets teveel. Als je daar een probleem mee hebt zul je toch voor een 980ti SLI kunnen kiezen. (Nog een koopje vergeleken bij een Titan X SLI :P)
Toch wel vreemd dat de 980TI en de Titan allebei een TDP van 250 watt hebben.
Niet echt. Deze specs gaan ervanuit dat beiden gebaseerd zijn op de GM200-chip, en dat de 980Ti gewoon wat units disabled heeft staan.
Ze zullen dus de TDP van de GM200 wel hebben aangehouden.
Als ik de specs zo bekijk zullen het wel gefaalde titans zijn. Alle specs hetzelfde behalve wat weggebrande cuda cores en minder GDDR5 RAM.

Desalniettemin een leuke kaart hoor :)

[Reactie gewijzigd door useruser op 28 mei 2015 10:27]

Dat doen nvidia en amd altijd al amd r9 290x en r9 290 bijvoorbeeld die je eerst zelfs kon unlocken door software lock in plaats van wegbranden.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True