Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Gerucht: Nvidia werkt aan snellere versie van GTX 1070

Door , 114 reacties, submitter: -The_Mask-

Volgens TechPowerUp werkt Nvidia aan een refresh van de GTX 1070. De nieuwe versie zou sneller zijn, vermoedelijk door een toename van het aantal cudacores en sneller geheugen. Ook zou de gpu hogere kloksnelheden kunnen krijgen.

Misschien wil Nvidia met een iets snellere GTX 1070 de AMD Vega 56 verslaan, zegt TechPowerUp. Die videokaart is iets sneller dan de GTX 1070 en zou een vergelijkbare prijs moeten hebben. In de praktijk is de Vega 56 echter nauwelijks te koop in de Benelux of alleen voor meer dan de adviesprijs.

De nieuwe versie van de GTX 1070 zou 2048 of nog meer cudacores kunnen krijgen. Het huidige model heeft er 1920, maar de laptopversie heeft er ook al 2048. Ook zou het geheugen een upgrade kunnen krijgen naar 9Gbit/s-gddr5 of zelfs 10Gbit/s-gddr5x. TechPowerUp denkt dat de nieuwe kaart wat prestaties betreft de GTX 1080 tot 90 procent zal benaderen. Dat model zou dan uitgefaseerd worden, terwijl de snellere variant van de 1080 met 11Gbit/s-geheugen blijft bestaan.

Woensdag verscheen een gerucht dat Nvidia met een GTX 1070 Ti zou komen. VideoCardz plaatste dat aan de hand van een foto, waarop een specificatielijstje staat met die productnaam. Het zou echter ook om een typefout kunnen gaan; er zijn geen andere concrete aanwijzingen die duiden op de komst van een GTX 1070 Ti.

TechPowerUp merkt op dat het gerucht niet is gebaseerd op die foto, maar op 'betrouwbare bronnen'. De nieuwe kaart zou rond de feestdagen beschikbaar zijn. Het is niet duidelijk welke naam de nieuwe GTX 1070 krijgt. Er is een kans dat het inderdaad om een Ti-versie gaat, maar Nvidia bracht eerder al versies van zijn GTX 1060 en 1080 uit met sneller geheugen, die kregen enkel een 9Gbit/s- en 11Gbit/s-aanduiding in de naam.

Door Julian Huijbregts

Nieuwsredacteur

14-09-2017 • 11:17

114 Linkedin Google+

Submitter: -The_Mask-

Reacties (114)

Wijzig sortering
Concurrentie juich ik zeker wel toe, maar ik vraag mij ten zeerste af of dit wel nodig is. De Vega 56 is hier niet alleen nauwelijks te krijgen, hij is ook nog een stuk duurder dan de 1070, die zelf al flink aan de prijs is.

Verder heeft Nvidia met de 1080 al een sneller model.
Ja, Nvidia heeft met de 1080 een sneller model, maar AMD heeft ook nog de Vega 64, die, in sommige gevallen, de GTX 1080 weer verslaat. Dan heeft Nvidia natuurlijk wel weer de 1080Ti..
En eventueel nog de titan xp, mocht een vega gpu de 1080ti verslaan. :) En mocht er een snellere vega gpu uitkomen dan de titan xp dan kan nvidia altijd de volta gpu weer uitbrengen, die al klaar op de plank ligt, maar gezien er geen concurrentie is kan nvidia de pascal nog even goed uitmelken.
Mja, dat is dus niet nodig, er komt een Vega 11 aan die de Polaris kaarten gaat vervangen, maar dat is dus dan eerder een GTX1060 concurrent. Dit was het voor nu van AMD, hoger gaan ze niet komen.

Dat Nvidia een nieuwe GTX1070 wilde gaan maken zat al in de planning, net als de 1080-versie van de GP102 er ook al niet meer is, wordt nu "na de zomer" niet meer gemaakt namelijk. Ze hebben bij Nvidia alleen netjes gewacht op Vega om te kijken wat ze er tegenaan moeten gaan gooien. En de VRAM prijzen waren ook een beetje de pan uit gerezen, maar het ziet er naar uit dat GDDR5X de logische keuze gaat worden.

Een tijd terug was er ook al het gerucht dat er een 1060-opvolger op een "kleine Tesla" chip zou komen, maar dat is nu alweer een hele tijd stil.

Persoonlijk zou ik wel een upgrade van m'n 1080Ti willen zien hoor, maar eerlijk gezegd denk ik niet dat het heel veel zin heeft. De games die nu niet t.a.t. soepel draaien, hebben veelal andere issues of zijn CPU-limited. 4K met hoge instellingen op meer dan 60hz schermen is ook nog niet echt een ding helaas.

Nee, even wachten tot Q1 of 2 2018 is prima lijkt mij, zeker als Nvidia er weer een 20-30% stap bovenop weet te doen, dan kan de "GTX2080" eindelijk écht 4K aan.
Vergeet niet dat je een 1080 prima met een 500w voeding kan draaien, v64 daarentegen. ;(
Undervolt de v64 en hij is sneller en zuiniger. tijdens gamen. Ook op stock ret je het ook nog wel met een goede 500w voeding. Tenzij je er een OC threadripper tegen aan gooit. Maar dan is de kleine meerprijs naar 600w ook geen probleem.
Maar nog steeds een zuipschuit t.o.v. de goedkopere 1080.
Sorry, maar die v64 heeft een uitermate slechte performance/watt ratio. Een enorme misser, ook omdat ie nauwelijks verkrijgbaar is.
Ik zeg ook nergens dat de V64 een geweldige kaart is. En AMD slaat de plank flink mis met HBM geheugen wat erg duur en nog niet nodig is.
AMD heeft gegokt op HBM omdat de verwachting was dat de prijzen en beschikbaarheid daarvan beter zouden zijn dan ze nu zijn. Ze moesten een keuze maken die hun productrange voor de langere termijn voordeel zou leveren. Helaas is dat niet uitgekomen en hebben ze daarmee een flinke vertraging opgelopen met het uitleveren van deze generatie van videokaarten (1 jaar te laat).

NVIDIA heeft genoeg financiële middelen om meerdere oplossingen naast elkaar te ontwikkelen. Dat is ook de reden dat de GP100 kaarten (voor GPGPU gebruik) voorzien zijn van HBM2. Daar is de prijs die ze kunnen vragen voor deze kaarten hoog genoeg om de keuze voor HBM2 financieel te rechtvaardigen. En de aantallen die ze moeten leveren zijn veel lager dan de consumer kaarten.

De consumer kaarten echter kunnen de prijs van HBM en nu HBM2 echter moeilijk dragen. Vandaar dat NVIDIA daar voor GDDR5/GDDR5X gekozen heeft. AMD heeft die luxe niet.

Misschien dat AMD voor de volgende generatie meer geluk heeft als er meerdere fabrikanten komen die HBM2 maken en de yields van de huidige leverancier beter worden (resulteert in lagere prijzen). Dan hebben ze in ieder geval al een design wat voor HBM2 geoptimaliseerd is.

NVIDIA heeft natuurlijk dan wel de oplossing die ze voor Big Pascal en Big Volta gemaakt hebben klaar staan, maar die moet natuurlijk wel geschikt zijn voor de consumer cards.

We zullen moeten afwachten wat de volgende generaties gaan opleveren op dit gebied.
Dit dus. Ik ga mijn 1080 pas upgraden zodra 4K op 144/120 HZ haalbaar wordt.

Once you go 144hz...
'Slaat de plank flink mis'

Maar verkoopt ze wel zo snel als dat ze ze kunnen maken. Omdat ze uitstekend crypto minen.

Inderdaad erg dom van AMD.... 8)7
Op de lange termijn mischien wel ja.

Er is amper een fatsoenlijke AMD gaming GPU te krijgt omdat alles word opgekocht door miners. Ik ben een ATI/AMD gebruiker van het eerste uur maar sta op het punt een nVidia kaart te kopen omdat AMD gewoon weg niet te krijgen en/of belachelijk aan de prijs is.

Ben vast niet de enige, bevalt de nVidia kaart staat de deur iig open dat de volgende dat weer word waar ik voorheen gewoon een AMD kocht. Klapt de mining markt en AMD blijft achter met een kleiner aandeel in de gaming markt en hebben ze zelfs trouwe aanhang verloren. Ja hoor top strategie!
Ik heb om diezelfde reden een nvidia gekocht. De prijzen zijn gewoon niet interessant, waar ze dat voorheen wel waren. Moet wel zeggen, nvidia bevalt me eigenlijk ook prima.
@sapphire

Op de lange termijn ben jij niet meer het target audience voor AMD. Als er met kaarten voor crypto en compute veel meer gegarandeerde volumes worden gedraaid. Dat je er ook op kan gamen is secundair, top level PC gaming is gewoon echt nog een niche. De verreweg meeste gebruikte kaarten voor gaming zijn de 1060 en de 560. Niet de 1080(Ti) en de VEGA/580

AMD heeft de core gamer gewoon niet meer nodig. Dat dit pijn doet voor een AMD/ATi gebruiker eerste uur is natuurlijk begrijpelijk.
Ik vraag me sterk af of de AMD-kaarten geschikt zijn om te minen. Het stroomverbruik is daarbij een zeer belangrijke factor en dat is juist iets waar ze niet goed in zijn.
Ethereum minen is zwaar geheugenafhankelijk. De GPU kan flink undervolt worden om de stroomkosten te drukken. Prestatie/watt is Vega prima voor minen, zowel v56 als v64.
Hier in Nederland is Stroom relatief duur. Maar dit bestaat voor een groot deel uit Belasting. Stroom in India(Inc belasting) is minder dan 0.040 euro per KWH. Terwijl wij het met +0.20 euro moeten doen.
Eeh ja. Omdat AMD die eigenlijk alleen maar in. Combo deal verkopen. Waar een miner niet op zit te wachten. AMD wil helemaal niet aan Miners verkopen.
En ik vraag mij af hoeveel ze er werkelijk geproduceerd hebben. En elke dag bij komen.

[Reactie gewijzigd door loki504 op 14 september 2017 12:07]

@loki504 Veel comments maar op deze wou ik toch even reageren.

Die combo deals zijn echt alleen maar bij de kleine webshops en on-line. Ik kan via mijn leverancier (Zones) gewoon "losse" VEGA 64's kopen voor 560 euro zonder combo onzin of de welbekende "crypto tax" etc.

Veel van de cryptominers hebben inmiddels ook een b.v. (of de plaatselijke equivalent) opgericht om deze kaarten via de grotere leveranciers te kunnen kopen.

En AMD verdient evenveel of ik de kaart nu voor 560 koop via Zones of een consument hem voor 720 koopt bij Alternate.
Ik dacht dat ze alleen met combo deals te koop waren. Weer wat geleerd.
De vraag is of ze er wel zoveel maken. Vega verkopen op het MSRP is verliesgevend. AMD heeft weinig belang bij hoog volume...
Ik denk niet dat AMD graag een Vega64 verkoopt, deze verkopen ze veel liever in de FE, WX9100 of nog hogere uitvoeringen daar ze daar veel meer marge pakken terwijl het dezelfde chip is. Ik zou het iig wel weten, een Vega64 verkopen als RX Vega64 kaart voor +-600 euro of als Radeon Pro SSG voor +-6000 euro ;) of zelfs een MI25 Instinct.

Vega56 daar in tegen zullen ze denk ik wel graag verkopen, daar dit de chips zullen zijn die net niet OK genoeg waren om Vega64 te kunnen zijn.
Ik heb statistieken gezien waaruit blijkt dat Nvidia meer profiteert van de huidige cryptomining rage dan AMD. Vermoedelijke komt dit omdat Nvidia veel meer kan produceren. Het is inderdaad erg dom, de vega's zullen ook bij miners niet erg populair zijn en waar sta je dan met je mislukte kaarten, geen groei in marktaandeel.

AMD slaat zeker de plank flink mis. Gokken op HBM2 is ook niet verstandig geweest. Waren ze voor een goedkoper alternatief gegaan dan was de kaart misschien net zo snel geweest en vele maren goedkoper.

Ik ben zelf erg teleurgesteld, ik heb gewacht op vega maar uiteindelijk ben ik voor een gtx 1080 ti gegaan. Vega is echt een aanfluiting. Ik heb het idee dat mensen die nu zo "pro" amd zijn fanboys zijn of het Nvidia niet gunnen. Er is geen discussie over mogelijk dat Nvidia voor alle situaties een betere keus is, behalve als je gebruik wilt maken van FreeSync. Overigens vind ik zelf Freesync en G-Sync troep en zorgt het voor een delay in snelle FPS games.
Dom niet maar de winst zal door het hbm 2 geheugen dus een flink stuk minder zijn.
Plus het feit dat ze al een stuk goedekoper zijn dan intel.
Amd heeft gewoon gegokt op hbm2, maar hbm2 geheugen is theoretisch nog sneller dan ddr5x.
Maar daarentegen dus duurder geheugen zodat de kosten van de gehele videokaart duurder uitvalt.
Het licht er ook aan in wat voor een marche ze inkopen, wat het geheugen beterfd.
@rjmno1 Maar door HBM2 zijn ze juist zo geschikt voor Cryptominen.

Dus heeft AMD wel zo verkeerd gegokt...?

[Reactie gewijzigd door JannyWooWoo op 15 september 2017 14:58]

Nee, AMD heeft HBM wel degelijk nodig willen ze hun chips van voldoende bandwidth voorzien zonder het verbruik nog verder te laten stijgen. HBM2 is immers een stuk zuiniger dan GDDR5(X) bij gelijke snelheden.

Zonder het gebruik van HBM2 zouden de Vega kaarten een nog hoger verbruik hebben.
En hoeveel watt is dat dan? Want ik kan het nergens vinden.
The Cost of HBM2 vs. GDDR5 & Why AMD Had to Use It.

We know that an RX 480 uses 40-50W for its 8GB, which is already a significant increase in power consumption per-GB over Vega: FE. The RX 480 also has a memory bandwidth of 256GB/s with 8GB GDDR5, versus Vega 64’s 484GB/s. The result is increased bandwidth, the same capacity, and lower power consumption, but at higher cost to build. In order for an RX 480 to hypothetically reach similar bandwidth, power consumption would increase significantly. Buildzoid calculates that a hypothetical 384-bit GDDR5 bus on Polaris architecture would push 60-75W, and an imaginary 512-bit bus would do 80-100W. For this reason alone, HBM2 saves AMD from high power budget that would otherwise be spent solely on memory.

HBM is effectively a necessity to make Vega at least somewhat power efficient while keeping the higher memory bandwidth. Imagine Vega 56, 64, or FE drawing an additional 70-100W – the world wouldn’t have it, and it’d be among the hottest cards since the GTX 480 or R9 290X.
Ja dat klopt maar volgens mij is het ook zo dat hbm2 geheugen nog niet voor de grote massa geproduceerd word omdat het een geheel nieuwere geheugen cel is die niet zoveel gebruikt word.
Als het met de massa,s geproduceerd word dan zal het kosten plaatje vanzelf omlaag gaan.
Volgens mij licht de marge ook hoger omdat het hbm2 geheugen misschien ook wel voor andere toepassingen word gebruikt en niet massaal geproduceerd word als het ddr5 of ddr5x geheugen repen.
Maarja we zullen zien of amd videokaarten beter beschikbaar zal zijn als ze de productie op 100 % zetten,zodat de kaarten wat ze gemaakt hebben meer in de winkels komen te liggen.
@jannywoowoo amd heeft niet verkeerd gegokt.

[Reactie gewijzigd door rjmno1 op 15 september 2017 15:26]

Maar dat is al jaren zo, de TRI-X wordt ook enorm warm. Zo heet dat hij eruit klapte tijdens gamen in een zwaar gekoelde kast. Issue was dat ze de VRM 1 niet gekoeld hadden met het koelblok. Had het geprobeerd weer het rode kamp destijds maar daarna weer overgestapt op de 980 STRIX van ASUS.

Ontopic:
Watt en prestaties ratio zijn altijd al een issue geweest met AMD.

Ik juig de oplossing toe, drijft de prijs naar beneden.
Misschien dat AMD een Versie 2.0 uitbrengt (Zoiets als NVIDA deed met een GTX kaart die wel 4 GB aan boord had maar 3,5 GB aangaf, weet zo even niet welke dat was) met beter Perf/Watt ratio
Je bedoel GTX970 4GB deze had 3,5GB aan snele geheugen en 0,5GB iets langzame geheugen.
die bedoel ik inderdaad... later kwam nvidia uit met een GTX 970 met 4GB echte geheugen!
"Sorry, maar die v64 heeft een uitermate slechte performance/watt ratio"

In games ja, in blender is de Vega 64 20% sneller dan een 1080ti, en verbruikt dan ook in verhouding hetzelfde als een 1080ti.

Dus jouw statement gaat niet helemaal op.

Dus op pure compute performance met wat games (1080p/high settings) is deze kaart toch echt wel een bom

On topic: been benieuwd of deze nieuwe 1070 de Vega 56 verslaat in blender :p
Dat is helemaal waar. Hier mag je alleen niet van uitgaan. De gemiddelde eindgebruiker/OEM gooit zoiets in een systeem en klaar. Laat staan dat er onderzoek naar gedaan wordt! Voor hun zal het systeem de komende paar jaar prima functioneren, en de stroomrekening omhoog :P
Dit was niet wat ik heb bevonden helaas. Ja, Vega64 kan een stuk zuiniger dan hij stock wordt geleverd. (let wel, ik had een aftermarket prototype inbruikleen voor tests) maar voor games kon die kaart een 1e gen GTX1080 maar zelden inhalen en de 11Gbps versie was simpelweg sneller na OC (fabrieks OC).

Een Vega64 kan in sommige titels sneller zijn dan de 1e FE 1080, maar eerlijk gezegd, niemand heeft die kaart en al helemaal niemand gaat die kaart nu nog kopen. Of anders; dé reden om een FE versie te kopen van Nvidia is zodat je zeker weet dat je standaard water block past. In de praktijk zal geen enkele GTX1080 onder de 1800mhz draaien.

Persoonlijk zou ik het niemand aanraden op b.v. een RM520 een Ryzen R7 of Intel ~100W i5/7 te gebruiken met een Vega64. Daar gebruikt ie ook in productiviteitstoepassingen gewoon teveel stroom voor.

Met een TR ernaast gaat ie uberhaubt in de problemen komen, net als op X299.

Undervolted, krijg je nog steeds je Vega 64 (naar mijn bevinding) niet onder de 250W. Een 1080 in "quiet" mode van MSI, Asus of Gigabyte zit rond de 155W. Goed, toegeven, op dat moment is Vega waarschijnlijk een fractie sneller.
En dan als een bepaalde game niet stabiel is ma je zeker weer gaan prutsen, en sorry maar v64 op een 500w is echt niet aan te raden.
Probeer het maar op een vs500 of cx500, heel verstandig ook om je voeding bijna 100% te belasten.
Nee dat is niet al te handig nee. Maar de nieuwere Corsair voedingen kunnen dat wel.
Sterker nog, een ITX systeem dat ik even terug heb gebouwd met een 1080 deed het prima op een Seasonic X-400 Fanless (F3) :)
Om eerlijk te zijn ondanks ik het ontzettend gehoopt had, is in beiden gevallen AMD niet bepaald concurrentie qua prijs/performance, laat staan op de langere termijn ivm stroomverbruik.. en de vega 64 is dusdanig duur dat je beter een 1080ti kunt nemen die zuiniger is en veel sneller.
Mijn vega 64 loopt vlottjes op een seasonic X560 psu, met een 4770k aan 4.4, h105i en 8gb 2000mhz ram. Undervolted weliswaar, maar heb er geen last van. Alleen hier en daar framedrops, maar dat ligt aan de fancurve, lekker stil maar niet ideaal voor perf
Ah goed te horen dat het undervolted dus wel kan.

Hoorde via via dat op een X560 met een 4790K @4.7 de Vega64 met OC zodat z'n clock stabieler wordt toch wel lastig was. De keuze was eigenlijk power limited zijn (PSU wellicht nét niet afdoende) of met undervolt Voltage limited zijn.

CPU undervolten en op 4.0 draaien maakte dat z'n GPU namelijk nét iets beter z'n snelheid behield, maar damn dan moest er wel een extra fan op gericht en de fan op bijna z'n max. Waarschijnlijk gaat hier een waterkoelingsetje + 750W PSU tegenaan gegooid worden, ipv wat ik aanraadde: ding eruit en een 1080Ti erin...
Onder volle last hoor ik wel coilwhine van de psu, er is zeker sprake van een bottleneck. Toen ik de cpu van 4.2 op 4.4 OC ging de gpu-score in firestrike achteruit, ik balanceer aan de hand van de games.

Voor mij was vega de enigste keuze, er zijn geen koreanse ultrawides met gsync. Later zet ik er een aio op, maar de kaart is voldoende.
Vega 64 verslaat de 1080 alleen in een aantal titels, over het algemeen is het alleen 64 liquid die de 1080 echt kan verslaan. Zoals het nu staat is de 1080 gewoon 5% sneller on average in 1440p.
https://www.techspot.com/...adeon-vega-64/page13.html
Daarbij stoten 1080's veel minder warmte uit en slurpen veel minder stroom. Natuurlijk heeft Vega Freesync als argument omdat G sync best duur is, maar ik kan persoonlijk leven zonder enige sync. :)
De vega 64 is veel duurder dan een 1070 en ook duurder dan een 1080, bijna richting de 1080ti als je hem al kan kopen. Komt verbruik ook nog is om de hoek kijken. (duurdere/nieuwe voeding nodig)
Ik zie denk ik sowieso niet echt het nut van een 1070 Ti met de huidige concurrentie, de Vega kaarten presteren zo instabiel dat de Vega 64 bij een paar titels lichtelijk hoger is dan een 1080 maar bij veel andere titels eronder zit of zelfs terug zakt naar GTX 1060/1070 niveau's.

Zie ook de benchmarks die hier gepost zijn voor vergelijkingsmateriaal:
https://www.youtube.com/user/DudeRandom84/videos

Maar Nvidia wilt kosten wat het kost bovenaan staan, maar ja, geef ze eens ongelijk vanuit een marketingsperspectief, en zoveel moeite zal het voor hun niet zijn.
Vega 56 is best interessant met een goeie koeler en undervolt/OC. De meesten komen rond 1080 prestaties. Maar hier inderdaad niet te krijgen voor een normale prijs

[Reactie gewijzigd door DoubleYouPee op 14 september 2017 11:48]

Zelfs dan is die niet interessant. Waarom al dat gedoe met koelers en ondervolten terwijl je met een 1080 een kaart hebt die out of the box gewoon goed werkt en geen kerncentrale nodig heeft.
Omdat een GTX 1080 550 euro kost en een Vega 56, als de prijzen normaal zijn, rond de 400 euro.
Als als als ... typisch AMD
Een GTX 1080 is ook maaanden overpriced geweest... en is de 1070 is dat nu ook nog.
Kan je mij laten zien waar mensen met een Undervolt de 56 (of de "57/58" edities met meer streamprocessors) aantonen dattie sneller is dan een GTX1080?

Ik merkte namelijk dat de Vega 64 trager was dan m'n 1e gen MSI gaming X 1080 (wegens diens auto-OC) en 2e 11Gbps Asus 1080.

Richtprijs van de kaart die ik had was 769,- waarmee ie slechts een fractie van een zelfde merk 1080Ti af zou komen te zitten. En die was gewoon t.a.t. 25% sneller

Misschien heb ik dus iets helemaal fout gedaan al zelfs de 56 al op het niveau van de normale 1080's had kunnen komen.
Je kan hier zien dat de Vega 56 en 64 dan zelfs identiek zijn.
https://www.youtube.com/watch?v=jHRP1uVBqfY
En de 64 is in sommige games net zo snel als een 1080. Het zal niet heel veel schelen in ieder geval.

[Reactie gewijzigd door DoubleYouPee op 14 september 2017 15:44]

Ik vermoed dus dat er hier dus 1080 Chips voor gebruikt worden waar dus wat cuda cores niet van werken/defect zijn en/of simpelweg uitgeschakeld zijn. Dus een erg makkelijke manier en kosten efficiente om een beter product tegenover de Vega 56 te zetten t.o.p. de huidige 1070.
Ooit gehoord van "Kick em when their down!" :P?

Als Nvidia het wind helemaal uit de zeilen van AMD kan slaan, dan hebben ze VEGA gewoon verslagen ook al komt er in 2018 een VEGA 2.0 update :).

Ben zelfs ook fan van AMD, maar moet gewoon toegeven: Nvidia heeft haar zaakjes beter op orde. Eigenlijk zouden we weer een derde grote speler moeten hebben om iedereen op de teentjes te houden.
1080 gigabyte g1 ftw, beste price/performance voor high end
1070 naar beneden in prijs, 1070 Ti op prijspunt van de 1070? Simpel zat :)
Dat Nvidia nu met een 1070ti komt terwijl de 10 series nu al 1,5 jaar op de markt is, laat zien dat AMD geen sterke concurrentie kan bieden.

Als je ziet hoeveel watt vega meer verbruikt, vergeleken met hun Nvidia performance equivalenten, dan hoeft Nvidia zich niet te haasten om Volta op de markt te brengen.

Helaas pushen ze Nvidia niet zoals Intel nu gepusht wordt door Ryzen.
Ik vind het eerder een bewijs van het sandbaggen van nvidia tov de consument. Ze brengen telkens minimale upgrades uit om dan weer flink te cashen - ze houden de echte performance achter de hand voor situaties als deze.
Onzin.
nVidia heeft geen magische oplossing achter de hand hoor.
Deze chips zijn extreem complex en dus gaat men gewoon niet investeren als het niet moet.
Zo heeft intel geen antwoord op Zen (behalve extra cores toevoegen, wat serieus in hun marges gaat snijden) en zo gaat nVidia niet rushen met Volta als dat niet nodig is.
Dat bedoel ik. Dit kan Nvidia, omdat ze geen concurrentie hebben van AMD
En waarom is dat een probleem?
Omdat het anti-consument praktijken zijn?
Niet bepaald. We zien dat de markt goed functioneert, bijvoorbeeld aan de concurrentie in de prijsrange 100-400 euro. Natuurlijk, de high-end is duur, erg duur, maar dat is normaal en wijst niet op anto-consumenten praktijken.
  • GTX 10702: 2048 cores, 10 Gb/s GDDR5X (320 GB/s)
  • GTX 10802: 2560 cores, 12 Gb/s GDDR5X (384 GB/s)
  • GTX 1080 Ti2: 3584 cores, 12 Gb/s GDDR5X (528 GB/s)
Geef alles iets sneller geheugen, de GTX 1070 een extra SM (128 cores) en gooi er 5% kloksnelheid bovenop vanwege betere yield en je hebt een top line-up voor de feestdagen.

Staat weinig druk op om nu met Volta te komen, gezien een GTX 1080 ongeveer de helft kost van een Vega 64 (veel kleinere die en goedkoper geheugen) kunnen nog veel verder in prijs zakken als het nodig is.

Sterker nog, de GTX 1080 is dankzij de kleinere die (314mm2) nog goedkoper in productie dan de GTX 980 (398mm2). De 980 kostte ¤450, de GTX 1080 gaat voor meer dan ¤550 over de toonbank. Nvidia en zijn winstmarges zitten nog wel even goed :).

Edit: Voor de duidelijk, ik heb het over kostprijs. AMD's HBM geheugen kost ongeveer $150 terwijl Nvidia's GDDR5X rond de $50 ligt. De kosten van een grotere die lopen ongeveer tot de macht drie, dus (398/314)3 = 2,036, dus ongeveer twee maal zo duur.

[Reactie gewijzigd door Balance op 14 september 2017 16:23]

Een 1080 kost de helft van wat een Vega 64 kost zegt u. Dream on.
De goedkoopste 1080 kaarten heb je nu voor 550 Euro ongeveer.......wil je 1 van de topkaarten, dan betaal je iets meer dan 600 Euro.

De Vega 64 kan ik zins de launch al elke dag kopen voor 630-650 Euro ongeveer bij Caseking Duitsland of anders overklockers Engeland.

Dus als u zegt dat de 1080 de helft kost dan Vega 64 dan vraag ik mezelf af waar u hebt leren rekenen :P

Veel mensen klagen misschien over Vega, maar voor mensen met een 4k Freesync scherm is er nu eindelijk een kaart voor.

Dat Nvidia veel meer kan zakken met hun prijzen dan Amd dat kan ben ik het wel met u eens.
Ddr5x kost geen drol vergeleken met HBM2.

[Reactie gewijzigd door Andreshoi op 14 september 2017 15:44]

Enig idee wanneer de volgende generatie weer wordt aangekondigd en uitgeleverd? want de 1080 is inmiddels ook al geruime tijd op de markt.
Ik ben zelf al bezig om langzaam een setup te gaan maken voor in 2018, dus ik volg het nieuws een beetje, al ben ik geen Nvidia specialist.

Als je naar eerdere releases kijkt zie je dat Nvidia elke high end kaart net iets korter dan een jaar na elkaar uitbrengt (900 en 1000 series bekeken). Ik denk persoonlijk in de eerste maanden van 2018, al zijn er ook geruchten dat Nvidia dit jaar nog met een nieuwe generatie komt. Tot op heden is hier nog niks over bekend.
Maar de 1080/1070 zijn al meer dan een jaar oud, aangezien we nu nog steeds niets gehoord hebben denk ik zelf dan dat het in de lente van 2018 zal zijn.. Maar we zullen dus wel zien, het is wel zo dat de huidige kaarten niet echt in prijs zullen dalen dan.
Maar zijn de Vega kaarten dan echt een bedreiging? Ze zijn slecht verkrijgbaar, als ze verkrijgbaar zijn dan vallen de prijzen flink hoger uit. En als kers op de taart heb je het aanzienlijke stroomverbruik. De kaarten van Nvidia verbruiken aanmerkelijk minder. De GTX 1070 en 1080 blijven hierdoor voorlopig de betere keuze.
Zou het misschien kunnen dat Nvidia met een berg silicon zit waarvan er niet genoeg kernen werken voor een 1080, maar zat voor een 2048 core 1070Ti
Ik denk eerder dat het zoiets zal worden :D. Tenminste dat hoop ik!


GTX 1070: 1920 CUDA cores
GTX 1070v2: 2048 CUDA cores
GTX 1070 Ti: 2304 CUDA cores
GTX 1080: 2560 CUDA cores
GTX 1080 Ti: 3584 CUDA cores
TITAN Xp: 3840 CUDA cores

En misschien nog een refresh van de 1080
1080 refresh hebben ze al eens gedaan met dat nieuwe geheugen, zullen ze wel niet al te snel nog eens doen, niet dat ik ze tegenhoud.

Een 70Ti zo dicht onder de 1080 zetten zie ik ze ook niet 1 2 3 doen, maar het kan
Maar zijn de Vega kaarten dan echt een bedreiging? Ze zijn slecht verkrijgbaar, als ze verkrijgbaar zijn dan vallen de prijzen flink hoger uit. En als kers op de taart heb je het aanzienlijke stroomverbruik. De kaarten van Nvidia verbruiken aanmerkelijk minder. De GTX 1070 en 1080 blijven hierdoor voorlopig de betere keuze.
Ook de NVidia kaarten, met name de GTX 1070, zijn niet al te best verkrijgbaar. Daarbij kan je bij de Vega56 nog stellen dat de tekorten deels te wijten zijn aan het pas net op de markt zijn.

Daarbij lijkt het met de Vega56 vrij eenvoudig om GTX1080 performance te krijgen middels een BIOS flash van een Vega64 BIOS. Dit is een meer geavanceerder handeling, zeker niet iedere gamer kan en zal het doen, maar toch. Ik vraag mij alleen af wat dit doet met de GTX1080 en of het die GPU niet overbodig maakt. Kan NVidia niet beter de GTX1080 (en in mindere mate de GTX1070) in prijs verlagen?
Waarom prijs verlagen als die GPU als warme broodjes over de toonbank gaan.?
Daarbij lijkt het met de Vega56 vrij eenvoudig om GTX1080 performance te krijgen middels een BIOS flash van een Vega64 BIOS. Dit is een meer geavanceerder handeling, zeker niet iedere gamer kan en zal het doen, maar toch.
Dat is niet voor iedereen. Ik denk dat maar heel weinig mensen de moeite en het risico willen nemen van undervolten en een BIOS flash voor hun Vega56. Meeste kopers steken hun GPU zoals deze is in hun PC.

De Vega kaarten hadden interessant kunnen zijn als ze een jaar geleden op de markt kwamen. Nu heeft AMD eigenlijk de boot gemist.

Een 1070 Ti lijkt mij een vreemde zet van Nvidia omdat hiermee mogelijk 1080 verkopen gekannibaliseerd worden. De huidige range van Nvidia is prima qua marktsegmenten.
Als dit waar is, wordt het sowieso een pascal refresh ipv volta, tenminste voor een groot deel.

[Reactie gewijzigd door barbadruif op 14 september 2017 11:20]

Dat lijkt mij niet meer dan logisch dat als nvidia een iets snellere 1070 uit wil brengen dat ze daar gewoon dezelfde gpu voor gebruiken met iets betere specificaties. Hiervoor de volta gebruiken zou dom zijn gezien de volta een heel nieuw ontwerp is en dus een eigen serie gaat krijgen. En omdat amd eigenlijk geen echte concurrentie levert wacht nvidia gewoon nog met het uitbrengen van de volta gpu voor gaming videokaarten.
Dan zit deze kaart dus in het vaarwater van de GTX 1080. Ben benieuwd wat de prijs dan gaat worden aangezien die al redelijk dicht bij elkaar liggen.
Met al die selfish miners zal de prijs wel lekker hoog liggen.
1080 kan ook discontinued worden uiteindelijk. Dan 1085 of 1080 ti in prijs verlagen en een 1090.

We zien het vanzelf wel.
Ook zou het geheugen een upgrade kunnen krijgen naar 9Gbit/s-gddr5 of zelfs 10Gbit/s-gddr5x

Er is een kans dat het inderdaad om een Ti-versie gaat, maar Nvidia bracht eerder al versies van zijn GTX 1060 en 1080 uit met sneller geheugen, die kregen enkel een 11Gbit/s-aanduiding in de naam.

9Gbit's bestaat ook al bij de GTX 1060.
https://www.zotac.com/pro...gtx-1060-amp-edition-plus

[Reactie gewijzigd door Antarloka op 14 september 2017 11:28]

nou kom maar op, en maak de huidige gtx 1070 dan maar goedkoper, is toch nog een zeer goede kaart voor huidige gaming.
Leuk, als ze de prijs van de GTX 1072 :P dan droppen met 80 euro hebben wij er echt wat aan.

[Reactie gewijzigd door Macboe op 14 september 2017 16:20]

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*