Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia: volgende generatie GeForce-kaarten komt over lange tijd

De release van de volgende generatie GeForce-videokaarten is nog ver weg. Dat heeft de directeur van Nvidia gezegd tijdens een besloten bijeenkomst op techbeurs Computex. De GTX1000-serie kwam twee jaar geleden uit.

De volgende generatie GeForce komt 'a long time from now',  zei Nvidia-directeur Jensen Huang. Hij wilde verder niets over het onderwerp zeggen, schrijft Videocardz op basis van een livestream van UFD Tech. Huang kwam op het onderwerp dankzij een vraag van een redacteur van Hardware.Info. Volgens de site komt het overeen met eerdere geruchten dat Nvidia de details van de volgende GeForce-generatie nog niet heeft gedeeld met partnerbedrijven.

Nvidia introduceerde de GTX1000-serie twee jaar geleden met de presentatie van de GTX1080 en GTX1070. De voorgangers daarvan, GTX970 en GTX980, kwamen uit in 2014. De generatie daarvoor kwam uit in 2013.

Door Arnoud Wokke

Redacteur mobile

04-06-2018 • 17:27

153 Linkedin Google+

Submitter: Denzo

Reacties (153)

Wijzig sortering
Wat ik me afvraag is of de push van een nieuwe generatie samenhangt met een nieuwe generatie consoles. Iemand die daar wat meer van weet? (door middel van statistiekjes ofzo)

En het lijkt of de laatste paar jaar alles een beetje stil komt te liggen qua prestatieverbetering. Nieuwe CPU's/GPU's bieden marginale verbeteringen, meer RAM maakt niet gek veel verschil. Dus elk jaar wat nieuws introduceren is simpelweg niet nodig. Intel zou het ook prima af kunnen met nieuwe CPU's om de twee jaar. Dan heb je iets meer prestatieverschil waardoor een upgrade meer gerechtvaardigd lijkt.

[Reactie gewijzigd door SomerenV op 4 juni 2018 17:33]

De rek begint er uit te raken mbt de wet van Moore: ontwikkelingen van schaalverkleining en toename van kloksnelheden gaan steeds trager.

Als de trend van eind vorige eeuw zou hebben doorgezet zouden we nu de 15GHz al voorbij zijn.

Performance kan voornamelijk nog worden opgevoerd door GPU's (en CPU's) met meer transistors te maken. Maar vanwege de samenhang tussen de schaalverkleining van transistors, het lagere voltage waarop die werken, en de toename vh aantal transistors per gpu/cpu, neemt het opgenomen vermogen per oppervlak als maar toe, waardoor koeling steeds meer een probleem wordt.
Ruim 10 jaar geleden al begonnen we daar tegenaan te lopen, en inmiddels beginnen we praktische limieten van deze zgn "power wall' te bereiken.

The Power Wall
School of Computer Science Columbus State University
January 2010
http://www.edwardbosworth...hapter01/ThePowerWall.htm

The Free Lunch Is Over
February 2005
http://www.gotw.ca/publications/concurrency-ddj.htm

[Reactie gewijzigd door BadRespawn op 4 juni 2018 21:51]

De rek begint er uit te raken mbt de wet van Moore: ontwikkelingen van schaalverkleining en toename van kloksnelheden gaan staats trager.
Dan vraag ik mij af hoe je verklaart dat de 10## series zo'n enorm veel grotere sprong was dan we daarvoor gehad hebben..... Als de rek er uit zou zijn zou de curve afvlakken en dat doet hij juist niet.

Daarnaast heeft de wet van Moore er al helemaal niets mee van doen. De rek kán daar niet uit omdat Moore helemaal niets zei over kloksnelheden over formaten van transistoren. Hij had het alleen over verdubbelingen in aantallen. En dat blijft gewoon stug door gaan.
Dat komt omdat Pascal / GTX 10xx een doorontwikkeling is waarbij de GPU bij Nvidia een specifieker doel heeft gekregen. De Titan V is daar ook een goed voorbeeld van. Nvidia maakt één basis architectuur maar kan daarbinnen 'mix and match' doen vwb extra resources. AMD doet iets dergelijks nog steeds niet, of niet in voldoende mate en dat is ook één van de hoofdredenen dat ze zwaar achter zijn gaan lopen en dat Vega zo hard faalde.

Pascal sloopt een aantal zaken uit Geforce als voortzetting van de geknepen GPGPU performance die je ten tijde van Kepler al zag. Dat is de reden dat mining op AMD kaarten is begonnen, die hadden dat nog wel. En het is ook de reden dat er een steeds groter gat tussen AMD en Nvidia begon te ontstaan vanaf, in feite, Hawaii en in sterkere mate Fury X.

Een GTX 1080 heeft bijvoorbeeld helemaal niet zoveel meer shaders en clock voor clock is de architectuur (IPC) trager dan Maxwell. Maar die clocks, die gaan wel 25-45% hoger binnen hetzelfde TDP budget. En dat kan door een kleinere node te combineren met een veel beter gestroomlijnde 'single purpose' GPU + veel strakkere en fijnmaziger power delivery + een ver doorontwikkelde vorm van GPU boost die verdacht veel lijkt op AMD's XFR voor Ryzen, maar dan met een veel grotere range. En vergeet ook niet de constante focus van Nvidia op een smalle VRAM bus, waarbij Maxwell een delta compressie kreeg en er bij Pascal nog een schepje bovenop kwam.

De rek is er niet helemaal uit want GPUs kunnen nog véél kanten uit bij Nvidia, maar de *huidige* implementatie van een enkele GPU die met daar wat VRAM omheen is wel tegen zijn grenzen aan het lopen en een nieuwe, kleinere node is slechts uitstel van executie, en in veel gevallen niet eens zo denderend lang uitstel. De huidige single-die oplossing wordt nu in elk geval in rap tempo kostbaarder om te maken - daarvoor hoef je alleen maar naar de marge van AMD te kijken op hun veel te grote, complexe ontwerpen. Die bestaat al meer dan 10 jaar feitelijk niet.

Of, ook een mooie parallel: kijk naar Intel Core. Daar is iets soortgelijks aan de hand en is Intel CPU eigenlijk een beetje hetzelfde als AMD GPU: te lang blijven hangen op een design dat eigenlijk niet meer op de toekomst is ingesteld, te weinig doen onder de motorkap om dat modulair te maken en zo creatiever met je TDP budget om te kunnen gaan en ook hier ontbreekt een fijnmazige, precieze boost functie voor maximale performance; de focus van Intel ligt op lager verbruik. Begrijpelijk omdat dat de groeimarkt is (mobile/portable op accu), maar ook eenzijdig.

In beide markten zie je nu dat er naar multi-die oplossingen met een snelle interconnect wordt gekeken en dat lijkt mij ook de logische ontwikkeling. De reden dat Nvidia nu uitstelt is logisch, ze hebben geen enkele reden om de 'next best thing' te gaan pushen want ze hebben de snelste die toch wel zal verkopen. Misschien verkopen ze er zelfs twee omdat al die sufferds nu een 4K paneel voor zich hebben staan en dan is een enkele 1080ti eigenlijk niet voldoende.

Maar die wet van Moore, daar is zo onderhand iedereen wel van verschoond en proberen om die uitleg steeds maar een beetje aan te passen op de nieuwe realiteit is daar gewoon het bewijs van. "Zo heeft hij het niet bedoeld"... als het dan toch over een parallel gaat... dat zeggen religieuzen ook als ze weer eens wat oude geschriften moeten herzien omdat ze zijn ingehaald door de realiteit ;) Niet alle wetten zijn eindeloos houdbaar en die van Moore is eigenlijk nergens op gestoeld behalve een 'gut feeling'.

[Reactie gewijzigd door Vayra op 4 juni 2018 20:09]

Dat was tevens ook een dikke middelvinger naar de tak die DP nodig had...
nVidia had namelijk flink naam gemaakt met cuda en voor mensen die DP berekeningen nodig hadden bleef er alleen nog GK110 GP100 en nu de GV100 die alleen in de top tier quadro's gebruikt worden...
Tot op de dag van vandaag heeft nagenoeg iedere Fermi chip een hogere DP performance dan iedere non top tier quadro die je erna kon kopen.
Die nVidia gpu's zijn namelijk net zo min modulair als de AMD tegenhangers. Alleen de top tier quadro's gebruiken chips die je niet eens tegenkomt in de consumenten kaarten (op titan na dan misschien).
De die-size van die top tier chips is dan ook significant groter dan de tier eronder domweg omdat er dedicated DP functionaliteit aan toe is gevoegd.

Dus ja voor ons gamers een flinke performance boost, maar voor een bepaalde professionele tak een dikke FU. Want openCL kwam pas net om de hoek kijken.

AMD is altijd een "jack of all trades" gpu blijven maken en dat merk je voornamelijk in performance per watt en totale max performance in games.
Aan de andere kant heeft AMD een stuk minder gesneden in DP performance wat tot op heden hun enige wapen is tegen cuda.

Persoonlijk hoop ik dat AMD met navi inderdaad een stap gaat zetten á la ryzen waarbij er dus meerdere (kleinere) dies gecombineerd worden en ze daardoor in staat zijn betere marktspecifieke gpu's te maken zodat zowel de gamers als de professionele markt voorzien kunnen worden van dat wat ze het meest willen. Maar helaas is mijn kristallen bol in zomerstop en kan ik dat nog niet zien...
Klopt. Maar ja, die middelvinger heeft Nvidia miljoenen (zo niet miljarden) opgeleverd, geef ze eens ongelijk...

En verder hoop ik met je mee, al vraag ik me sterk af of AMD de kennis en aandacht in huis heeft die nodig is om weer een echte speler te worden in dit segment. De overname van ATI levert ze ironisch genoeg niets op in het segment waarin ATI groot was. Ze halen de waarde terug uit de synergie met CPU en het bieden van de totaaloplossingen met APUs. Daar komen steeds prachtige producten uit die echte stappen vooruit zetten. De A10 was voor zijn tijd al een leuk ding, zelfs met een matige CPU erachter en nu de 2400G e.d. zijn briljant.

[Reactie gewijzigd door Vayra op 4 juni 2018 21:14]

Uit bedrijfsoogpunt kan ik nVidia ook geen ongelijk geven ze hebben goed (mis?)bruik gemaakt van hun dominante positie m.b.t. cuda. Dat het ze geen windeieren heeft gelegd moge duidelijk zijn.
Het was alleen door die dominante positie dat AMD gewoonweg niet KAN volgen.
Ze kunnen niet alles GPGPU uit hun gpu's slopen tenzij ze 2 verschillende productlijnen er op na houden (1 gamer en 1 professionele) en daar hebben ze inderdaad het geld domweg niet voor.

(En even voor alle duidelijkheid: ik probeer hier niet te verkondigen dat AMD niet exact hetzelfde had gedaan als het die positie had, maar bovenstaande is meer bedoeld als nuance op de huidige stand van zaken)
Ze kunnen niet alles GPGPU uit hun gpu's slopen tenzij ze 2 verschillende productlijnen er op na houden (1 gamer en 1 professionele) en daar hebben ze inderdaad het geld domweg niet voor.
Eerder het geld er niet voor over hebben, dan het geld niet hebben. Ze maken veel geld hoor.
Chips worden gebakken bij TSMC. Dus dat kost geen nieuwe productielijn. Wel een nieuw chip design.
Voor de rest heb je dan 2 verschillende PCB productielijnen nodig. 1 met gamingGPU en GDDR#(X), en 1 met proGPU en HBM#. Het is ook mogelijk andere combinaties natuurlijk. Maar het gaat er om dat nvidia dat best kan betalen.
https://nvidianews.nvidia...h-quarter-and-fiscal-2018 Uit deze gegevens kunnen we stellen dat een half jaar nVidia opbrengst al ruim voldoende levert voor meerdere productielijnen en een nieuwe lijn chips bij TSMC.

[Reactie gewijzigd door AndriesM v2 op 6 juni 2018 09:58]

Dat stukje ging over AMD die daar het geld niet voor heeft ;)
Dat nVidia daar wel de cash voor zou hebben moge duidelijk zijn, maar aangezien de markt hooked aan cuda is kiezen ze ervoor meer geld binnen te harken.
Aha! Juist ja. Daar is inderdaad te weinig geld.
Maar ondanks dat ik liever AMD heb. Vind ik het jammer dat ze nVidia niet goed kunnen bijhouden. De Vega 64 is 1070-1080 Performance voor een hoop meer geld en een hoop meer stroom. Dat is gewoon jammer. nVidia heeft het smerig gespeelt met de GPP. Als dat door was gegaan zou Radeon waarschijnlijk afgestoten worden omdat het geen winst meer zou geven. Iedereen is blij dat het niet doorgaat. En ook omdat nVidia exotische prijzen aan gaat nemen(doet het nu ook al hoor) wanneer de concurrentie weg is.
In het geval van AMD. Ze zouden kunnen investeren. Maar het feit dat de WX9100(top of the line AMD) slechter presteert dan de Quadro P1000(instap Quadro) in Solidworks 2018. Is het gewoon triest te noemen. Alleen renderen doet de WX9100 beter. Maar de WX9100 kost ongeveer 1700 euro nu. De P1000 maar 350 euro. Voor 800 euro krijg je al een WX9100 gelijke, de P4000 en voor 1500 euro krijg je een P5000. De P6000 is nog duurder, maar wat ik hier uit probeer te leggen even is dat de WX9100 onderdoet voor de P1000 prestaties, maar een P5000 prijskaartje heeft.
AMD maakt niet alleen middelmatige GPUs, maar de WX lijn is ook nog eens overpriced.
AMD RX Vega 64 kost 700-800 ongeveer, en de goedkopere 1080Tis zijn ook al rond dat prijspunt te vinden. De Vega lijn is dus ook overpriced, want 1070(ti) performance voor 1080ti prijzen.
De RX580 8GB presteert on par met de 1060 6GB. Dus de RX500 series zijn het meeste waar voor je geld. Maar als je 1080p Ultra @ 144+ Hz wil spelen of 4K, dan zul je al sneller kijken naar de 10x0 serie. En dat is jammer.
Goed spul, beter dan de gemiddelde informatie die HWI ons geeft.

Petje af
Moore zei het misschien niet, maar lange tijd liepen de kloksnelheden keurig op volgens zijn 'wet'.
Maar ook in de groei van het aantal componenten per chip lijkt een beetje de klad te zitten, behalve bij geheugen.
Een verdubbeling in prestaties (mipsen of wat je maar wilt) duurt tegenwoordig langer dan 18 maanden.
meh, 900 series was een te kleine bump in performance als je kijkt naar de tijd tussen 700 - 900 release.
toen de 900 series uit kwam gingen er al genoeg geruchten dat de opvolger van de 900 snel daarna uit zo komen.
De 9xx series was juist een enorme sprong als je keek naar prestatie/euro's. Zeker als je kijkt naar het lievelingetje van die serie de 970, die zich ook nog eens zeer goed laat overclocken (tot aan stock 980 performance).
Architecturele veranderingen....
De wet van Moore gaat over het aantal transistors, niet de kloksnelheid.

"Soms wordt de wet geldend geacht voor de kloksnelheden, maar dat is een misverstand. Miniaturisering geeft weliswaar kleinere transitietijden, maar niet in de mate van deze wet."

Daarnaast zit je ook niet helemaal goed qua temperatuur, de TDP van de meester processors is redelijk constant over de jaren heen. Dit hangt samen met de kloksnelheid die je noemt en daarom zijn we nu in het tijdperk van multi-core CPUs/GPUs ipv Terra Hertz
De wet van Moore gaat over het aantal transistors, niet de kloksnelheid.
Er is wel samenhang tussen want kleinere transistors kunnen sneller schakelen.
Ik denk dat het meer te maken heeft dat nVidia geen waardige concurrentie heeft en dan doel ik vooral op een antwoord tegen GTX1080Ti en daar faalt AMD nog een beetje. En daarbij doel ik vooral op gebied van DX11 en daar is nVidia het best in en AMD is het best voor DX12. Maar ja, enorm veel games zijn DX11 voor nu. Als GeForce kaarten over een lange tijd komen, dan mogen de prijzen wel dalen want het is uitermate gekkenwerk om nu zakken geld, ja, je leest het goed, zakken geld op de toonbank te leggen voor high-end kaarten die inmiddels al 2 jaar zijn.
Je bent ervan op de hoogte dat 95% van de gamers een kaart koopt van het caliber RX 560/570/580/vega56 en GTX 1050/1060/1070.

Nvidia heeft wel degelijk concurentie.
En daarbij heb je nog de 2200G/2400G en I7 8809G.
Concurrentie heeft Nvidia alleen als het om prijs gaat. Niet als het om performance gaat. En dat is wel wat telt op de lange termijn. Die 1080ti van vandaag is de 1180 van morgen, enzovoort. Dus één goed ontwerp kan jaren mee. AMD mist dat ene goede ontwerp voor een GPU.

En het lullige is, Nvidia kan die concurrentie op prijs ook makkelijk winnen maar dat HOEVEN ze niet want ze hebben op elk prijspunt een kaart die stiller en zuiniger is. Je kunt dan wel roepen dat 'het gros zo'n kaart niet koopt' maar die flagship-kaarten en de marketing eromheen + top architectuur zorgen wel voor het marktaandeel dat Nvidia nu heeft. En dat is op dedicated GPU zo'n beetje 85-90%. Om dan te roepen dat AMD zo fantastisch concurreert op een lager prijspunt is jezelf voor de gek houden - we hebben al gezien hoe goed dat concurreren ging met de FX-CPUs, nietwaar? AMD heeft grotere, duurdere GPUs nodig om tot gelijke performance te komen dus de marge is lager, waardoor ze een concurrentiestrijd ook op prijs zouden verliezen.

Daar heeft het IGP-segment overigens niets mee te maken, in elk geval niet zolang die IGPs op *alle* prijspunten zich kunnen meten met een dedicated GPU van het kaliber 'degelijk 1080p gamen'. En tot nu toe is er slechts één IGP die dat (ook maar nét aan) kan claimen. Kortom dat moment waarop AMD gaat shinen met Vega IGPs als echte gaming-kaarten is nog ver weg en daarboven hebben ze bijzonder weinig in de melk te brokkelen.

[Reactie gewijzigd door Vayra op 4 juni 2018 20:49]

Ik deel jou mening niet echt.
Vega 56 gaat als een speer hier op 1440P ultra alle games. Die zit op het niveau van de GTX 1070TI terwijl het verbruik nagenoeg hetzelfde is.

(Hardwareunboxed 25 games Vega 56 vs 1070TI) https://m.youtube.com/watch?v=4JiJud00IsE

Note: hij gebruikt een ref Vega 56 en ik heb een Sapphire nitro vega 56.

Denk ook dat Nvidia meer marktaandeel heeft omdat ze veel meer in OEM’s en laptops zitten.
Dat mag, maar de feiten weerspreken dat.

Vega 56/64 is het beste dat AMD op dit moment kan presteren binnen een TDP budget dat aanzienlijk hoger ligt als dat van een 1080ti.
https://www.techpowerup.c...Radeon_RX_Vega_56/29.html

Met andere woorden, ze lopen 1,5 generatie achter.

Marktaandeel? Het is niet 100% dekkend, maar Steam is het niet met je eens
https://store.steampowered.com/hwsurvey/

Bovendien gaat het om gaming GPUs en daarin is de vertegenwoordiging van Intel op de Steam survey een vreemde eend in de bijt. Daar draai je net 720p low op. Dus feitelijk ligt het marktaandeel van Nvidia tegen een monopolie aan in dit segment. Daar doet een review van Vega 56 weinig aan af ;)

[Reactie gewijzigd door Vayra op 4 juni 2018 21:05]

Volgens de meeste reviews die ik heb gelezen verbruikt de Vega kaart aanzienlijk meer dan de vergelijkbare Nvidia kaart. Vega 56 verbruikt bvb bijna 100w meer dan een 1070/ti wat echt gigantisch is en aantoont dat AMD op GPU vlak in ieder geval nog een behoorlijke achterstand heeft.
En toch is het maar 30watt vergeleken met een GTX 1070TI.
Denk dat je een overklokte Vega 56 bedoelt.
En daarom zei ik ook:
dan doel ik vooral op een antwoord tegen GTX1080Ti
Kan het ook gewoon nepnieuws zijn zodat een hoop mensen -die nu wachten op de 11XX of 20XX serie- te misleiden om nu maar wat te kopen omdat het nog héél lang gaat duren voor de opvolger er is.

Ik neem aan dat Nvidia en AMD aardig wat chips bijgebakken hebben om aan alle vraag te voldoen en die loopt nu terug(?).
Ik vraag mij dit inderdaad ook af. Volgens mij is er op dit moment geen noodzaak voor Nvidia om een nieuwe GPU lijn te releasen. Ze prolongeren hun huidige lijn, tot er een event komt (bv vanuit de AMD hoek) of teruglopende verkoopcijfers...

Waarom zouden ze nu een nieuwe serie aankondigen? Ik gok dat ze de zeilen flink hebben bijgezet om nieuwe voorraden te genereren obv de grotere vraag vanuit de hele mining hype. Nu deze afzwakt zullen ze nog met voorraden kampen, geproduceerd op vrij duur geheugen -- een aankondiging zou een acute stop betekenen in de huidige vraag.

Ik wil zelf mijn eigen hardware graag binnenkort vervangen (4600K serie nog), maar een nieuwe GPU is voor mij doorslaggevend om de boel in gang te zetten. Ik hoop dus dat NVidia hier niet zo in zit, zoals men pretendeert :)
Ik zou bijna familie en kennissen die vanuit de VS komen vragen om elk een videokaart belastingvrij mee te nemen. Dat plus koersverschil is een leuk rendementje.
Nepnieuws: nee. Dat zou Nvidia's geloofwaardigheid aantasten en daar hebben ze geen reden toe of belang bij. Maar goed, 'long time' is uiteraard heel abstract dus misschien bedoelt hij wel 'niet op deze beurs, maar op de volgende'.

Verder heeft de markt nog wel wat tijd nodig om te herstellen van al die mining-gekte, er zitten nog heel veel mensen die niet minen op een prijsdaling te wachten. We zitten pas een paar weken weer richting het niveau van de Pascal launch. En dat was al aan de hoge kant; normaliter daalt de prijs met 5-10% kort na launch. Nu krijg je er een twee jaar oude GPU voor...

[Reactie gewijzigd door Vayra op 4 juni 2018 21:24]

Mjah... na het Nvidia GPP (toch??) kunnen ze niet lager meer zinken
Oh ze vinden vast wel weer iets nieuws waar we ons druk over mogen/moeten maken :P We dachten ten tijde van de GTX 970 ook dat de bodem bereikt was...

[Reactie gewijzigd door Vayra op 5 juni 2018 09:17]

stock overschotten door de introductie van ETH ASICs waar ze vanaf willen? ;)
Wat ik me afvraag is of de push van een nieuwe generatie samenhangt met een nieuwe generatie consoles. Iemand die daar wat meer van weet? (door middel van statistiekjes ofzo)
Consoles zijn niet gemoeid bij de nieuwste generatie enkel om maar de nieuwste generatie te hebben. Een console kost ongeveer een mid-end videokaart, en daar moeten dan ook nog eens de CPU en andere onderdelen bij.

Als de nieuwste generatie zorgt voor significant meer prestaties tegen dezelfde prijs en warmteontwikkeling (door de nieuwe generatie of omdat de oude generatie goedkoper wordt), dan is het de moeite waard om ernaar te kijken.
En het lijkt of de laatste paar jaar alles een beetje stil komt te liggen qua prestatieverbetering.
Kijk naar niet-gamer PC's van nu ten opzichte van tien jaar geleden. Een goede Core 2 Duo/Quad van tien jaar geleden is goed genoeg voor dagelijks kantoorwerk. Upgrade hem met een nieuwe budgetvideokaart en je kan er zelfs moderne media mee afspelen. Vergelijk dat met het gebruik in 2008 van computers van 1998. Toen was het verschil in 10 jaar tijd veel groter.
Intel zou het ook prima af kunnen met nieuwe CPU's om de twee jaar.
Intel verdient niet alleen aan nieuwe CPU's, maar ook aan nieuwe chipsets die niet werken met oude CPU's en die nodig zijn om nieuwe CPU's te gebruiken. Dat is zelfs kunstmatig. Volgens mij konden bepaalde moederborden voor Intel's zevende generatie i-CPU's geflashed worden om ook bepaalde achtste generatie CPU's te gebruiken totdat Intel hier een stokje voor stak.

[Reactie gewijzigd door The Zep Man op 4 juni 2018 17:45]

Een goede Core 2 Duo/Quad van tien jaar geleden is goed genoeg voor dagelijks kantoorwerk
Is niet helemaal waar, wij hebben nog enkele Core2Duos rond zwerven op de zaak, de rest is allemaal i5

en echt die core2duo's zijn in vele taken echt niet vooruit te branden, zelf in vrij simpele Office werkzaamheden

Je merkt het echt met alles dat die processor gewoon op is en niet meer mee kan

Wellicht voor het hele simpele en lichte Office werk dat ze nog voldoen, maar als het maar iets zwaarder wordt zijn ze gewoon traag
Ik heb nog een desktop met een Q6600 draaien als backup. Met een recente linux, standaard KDE en de laatste libreoffice/firefox/vlc/... is daar nog perfect mee te werken/programmeren/1080p af te spelen zonder frustratie.

Voor een nieuw systeem is er inderdaad wel beters te vinden op de (tweedehands-) markt :P
Wat ik gemerkt had toen ik vorig jaar wat uitgetest had dat een core2duo e8400 nog best prima presteert, maar dat een core2duo e6750 aanzienlijk trager was. Dit merktte je met name als je video's ging afspelen.(in youtube) Er zat wel een simpel hdmi videokaartje in) Maar in beide testscenario's een SSD.

Ik weet niet hoe jouw situatie is. Maar stel zowel die i5, en die core 2 duo op je werk hebben beide GEEN ssd, dan lijkt het me logisch dat die i5's alsnog sneller aanvoelen, want ondanks dat traditionele hdd's niet snel zijn, hdd's van de pakweg laatste 5 jaar zijn stukken sneller dan een schijf van +- 10 jaar oud.

[Reactie gewijzigd door dennis_rsb op 4 juni 2018 19:15]

Gaat vaak, zoals al gezegd, mis op 2 punten:
SSD, dat scheelt enorm.
En of de video's afgespeeld kunnen worden. Geen h.264 decoder op de cpu of gpu geeft dan problemen.

Mijn oude workstation kon 1080p60 of 720p60 vaak niet goed afspelen van YouTube, want geen hardware decoder. De nieuwe dual core i5 is een stuk rapper. Maar dat komt puur door de nieuwere architectuur. Niet door de cpu performance. Want die is ongeveer gelijk in cinebencch en andere benchmarks. En dat merk ik met ander werk ook. Alleen voor afspelen van video scheelt het enorm.
Ik zou mij verbaast achten moest daar een SSD inzitten. Zelf ook een C2D E6400 een tweede leven gegeven door er een es-es-deetje in te proppen. Dat ding gaat vooruit!
Sneller RAM maakt gek veel verschil voor integrated GPUs, en die beginnen best krachtig te worden. Er is een onaangekondigde AMD chipset met on-board GPU die hoogstwaarschijnlijk ongeveer de performantie van een RX470 gaat hebben. Da's niet niks.
een refresh van de Ryzen 2400g APU? Even oogje in het zeil houden, zit een beetje op de 2400g te azen als mooie manier om na 6 jaar alleen een laptop te hebben gehad weer een beetje goedkoop een beginnetje te kunnen maken.
Ik kan de 2400g prima aanbevelen! Ik heb een maandje of 2 geleden een desktop gebouwd rondom deze APU. Ik speel geen al te moderne games (vaak toch niet meer dan oude wijn in nieuwe kruiken - maar das voer voor een (andere) discussie). Ik speel op een 1080p scherm. De meeste (redelijk) moderne games kun je spelen op 1080p medium zonder AA op 30 of 60 FPS. Persoonlijk speel ik de meeste modernere games op 720p ultra/max/high met AA en de framerate (locked) op 30 FPS en/of vsync aan. Denk hierbij aan Doom, Skyrim SE (met 80+ mods), Unreal Tournament, Fortnite, dat soort spellen. Ik heb er 16GB CL16 3200Mhz ingegooid, aangezien een IGP snel werkgeheugen nodig heeft. Dat was het duurste onderdeel! Kortom: voor ¤400,- à ¤500,- kun je een prima, multifunctionele en potente machine bouwen. Wanneer de prijzen van de GraKa’s weer wat normaal worden en ik de noodzaak ervan inzie, dan gooi ik er dan nog wel eens een Radeon 580 of zo in.
Dank je voor je informatieve antwoord! Je beschrijft inderdaad mijn precies mijn plan, ook inderdaad met het oog op een later een externe videokaart toevoegen (als ik weer wat centen opzij heb kunnen leggen en de prijzen van GPU's weer een beetje normaliseren).

Ik speel nu op een laptop met een Nvidia 650M 512MB en begin gewoon echt te merken dat na 6 jaar de leeftijd parten begint te spelen. Stellaris word in de late game strooptraag en veel nieuwere spelen kan ik niet meer spelen, zelfs op low settings en resolutie. Ik zat nog te twijfelen of de APU wel zoveel sneller zou zijn als een 650M, maar dat lijkt volgens jouw ervaring wel zo te zijn :)
Het is meer het productie procedé, telkens als er een nieuw procedé (28/14nm) beschikbaar komt dan krijgen we daar twee generaties op, de eerste is de pipecleaner en de tweede de verfijning. Meestal met iets meer dan één jaar ertussen. Met die verfijning weten bijde GPU fabrikanten vaak het maximale uit het vermogens budget en beschikbare chip opervlakte te halen. Daarna komen er nog wel wat varianten, maar de echte sprongen zijn er dan wel uit. 7nm is dus waar we op wachten.

We zien nu dat AMD Vega20 gaat aankondigen dus dat zal voor AMD die pipecleaner zijn. Het is eigenlijk Vega10 met wat relatief kleine aanpassingen, zodat ze dicht blijven bij wat ze al weten. Daarna komt Navi, dat zal de verfijning zien die ergens in de tweede helft van 2019 komt.
Tegen die tijd zal nVidia ook met nieuwe kaarten komen. Ze zitten er nu zo goed bij dat ze er waarschijnlijk voor kiezen om de begin periode van 7nm te gebruiken voor andere producten. Denk aan SoC's voor consoles/tablets en de automotive industrie.
Dat is onzin, de trend van twee generaties is eigenlijk al niet meer houdbaar sinds 28 (GPU) / 22 (CPU) nm, Intel heeft tick-tock allang losgelaten en was overigens ook de enige met een dergelijke roadmap. Verder is het vooral toeval en de markt die bepalen op welk proces een bepaalde architectuur uit komt. Zo was Pascal initieel niet gepland voor 16nm TSMC en hadden we ten tijde van Maxwell al op dat punt moeten zitten. Maar Nvidia rook stagnatie bij GCN en smeerde het lekker nog eventjes uit. Grote kans dat ze de tijd ook genomen hebben om nog wat verder te sleutelen en toen begon ook duidelijk te worden of ze wel of niet toegang tot een ander proces zouden hebben.

Het is ook géén toeval dat Intel met zijn tick-tock cadans eigen fabs heeft. Alleen dan kun je op die manier vooruit plannen. Elke andere chip bouwer zonder eigen productiecapaciteit is overgeleverd aan talloze factoren, niet in de laatste plaats zelfs of het fysiek uberhaupt al mogelijk is omdat de machines er zijn, of dat de capaciteit al is weggekaapt door andere giganten.

En dan de toekomst: 10nm wordt een hele rare node, en dan vooral voor Intel. Maar als ze dat gaan halen kun je er vanopaan dat ze daar veel geld en dus echt ook wel meer dan twee architecturen op gaan neerzetten. De rest moet het tegen die tijd doen met 7nm en daar zal vast wel een + en ++ versie van komen, maar daarna komen we weer een grote stap dichter bij de fysieke limieten van materialen - sterker nog, dat is nú al de reden dat kleinere nodes steeds moeilijker worden.

[Reactie gewijzigd door Vayra op 4 juni 2018 20:29]

Daarna komen er nog wel wat varianten, maar de echte sprongen zijn er dan wel uit.
Met varianten bedoel ik dus de tock's na de eerste tock, en bij Intel zien we dat alles na de eerste tock niet zo heel spannend meer is. De rek is er dan grotendeels uit en het zijn dan echt kleine optimalisaties.

Eigenlijk ben ik het bijna helemal met je eens, maar wel met wat kanttekeningen:
Nvidia steeft eigenlijk naar twee argitectuuren, één voor GPGPU en een voor game GPU's. Maar ze lopen steeds tegen problemen aan waardoor ze gedwongen zijn om één variant af te schieten. Het lijkt dus wel alsof ze stil zitten, maar dat valt best wel mee. Ook gaan ze niet braaf zitten wachten op AMD, anders maak je geen 12nm 815mm2 chip (Tesla V100). (Vega64 is 484mm2)

Intel heeft de tick al op 10nm, de Core i3-8121U. Cannon Lake, maar echt een ouderwetse pipecleaner (zoals de HD4770 was, maar dan in een nog kleinere oplage). Dat het typenummer nogsteeds in de 8e generatie zit verklaart dat ook Cannon Lake echt een tick is. Maar hopelijk maakt die al wel een lekkere sprong door het procedé. Pas bij Ice Lake gaat het nummertje omhoog naar de 9e generatie.

Maargoed het is ook wat je zecht; er speelt heel veel mee. Ze beginnen grofweg vier jaar van te voren en kunnen dan wel redelijk inschatten welk procedé dan beschikbaar is, maar in vier jaar kan veel (niet) gebeuren. Soms is het niet heel ergs en soms pakt dat heel erg slecht uit. (Bulldozer was niet voor 32nm bedoeld)
[...]

Met varianten bedoel ik dus de tock's na de eerste tock, en bij Intel zien we dat alles na de eerste tock niet zo heel spannend meer is. De rek is er dan grotendeels uit en het zijn dan echt kleine optimalisaties.
Dat is ook niet waar. Kijk nou naar Coffee Lake. Door 2 cores toe te voegen werd het opeens weer spannend, en dat is de 3e gen op 14nm.

En kijk naar Ivy Bridge: dat was een tick, maar die was totáál niet spannend als je nu terugkijkt. Je was eigenlijk beter af met een Sandy met een leuke OC.

[Reactie gewijzigd door Vayra op 5 juni 2018 09:14]

Nieuwe generatie betekent weer meer verkopen, iets wat deze bedrijven nodig hebben. Echter lijkt het erop dat ze inderdaad een beetje tegen de natuurkundige limieten aan aan het lopen zijn. Waarbij je vroeger met een nieuwe generatie makkelijk 200 procent snelheid winsten had, is het vandaag de dag al mooi als je praat over 20 procent. De rek begint er een beetje uit te raken. Ze kunnen enkel nog scalen naar meer cores, maar dat tegen dezelfde kostprijs doen is lastig. Meer cores betekent grotere chips dus minder per waver, dus duurder in productie. Een kant die ze ook niet eeuwig op kunnen gaan. Er moet of een geheel nieuwe architectuur komen die veel beter blijkt of een geweldige innovatie in het productie process waardoor ze opeens 10 keer zo grotere wavers in kunnen zetten ofzo. Beide lijken een beetje uit te blijven op het moment.

De wet van moore om telkens te verkleinen en dan te versnellen begint toch langzaam uit te werken.

[Reactie gewijzigd door ro8in op 4 juni 2018 17:42]

Bij consoles word nooit gekozen voor dure high-end GPUs.
Wat een grotere rol speelt is de noodzaak met betrekking tot concurrentie en de vraag.

Nvidia zal waarschijnlijk al lang iets op de plank hebben liggen maar er is geen noodzaak om dit uit te brengen vanwege de ontbrekende concurrentie. AMD is op het moment niet in staat Nvidia echt te overtreffen.
Ook is de vraag naar de huidige generatie nog dik in orde ( onder andere dankzij de miners).

Hierdoor kan Nvidia de yields van de nieuwe gen verbeteren etc.
Heel simpel, er is nog geen noodzaak om echt nieuw materiaal op de markt te zetten. Zo kunnen ze met kleine stapjes omhoog maximaal verdienen. ;)
Mwah, zeker op de CPU markt is er juist enorme(nou ja... ten opzichte van het pre-Sandy Bridge tijdperk in elk geval) vooruitgang gemaakt, met name met Skylake maar dan vooral met (ry)Zen en Coffee Lake waarbij we eindelijk hexacores voor de desktopmarkt hebben verkregen, alsook de performance boost van DDR4 geheugen die niet onsignificant is. Zeker op de laptopmarkt is de upgrade van mainstream dual core naar main stream quad core een goede evolutie.

Op GPU niveau moet ik je gelijk geven, maar volgens mij is dit onder impuls van de cryptocurrency markt die simpelweg alles wat iets of wat performant is als zoete broodjes laat verkopen. Een 1060 die je twee jaar geleden aankocht, kan je nu aan aankoopprijs verkopen op de tweedehands markt. De fabrikanten zijn daarom eerder geneigd om capaciteitsuitbreiding te doen in plaats van te investeren in nieuwe technologieën/onderzoek. Het verkoopt toch wel.

[Reactie gewijzigd door kcRogue op 4 juni 2018 17:50]

- cpu land gaat juist nu een stuk beter dan voorheen qua prestaties.
- gpu blijft nog op z'n gat liggen, maar ik verwacht door de bitcoin hype dat er veel is geïnvesteerd en dus ook mooie producten van beide kampen komen.
Wat betreft CPU’s is dat onzin. Na jarenlange stilstand hebben we nu ineens met Ryzen en Coffee Lake 30-40% meer performance per watt. Hoewel de meeste mensen de power eigenlijk niet nodig hebben zal iedereen die iets van cpu-intensief werk doet zitten te kijken voor een upgrade.
Wellicht dat je hier wat aan hebt, al moet ik er wel bij vermelden dat ik deze zelf nog niet heb kunnen doorlezen, dus wellicht dat je er niks aan hebt, maar dacht nooit geschoten is altijd mis, plus dit is alleen maar goed bedoeld:

- NVidia Investor Day: March 27, 2018
- NVidia Virtual GPU Software: May 2018
- NVidia PROGRESSIVE GROWING OF GANS FOR IMPROVED QUALITY, STABILITY, AND VARIATION: Published as a conference paper at ICLR 2018
- NVidia Quantum Chemistry (QC) on GPUs: March 2018

En wellicht dat je hiertussen ook nog het een en ander kan vinden: klik = NVidia White-Papers
Maar echt specifieke info betreffende puur en alleen consoles kon ik zo snel niet echt wat vinden.
;)

[Reactie gewijzigd door SSDtje op 4 juni 2018 19:11]

En het lijkt of de laatste paar jaar alles een beetje stil komt te liggen qua prestatieverbetering. Nieuwe CPU's/GPU's bieden marginale verbeteringen
De AMD 4## series en de nVidia 10## series waren voor beiden de grootste performance sprongen in jaren. Hetzelfde voor de 8### series van Intel, om over Ryzen nog maar te zwijgen....

Ik weet niet waar je vandaan haalt dat er maar marginale verbeteringen zijn maar de benchmarks zijn het absoluut niet met je eens.
Ik denk dat het voornamelijk samenhangt met de opkomst van 4K en 8K, HDR en refreshrates. Vergeet niet dat het aantal pixels en hoe vaak die ververst moeten worden exponentieel toeneemt, dit lijkt mij reden voor een grondig herontwerp wat een aantal jaren onderzoek en ontwikkeling kost.
Je kan heel veel verklaringen bedenken. Mocht Nvidia nu aangeven dat de nieuwe kaarten over een aantal maanden komen, dan heeft dat natuurlijk automatisch een negatief op de huidige verkoop. Daarnaast kun je je afvragen waarom Nivida op dit moment een nieuwe generatie moet introduceren. De kaarten worden nog altijd voor hoge prijzen verkocht, AMD heeft geen kaarten die goedkoper zijn en beter presteren, dus ik snap wel waarom ze geen haast hebben.

Hardware gaat al tijden lang mee. Ik gebruik zelf nog een EX58 moederbord met een X5650 (OC@4GHz) en een GTX 1080 en dat werkt meer dan uitstekend. Pas bij de volgende generatie kaarten ga ik voor een volledige upgrade.
Push voor next-gen consoles? Of even wachten tot de crypto-bubbel barst?
Kon helaas nog wel even duren voordat die crypto-bubbel barst ben ik bang :(
Waarom wachten we niet gewoon tot de computer bubbel barst? Hebben we helemaal geen gpus en cpus meer nodig.
Om hier nu CPU's en GPU's over 1 kam te scheren, vind ik nogal wat.

Zit toch behoorlijk wat prestatieverschil tussen een GTX 780, een GTX 980, en een GTX 1080.
Iedere generatie hier is toch wel 50% sneller dan de vorige. (Tussen de GTX 780 en GTX 1080 zit zelfs een factor 2,5.)

Dit is wel even heel wat anders dan die paar lullige procenten per generatie bij de CPU's.
Een Intel upgrade rechtvaardig? :+
Ik weet niet wat ik hier van moet denken. Kunnen wat mij betreft 3 scenario's zijn.

1. Een snellere kaart produceren is momenteel lastig
2. Nvidia ziet geen noodzaak, door het weinig tegengas van AMD in het high-end segment.
3. Nvidia heeft wellicht al wel wat klaarliggen qua plannen op korter termijn, maar wachten lekker af tot AMD met een GPU komt die vergelijkbaar of beter is dan de 1080ti, voor een zelfde of lagere prijs.
Scenario 1 is eigenlijk direct uit te sluiten. Als je tech niet goed genoeg is dan kun je in gpu land tot zekere hoogte nog een grotere (en onzuinigere) chip maken. Gezien de winsten die Nvidia maakt zit dus nog heel wat rek in om een monster kaart betaalbaar op de markt te zetten. Uberhaupt zouden ze de prijzen onderhand kunnen halveren.

Maar voorlopig gaat de hele 10 serie als warme broodjes over de toonbank, aldus de omzetscijfers. Ik vrees dat we daar de echte reden vinden. Als die verkoop afvlakt, dan heeft Nvidia een reden om een nieuwe generatie te introduceren.

[Reactie gewijzigd door sdk1985 op 4 juni 2018 23:15]

Thanks voor je reply! Betreft alinea 1, kan kloppen. Ik heb geen inzicht in hoeverre er op korte termijn significante performancewinst geboekt kan worden bij GPU’s. Wat je natuurlijk wel ziet is dat op cpu vlak jarenlang er niet veel veranderd is tot coffee lake en ryzen. Goed dat er serieuze concurrentie kwam met ryzen, want naar mijn mening is het geen toeval dat Intel net daarna extra cores bood voor een gelijkwaardige prijs. Bij Intel her en der de IPC wat verhogen en de chip nog zuiniger maken. En over de bulldozer/FX serie zullen we het maar niet hebben...

Betreft alinea 2, dat klopt. Maar als mensen aan mij vragen welke GPU is beter, AMD of Nvidia? Dan zeg ik altijd: “dit hangt er af welke type GPU je vergelijkt en welke games je speelt” Want zover ik weet is AMD over het algemeen beter in DX12 games, en Nvidia beter in DX11. En zover ik weet (hou het niet enorm bij) zijn er sinds de launch van Windows 10, 3 jaar geleden, nog steeds weinig DX12 games.
Alinea 2 gaat er toch niet om welke gpu jij beter vindt? Nvidia verkoopt elk kwartaal nu eenmaal voor pak hem beet 2 miljard aan videokaarten (1700 Geforce, de rest Quadro). Dat is het dubbele van de cijfers uit 2016 (800+200). Vandaar de warme broodjes.

Mocht je de vergelijking met AMD perse willen maken, dat is lastig. AMD kiest ervoor om die informatie te verstoppen door graphics met de cpu samen te publiceren als 1 getal. De CEO heeft tijdens de conference calls wat ruwe percentages genoemd en zo even uit het hoofd kon je daaruit opmaken dat RTG +- 500 miljoen omzet doet. Winst is niets over bekend.
Excuus, je hebt gelijk. Ik keek teveel naar individuele keuzes qua GPU.
Ik ben benieuwd waar ze op wachten..
Tot AMD genoeg concurrentie biedt. Maar die heeft hier natuurlijk ook geen baat bij aangezien beide partijen toch alles verkocht krijgen met de mininghype. Waarom concurreren als je beide toch niet meer winst kan genereren bij gamers? Daarom zien we nog wel vooruitgang in de kaarten voor machine learning en automotive. :)
Valt wel mee denk ik. AMD stock is up 30% dankzij Ryzen en hun slimme investeringen in cloud computing. In GPU markt hebben ze nog wat high end in te vullen. De ruimte die ze hier van nvidia krijgen gaan ze zeker niet gebruiken om te slapen. Lisa Su is een berekende dame.

Edit: En daarnaast gaat nvidia ook niet slapen hoor. Deze bedrijven vallen of staan met R&D en gaan gewoon doorontwikkelen verticaal en horizontaal (high-end gaming en cloud).

Al hebben ze idd wel wat meer ruimte en gaan ze de huidige generatie gewoon "melken" tot AMD moves maakt, om daar vervolgens weer een hard antwoord op te geven. Intussen gaan ze AMD concurreren in de cloud markt.

[Reactie gewijzigd door Division op 4 juni 2018 17:57]

30%? Eerder 750% AMD was ooit pak hem beet 40 dollar. Dat was voor ze in 2007 de fout maakte om Ati Radeon over te nemen. Daarna was het een steile weg omlaag tot aan pak hem beet 2 dollar. Uiteindelijk stonden ze in 2016 zelfs onder de 2 dollar. Na de Ryzen hype is dat toegenomen tot hangen rond de 15 dollar.
Het probleem is dat Nvidia wil voorkomen AMD volledig weg te concurreren. Als ze dat wel doen, hebben ze zo'n overduidelijke monopolie, dat er waarschijnlijk overheidsinstanties aan te pas gaan komen die Nvidia gaan opsplitsen. Dat willen ze voorkomen.

Het zou me niets verbazen dat ze niets doen omdat ze ten eerste niets hoeven te doen (weinig concurrentie), en ten tweede ze niets willen doen (dat zorgt voor een te grote monopolie, en dat is gevaarlijk).

[Reactie gewijzigd door unilythe op 4 juni 2018 17:57]

Er is wel degelijk concurrentie, van twee kanten zelfs.
Mensen die zeggen dat er geen concurrentie is die volgen de zaken niet helemaal.

[Reactie gewijzigd door HWliefhebber op 4 juni 2018 18:12]

Natuurlijk is er concurrentie. Nvidia wil niet zo ver gaan dat er geen concurrentie meer is. Dat is precies wat ik zei.

[Reactie gewijzigd door unilythe op 4 juni 2018 18:14]

Ik ben benieuwd waar ze op wachten..
Focus ligt op AI waaronder autonoom rijden.

En frappant genoeg zijn die chips ‘simpeler’ dan een gpu. GPU heeft best veel legacy.

En voor ASIC/FPGA zijn best veel producenten te vinden.

Altera wat tegenwoordig van Intel is, Xilinx en Microsemi zijn heel grote producenten.
Maar het is ‘relatief’ makkelijk om zelf een chip te ontwerpen en te laten bouwen. Je zag dat al langzaamaan op gang komen met de bitcoin,
maar tegenwoordig zie je links en rechts steeds meer AI-chips opduiken wat dus ASIC/FPGA zijn en heel goed in bepaalde taken zijn. Apple, Huawei, Samsung, hebben hun eigen types ontwikkelt. Google is helemaal los gegaan met een AI op de pixel, maar ook chip voor in een server.
ARM heeft er ook een ontworpen.

Het zijn allemaal chips die in bepaalde taken teraflops kunnen verwerken, waar je dus eerst een server voor nodig had, toen GPU, en nu zit het in je telefoon.
Huawei maakt durft de claim al te maken door te zeggen dat de kirin 970 1,92 teraflops aankan, weliswaar voor bepaalde taken.


Kwestie van tijd voordat de voorsprong die Nvidia, en in mindere mate AMD had, ingehaald is.
AI heeft baat bij een simpelere chip die gruwelijk snel is.
Het is duidelijk dat ze geen concurrentie van AMD voelen :O

edit: spellcheck

[Reactie gewijzigd door DutchMuffin90 op 4 juni 2018 17:31]

Pijnlijk duidelijk inderdaad... In het middensegment kan AMD nog leuk concurreren met de 570/580 mits msrp's gehaald/benaderd worden, maar op de gtx1070 en hoger heeft AMD gewoon geen antwoord op dit moment. Jammer voor de 4k gamer die best wat extra power kan gebruiken tov een 1080 Ti, maar ook voor de mainstream gamer die u dus feitelijk betaalt voor minder prestatie dan mogelijk zou zijn met een krachtiger top segment.
De prijskaartjes van de Vega nekken de marktpenetratie van AMD volledig. De Vega 64 kan prima concurreren met de 1080 (non-ti) maar de 1080 is simpelweg goedkoper (550 euro voor de 1080 vs 700 voor de V64). Ja, mining/geheugenprijzen zijn werken hieraan mee, maar toch vraag ik me af in hoeverre AMD het beter had gedaan als de Vega 64 prijstechnisch hetzelfde zou zijn als de 1080. En in het verlengde hiervan of dit een impact gehad zou hebben op de ontwikkelingen bij Nvdia.
Vega64 kan slechts matig presteren met de 1080 en komt regelmatig nieteens boven de 1070(ti) uit en dat met een veel hoger energieverbruik. AMD loopt helaas gewoon achter wat betreft top segment kaarten. En ja, dat merkt de consument zeker, want Nvidia hoeft nu werkelijk niks te doen om marktleider te blijven en lekker geld binnen te harken :(

[Reactie gewijzigd door kgd92 op 4 juni 2018 18:08]

Vega64 kan slechts matig presteren met de 1080 en komt regelmatig nieteens boven de 1070(ti) uit en dat met een veel hoger energieverbruik
Ze zijn zeker niet beter, maar zo dramatisch als jij doet overkomen is het echt niet hoor

https://nl.hardware.info/...o-gpu-prestatiescore-2018

Dat is ook meteen een van mijn gevoelens, mensen denken bij voorbaat al dat AMD's kaarten niet kunnen tippen aan die van nVidia, en kijken dus niet eens naar AMD

[Reactie gewijzigd door Sinester op 4 juni 2018 18:47]

Totdat de load tests laten zien dat v64 20% meer stroom verbruikt dan de 1080ti, en dat voor sub 1080 performance!! Ik heb niks tegen AMD hoor, draai zelf een rx 580 en op 1080p is dat een geweldige kaart die alles prima draait, maar voor 1440p en 4k is amd eige lijk gewoon geen optie atm. Met uitzondering dus van een flink getweakte v56 op 1440p.
Vega 56 loopt als een trein hier op 1440P ultra, hij neemt elke game tot zich.
Het verbruik valt ook wel mee is maar 20watt hoger dan de 1070 terwijl de prestaties rond de 1070TI zitten.
https://m.youtube.com/watch?v=4JiJud00IsE

(Vega 56 vs GTX 1070TI met 25 games bij hardwareunboxed)

[Reactie gewijzigd door HWliefhebber op 4 juni 2018 19:39]

In die test zien we de total system power van de 1070 Ti OC van 346W waar de non-OC 304W doet. De Vega56 OC trekt 446W waar de stock 331W doet. Daarin scheelt het dus 100W. Je hoort ook dat veel Vega56 bezitters undervolten, krijg je bijna dezelfde performance maar dan een stuk zuiniger.

AMD heeft met Vega transistoren geïnvesteerd om hogere clocks mogelijk te maken, aldus AMD zelf. Die gok is echter tegengevallen omdat het gebruik bij die hogere snelheden exponentieel toe neemt, aldus de overclock/undervolt verbruikscijfers. Dat is in een notendop het probleem van vega. Het is een geweldig ontwerp wat zich net niet kan meten met wat Nvidia neer zet op high-end. Om toch mee te draaien wordt hij zo opgefokt dat het een slurpend lawaai monster wordt.


Nu geeft niet iedereen om verbruik en lawaai. Dan resteert nog het probleem van de prijs, met 550+ euro is een 1070 voor 471 euro een stuk interessanter.
Vega 56 is een prima rivaal voor de 1070. Zit zowat tussen de 1070 en 1070 Ti in.
Zeker als je rekening houdt met de meerprijs van een gsync scherm tov freesync.

Vega 64 is inderdaad gewoon niet krachtig genoeg.
Vega 56 is inderdaad leuk, maar niet voor wat ie de laatste tijd gekost heeft. Verder moet je Vega tunen om het efficiënt te krijgen, want zonder undervolt loopt v56 warm en luid, een 1070 daarentegen plug je in en gaan. Als je de lol van tweaken en tuinen inziet, zoals ik, geen probleem, maar voor veel mensen is dit ook een reden om een groene kaart te halen.
Idd mensen die wachten op betaalbare kaarten om 4K te gamen zijn er ook aan voor de moeite en mogen nog langer wachten. Vind ik wel flauw eigenlijk van Nvidia, blijven cashen met hun huidige line-up omdat ze geen concurrentie hebben van AMD. Dit remt duidelijk de innovatie.
Denk dat dat er weinig mee te maken heeft, de crypto mining gekte is een veel groter onderdeel. Kijk maar naar de voorgaande generaties, daar was het beeld hetzelfde als nu: 1080Ti is sneller dan Vega64, een 980Ti was sneller dan een Fury X en een 780Ti was sneller dan een 290X; de snelste NVidia GPU is altijd al wat sneller geweest dan de snelste AMD. Sterker nog, het marktaandeel van AMD is het laatste jaar gestegen (en dat van NVidia gedaald).

Echter, de kaarten van zowel AMD als NVidia waren niet aan te slepen het afgelopen jaar door alle miners die ze met bosjes opkochten. Als de kaarten niet aan te slepen zijn, ergo ze gaan als zoete broodjes over de toonbank, waarom zou je dan als producent een nieuwe reeks uitbrengen? Zeker aangezien er nog genoeg gamers zijn die tijdens de hele mining ziekte geen GPU's hebben kunnen/willen kopen en die nu, met de weer wat dalende prijzen, maar wat graag de huidige generatie willen kopen.

En er zullen vast ook nog andere redenen zijn om het uit te stellen. Zo is pas net de eerste monitor op de markt gekomen waarbij HDR en GSync tegelijk mogelijk zijn (ASUS PG27UQ), iets wat schijnbaar hoofdzakelijk aan de driver kan lag en het werkt nog niet helemaal 100%. Kan mij goed voorstellen dat ze dit soort dingen, voor een volgende generatie GPU's, eerst goed willen uitwerken.

[Reactie gewijzigd door Moi_in_actie op 4 juni 2018 18:17]

“daar was het beeld hetzelfde als nu: 1080Ti is sneller dan Vega64, een 980Ti was sneller dan een Fury X en een 780Ti was sneller dan een 290X; de snelste NVidia GPU is altijd al wat sneller geweest dan de snelste AMD. Sterker nog, het marktaandeel van AMD is het laatste jaar gestegen (en dat van NVidia gedaald”

Nu is de Fury x net zo snel dan een GTX 980TI, is de 290X sneller dan de 780TI. ;)
https://www.gamersnexus.n...-benchmark-in-2016/page-2
Nou, ik ben zwaar teleurgesteld. Ik wacht op de Big Monitor Gaming van Asus. Ik twijfel dus tussen 65" 4k/120hz en 49" 5120x1440/120hz. Ik weet nu al dat mijn 1080ti het niet gaat trekken. Ik had hiervoor 1080sli en dat werkt niet lekker. Wordt dus op mid/low settings spelen. Maar dan vraag ik me af, waarom zou ik uberhaupt 4k scherm kopen als ik de settings omlaag ga halen. Dan is een 3440x1440 met max settings dezelfde kwaliteit.
Die is er al in sommige situaties zijn de AMD kaarten sneller en beter dan die van Nvidia.
Maar de grote markt is het laag en midden segment, niet de dure kaarten en daar zullen de meesten wel standaard voor Nvidia gaan.
'a long time from now' is wel erg vaag. Ben benieuwd wanneer ze meer info loslaten.
Ik interpreteer dat als "Niet in 2018".
Hmm ik dacht maar aan een jaar of 2, maar we gaan het zien!
En ik dacht dat ik een pessimist was :)
Normaal is het elk half jaar een nieuw product. 2 x per jaar dus.vaak voorjaar en najaar/winter.
Denk ik ook. AMD brengt in 2019 Navi uit, de opvolger van Vega. Je mag er zeker van zijn dat ook NVidia een nieuwe generatie kaarten op de markt brengt.
Als AMD een Zen-achtige architectuur kan toepassen in Navi dan wordt het nog heel interessant!
Denk dat de juiste vertaling is: Wanneer het nodig is.
wachten totdat realtime raytracing interessant wordt? :)
Hier wachten we allemaal op _/-\o_
Misschien lopen ze te vroeg tegen grenzen aan en is hun ambitie hoog.
Ik heb liever kwaliteit dan haast en slecht met veel bugs
Ik zat al te zoeken naar de eerste reactie mbt raytracing :)
Rasterization loopt steeds meer op zijn eind wat betreft de vooruitgang naar realisme. Een systeem/chip produceren die optimaal werkt voor raytracing zal iets zijn waar beide fabrikanten hun energie in steken. Degene die als eerste real time raytracing werkbaar krijgt heeft een streepje voor, de software zal zich daar op aanpassen en je hebt het qua api op dat moment voor het zeggen.
Krijgen we nou geeneens een refresh? Dat vraag ik me nu dan af. Waardeloos weer dit, maarja, misschien krijgen we dan nu wel een soort zen der gpu's, en Intel gaat ook de gaming gpu markt in. 1080 is natuurlijk prima, maar meer kun je in een laptop niet vinden. Toch niet helemaal wat ik wilde.
Tja weetje. Nvidia's top end gaming GPU is de snelste GPU op de markt. Het statement gaat alleen over geforce kaarten. Er is niet gezegd dat we niet meer gaan zien van volta in quadros en teslas en wat dan nog.
Ik denk niet dat Nvidia iets zal doen tot AMD in de buurt komt van de 1080Ti. Vega 64 Liquid verslaat de 1080 maar marginaal en voor welke prijs. Het markt aandeel van Vega is echt heel klein en dus heeft Nvidia geen reden tot antwoorden. Het is altijd haasje over geweest.
Helaas wel, maar dit toont toch de sldchte kant van deze grote bedrijven. Beetje vooruitgang kan ook geen kwaad, kunnen ze best hebben. Ik zou dan zelfs denken dat ik dan écht een monopoly kon hebben met al die vernieuwingen, nu wachten ze af wat AMD doet in de high-end, terwijl die in de mid-range nog akelig dichtbij komt, zie vega mobile...
Ze hebben zowat monopoly. Kijk naar de steam hardware survey. Niks nieuws maken = meer geld = meer goed. De vooruitgang zal ze echt een worst wezen. Dat ze de nieuwe kaarten niet eerder de massaproductie in gooien wil niet zeggen dat de nieuwe architectuur niet klaarstaat. Ze hebben 2 jaar gehad, meer dan normaal. Waarschijnlijk is het allemaal al af of bijna, maar Pascal heeft een hogere yield dan een nieuwe architectuur in het begin. Geen enkel bedrijf maakt onnodige kostem
Het zou ook nog kunnen dat ze niet willen dat mensen gaan wachten op de nieuwe generatie. Je zou net zien dat als je een GTX 10x0 videokaart hebt gekocht, de volgende generatie er snel aankomt. De prijzen van deze kaarten liggen op dit moment ook nog te hoog.
Denk niet dat iemand ze het in dank af zal nemen als ze nu zeggen 'a long time' en dan einde van het jaar ineens met nieuwe kaarten komen..
De GTX1000-serie kwam twee jaar geleden uit.

Slechts een gedeelte van de reeks kwam 2 jaar geleden uit. Niet de gehele reeks. Hier wat voorbeelden van kaarten die (wat) later kwamen:

GTX 1070 Ti: November 2, 2017. Deze kaart is er pas iets langer dan een half jaar.
GTX 1080 Ti: March 10, 2017: Nog geen 1,5 jaar oud.
GTX 1050 Ti: October 25, 2016: Nog geen 2 jaar oud.
Ja en? Maar wel allemaal gebaseerd op het concept van de GTX10x0 dat (al) 2 jaar geleden uit kwam...
Aangepaste GTX 1050 en 1060 en Geruchten die niet ontkend zijn dat eind dit jaar Turing komt en een overvloed aan tweedehands videokaarten en nieuwprijzen die maar niet zakken willen..

Of er nu nieuwe kaarten komen of niet de hele markt stagneert straks of is al aan de gang omdat Nvidia en de Webshops eerst de voorraad Pascal wil verkopen..

Oplossing voor mij wordt een 2200G of 2400G en dan maar 720P en 30 frames of een RX 560 erbij voor een tiental frames meer maar ik ga in ieder geval geen nieuw kaartje kopen van 130¤ voor amper betere frames dan consoles.

Wij zijn nu maand 6 dus max nog 6 maanden tot einde jaar ..ja dat is een lange tijd.. Nvidia tot ziens tot Turing!
Maarja, einde van het jaar noem ik nou niet echt 'a long time from now', das niet eens een half jaar.. 'a long time from now' associeer is meer met 1-2 jaar..
Denk dat het nog best mee valt met stagneren, zijn maar weinig doorsnee consumenten die 300+ voor een 1050-1060 willen uitgeven.. Dus zodra de prijzen van de 1050-1060 (met fatsoenlijk aantal geheugen) zwaarder gaan dalen, dan zullen mensen die gaan kopen.
Ik weiger 300+ euro uit te geven voor nog niet eens een echte midrange, vind 200-250 al veel voor zo'n kaart.

[Reactie gewijzigd door SuperDre op 4 juni 2018 21:06]

Inderdaad en daarbij zijn er al tijden geruchten dat er in augustus of september nieuwe kaarten komen en dat negeert Nvidia en nu met deze post ook weinig informatie..

Hoe stiller een fabrikant met geruchten is hoe meer ik denk er zal waarheid in zitten en ook AMD komt met nieuwe kaarten eind dit jaar en mogelijk apu's met deze techniek dus ik geen nieuwe of tweedehands kaart kopen tot dat er officieel nieuws is.

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True