Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Chinese fabrikant toont videokaart van 'nieuwe generatie' GeForce GTX

De Chinese techfabrikant Maxsun heeft een videokaart van de komende Geforce-generatie met eigen koeling getoond. Uit de afbeelding is af te leiden dat de kaart met een achtpinsconnector te voeden is.

Maxsun toonde een afbeelding van de videokaart tijdens een evenement, blijkt uit een bericht op Baidu Tieba. De kaart is voorzien van een koeler met drie ventilators en rgb-verlichting. Aan de zijkant is de tekst GeForce GTX te zien, eveneens verlicht. De slide maakt geen melding van de naam van de kaart. Maxsun brengt de getoonde kaart onder in zijn iCraft-serie.

Verder is op te maken dat er een enkele achtpinsvoedingaansluiting is en dat er geen dvi-connector op de bracket aanwezig lijkt. De verwachting is dat Nvidia de kaart tijdens zijn GeForce Gaming Celebration-evenement gaat aankondigen. Deze vindt op 20 augustus plaats tijdens Gamescom 2018 in Keulen.

Vorige week verschenen er foto's online van een pcb dat vermoedelijk de basis is van het referentiemodel van de nieuwe videokaart. Een andere fabrikant, Manli, heeft onlangs namen geregistreerd voor een GTX 2080 en 2070, meldde VideoCardz. Eerder gingen er geruchten dat het nieuwe topmodel GTX 1180 zou heten. De gpu op de kaart zou de GA104-400 zijn, wat aan lijkt te geven dat het om een Ampere-gpu gaat.

Door Olaf van Miltenburg

Nieuwscoördinator

06-08-2018 • 10:15

112 Linkedin Google+

Reacties (112)

Wijzig sortering
Nvidia heeft volgens mij bewust erg lang gewacht met de introductie van de nieuwe videokaarten. Ze wisten dat wanneer de cryptomarkten dalen, miners massaal hun kaarten zullen gaan dumpen op de markt.

Door nu 2 generaties te hebben gewacht met de introductie van de nieuwe serie zal de performance winst ten op zichte van de 10x0 generatie waarschijnlijk enorm zijn. Hierdoor zullen gamers veel minder geinteresseerd zijn in het kopen van een oude 10x0, zelfs tegen dumpprijzen.
Met de stap van 9x0 naar 10x0 hebben we grote winsten gezien. De kans dat we zoiets 2 generaties achter elkaar gaan zien lijkt mij zeer klein te zijn. En waarom zouden ze? AMD kan hen nog altijd niet bijbenen in het topsegment en als je nu het snelste eruit gooit wat je kan bedenken, moet je voor de volgende generatie weer veel meer investeren.
Het klopt (bijna) wat je zegt.
Alleen vergeet je wellicht dat er nu een vele malen grotere verschil in tijdperiode zit tussen de twee generaties :)
Mijn verwachting is ook wel dat hun nu een grote stap vooruit zullen gaan maken (misschien gaan we zelfs de tijdperk van DX13 in).
Laten wij afwachten wat we weten na 20 augustus _/-\o_ O-)
DX13?
Ik heb nog nergens een verwijzing gevonden dat Microsoft van plan is deze te launchen. Nergens geruchten over hoe ver ze zijn.
DX heeft namelijk weinig te maken met NVDIA behalve dat ze hun GPUs hiervoor geschikt kunnen maken naar aanleiding van de software van MS.

Daarmee vermoed ik dat we voorlopig nog vast zitten aan het 3 jaar oude DX12.

[Reactie gewijzigd door jqv op 6 augustus 2018 15:33]

DX12 blijven we inderdaad nog jaren aan zitten ...
Er zijn nauwelijks games die er gebruik van maken, de meesten draaien nog met DX 9, 10 of 11 ...

Is schijnbaar moeilijker te programeren ?
Het klopt dat DX12 moeilijker te programmeren is en zelfs MS stelt voor om DX11 te gebruiken voor simpele toepassingen in hun documentatie.

DX12 werkt gewoon op DX11 hardware, maar legt aan de software kant zeer veel verantwoordelijkheden van de driver in de handen van de programmeur. Dit heeft als nadeel dat de programmeur dus al deze zaken manueel moet implementeren (meer werk, meer kans op bugs), maar als voordeel dat de programmeur meer weet over de game dan een driver. Als er bijvoorbeeld 10 textures moeten gealloceerd worden, weet de programmeur dit op voorhand en kan in één allocatie ruimte voor die 10 textures voorzien, terwijl de meeste drivers 1 allocatie per texture moeten doen.

Voor de meeste indie games zou ik dan persoonlijk ook DX11 blijven aanraden. Maar ze zien steeds meer DX12 versies voor grotere engines, vergelijkbaar met de adoption rate voor DX11 (die ondertussen ook alweer van 2009 is).
Als de 1070ti naar 300-350 gaat en de 1060 6gb naar 200, blijven die interessant. De 2070 voor 600 en de 2080 voor 750 maakt dan een lineup die erg interessant is.
Nou verwacht maar niet dat de 2e handse markt de 1070 en de TI al laten zakken onder de 350 Euro. Zelfs de 980 TI vragen mensen op tweakers nog 300-350 Euro voor..
Vorige week zelf nog een 1070 gekocht voor 306 euro met 10 maanden garantie.
Ik verwacht dat dit binnen een maand normaal is.
Over welke 1070 gaat het? Ik zat 2 weken lang te kijken voor een goedkope 1070 FE voor mijn ITX Build. Ik heb uiteindelijk opgegeven en heb een 6 maanden oude 1070 FE voor 350 Euro gekocht.
ging om de asus GTX1070-O8G. Is wel een ex mining kaart maar met 10 maanden garantie dikke prima.
ik zou nooit een kaart kopen die gebruikt is voor mining, die draait letterlijk 24/7 onder max load, dat is echt niet gezond voor zo'n ding.
Ik heb nog nooit bewijs gezien dat dat daadwerkelijk de levensduur verkort. Even op draaiuren van fans na.
Zover ik weet is het allemaal subjectief tenzij iemand hier bewijs voor heeft.
Vergeet je daarbij niet de survivor bias? De aanbieders met realistische prijzen verkoper sneller en zijn daardoor minder zichtbaar. Onrealistische aanbieders zijn lang zichtbaar, precies omdat ze teveel vragen.
Ik keek altijd elke dag naar de nieuwste advertenties de goedkoopste die ik was tegen gekomen is 330 euro van een gebruiker die op die dag was geregistreerd en 0 reviews had. Of het ligt aan mijn ongeluk dat ik nooit een 1070 onder de 330 euro heb gezien.
Droom verder :P
Waarom zou Nvidia prijzen laten zakken?
Omdat ze dan de stock van de oude generatie kunnen wegwerken en een complete lineup kunnen houden.

Als de verhalen van de gigantische overstocks waar zijn dan is dat niet vreemd.

[Reactie gewijzigd door Catch22 op 6 augustus 2018 11:58]

Ik denk dat het handiger is om de nieuwe generatie weer net zo traag op gang te laten komen als de 1000-serie, pas daadwerkelijk verkrijgbaar maken over 4 maanden. Gewoon weinig inkopen.
Tegen die tijd is de oude zooi tegen de oude prijzen wel verkocht :)
Het lange wachten heeft maar 1 oorzaak: het totale gebrek aan concurrentie.
Precies. Twee bedrijven zijn gewoon te weinig, en daarbij doet één van de twee het gewoon erg slecht.

AMD zit in een negatieve spiraal: weinig marktaandeel -> weinig inkomen -> weinig R&D investeringen -> geen nieuwe kaarten -> nog minder marktaandeel.

Het zou goed zijn als mensen bij aankoop van een nieuwe videokaart ook eens stilstaan bij de invloed op de markt, want zolang talloze mensen blind naar het virtuele Nvidia-rek lopen duurt het niet lang meer tot ze een monopoliepositie kunnen opeisen.
Wie bereid is om in Duitsland te bestellen (in Nederland is er dermate weinig interesse in AMD producten dat het eigenlijk al fout is gegaan) kan een Vega 56/64 halen voor minder ¤¤ dan een GTX1080.
Juist met de Zen is deze doorbroken echter voordat je dat terug ziet ben je jaren verder
is de Zen ook te gbruiken voor de GPU markt dan?
Naar mijn idee is AMD lekker bezig op de CPU markt, maar zouden ze hun GPU tak beter kunnen loslaten zodat er weer een 2de partij is die volledig op de GPU richt en niet moet kiezen tussen CPU of GPU.

Ze(AMD) lijken op het moment te hebben gekozen voor een focus op CPU en daarmee Nvidia niet te kunnen bij houden.
De fysieke middelen misschien niet, maar de liquide middelen zeker wel.
AMD is wel echt bezig met een comeback, waarbij men voor relatief lage R&D budgetten hele behoorlijke resultaten aan het boeken is met Zen. Dat ze die focus nog even niet helemaal fragmenteren, is wat het bedrijf nu in staat stelt om straks meer R&D reserveringen te kunnen doen en geld uit de markt aan te trekken. Dat komt uiteindelijk ook ten goed aan de GPU-divisie.

Ik verwacht niet dat ze die heel snel los laten, destijds heeft men ook 5.6 biljoen dollar betaald om het te kunnen overnemen (ATI). Om het weer los te laten als fab-less GPU bedrijf is ook niet gratis en zal ook een signaal afgeven naar de aandeelhouders..

Ik verwacht eigenlijk doordat Intel wat strubbelingen heeft in productie procede's dat AMD nog wel wat aantrekkelijker voor de markt zal zijn (10nm vs 7nm procede's), wat voor hun aandelenkoers en cashflow positief zal zijn. Voor de servermarkt wordt het wellicht nog interessanter, waar AMD ook daar 7nm gaat, duurt het bij Intel nog tot medio 2020 voordat men naar überhaupt naar 10nm gaat. Dat zou wel eens van meer invloed kunnen zijn dan we nu denken, zeker op AMD's budgetten..

Voor wat meer inzicht in Intel vs AMD qua marktontwikkeling, zie dit redelijk recente artikel.

[Reactie gewijzigd door Venator op 6 augustus 2018 12:42]

De CPUs met integrated graphic wel ja. Maar AMD is natuurlijk vrij om winst van CPUs markt in GPU r&d te steken.
Het is niet zo dat wanneer AMD deze tak loslaat, dat er een andere partij in zou springen. Ik zie dat juist totaal niet gebeuren.

GPU's ontwerpen is ontzettend moeilijk, tijdrovend en zeer kostbaar, mensen vinden met deze skills is erg lastig.
Als AMD de handdoek in de ring gooit, zie ik de engineers naar Sony/Microsoft/Nintendo overstappen, of Qualcomm. De PC-markt is eigenlijk te klein en de investeringen worden steeds hoger. Op workstation kaarten is nog wel een marge te scoren, maar daarvoor ontstaat er juist steeds meer software die specifiek voor CUDA is geprogrammeerd.
Zen is de CPU-markt. De GPU kant, RTG, kan niet zomaar met de winsten van Zen gaan investeren.
Ja wel hoor dat kan AMD gewoon doen. ;)
AMD is anders in andere markten wel goed bezig, sure desktop gaming vallen ze achter NVidia qua high end kaarten en hun traditionele budget friendly segment is weg door de miners maar AMD zet goed in op open source en consoles en heeft traditioneel meer mining performance. Zowel de Xbox One als PS4 hebben gewoon AMD GPU's al heeft de switch naar mijn weten een NVidia aan boord. Omdat ze het zo goed doen op Open Source vlak heb ik een Vega 64 in mijn nieuwe game PC zitten zodat ik zonder problemen op linux kan gamen zonder al dat gedoe en al die compatibiliteits issues die ik krijg met de NVidia binary driver. Gewoon games installeren en gaan is het bij AMD (Al is het wel aan te raden bij de nieuwste kaarten de kernel te updaten naar 4.17 of hoger gezien de driver daar stabiel is geworden maar het is een kwestie van tijd voor ubuntu deze standaard mee levert en ook dat is opgelost).

[Reactie gewijzigd door henk717 op 6 augustus 2018 12:40]

Het geld wat met andere markten verdiend wordt kan niet zomaar naar RTG verplaatst worden. Er moet daarnaast sowieso een plan achter zitten, wat valt of staat bij een krachtige nieuwe architectuur, wat een meerjarenplan moet worden. Als ze from scratch willen starten, duurt het jaren voordat het product klaar is en Nvidia scoort in die tijd alleen maar meer marktaandeel.

Het schijnt dat het geld voor het ontwikkelen van de PS4/X1 'gpu' is gebruikt als R&D voor een gehele GPU-generatie, dat is wat we nu hebben. Zonder deze consoles was er mogelijk helemaal geen geld geweest en was AMD er al mee gestopt. Het kost heel veel en het levert weinig op.
Verder leveren de console-chips an sich bijna niks op.

Ik heb zelf ook Vega64, onder andere omdat ik veel meer achter AMD sta dan achter Nvidia :)
Zou mij weinig verbasen als AMD stopt met GPU's voor PC's. Zelfs toen ze Nvidia op prestaties, verbruik en prijs de baas waren verkocht Nvidia 10 kaarten voor elke AMD kaart..
De killer voor het budget-friendly segment is niet de miners. Dat is veel meer de bedreiging van Intel. Hoe goedkoop een AMD GPU ook is, het is nog steeds duurder dan de IGP die Intel bijna standaard meelevert in het budgetsegment. En waar dat vroeger net genoeg was voor je Vista desktop is Intel tegenwoordig concurrerend met AMD's low-end.
Het zou goed zijn als mensen bij aankoop van een nieuwe videokaart ook eens stilstaan bij de invloed op de markt,
AMD heeft er bewust voor gekozen de prioriteit bij de CPU (en APU) te leggen, en ik was niet van plan de gevolgen van die beslissing te dragen.
Hun chips voor de consoles en Apple zorgen wel voor veel omzet, waardoor ze nu in r&d voor consumenten hardware kunnen investeren.
Ja, dus ik hoef geen AMD te kopen om ze te "spekken", dat doe ik wel als ze daadwerkelijk een beter of gelijkwaardig product voor mij bieden.
De strekking van mijn verhaal is dat ze dat dus nu kunnen gaan doen
AMD zit net in opwaartse spiraal. Elk jaar draaien ze meer omzet en AMD pikt zelfs marktaandeel in van Nvidia en Intel (discrete). (bron). Ze hebben ook voldoende cash om aan R&D te doen.

Je moet het merk AMD gewoon wat tijd geven. Ze zijn om meerdere fronten tegelijk aan het vechten. consumer CPU's, Consuper GPU's en PRO gpu's. Nu Apple AMD meer exposure (In elke Imac en 15" macbook pro zit een AMD gpu) hebben ze een imago boost gekregen. Nu is het gewoon wachten op de 12nm of 7nm prik van AMD graphics chips.

Ter info: 7nm gpu's van AMD zullen 2x Zuiniger zijn en tegelijk 1,35x sneller dan hun huidige 14nm chips. Maar de 7nm versie zou nog niet direct gebruikt worden in game gpu's gaan.

Het is simpel: als ze pure performantie combineren met een goede prijs + massaproductie (goede beschikbaarheid) dan zal Nvidia nog wat meer marktaandeel verliezen. Het zou me helemaal niet verbazen dat ze de komende 2 jaar Nvidia voorbij schieten wat marktaandeel betreft.

Welke prijzen vergelijk je? De Vega64 Strix versie is minimaal 100 euro duurder dan de Nvidia 1080 Strix. In DX11 de vega is trager en in DX12 de vega lijkt de 1080 te verslaan maar nog steeds ¤100+ duurder. Vega64 leekt eerder een flagship dan een echte sales bom. Ze waren/(zijn?) ook heel slecht verkrijgbaar.

Mijn gok is dat de volgende generatie de prijzen gan gpu's gaan zakken omdat de miners massaal overschakelen op de zuinigere 12nm architectuur en de gamers massaal 'refurbished' 14nm chips zullen kopen. Terwijl gamers nu nog de markt delen met de minders zal dat volgend jaar een heel stuk minder zijn. Dus het klopt wel dat AMD en Nvidia liever nog wat wachten nu ze de prijzen nog hoog kunnen houden.
Die opwaartse spiraal moet wel doorzetten, ik denk nog niet dat we daar conclusies uit kunnen trekken. Als Nvidia met nieuwe kaarten komt gaat dat wel een klap worden. Al hoop ik enorm dat je gelijk hebt :)

Onlangs kon je een Sapphire Nitro Vega64 (heb ik zelf ook) uit Duitsland halen voor 600 euro - maar dat soort deals worden totaal vergeten, jammer genoeg.
Probleem is echter met AMD, ze hebben vaak slechtere preformance in games, en soms willen de games niet eens lopen met AMD.

Zo ook weer NMS next, waarbij Nvidia spelers het spel kunnen laden, raporteren veel AMD gebruikers dat ze niet eens door het laden van shaders komen.
Zelf heb ik ook zulke ervaringen met AMD gehad uit voorgaande series, en word wel vaak door AMD gebruikers om deze ervaringen vergruist, en weggehoond als onzin, weet ik veel wat meer.
Maar het feit staat er wel, AMD heeft gewoon slechte ondersteuning, vaak is het gewoon een gok, en moet je wachten op een Fix.

Zelf ou ik rustig aan een AMD beginnen, als dit niet een veel terugkerend issue was met AMD, want vaak is het wel dat ze wanneer ze goed zijn, ze ook verdomt goed zijn, maar het lijkt met AMD vaak Hit or Miss, met een grote kans op een Miss.
Nu snap ik ook dat AMD niet de financieele middelen heeft als Nvidia, maar met het feit dat zulke problemen regelmatig verschijnen op gamefora dat spelers met AMD problemen hebben en niet met nvidia, doet toch de gemiddele gebruiker kiezen voor Nvidia.

Dat tweakers de problemen met drivers en met tweaks het wel aan de praat krijgen is een non-issue aangezien de grootste deel van de markt die kaarten kopen geen tweakers en experts zijn, maar gewoon simpele gebruikers die met moeite een kaart in een slot kunnen prikken.

Hardware matig is AMD altijd wel op orde, maar hun driver ondersteuning laat ten wensen over, ook hun ondersteuning in game development is op een of andere reden gewoon niet gelijkwaardig aan nvidia.
Uiteindelijk is dit toch de reden geweest dat Nvidia groter is geworden als AMD ooit, terwijl ik me kan herinneren AMD toch de eerste waren met hun VooDoo kaarten.
terwijl ik me kan herinneren AMD toch de eerste waren met hun VooDoo kaarten.
De VooDoo serie van 3DFX bedoel je? Dat bedrijf is juist overgenomen door nVidia :p
Voodoo3, m'n eerste "echte" videokaart!
Over welke games heb je het precies over? want dit lijkt me weer een case van:"oh AMD kaart laat een game vastlopen". heb je hier een onderbouwend post voor of bewijs? anders kan je beter niet dingen vertellen wat niet kloppen. heb zat met AMD kaarten gewerkt zelfs met slechte zooi zoals 6670. heb daar ook geen problemen mee gehad.

maar wat er over concurrentie wordt gezegt klopt zeker. Maar er is ook een reden waarom AMD zo lang heeft zitten "slapen" door een slechte leider met slechte investeringen in het verleden. (hebben we over gigantische aantallen bedragen). Neem ATI als een mooi voorbeeld dat ze heel graag wouden overnemen om te concurreren met nvidia. het was een complete flop. en dan heb we het over honderden miljoenen. en daar zijn meerdere voorbeelden van. uiteindelijk hebben ze met hun eigen ontwerpen gaan experimenteren en dat gaat nog wel goed. rx 580 kan je tegen de 1060 aankijken. en dan heb je nog vega alhoewel de prijzen ervan niet zo leuk zijn.

APU zijde heeft AMD fantastisch gedaan met de vega. hun 4/8 core chip met vega slaat al die intel+nvidia chips uit de zee. kosten ervan zijn gewoon een stuk minder. hiervan krijgen ze nu een gigantische budget weer voor nieuwe investeringen. resultaat is dus een pluspunt.

CPU zijde heeft AMD het OOK fantastisch gedaan. de introductie van ryzen heeft de hele cpu markt in de "ballen" gegrepen. een 6/12 core chip voor 169 euro? met relatief 90% performance van een 6/12 intel chip? op minder dan de helft van de prijs?!
of hebben we het over een 300 euro 8/16 chip waarvan intel dus bijna meer dan 900 euro had moeten betalen in die tijd?!
Met de introductie van de 2e generatie ryzen (zen+ niet zen2) zijn 2e hands 1e gen cpu's gigantisch gedaald. mensen die budget game pc's willen kunnen gewoon een 2e hands cpu pakken. zoals ik die de ryzen 1700 haal voor 170 euro. probeer dat maar eens bij intel. lukt je absoluut nooit.

dus bij CPU/APU zijde hebben ze al gigantische stappen gemaakt om weer winst te pakken en verder te kunnen.
GPU zijde gaat ook niet slecht.

en vergeet niet dat de concurrentie niet 1 bedrijf is, maar meerdere. sinds Lisa Su het heeft overgenomen hebben ze zeker veel stappen naar voren kunnen maken.

ik ben benieuwd naar zen 2. als die ook zometeen grote stappen gaat maken gaan ze intel inhalen.

PS : ik ben geen AMD fanboy. ik ben een fan van concurrentie die eindelijk wat tegen de kings kunnen doen. en dit is exact waarom intel nu zitten te zweten om meer cores in mainstream te krijgen. (i9 8/16) (i7 8/8)
Ik noemde in mijn post alweer de recente issue met een game met AMD's NMS Next..

Goed noem de game wat je wilt, dat het HG is, en dergelijke, het is gewoon wederom een issue met AMD, en in een game die op moment grote exposure heeft, dus dit probleem word dus ook wederom groot uitgemeten.
Hoever het ECHT een issue is met AMD, of het door onkunde is van HG, terzijde, maar het is wederom AMD gebruikers die het korste eind trekken, en mogen hopen dat het start of niet.
Dat het spel verder leuk is, geweldig watever, doet even hier niet terzake, alleen dat het grote exposure heeft nu, onder kritische blikken van zowel reviewers als spelers, en dat er dus bij een grote groep een laad issue is.

Het zijn steeds deze kleine steken die bij AMD te vaak voorkomen, of dit ny schuld is aan AMD GPU's of aan onkunde bij developers maakt wederom geen verschil voor de gemiddelde gebruiker, die ziet alleen, AMD = problemen / Nvidia = Werken.
En wij techies kunnen komen met voorbeelden wat we willen, het is die incidenten die een bedrijf hun reputatie beschadigen, en blijven beschadigen.

Ik ben het zeker met je eens over de CPU kan van AMD, die is zeker een behoorlijke inhaalslag aan het maken, maar het ging hier toch meer over Nvidia vs AMD hier, en dat is echt meer GPU, en daar laat AMD wederom onnodige steken vallen naar mijn mening.
Mijn laatste 2 grafische kaarten voor meerdere pc's waren dus AMD.

Voormalige mining kaarten voor fractie van nieuw prijs gekocht.

Echter elke keer merkte ik dat andere games in mijn clan veel betere fps hadden met minder ram/slechter CPU maar met een NVIDIA kaart die nieuw minder kost dan high-end AMD tweedehands.

Dus voor mij geen AMD meer tenzij BF V straks beter op AMD dan NVIDIA loopt tegen fractie van de prijs.
Ben benieuwd over welke games je dan praat en welke GPU je dan hebt.

De Frostbite-engine van Battlefield doet het trouwens over het algemeen zeer goed op AMD kaarten.
BF4 i7 16GB ram SSD R9 290x

Tov

Pre Ryzen AMD / i5 8GB geen SSD 1050.
dan zou ik toch je systeem maar is nakijken want dat hoort niet hoor XD
ik heb zelf ook een r9 290x en haal nog steeds 60 fps in zo'n beetje alle recente games op 1080p.

http://gpu.userbenchmark....vs-AMD-R9-290X/3649vs2166

Daarnaast is de r9 290x natuurlijk wel van 2 generaties ouder, dus een heel eerlijke vergelijking is dit niet.
Joh, je vergelijkt nu een kaart uit 2013 met een kaart uit 2017 :') zo gek is het niet gezien drivers.
Wie bereid is om in Duitsland te bestellen (in Nederland is er dermate weinig interesse in AMD producten dat het eigenlijk al fout is gegaan) kan een Vega 56/64 halen voor minder ¤¤ dan een GTX1080.
Waarom zou je dat doen?
Omdat je dan voor minder geld een betere kaart hebt? :)
Beter hangt van game tot game af. Wat wel een feit is dat de Vega meer verbruikt. Dus toch maar niet.
Een Geforce 1080 is trouwens goedkoper dan een Vega 64 (in Duitsland)

[Reactie gewijzigd door aval0ne op 6 augustus 2018 15:17]

Stroomverbruik is overrated. Tenzij je 80 uur per week aan het gamen bent, tenminste.

Ik zou zeggen: houd dit topic eens in de gaten [AMD Radeon RX Series] Levertijden & Beschikbaarheid
Stroomverbruik is overrated tot zolang AMD meer verbruikt dan NVIDIA. Typisch AMD fans. Stroomverbruik is niet overrated maar net heel belangrijk. Iedereen doet z'n best om minder te verbuiken, enkel AMD heeft de memo niet gekregen.
Oh, ik lees tegenwoordig juist vaak dat stroomverbruik overrated is sinds Ryzen zuiniger is dan de laatste generatie Intel CPU's. Maargoed.

Stroomverbruik is overrated, omdat de meeste mensen gamen naast hun volle werkweek en dus niet veel meer dan 3 uur per dag gamen gemiddeld. Je kan de berekening zelf wel doen verwacht ik zo, maar als het verschil 20 (of zelfs 50) watt is, dan hebben we het over ongeveer een tientje per jaar qua prijsverschil.

Iedereen doet zijn best om minder stroom te verbruiken zeg je: het verschil tussen een Nvidia kaart en een AMD kaart is vergelijkbaar met een gloeilamp of een LED-lamp die ongeveer even lang aan staat. Je bent een uitzondering als je 100% LED zit op dit moment.

Sowieso lekker kort door de bocht. AMD doet wel degelijk z'n best, maar heeft simpelweg het geld en de resources niet om zomaar een nieuwe architectuur uit de grond te pompen. Je merkt aan alles dat GCN zijn beste tijd heeft gehad. De stap die Nvidia destijds met Maxwell heeft kunnen maken heeft AMD nooit kunnen maken.

Overigens is een Vega64 redelijk zuinig als je 'm onderklokt (AMD heeft die dingen enorm overgeklokt om GTX1080 prestaties te kunnen leveren; eigenlijk is Vega door GCN gewoon te traag) - zet je de power limit op 80% dan zijn ze sneller en zuiniger dan een GTX1070, wat voornamelijk komt door het zuinigere HBM2.
Qua mining gaf mijn Vega64 letterlijk dubbele ETH-hashing performance tegen 40 watt minder energieverbruik dan een GTX1070.

Maargoed. Ik geloof niet dat deze context je iets interesseert, zoals dat bij de meeste kortzichtige Nvidia fans het geval is :)
Ok neem nu nog een tientje per jaar. Dit worden meerdere tientjes over verschillende jaren. En laat het prijsverschil tussen de kaarten nu een paar tientjes zijn. Het prijsverschil is dus ook overrated. En zo is er geen enkele reden meer om voor een AMD kaart te gaan. Je maakt het echt wel gemakkelijk om de AMD zeepbel te doorprikken.

[Reactie gewijzigd door aval0ne op 7 augustus 2018 16:01]

Hoeveel jaar doe jij wel niet met je GPU? :P Ik wissel elke ~2 jaar van kaart en verkoop de oude zolang ze nog geld waard zijn. Ik reken dus ook voor twee jaar en dan hebben we het voor stroomverschil uiteindelijk over nog geen 20 euro. Is een schijntje op kaarten van >500 euro.

Het fanboyism straalt er overigens wel een beetje vanaf zo. Alsof 'prijs' de enige factor is waarom je voor AMD zou kiezen :') Ik denk toch dat prestaties je kaartkeuze bepalen, en als je veel nieuwe AAA-titels speelt op hogere resolutie dan is AMD vrij snel een interessantere keuze (waar Nvidia op lage resoluties en hogere framerates het beter doet).

Laat staan game-afhankelijke prestaties. En Freesync of G-Sync. En bedrijfsbeslissingen.
Het probleem is dat een individuele gamer die die afweging maakt dan ziet dat hij potentieel een groot effect op zichzelf moet accepteren, voor die minieme druppel op de gloeiende plaat van AMD? Want, ja, als miljoenen het doen dan heeft het impact en zou het goed zijn voor de markt, maar een enkeling heeft nauwelijks invloed. Op het moment dat je de afweging maakt dan gaat het over één enkele aankoop en dan moet je wel een behoorlijk grote idealist zijn om jouw druppel bij AMD te doen in de hoop dat anderen het ook doen.

Persoonlijk heb ik ook meermaals AMD vroeger een kans gegeven en keer op keer weer gebeten door mijn inziens slechte software/drivers. Tuurlijk, misschien had ik net pech, maar mijn ervaring met Nvidia is veel beter. Zelfs als in werkelijkheid er helemaal geen verschil is tussen de twee ben ik door die ervaring beter af bij Nvidia. Stel namelijk dat ik een AMD kaart koop tegen mijn onderbuikgevoel in. Als ik dan dikke problemen heb dan schop ik mezelf want 'sukkel! had nou naar je onderbuik geluisterd! AMD is crap!' en ik voel me klote. Stel dat ik een Nvidia koop en ik krijg dezelfde problemen, dan denk ik 'goh, misschien toch een punt dat het net geluk of pech hebben is...' en wellicht verandert mijn beeld, maar ik voel me er minder klote door. AMD zal voor mij persoonlijk dus ook echt met een erg goed verhaal moeten komen wil ik ze weer een kans gaan geven. Bijvoorbeeld als we straks TV's krijgen die Freesync ondersteunen en Nvidia weigert nog steeds support te bieden, dan zou ik dat eens kunnen overwegen (ondanks dat ik nu al een Gsync monitor heb). Maar als het twee opties zijn die objectief gezien gelijkwaardig zijn, dan wint de onderbuik.
Lange tijd konden mensen ook niets kopen van AMD, RX kaarten rond de ¤400 en Vega kaarten ook evengoed duurder dan sneller Nvidia aanbod.
Tja, productiecapaciteit inkopen is voor de een makkelijker dan de andere. En de een heeft minder problemen met overstock dan de ander.
Maar daar heeft de consument natuurlijk geen boodschap aan.
Nee, maar je kan het AMD moeilijk kwalijk nemen.
Ik ben het enerzijds met je eens hoor maar wat ik me dan afvraag, heeft het ook niet te maken met een verschuiving in de markt?

Een pc van nu is niet meer het zelfde als een pc van 10 jaar geleden en dan heb ik het niet alleen over de specs maar (en corrigeer me naar hartelust als ik er naast zit) ik heb het idee dat gamers steeds meer richting consoles bewegen.

In de tijd van de PS2 en deels ook PS3 was online gamen nou niet bepaald een ding terwijl je met SOF2 uit ‘99 of ‘01 naar hartelust online kon knallen op je pc.

De echt zware spellen die op online leunen zijn nu steeds meer een console commodity geworden.

Games die geoptimaliseerd zijn voor de console waarbij je je dus niet zoals pak em beet 15 jaar geleden druk hoefde te maken over welke videokaart, ram, processor enz je in je bak had liggen.

Op het moment dat er een nieuwe console uitkomt, koop je die gewoon, gestandaardiseerde hardware die geoptimaliseerd is, voor een fractie van de kosten van een nieuwe pc die het zelfde af kan spelen.

“Ja maar ik wil zelf bepalen wat ik wanneer upgrade..” ja dat snap ik maar de massa bepaald en als er ergens grote animo voor is kan je er donder op zeggen dat er bedrijven zijn die het gaan ontwikkelen en verkopen want potentiele winst.

Daarbij vermaken steeds meer mensen zich ook met grafisch minder hoogstaande spullen, een gat waar bijvoorbeeld Nintendo al jaren terug in is gedoken.

Wat ik me wél afvraag, met heel de Cryptomining markt, zouden er dan niet meer bedrijven op duiken die omwille daarvan vanalles gaan bouwen en ontwikkelen?

Then again, het marktwerkingsprincipe zal daar ook wel opgaan en je ziet nu wel dat de Cryptomarkt niet meer zo vol van winsten is als pak em beet 3 jaar terug.

Nvidia heeft dankbaar gebruik ervan gemaakt terwijl clubs als AMD het hebben laten lopen maar die zullen inmiddels ook niet per se die markt kiezen voor hun businessmodel om dikke videokaarten te bouwen.
Ik ben het enerzijds met je eens hoor maar wat ik me dan afvraag, heeft het ook niet te maken met een verschuiving in de markt?
Een pc van nu is niet meer het zelfde als een pc van 10 jaar geleden en dan heb ik het niet alleen over de specs maar (en corrigeer me naar hartelust als ik er naast zit) ik heb het idee dat gamers steeds meer richting consoles bewegen.
Bij deze :P
https://newzoo.com/insigh...8-mobile-games-take-half/
De PC-markt is net zo groot als de volledige console-markt. Dit is voor een groot gedeelte Azië, maar PC gaming sales zijn zeker nog zeer aanwezig en vergelijkbaar met één console voor AAA-titels.

Niet dat dit heel erg uitmaakt :P je kan gewoon aan kwartaalcijfers zien dat Nvidia eraan kan verdienen en voldoende omzet haalt. Er is zeker ruimte genoeg voor twee spelers in de GPU-markt, mocht je je dat afvragen.
Wat ik me wél afvraag, met heel de Cryptomining markt, zouden er dan niet meer bedrijven op duiken die omwille daarvan vanalles gaan bouwen en ontwikkelen?
ASIC's bestaan al jaren :)
Then again, het marktwerkingsprincipe zal daar ook wel opgaan en je ziet nu wel dat de Cryptomarkt niet meer zo vol van winsten is als pak em beet 3 jaar terug.
Als je 3 jaar geleden geïnvesteerd had... :P Bitmain, een producent van mining hardware, loopt nog altijd binnen hoor. Dat het minder media-aandacht op dit moment krijgt betekent niet dat het weg is. Bitcoin en andere crypto's zijn nog altijd booming business met een marktwaarde die 2 jaar geleden niemand had durven uit te spreken. Maar nee, je hoort het niet meer op het NOS journaal nu.
Nvidia heeft dankbaar gebruik ervan gemaakt terwijl clubs als AMD het hebben laten lopen maar die zullen inmiddels ook niet per se die markt kiezen voor hun businessmodel om dikke videokaarten te bouwen.
Nee, Nvidia heeft wellicht de bestellingen flink vergroot, maar de fabrikanten hebben niet meer kaarten geproduceerd met deze GPU's. Op dit moment zit Nvidia naar verluidt met een overstock aan GPU's terwijl er een nieuwe generatie voor de deur stond, sterker nog, die is waarschijnlijk allang af :P maar ze willen nu eerst van die overstock af.

AMD had simpelweg niet het geld om in de uiterst drukke orderboeken van TSMC/GloFo een plekje vrij te maken voor meer GPU's (je moet bedenken dat de chipmachines van TSMC/GloFo 24/7 draaien en dat zowel Nvidia, AMD als Bitmain als ..... er gebruik van wil maken).
Daarnaast is het een risico dat AMD niet kon lijden: als de cryptomarkt in zou stortten (wat gebeurde) dan zat AMD met een overstock en moesten er zeer dure chips voor weinig geld verkocht worden. Verlies maken per sale kan AMD echt niet gebruiken :P
Nvidia kon de gok wagen door flink meer vermogen en marge, en naar mate de cryptogekte aanhield er goed aan verdienen.

[Reactie gewijzigd door Richh op 6 augustus 2018 18:19]

Dat is voor consumenten niet echt relevant met 1 kaart per 6-8 jaar/
Maar kan wel worden beinvloed door grote inkopers. Dus voor OEM fabrikanten, of voor miners, render farms voor filmstudios of AI.
Door nu 2 generaties te hebben gewacht met de introductie van de nieuwe serie zal de performance winst ten op zichte van de 10x0 generatie waarschijnlijk enorm zijn. Hierdoor zullen gamers veel minder geinteresseerd zijn in het kopen van een oude 10x0, zelfs tegen dumpprijzen.
Dat ligt eraan wat die gamers hebben. Ik heb nu een GTX760, dus voor mij is een GTX 1060 van <100 euro zeer interessant zelfs als er een nieuwere generatie uit is die weer 2x zo snel is.
Maar de vraag is gaan de prijzen van deze nieuwe generatie weer naar de ruk geholpen worden door miners of zullen de prijzen betaalbaar blijven voor een gemmidelde gebruiker.
tja, wat is een 'gemiddelde gebruiker' want zelfs de huidige adviesprijzen voor de 1060/1070/1080 vind ik niet echt prijzen voor 'de gemiddelde gebruiker'..
Omdat een groot gedeelte van die kaarten een te hoge vraag hadden naar venant het aanbot. Kijk dat een high end GPU duur is oke, maar het gemmiddelde mag toch wel rond de 600 max liggen voor een (high end) GPU.

Als je tegenwoordig een nieuwe high end pc in elkaar wilt steken kost je GPU al bijna evenveel als je MOBO, RAM en CPU te samen. En dat is een beetje belachelijk naar mijn inziens
miners zijn al lang en breed van GPU's afgestapt en naar ASIC's gegaan, als je nu met een 1080 Ti, of zelfs een titan V zou gaan minen dan heb je pas binnen een jaar 1 kaart eruit(als je met 5 tegelijk gaat minen), dan negeren we nog even de stroom kosten en dat de moeilijkheidsgraad omhoog gaat en de beloning omlaag.

Maar Nvidia kennende zal de 2080 wss rond de 800-1000 adviesprijs worden, die proberen natuurlijk nog even door te kunnen borduren op die scapegoat van miners

en dan heb ik het over alle coins die op het moment met GPU te minen zijn, ook de gene die nog ASIC proof zijn, hun waarde is gewoon niet gelijk met de ROI van de hardware

[Reactie gewijzigd door dakka op 6 augustus 2018 22:49]

Waarom staar er daar rechts ook nog een raar soort vega logo?
Gaat denk ik om het logo oranje/rode logo linksonder wat heel erg op het VEGA logo lijkt. Ook staat dit op de middelste fan. Kom hier verder vrij weinig van tegen op Google.
Ik vermoed dat je het iCraft logo bedoelt. Dit is te vergelijken met Asus ROG. een off-branche binnenin het bedrijf wat zicht richt op, in dit geval, gaming.
Daar staat toch gewoon een naam onder? Lijkt me niet heel ingewikkeld.

[Reactie gewijzigd door WEBGAMING op 6 augustus 2018 13:41]

Ik las op Guru3D dat Manli ontkend dat ze GTX2080 en Ampere chip certificering hebben laten doen bij de EEC. Dus de berichtgeving van VideoCardz moet als een rumor gezien worden.
Volta/Ampere/Turing
11xx/20xx
xx80+/xx85/xx80ti

Tot op de dag van vandaag heb ik letterlijk al deze termen/naamgeving conventies nog in geruchten langs zien komen. Volgens mij is Nvidia ons gewoon bewust aan het pesten met hun inconsistentie in naamgeving.
'next-gen' *kuch* gewoon meer van hetzelfde maar dan gebakken op 12nm ipv 14/16 ... waar blijven die RTX kaarten, _dat_ is next-gen! :P
Miners staan nu al klaar met hun $$ :)
nou minen is al even niet meer zo winstgevend. alle coins zijn compleet ingestort door al het negatieve nieuws dat door banken en overheden gepubliceerd is om maar controle te houden over al et geld.
minen met een GPU is tegenwoordig niet erg winstgevend meer, zelfs niet met een titan V
Zelfs voor de specs binnen zijn is het geld al overgemaakt voor de preorder.
Eén 8 pins is wat de 1080 ook had. Dat betekent dat er nog een 2080ti aan komt met 8+6 pins. Of een custom 2080ti kaart met 8+8 pins.
Dat kan je niet zo stellen. Het zou kunnen wat je zegt, historisch gezien ligt het in de lijn der verwachting. Maar dit is helemaal geen bewijs dat het zo hoeft te zijn.
Och, er was ook een 980ti en een 780ti en een 680ti en een 580ti. Alleen geen 480ti :)
Kun jij mij linken naar die 680ti en 580ti, want die bestaan volgens mij niet. De 780ti was de eerste.
En niet aankomen met 660ti wat dat geldt niet hier. Het gaat om de high end xx80ti
De 780ti was de eerste.
Nee, de eerste was de Geforce 2 Ti in 2001....
https://en.wikipedia.org/wiki/GeForce_2_series
Klopt, het was 660ti en 560ti, niet de high-end kaarten. Hoewel je toen wel de 690 en 590 had. Beide sneller dan de x80 variant. Alleen toen vanwege twee gpu's.
a long time from now...
In de hardware wereld is 4 maanden een eeuwigheid
Zeker voor de beeldschermgeneratie.
blijkt uit een op Baidu
Baidu is een zoekmachine(bedrijf). Waar naar wordt gelinkt is Baidu Tieba, het grootste Chinese communicatieplatform (soort forum) dat wordt aangeboden door Baidu.

(vind ik niet waard om een apart topic over te maken bij Geachte Redactie)
staat er ook gewoon hoor (loopt op de volgende regel verder)

[Reactie gewijzigd door white modder op 6 augustus 2018 10:44]

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True