Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

AMD presenteert Zen 3-processors op 8 oktober en Big Navi-kaarten op 28 oktober

AMD gaat zijn Zen 3-serie van processors en Radeon RX 6000-serie van videokaarten presenteren in oktober. Dat heeft de fabrikant bekendgemaakt. Zen3 komt op donderdag 8 oktober, Radeon RX 6000 volgt op woensdag 28 oktober.

AMD-directeur Lisa Su deelt een video waarin het bedrijf zegt dat Zen 3 komt op 8 oktober. Het account van AMD's Radeon-afdeling heeft een video gepost waarin de datum 28 oktober staat voor de RX6000-serie van videokaarten. De presentaties vinden plaats om 18:00 uur Nederlandse tijd.

De processorontwerper had al eerder laten weten dat de Zen 3-processors nog dit jaar zouden verschijnen, maar dit is voor het eerst dat AMD een datum noemt voor de presentatie. De Zen 3-architectuur wordt gemaakt op een 7nm-procedé van TSMC. De precieze node is nog niet bekend.

Ook van de RX 6000-kaarten, die AMD eerder ook aanduidde als Big Navi, was al bekend dat ze er dit jaar aan kwamen. AMD heeft zelf nog weinig concrete specificaties bekendgemaakt over zijn komende RDNA 2-videokaarten, hoewel het bedrijf in maart claimde dat de prestaties per watt met 50 procent worden verbeterd ten opzichte van de huidige generatie Navi-gpu's.

In juni stelde de chief financial officer van AMD echter dat de komende Big Navi-videokaarten 'de eerste RDNA 2-producten' zullen zijn. Dat doet vermoeden dat deze videokaarten eerder uitkomen dan de next-genconsoles, die ook gebruikmaken van de RDNA 2-architectuur. De Xbox Series X en S komen op 10 november uit.

Door Arnoud Wokke

Redacteur mobile

09-09-2020 • 19:11

167 Linkedin

Submitter: Munchie

Lees meer

Reacties (167)

Wijzig sortering
hoewel het bedrijf in maart claimde dat de prestaties per watt met 50 procent worden verbeterd ten opzichte van de huidige generatie Navi-gpu's.
Dat ziet er niet goed uit dan voor ze gezien Nvidia al voor lag en met zijn 90% meer performance per watt loopt de 3000 serie dan nog een een heel stuk uit op AMD.

Wat in zou houden dat AMD alleen een pricewar in het midden segment kan doen

[Reactie gewijzigd door Scriptkid op 9 september 2020 19:17]

Ze claimen 90% betere prestaties voor de 3080 tov de 2080 (non ti). Dus het gaat niet over 90% performance per watt..
Eehhh sorry, maar wat is deze grafiek dan?
https://images.anandtech.com/doci/16057/Ampere_PPW.jpg

Plus, ze claimen 2x performance van 2080 naar 3080 (100%) niet 90%.
https://www.apparata.nl/f...ia-videokaart-970x551.jpg

[Reactie gewijzigd door Dennisvdmast op 9 september 2020 22:49]

Eehhh sorry, maar wat is deze grafiek dan?
https://images.anandtech.com/doci/16057/Ampere_PPW.jpg
Een marketing grafiek.
Alle claims bij de 3000-series zijn tot nu toe marketingpraat, maar toch schijnen mensen alles op te eten.

Mensen die meerdere releases hebben meegemaakt trappen er hopelijk niet meer in.
daar gaat de hele discussie ook over. We hebben nog niks anders dan marketing op het moment. (hooguit de benchmarks van Digital Foundry)
Tomshardware heeft er al een of twee in handen gehad en getest.
https://www.tomshardware....a-geforce-rtx-3080-review
https://www.tomshardware....3080-tuf-gaming-oc-review

[Reactie gewijzigd door bamboe op 19 september 2020 20:27]

Ehh sorry, in de daadwerkelijke benchmarks die ze laten zien is het 90% in het beste scenario. Boeit ook niet, het is zeker geen 100% of 90% beter performance per watt.. Zie daarvoor ook je eigen grafiek.
de enige "daadwerkelijke benchmarks" die Nvidia heeft laten zien is dit: https://cdn.wccftech.com/...30-Series-Performance.png
waarbij de beste scenario bijna 2x meer is dan de 2080S bij minecraft RTX (beetje slecht te zien misschien). de eerste grafiek die ik liet zien laat wel degelijk 1.9x (90%) performance/watt zien waar Scriptkid het over had. ik snap jouw opmerking gewoon niet aangezien Nvidia 2x performance en 1.9x perf/watt claimt en jij dat door elkaar lijkt te halen.
Maar als je 1.9x (90% efficiënter) perf per watt claimt.. en prestaties 2x.. waarom staat er dan dat er veel meer watt wordt gebruikt om die 2x performance te halen?

Als deze serie 90% efficiënter is zou je toch bijna geen toename in verbruik/watt zien?
Het is marketing, dus de perf/watt is op het meest efficiënte gebied genomen, waarbij Ampere bij een heel laag wattage nog steeds 60fps kan halen waar turing bijna het dubbele voor nodig had.
de 2x performance is uiteraard bij een heel hoog verbruik omdat performance niet lineair schaalt met verbruik. een videokaart undervolten is vaak heel voordelig om het verbruik en de thermals te verminderen zonder al te veel in te leveren op fps/performance.
Mensen die videokaarten overclocken zien juist een flinke toename in verbruik, zonder dat ze 2x sneller worden.
Omdat performance niet evenredig schaalt met verbruik. Het kost extra stroom om het laatste beetje performance eruit te persen.

Als ze oud en nieuw allebei 120 watt laten verbruiken, kan het best dat het 1.9x is.
3080 heeft ook dubbele aantal cores dan 2080 en iets hogere kloksnelheid
https://www.tomsguide.com...-Rrtx-3080-vs-rtx-2080-ti
dubbele aantal cores iets hogere snelheid dan zou 90% geen probleem moeten zijn.
Verbruik kon ik niet vinden.
Dubbel aantal CUDA cores hoeft niet te zeggen dat de RTX 3080 dubbel zo goed presteert. Hier heb je wat benchmarks van verschillende games, vergeleken met de RTX 2080 Super. Krijg je misschien ongeveer het idee hoe de RTX 3080 presteert.

https://www.resetera.com/...chmarks-coming-in.283214/
3080 vs 2080: dubbele cores, meer en sneller vram, hogere clock. En toch lijkt het "maar" 80% improvement in de beste gevallen in rasterization. De cores zijn niet 1:1 vergelijkbaar met turing, zo lijkt het.
Het zijn ook geen echte dubbele cores tov de 2080ti, maar de cores van de 3000 serie kunnen 2 fp32 berekeningen uitvoeren. Nvidia “verkoopt” het als dubbel aantal cores, maar ik zie het meer als soort hyperthreading voor de gpu cores. Die gaan natuurlijk niet 1-op-1 schalen. In feite heeft de 3080 net zoveel echte cores als de 2080ti.
ik zei ook 2080, niet 2080ti.
Ah, my bad! Maar dan gaat mn verhaal alsnog deels op. De 2080(super) heeft 3.072 cores en de 3080 heeft 4.352 echte cores. Dat is ca 40% extra. Nvidia verkoopt het als 8.704 cores, omdat de cores 2 fp32 berekeningen per clockcycle uit kunnen voeren itt 1 van de 2000 serie. Dat verschil is op papier ineens énorm (183%), terwijl de 3080 niet 2,8x zo snel gaat zijn als de 2080. Nvidia vermarkt de cores en de Tflops wel erg goed met de 3000 serie. Maja blijft koffiedik kijken voordat de echte benchmarks er zijn. Worden sowieso wel echte krachtpatsers.

[Reactie gewijzigd door Hulleman op 9 september 2020 23:10]

Ja precies, en die 2 fp32 berekeningen die er per Cuda core per clocktik kunnen worden gedaan heeft men voor elkaar gekregen door het cluster shaders dat int32-berekeningen kan uitvoeren geschikt gemaakt heeft voor fp32 berekeningen. Elke rekeneenheid in dat cluster kan elke kloktik dus óf een fp32-berekening, óf een int32-berekening uitvoeren. Bij voorgaande GPUs konden de int32 shader clusters geen fp32 berekeningen verwerken.

"Hierin vindt Nvidia de rechtvaardiging om het aantal cuda-cores dat het opgeeft in de specificaties te verdubbelen: daarvoor hanteert het de definitie 'aantal fp32-eenheden'. De helft daarvan dient echter ook beschikbaar te zijn voor int32-instructies en bovendien treden er tal van andere bottlenecks op als je plots de fp32-rekenkracht verdubbelt. Gebruikers hoeven dus geen verdubbeling van de prestaties te verwachten, wat het verdubbelde aantal cores zou kunnen doen vermoeden. Hoewel de intensiteit van de diverse typen instructies volgens Nvidia flink varieert van game tot game, liet het zich op vragen van Tweakers toch een uitspraak ontlokken over de gemiddelde prestatiewinst. Die zou 'across the board' ruim 30 procent zijn ten opzichte van een ontwerp waarbij de int32-cores in z'n geheel geen fp32-instructies kunnen verwerken, zoals Turing"
nieuws: Nvidia deelt meer details over interne opbouw Ampere-gpu's in RTX 300...
Het is meer dat int berekeningen licht zijn en dus sneller er doorheen gaan maar in block de FP mpde bllockt en dus FP performance en onder utilisatie eenheden in block.
Ampere gaat efficienter om met int FP mix en dat is de winst. Beter utilisatie door betere int en fp concurrentie.
Volgens mij waren de inschattingen dat het dubbele aantal cores maar 30% meer gaat opleveren. Dus effcientie (als in IPC) zijn ze met deze metrics dus helemaal kwijt. Dubbele aantal core bekt natuurlijk ook lekkerder en de leken trappen erin :P.
Ik dacht dat het juist ging over "168% the performance of the 2080" dus een voordeel van 68% betere performance?
Het is beide correct, er zijn meerdere benchmarks en de range is ongeveer van 168% tot 191% ten opzichte van de 2080 (de 100% baseline).
Klopt, echter zou ik toch nog even de benchmarks (met harde cijfers) van derden afwachten in plaats van direct te vertrouwen op Nvidia. Al geloof ik zeker dat het mooie kaarten zijn, voor een niet al te harde prijs.
Datzelfde geldt ook voor AMD. +50% p/watt kan misschien best lager uitvallen.
De woorden van AMD kunnen ook waar zijn. Ik denk dat we misschien beter kunnen oordelen als de benchmarks van beide kampen bekend zijn.
Zeker, maar die van Nvidia ook. We zullen het inderdaad moeten zien in onafhankelijke tests.
Zeker, maar die van Nvidia ook.
Nee die van NVIDIA kunnen dat niet. niet in de praktijk tenminste.
(Of nvidia moet voor de lol de 3080 een 320watt TDP hebben gegeven terwijl het eigenlijk 200 watt is)

Als de 3070 ongeveer gelijk presteert aan de 2080ti, en een 220 watt TDP heeft vs een 250 watt TDP, dan kom je ook niet eens in de buurt bij 90% betere prestaties per watt.
Dit is ook niet de statement die NVIDIA nu maakt. De statement is dat er in bepaalde situaties een 90% betere prestaties per watt mogelijk is.

Hun marketing grafiek toont dit mooi aan:
https://images.anandtech.com/doci/16057/Ampere_PPW.jpg

Hier gebruiken ze voor het gemak de vergelijking op een specifiek framerate met de wattages, dus een Turing die hard moet werken voor 60fps en een Ampere die uit zn neus staat te vreten voor hetzelfde fps.

Want zoals je ook ziet bij de Ampere lijn word de performance minder in verhouding tot verbruik naarmate de GPU harder moet werken.
Dus bestcase Ampere is 90% efficienter dan worstcase Turing.
een totaal hypothetische scenario wat dus nooit in de praktijk gaat voor komen. Zo kan ik bij elke architectuur wijziging wel 90%+ efficiency halen.

Als we het dan weer relateren aan de praktijk, en ze FPS met watt's vergelijken, en de turing op houdt bij 250 watt ongeveer op nvidias graph, dus zou dat de 2080Ti moeten zijn.

En de enige ampere die ongeveer de zelfde FPS gaat halen als de 2080Ti volgens nvidia is de 3070.
Maar die verbruikt niet maar de helft van de 2080. Het TDP van die kaart is in ieder geval veel hoger.

Liegen met statistieken als je het mij vraagt.
TDP is niet gelijk aan verbruik, dat is iets wat we daar niet moeten vergeten.

Echter: Creatief omgaan met cijfers is wat marketing afdelingen van elk bedrijf doen, dit geld ook voor AMD. Er is echter bij dit soort getallen, of ze nu van NVIDIA of AMD komen, nooit een echte waarde aan te hechten, enkel dat hij zuiniger kan zijn. Zo herinner ik mij van Intel nog een opmerking dat hun CPU wel 200% zuiniger was dan de vorige generatie, echter was dit enkel Idle in energy saving mode, want hun energy save klokte daar gewoon veel verder terug.
Ja je kan ze TDPintel TDPamd
TDPnv
Maar je kan wel TDPnv van Turing kaart met Ampere kaart vergelijken gezien dat dezelfde TDP standaard is.

De 90% zuiniger is leuk voor games waarbij Turing met gemak Vsync locked 60fps haald en Ampere ook locked 60fps locked kan halen beide hebben 1/60 de tijd om elke frame klaar te renderen ben je sneller dan zorgt de idle time voor vsync voor TDP reductie.
In die situaties bij 1080p gebruiker locked op 60fps zal Turing zijn TDP ook niet halen en Ampere fractie daarvan. 4K zou 60fps lock net te veel zijn max tdp en Ampere houd dan idle time over en zuiniger.
Bij Gsync ga je voluit en behaal je TDP maar krijg je ook meer FPS.
Klopt wellicht voor de desktop kaarten alleen laat de nieuwe Xbox Series X al duidelijk zien dat ze die 50% al hebben gehaald.
ja maar dat zelfde geld natuurlijk ook voor AMD, Hun ogen zijn net zo blauw als die van Nvidia na de vorige flop.
Misschien dat je de groene ogen van de Xbox Series X geloofd? :p
tuurlijk geloof ik die , das me eigen werkgever. Alleen dat zijn dat weer custom chips dus niet vergelijk baar met wat er uit gaat komen als GPU kaarten.

[Reactie gewijzigd door Scriptkid op 9 september 2020 21:47]

Dat ben ik met je eens, het geeft wel een indicatie wat mogelijk is met de GPU. Het probleem met claims zoals 1.9x zo efficient of 50% in het geval van AMD is dat ze waarschijnlijk gelijk hebben; maar dat de situatie waarin je dit ziet heel erg kan verschillen.
Als we kijken naar de vorige generatie. Een 5700 was heel erg efficient, de 5700 XT was minder efficient, welke pak je om je claim te onderbouwen? De 5700 of de 5700 XT. Bij Nvidia zal dat net zo zijn.
Ampere heeft 90% meer performance per watt dan Turing? Die hoor ik voor het eerst, heb je daar een bronnetje van?
Dat wil nVidia je doen geloven maar dat heet marketing. Als je turning op zijn staart trapt en dan Ampère laat matchen qua performance en dus in zijn efficiënte range zit ja dan zie je 90% on het voordeel van Ampère. Maar als je bij beide in het midden gaat zitten wordt het een ander verhaal. Dat zie je ook duidelijk als je naar de grafiek van nVidia kijkt.

Ik ben wel benieuwd hoe RDNA2 het gaat doen tov RDNA1 en Ampère. AMD claimt ook 50% voordeel. Dat zal ook wel een stukje marketing zijn maar als het goed is wel weer een stapje voorwaards.
Ja zo een interne meting is verre van gestandaardiseerd dus 90% en 50% zijn niet vergelijkbaar. Review benches zouden dit kunnen doen met 1 of paar scenario's en de efficiëntie verbetering meten. Elke review met andere test methode ook welke game en setting kan flinke variatie geven.

90% nv methode zou bignavi mogelijk 60 a 120% halen
50% Radeon methode zou RTX30 mogelijk 30 a 70% halen.
Elke game en setting krijg daar ook nog eens variatie over.
Denk dat je beter even de reviews van beide kaarten/merken kan afwachten voordat je er conclusies aan gaat hangen.
Dat ziet er niet goed uit dan voor ze gezien Nvidia al voor lag en met zijn 90% meer performance per watt loopt de 3000 serie dan nog een een heel stuk uit op AMD.
Volgens nvidia marketing misschien. Zeker niet in de praktijk. Als ik af ga op nvidia's eigen performance en TDP cijfers kom ik nog niet eens op 15% hogere prestaties per watt.

en Navi en turing waren al bijna gelijk (navi verbruikt 25 watt (~12%) meer als 2070 en presteert ~7% beter)

Dus AMD hoeft nog niet eens de helft van die 50% te halen in de praktijk om nvidia voorbij te zijn wat prestaties per watt betreft.

[Reactie gewijzigd door Countess op 10 september 2020 00:51]

Twee AMD 5700 kaarten samen verbruiken 300W en heb je 18% meer performance dan een 2080ti. Als je dat met 50% weet te verbeteren heb je met 300W 77% meer performance dan een 2080ti en dan zijn ze volgens mij redelijk in de buurt van de 3080 die met 320W ongeveer 100% meer performance heeft dan de 2080ti volgens geruchten.

De vraag is of AMD zo veel compute units aan elkaar kunnen knopen.
Oef, je haalt een hoop cijfertjes door elkaar. De claim van Nvidia is ongeveer 191% van 2080 (NON TI) specs te halen. En dat zijn wel cherrypicked benchmarks, hopelijk kunnen onafhankelijke tests dit gaan bevestigen. Van twee keer zo sterk dan een 2080ti is helemaal geen spraken geweest.
Had ergens anders geruchten gelezen dat de 3080 twee keer zo snel zou zijn als de 2080ti (dus 100% meer performance). Dit zijn waarschijnlijk inderdaad cherry picked benchmarks, maar ik verwacht dat de 50% meer performance per watt van AMD ook her en der cherry picked is.
In de door nvidia cherry picked tests bij digital foundries, met de door nvidia opgelegde settings (ultra), in de door nvidia opgelegde resolutie (4k) haalt de 3080 ongeveer 65-80% van de performance van een 2080.

Echter weten we al dat de 2080, in de gekozen games en settings, niet lekker loops op 4k, en vaak niet eens echt sneller is als een 1080Ti, en soms zelfs langzamer (terwijl dat op 1080p en 1440p helemaal niet het geval is)

digital foundries mocht van nvidia dus alleen met de 2080 vergelijken, omdat ze wisten dat die kaart in de gebruikte settings te maken had met een flinke bottleneck, en daarom de 3080 er beter uit zou laten zien.

De enige keer de 3080 wel 2 keer sneller was als de 2080 was in de fully ray tracked quake 2 game.

Een flinke korrel zout bij de performance claims van nvidia lijkt me dus zeer zeker op zijn plaats.
Nee hij is 2x zo snel als de 2080 (en dan ook nog eens cherry picked), niet als de 2080ti.
Inderdaaf. De niet-onafhankelijke benchmark liet zelfs zien dat de waarde tussen de 69.8% en 92.3% lag. De eerste waarde was bij Shadow of the Tomb Raider en de tweede met Quake 2 i.c.m. Ray Tracing waar de 2000-serie niet het beste in was. Dus cherry-picking van de waarde op reeds geselecteerde games. Daarnaast was de vergelijking met de 2080 non-Super terwijl iedereen ongeveer verwacht dat het de 2080S betreft.

Alles bij elkaar mooie kaarten, maar ik betwijfel of de claim klopt dat de 3070 sneller is dan de 2080 Ti. Dat zeiden ze ook bij de 2070 t.o.v. de 1080 Ti en was ook nog te zien in de huidige presentatie terwijl het in de praktijk andersom is tenzij je ook heel specifiek gaat zoeken met RT.

Bij AMD idem, die staan er ook niet bekend om dat de data die ze geven altijd mooi klopt. Dus ben benieuwd wat de kaarten gaan doen. Had alleen ze gelijktijdig met NVIDIA willen zien, nu lopen ze alweer achteraan terwijl ik toch redelijke verwachtingen heb van Big Navi als je de prijs van de nieuwe consoles mag geloven. Maar ik heb geduld, laten we eerst de benchmarks zien en of ze stabiel draaien zonder driver problemen.
Euhm... als je jouw claim van 191% baseert op deze video hou er dan wel rekening mee dat de baseline 100% is 8)7

191% t.o.v. de baseline van 100% betekent een netto verbetering van 91% (en dat getal wordt niet consistent gehaald)
Ja.. mij was dat duidelijk, misschien niet precies genoeg geschreven.
Het gerucht gaat al sinds de introductie van de RTX30x0 reeks dat AMD de prijs heeft moeten bijstellen naar beneden met $50..
Als de aankondiging pas over anderhalf maand is betwijfel ik sterk of AMD al wel prijzen had om bij te stellen.
Youtuber Coretec heeft dat gehoord van zijn leverancier bronnen en opeens brengt elke andere youtuber en nieuw site dit als een feit

Ook wist hij te vertellen dat AMD niks kan brengen en alleen net aan met de 3070 kan concureren, met als enige voordeel 16 vs 8GB

Lijkt me allemaal sterk, maar het blijft afwachten
Wat een onzin, er zijn nog geen benchmarks gedaan en je gaat al conclusies trekken.
Ho ho, laten we wel appels met appels vergelijken en peren met peren. Nvidia claimt 90% performanceverbetering, maar niet per Watt. De 3080 verstookt 320W waar de 2080 het met 225W doet. Dus die 90% performanceverbetering is niet zo spectaculair als het verbruik ook met ~40% omhoog gegaan is, want de performance per Watt is dus niet zo heel erg omhoog gegaan. AMD claimt 50% performanceverbetering per Watt dat is wel een andere claim.
Nou dat ziet er juist goed uit RDNA 50% tov GCN en RDNA2 50% tov RDNA.
RTX3090 ja grote stap in performance. dat bood de GTX480 ook. Maar de TDP is bij beide giganties. Als nV zo super zuinig zou zijn dan 350watt nogal tegenstrijdig.
Consoles bieden APU binnen een 140watt tdp. Voor console is TDP juist beperking en is energie efficientie tov performance maatje belangrijker. En zal dus ook met hogere preoriteit voor ontwikkeld worden.
Wat je kan verwachten is dat AMD de kroon niet pakt maar onder RTX30 maar met TDP voordeel. Wat toen ook met GTX480. Kan dus zijn dat bignavi met de TDP van 3070 tegen de 3080 aan loopt.
Met mogelijk DXR performance wat iets beter is als RTX20 maar onder RTX30

ATI /AMD had 1 architectuur dat sterk is in compute performance gpgpu sind de R520
Nvidia heeft zware pro compute er later uitgesloopt zodat apparte architectuur voor gaming. En dus transistor density dat in games ook vollediger gebruikt wordt. RDNA x volgt de splitsing van game architectuur en zware compute architectuur CDNA

En voor 99% PC masterrace die hebben geen € 1000,- ++ budged dus voor de meesten is de 3070 de belangrijkste bedenken zich 20 keer om toch voor de 3080 te gaan. Maar als bignavi 3080 concurrent er is komt de prijs van 3080 naar beneden dat ze 10 keer moeten bedenken of toch voor 3080 en er dus ook de bignavi alternatieven overwegen.
AMD was in de GTX480 zonder kroon ook winnaar door beste bang for the TDP & bucks. Is TDP niet van belang en vind je de kroon belangrijk en ga het ding ook OC’en dus custom RTX 3080 of 3090 dan heb je het niet over 320 of 350 tdp maar halve KW of meer met custom extreemste OC variant met WC dan is €700 of €1500 met 1+KW voeding € kaching en WC gpu koeling € kaching boven op die Gkaart prijs en energie lasten verhoging.
Dus ja voor diegene die TDP belangrijk vind ga je niet extreem OC want de TDP groeid harder mee dan performance. Custom kaart is wel interessant ook op stock want moderne gpu throthlen en performance is indirect ook gelinkt met temps en dus koeling. Naast dat grotere fans minder irritante pitch geluid genereren en stiller zijn.
Please, please heb HDMI 2.1 🥺
DP 2.0 zou nog interessanter zijn.
Dat hoop ik ook. Als ze dst niet zouden hebben is dat heel raar. De consoles hebben het namelijk wel en Ampère ook. Dus als Navi 2X het niet zou hebben zou dat erg slecht zijn dus ik ga er eigenlijk van uit dat ze het wel hebben.
Hoe lang zou het dan kunnen duren tussen de presentatie en het daadwerkelijke product?
Ik sta te springen om een upgrade. Of het wordt een Ryzen 7 3700x of de nieuwe variant
Bij Ryzen 3000 duurde het ongeveer 1,5 maand tussen presentatie (26 mei 2019) en launch (7 juli 2019).
Dat wordt erg krap dan met Cyberpunk.

Had gehoopt dat ik de boel echt klaar had kunnen hebben van tevoren met mijn 5 jaar oude i5.
Dan neem je aan dat Cyberpunk niet ook nog gewoon een ronde uitstel krijgt, wat best kan als CDPR denkt dat nog net niet aan de torenhoge verwachtingen voldaan kan worden.

Verder ben je natuurlijk niet verplicht het spel op launch day te spelen met een nieuwe build. Sterker nog, even wachten op reviews en/of patches en dan pas op "buy" klikken misstaat niemand. :P
Daar heb je uiteraard volkomen gelijk in, maar nadat ik dat boek al een jaar in bestelling had en nu eindelijk heb gelezen, begin ik er wel steeds meer naartoe te leven.

Ook gewoon tijd voor een nieuwe build, los van de game. Maar het versterkt elkaar wel!
Tja, dan koop je toch een b550 moederbordje en doe je daar zolang een 2600 in (desnoods via V&A) Leve de AM4 compatability zou ik zeggen.

[Reactie gewijzigd door ronaldvr op 9 september 2020 22:38]

B550 ondersteund geen processoren lager dan 3xxx...
Dat is door mijn hoofd gegaan, idd. Maar omdat ik niet superhandig en snel ben, probeer ik dat te voorkomen waar nodig. Een cpu wisselen vind ik al heel wat :-p
Bij AMD is de tijd tussen aankondiging en daadwerkelijk verkrijgbaar meestal best lang, dus reken op kopen in december / januari?
De vorige GPU lag binnen 1 maand na aankondiging in de winkel.
en voor de vorige CPU zat er anderhalve maand tussen.

Dus november lijkt me, zeker voor de CPU's geen onredelijke aanmanen.
Je hebt totaal geen reden voor een upgrade toch, de 3700x is nog steeds goed
Hij geeft aan dat de 3700x dan een optie kan zijn als upgrade, die heeft hij niet.
deze kaarten worden ook in de next gen console gebruikt. Kunnen deze kaarten op boxen tegen de nieuwe rtx kaarten? Of blijft nvidia hier domineren?
Nvidia blijft vrij zeker domineren, met de RTX 3090. Ik zie niet dat AMD deze kaart gaat verslaan. Ze zouden wel met de RTX 3070 en RTX 3080 kunnen meekomen volgens geruchten.
Je wilt als bedrijf natuurlijk de beste zijn in je klas echter is de 3090 zo niche dat het weinig boeit in mijn optiek.
Exact. Het belangrijkste bestaansrecht voor de peperdure 3090 lijkt het aanprijzen van de 3080 als goedkoper maar nog steeds erg goed alternatief. Het aanwezig zijn van een nog duurder product maakt het goedkopere product gevoelsmatig nog goedkoper. Om dezelfde reden zet een restaurant altijd minstens 1 extra duur gerecht op de kaart zodat de overigen gerechte goedkoop lijken. Zet als marktkoopman een extra dure stroopwafel met maple syrup op je toonbank ten toon voor pak 'm beet 7,50 en je kunt de klassieke stroopwafel iin nog steeds leuke aantallen voor wel 3 euro per stuk verkocht krijgen ipv bijv 1,50. Die truc werkt altijd. De verkoop zakt in aantallen misschien met 20% maar de omzet loopt alsnog op. In dit geval heeft nVidia een extra duur model aan de reeks toegevoegd. Mensen gaan echt niet in de rij staan voor dat dure model maar het zou me niets verbazen als de 3080 beter gaat verkopen dan de 2080. Mensen blijven weg bij het topmodel maar maken zichzelf wijs dat ze prijsbewust zijn omdat ze het 1 na duurste model kopen. Dat is gewoon hele slimme marketing.
Domineren in welk segment?

De 3090 is wellicht de snelste, maar zal amper verkocht worden. AMD zou hier met een goede prijs kunnen winnen op t niveau van de 3070 en wellicht 3080.

Zeer benieuwd
Deze kaarten zeker niet. Maar deze GPU's en de GPU's in beide consoles zijn wel gebaseerd op de zelfde architectuur.
Ik had eerlijk gezegd verwacht dat Navi 2x eerder zou komen. Maar nu komt Zen3 dus eerder.
Ben heel benieuwd naar beide producten.

Hoop wel dat we voor die tijd al wat weten over de prestaties van Navi 2X.
Je weet niet welke eerder komt. Deze data verwijzen naar de presentaties van de producten, niet wanneer ze worden uitgebracht. Dat kan zomaar op dezelfde dag zijn.
Dat klopt. Maar had verwacht dat ze Navi 2X eerder zouden laten zien. Gezien mensen nu Ampère helemaal geweldig vinden. Intel heeft dat momentum op dit moment niet.

Maar goed amd kan Intel qua CPU's dan wel lekker aftroeven. En kan mij voorstellen dat die markt op dit moment nog prioriteit heeft. Daar hebben ze nu een goed momentum.
In tegenstelling tot de rest ben ik juist echt super stoked :o :D Wat een jaar voor AMD! Ze zijn het supergoed aan het doen.
Twee nieuwe consoles waarvan alles door AMD geleverd wordt en die in dubbele aantallen dan verwacht besteld zijn. Keihard Intel aan het afstraffen, en nu zijn ze met een inhaalrace tov NVidia bezig; die ze de loef hebben afgetroefd door tsmc volledig te bezetten. Daarom moesten ze naar Samsung wat super riskant is met hun lage yields. Misschien heeft het met de achterstand van AMD nog geen desastreuze gevolgen, maar dat kan in de volgende ronde wel de dominantie van AMD betekenen.
Wat maakt het uit of NVidia nog steeds de koning is met hun monster 3090. Die is enkel voor de absolute professional. Zolang ze op midden en hoog competitie/strijd weten te leveren. Dan is het enkel goed voor de consument, ook als je NVidia fanboy bent.
Zou vet zijn als AMD eindelijk eens op flagship kan meekomen. Momenteel is er geen enkele data bekend die dat bevestigd of weerlegd, ook de performance/watt zegt nog weinig.
Nvidia laat de Ampere A100 chips voor de professionele markt, zoals in de DGX-A100, wel bij TSMC op hun 7nm node maken.
Ik wacht eerst alle Benchmarks van beide kaarten nog wel even af, daarna de prijzen.

Performance per Watt vind ik zelf niet zo belangrijk, performance per Euro wel.
Hmm, ik werd blij van de titel. Ik verwacht dan de gehele line-up van zen3, maar zo te zien alleen maar de Ryzen. Waarschijnlijk nog wachten op Epyc dan.
Ik wilde in februari voor een nieuwe monitor en videokaart gaan, maar blij dat ik nog even gewacht heb. Toen werden de monitoren erg prijzig door corona, nog maar even langer wachten. Hm, Nvidia komt straks met de nieuwe serie... nog maar even wachten. Maar nu wordt mijn geduld wel erg op de proef gesteld haha. Nóg 49 dagen wachten... Heb verschillende monitoren 3840x1600 op het oog, maar welke het moet worden wordt mede bepaald door de videokaart die het moet worden. Nou ja, ik koop die meuk niet voor 1, 2 of 3 jaar, dus wellicht is het inderdaad slim toch te kijken waar ze mee komen. 28 oktober in de agenda gezet. Ondertussen worden die monitoren ook goedkoper. Maar na 28 oktober is het nog maar een maandje tot black friday... neeeeeeeeeeeeej, niet nóg een maand wachten hahaha.

Toch denk ik ook niet dat ze over 3080 heen gaan, want ze weten dat 'tig duizend mensen dat ding willen, die na aanschaf de komende jaren voorzien zijn. Als ze betere kaarten in handen hebben, moeten ze er iets meer in laten kijken.

Mijn grote probleem is het vermogen van de 3080. Ik vind wel wat van 320 watt. Als ze een eind in de buurt komen van de 3080 met lager stroomgebruik en / of lagere prijs, is het voor mij wel interessant. Maar ja, AMD en laag stroomgebruik? Denk dat ze eerder gaan concurreren met de 3070. Daar hebben ze ook nog wel ff de tijd voor.

Anywho, wat er ook gebeurt, met kerst wil ik grof geweld op kantoor :p
28 oktober is de presentatie van Big Navi, niet de launch :). De launch zal dan nog steeds enkele weken op zich laten wachten, dus wachten tot black friday zul je sowieso wel aan komen. Echter kun je dan alvast toch wél gaan shoppen voor een nieuwe monitor en proberen een beslissing te gaan maken tegen die tijd.

Wat betreft het stroomverbruik vind ik het tegenwoordig ook echt compleet de spuigaten uit lopen. Echter is er genoeg bewijs dat AMD juist een betere performance per watt heeft dan Nvidia, doe de research maar even en zeker met Big Navi gaan ze Nvidia echt wel voorbij. Hetzelfde is ook gebeurd met Ryzen t.o.v. Intel. AMD draagt die slechte naam uit het verleden met zich mee en dat herinneren veel mensen zich dat hun chips nogal heethoofden zijn en energieslurpers, maar de rollen zijn inmiddels wel anders. Let maar op, de powerefficiency zal met deze nieuwe generatie minstens gelijk zijn aan die van Nvidia (en de Ryzen's zijn al beter en Zen 3 gaat er nog eens een schepje verder bovenop doen tov Intel).
Ik had qua processor ook heel lang zitten wachten, maar daar uiteindelijk gelijk toen ze beschikbaar kwamen een 3700x gekocht en geen moment spijt van. Dus jah, het kan maar zo die kant op gaan straks. Ik hou kerst in gedachten. Paar maanden red ik nog wel :p
September een RTX 3000, Oktober een Zen 3 :)
Ja, kan je nu aan een RTX komen dan? Haha, maarja alsof de Zen 3 snel te leveren valt, betwijfel het. Behalve voor de tegenvallende series, die zijn vast goed te krijgen.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True