Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia GeForce RTX 30-videokaarten van Zotac en Gainward verschijnen online

Er zijn verschillende Nvidia GeForce RTX 30-videokaarten verschenen op de websites van Zotac en Gainward. De fabrikanten komen beide binnenkort met verschillende RTX 3090- en 3080-videokaarten. Zotac komt ook met twee RTX 3070-videokaarten.

Zotac lijkt binnenkort te komen met acht verschillende RTX 30-videokaarten, zo merkten Twitter-gebruiker momomo_us op. Zotac komt met drie verschillende modellen met drie fans, voor zowel de RTX 3090 en 3080. Zotac komt ook met twee RTX 3070 Twin Edge-modellen, die beide een kleiner ontwerp met twee fans krijgen.

Er zijn ook afbeeldingen van de verschillende Zotac-videokaarten verschenen. Zo deelde Wccftech renders van een Zotac RTX 3090, die drie 8-pinsconnectors heeft. Informatica Cero publiceert daarnaast en RTX 3080-videokaart van Zotac, die twee 8-pinsaansluitingen lijkt te hebben. Videocardz publiceert onder andere afbeeldingen van een RTX 3070 Twin Edge-videokaart.

De getoonde videokaarten gebruiken geen 12-pinsaansluiting voor stroomvoorziening. Nvidia bevestigde eerder deze week de komst van die connector. Volgens eerdere geruchten gebruikt Nvidia de 12-pinsconnector mogelijk alleen voor zijn eigen Founder's Editions.

Van links naar rechts: een RTX 3090, een Zotac RTX 3080 en een RTX 3070 Twin Edge

Er zijn ook RTX 3090- en 3080-videokaarten verschenen bij Gainward, meldt VideoCardz. Deze fabrikant deelt ook specificaties op zijn productpagina's, die overeenkomen met eerder uitgelekte specificaties. Zo lijkt de fabrikant te bevestigen dat de RTX 3090 over 5248 cuda-cores en 24GB aan gddr6x-geheugen beschikt. De RTX 3080 zou op zijn beurt 4352 cuda-cores en 10GB aan videogeheugen hebben. Beide chips worden volgens de specificaties gemaakt op een 7nm-procedé, maar het is niet bekend bij welke foundry Nvidia zijn gpu's produceert.

De Phoenix-videokaarten van Gainward hebben beide drie displayport 1.4a-aansluitingen en een hdmi 2.1-connector. De gpu's krijgen daarnaast tweede generatie raytracingcores en derde generatie Tensor-cores. De RTX 3090 krijgt een nieuwe NVLink-aansluiting. Bij de RTX 3080 ontbreekt NVLink-ondersteuning. De videokaarten ondersteunen beide pci-e 4.0.

Nvidia houdt op 1 september een GeForce-livestream. Het bedrijf zal op die datum vermoedelijk zijn komende videokaarten officieel presenteren.

Afbeeldingen van Gainward via VideoCardz

Gainward GeForce RTX 3090 Gainward GeForce RTX 3080
Gpu 7nm 7nm
Cuda-cores 5248 4352
Boostsnelheid 1725MHz 1740MHz
Vram 24GB gddr6x 10GB gddr6x
Geheugensnelheid 19,5GBit/s 19Gbit/s
Geheugenbus 384bit 320bit
Geheugenbandbreedte 936GB/s 760GB/s
Tgp 350W 320W
Aansluitingen

3x displayport 1.4a

1x hdmi 2.1

3x displayport 1.4a

1x hdmi 2.1

Door Daan van Monsjou

Nieuwsposter

29-08-2020 • 15:18

236 Linkedin

Reacties (236)

Wijzig sortering
Toch stinkt dit hele zaakje wat mij betreft en klopt er ergens iets niet. 2080ti heeft evenveel units als een 3080 volgens deze specs maar gebruikt 45 watt minder op een 12nm node. Dus en de node en de hogere power draw zouden dubbele winst op moeten leveren. Dus of deze kaart word echt ruim 50% sneller als een 2080 ti wat ik simpelweg niet geloof. Of het is echt swerelds meest rotte node. Of de leaks zijn weer eens allemaal onzin.
Ik zie niet waarom nvidia een 3080 zo veel sneller zou maken als een 2080 ti. Dat zou betekenen dat zelfs een 3070 en misschien zelfs 3060 even snel zou zijn als een 2080ti. Not buying any of it. Nvidia gaat echt niet meer als 1 generatie in prestatie geven als ze niet gedwongen worden. Waarom jezelf in de voet schieten en het on,ogelijk maken om dezelfde serie nog een keer uit te geven met nog een stap erbij.

Ik verwacht dat de snelste kaart maximaal 35% sneller zal zijn als de 2080ti. De rest is gewoon een slecht buisness plan. Want die prestatie kan je gewoon als super refresh verkopen of als 4xxx.
Wellicht zit het extra stroomverbruik in RT cores of Tensor cores en niet in de cuda cores waar we ons allemaal op focussen.
Ik ga toch lekker een paar maandjes wachten, wil de echte resultaten zien, niet de cherry picked Nvidia benchmarks.
Volgens een nieuws bericht op het internet zou Nvidia de kaarten met een begrensde bios leveren om AMD tegen te werken zodat ze niet weten hoe snel de kaarten werkelijk zijn..
En later met een onbegrensde bios komen om het volledige aan kracht uit de kaarten te halen..
Terwijl ik wou zweren iets hierover gezien te hebben... Kan ik geen linkje meer vinden. Al was het eerder een gerucht van een YouTuber die zoiets dacht.
https://nl.hardware.info/...lock-tot-lancering-rdna-2


Was ook prima zelf even te googlen.

Dus AMD houd nvidia voor gek (word onofficieel beweerd dat RDNA 2.0 sneller word dan RTX3000.
plus wachten tot dat nvidia RTX3xxx serie gelaunched word.
Nvidia houd AMD voor gek door tijdelijk locked bios de prestaties in te houden en met informatie over de kaarten te komen die waarschijnlijk niet kloppen.(wrs presteren deze sneller dan wat de huidige informatie laat zien (misschien waarom ze op dit moment vreemde geheugen capaciteiten gebruiken op hun kaarten. (misschien komt er meer geheugen vrij als de lock eraf gaat.

AMD houd nvidia voor gek om hun kaarten later te introduceren..

[Reactie gewijzigd door Robin4 op 30 augustus 2020 17:15]

Meer geheugen vrij laten komen lijkt me vrij sterk, iedere AMD engineer kan een kaart pakken en de chips fysiek identificeren, dus dat heeft vrij weinig zin.
Totaal niet geloofwaardig. Alsof een bedrijf als AMD niet in staat is om in hele korte tijd zo'n BIOS te modden...
De 3080 en de 2080ti hebben nagenoeg dezelfde specs. 3080 zal iets sneller zijn, 10% lijkt me. De 3090 wordt het paradepaardje, maar daar tussen is volop ruimte voor een 3080 super en een 3080ti. Ben bang als ik de 3080 koop, snel bedrogen uit te komen door de te verwachten modellen. 3090 zal alleen afgrijselijk duur zijn, maar dan ben je wel klaar. Moet er nog is goed over nadenken wat te doen. O-)
En dit is precies zoals Nvidia het heel graag ziet... Niet voor niets doen ze het al jaren zo! De early adopters die 'altijd het nieuwste/beste willen en het liefst nog gisteren' betalen (graag) de hoofdprijs.
Wil je dat (misschien toch) niet draai je gewoon met je huidige (vast ook meer dan prima) videokaart nog zo'n 3 maandjes langer door en is het hele 'probleem' (dat eigenlijk alleen een luxeprobleem mag heten) opgelost omdat je dan wel alle benodigde informatie hebt voor een weldoordachte beslissing. Hoe 'erg' is dat nou echt?
Probleem is dus dat ik momenteel geen videokaart heb. Net nieuwe pc gebouwd, oude pc met videokaart afgeopen week verkocht. 8)7
Als je de 3090 koopt dan koop je in de prijscategorie van de huidige 2080ti volgens de leaks (al vermoed ik dat die lichtelijk optimistisch zijn, de marktprijzen zullen vast een beetje hoger zijn). Ik vermoed dat we nog een Titan achtige kaart gaan zien en er op termijn ook nog een 3090ti tegevoegd gaat worden, het is niet alsof, dus ik denk niet dat je "klaar" bent met de 3090.
Dat en je krijgt een heel erg warme kaart met stofzuiger reputatie. Het is vooral die laatste paar honderd Mhz die enorm veel energie kosten. Maar kennelijk durft nVidia het er niet op te gokken om bijvoorbeeld 150Mhz en 100mv lager te gaan voor een ~30% lagere powerdraw. nVidia denkt dus dat AMD met RDNA2 de meeste architectuur achterstanden weg heeft gewerkt en met een potente kaart gaat komen. Ik help het ze hopen.

De powerdraw is idd erg hoog aan het worden. Bij de AMD CPU's en GPU's merk je dat de producten redelijk op het randje lopen en je ziet trouwens ook bij Intel de powerdraw met de laatste generatie weer oplopen. Al ligt dat voor een deel ook aan de moederboard makers die net dat ene procentje beter willen scoren.
Daarbij wil ik even roepen dat TDP NIET het stroom verbruik is. Hier spreekt men over de hoeveelheid hitte die de chip afstoot. Het loopt wel hand in hand maar de kaart hoeft niet persee 320 of 350 watt te slurpen. Dit kan meer of minder zijn. Althans, voor zo ver ik weet.

EDIT: Er staat TGP... ik las dit als TDP wat heel wat anders is. Foutje.
Echter betekend dit niet dat mijn verhaaltje over TDP minder klopt, die beschouw het als extra informatie.

[Reactie gewijzigd door Indentical op 31 augustus 2020 14:05]

Er staat in het asrtikel dan ook tgp wat weer net wat anders is en eigenlijk hetzelfde als tbp.
Namelijk het totale aantal watts wat de kaart daadwerkelijk verbruiken kan.

tgp =total graphics power
tbp =total board power
Oh, Ja ik zie het ja...

Mijn fout! Laten het maar houden op een maandag kwaaltje..
Displayport 1.4a wtf?? Waarom geen 2.0?
Displayport 2.0 is een (technisch) fikse upgrade tegenover 1.4. Vandaar dat het niet 1.5 is. De laatste versie van displayport is pas in juni 2019 publiek getoond en wellicht was dat te laat om dit nog in een videokaart in ontwikkeling te krijgen.
Deze kaarten comprimeren het signaal d.m.v. display stream compression techniek, waardoor de bandbreedte significant verbeterd. 4K/240Hz zou dan mogelijk moeten zijn via DP 1.4.

[Reactie gewijzigd door toeschouwer op 29 augustus 2020 16:09]

Nu dat DP 2.0 beschikbaar is vind ik toch dat ze dat ook mogen gebruiken. Nu limiteren ze, in mijn ogen, het "future proof" zijn van de videokaarten. Waarom steunen op een compressie als het ook zonder kan. Met DP 2.0 kan de monitor markt ook weer verder evolueren wat bij DP 1.4 met DSC toch véél moeilijker wordt.
Ik en verschillende andere mensen zijn héél nieuwsgierig naar Ultrawide monitors die een resolutie van 5120x2160 hebben (5K2K = 4K maar dan extra breed oftwel vergelijkbaar met 4x 2560x1080). Daarnaast hoge refresh rate (144Hz), 10 bits 4:4:4, IPS, ... dat wordt toch allemaal maar moeilijker met DP 1.4 DSC...

Gewoon kort gezegd lijkt mij DP 1.4 (met DSC) een domme en ondoordachte zet. Als AMD nu wel met DP 2.0 afkomt zou ik er niet van verschieten dat we binnen een jaar RTX 3100 zien die ietsje beter is en wel DP 2.0 heeft.

[Reactie gewijzigd door MattiVM op 29 augustus 2020 16:57]

Features voor de ti en super varianten waarschijnlijk ;)
Maar niet met 10bits kleuren!
Linus tech tips had die nieuwe 49" Samsung Oddysey wel op 10 bit / 240hz , via 1.4, in een review.
Wellicht dat je monitor ook DSC moet ondersteunen, weet ik niet zeker.

[Reactie gewijzigd door toeschouwer op 29 augustus 2020 16:12]

Als ik deze site er op na haal dan kom ik uit op 63.70 Gbps terwijl 1.4a maar tot 25.92 Gbps gaat.
https://k.kramerav.com/support/bwcalculator.asp
Het is "visually lossless" compressie. Technisch gezien niet helemaal lossless, maar ik zou je er niet druk om maken.
Wat is er mis met losless compressie
Ja. Zonder DSC dus. De C staat voor compressie. Je kan het grofweg door 3 delen.
is 10bits niet meer voorbehouden aan de Quadro's?
Goede vraag aangezien 4K144Hz bijna mainstream wordt.
In de meeste recente Steam Hardware Survey heeft slechts 2,2% een 3840x2160 UHD resolutie. Ultrawide op 3440x1440 zelfs minder dan één procent. Mainstream zijn dit soort resoluties nog lang niet.
Ja.. en wat denk je dat die 3% heeft? Juist.. een high-end GPU.
Maar goed, HDMI 2.1 ondersteunt ook 4k144hz
Mag ik vragen wat voor nut G-sync nog heeft als je op 4k 144 fps kan halen of minder? Dan heb je toch sowieso geen tearing? Ik snap dat kleuren op DP beter zijn dan HDMI (althans dat vind ik zelf).

[Reactie gewijzigd door maradesign op 29 augustus 2020 23:15]

Oh jij bent er zoeen die nog denkt dat tearing komt door teweinig fps. Ook heel bijzonder hoe je kleuren anders kunt ervaren op hdmi ten opzichte van displayport. Qua kleuren kan dat namelijk niet verschillen.

Tearing ontstaat als je frames van je gpu niet gelijk lopen met je refresh rate van je monitor. Het valt minder op als je hogere fps hebt dan je monitor kan weergeven, maar ook dan is tearing net zo goed mogelijk en aanwezig.

Displayport en hdmi sturen dezelfde kleuren op dezelfde manier door. Een kleurverschil is alleen te verklaren door instellingen. Mocht je een Nvidia gpu kiezen dan staat de kleurruimte vaak op beperkt omdat de detectie over hdmi van externe schermen bij Nvidia heel slecht is. Probeer die instelling eens aan te passen. Het kan ook zijn dat je over displayport yuv ipv rgb uitstuurt en ook dan zijn je kleuren anders. Wederom een instelling die bij Nvidia bovengemiddeld vaak fout gaat. Heb ik zelf ook last van met een Nvidia kaart. Heel vervelend.
Ik ben er zoeen die denk dat tearing komt omdat je FPS hoger is dan de Refreshrate van je monitor. En wat ik dus kennelijk niet duidelijk heb uitgelegd is dat wanneer je op een 144hz of 165hz op 4k zulke fps haalt dat je dan sowieso geen tearing hebt omdat je wel een beest van een systeem moet hebben om meer dan 144fps te halen op 4k over het algemeen.

Bedankt in ieder geval dat je de incorrectie assumptie van mij over HDMI vs DP de wereld uit hebt geholpen :)

[Reactie gewijzigd door maradesign op 30 augustus 2020 10:59]

Ja alleen dan heb je geen g-sync (want DP only) met een compatible scherm.
Ik dacht dat vanaf de 20xx serie g-sync ook over de HDMI gaat, dus als het dan niet op de 30xx serie zit ,zou best raar zijn...
Alleen bepaalde LG TVs doen G-Sync via HDMI, maar voor de rest alleen DP ook met de 20xx serie.
inderdaad, ben zelf net overgestapt naar een 1440p 165hz paneel.
een 4k 144hz monitor is gewoon nog te duur, en daarnaast zal je waarschijnlijk zelfs met een 3090 zo dadelijk geen 144fps op 4k gaan behalen.
Mainstream zijn dit soort resoluties nog lang niet.
Wordt dit een mainstream kaart dan?
DP 1.4 kan perfect 4k144Hz aan met DSC, een techniek die helemaal geen artefacten oplevert (itt subsampling).
Wordt niet echt warm van de RTX 3080 specs als je het vergelijkt met de 2080 TI
Denk dat de RTX 3080 de vervanger wordt voor de RTX 2080 TI.
Ben benieuwd wat de MSRP zal zijn van de RTX 3080 en of deze te verantwoorden is tegenover de huidige RTX 2080 TI.
Valt en staat met de base clocks. Zelfde aantal Cuda cores 100Mhz meer boost is inderdaad niet echt veel meer voor een GPU op een kleiner procedé. Als ze dezelfde prijs aanhouden als de 2080ti en de prijs voor hun topmodel weer omhoog gooien (zoals Nvidia vaker doet) Dan word ik er ook niet warm van.
Je weet toch nog niet wat de IPC verbetering is? Als er bijvoorbeeld 15% meer instructies per clock gedaan kunnen worden en de clockspeed met 5% toeneemt dan heb je het al over een substantiele verbetering van ~20%.

Core layout kan er deze generatie heel anders uitzien. Eerst de benchmarks maar eens afwachten om te zien hoe het werkelijk zit.
Zou kunnen met een schuin oog kijkend naar Pascal -> Turing.
Base clocks zijn irrelevant, zelfs de boost clocks zijn irrelevant.
Boost 3.0 zal de kaart zelf overclocken en dat zijn de clocks die relevant zijn.
Het andere punt is, RTX daargelaten, zit na 2 jaar nog steeds voldoende performance in de 2080Ti.

4K 100hz+ is in de meeste games nog niet mogelijk en de display standaarden zijn nog niet volwassen genoeg. Ook hier zitten nog niet de te verwachten standaarden op. Ik snap dat DP2.0 er nog niet is (te recent wellicht voor op deze kaarten) maar voor wat je momenteel kan uitvoeren is de 2080Ti nog voldoende.

RTX wordt nog zo weinig gebruikt... Heb misschien 40 uur RTX in games gebruikt in games waar je er werkelijk wat van kan zien... B.v. COD:MW 2019 heeft er zo weinig impact van dat ik het gemakshalve niet meetel. En in de andere games buiten Control die deze week uit kwam, is het weinig impact voor veel performance inleveren.

Het moment dat dat verbeterd, oftewel als de nieuwe consoles er allemaal een beetje zijn en raytracing meer mainstream wordt, wil ik nog wel weer een nieuwe kaart gaan uitzoeken.

De 10GB op de 3080 is juist voor die 4K RTX ervaring een doorn in het oog. Op 3440x1440 zit ik daar nu op de 2080Ti en op de 1080Ti daarvoor regelmatig overheen. Ze hebben echt heel bewust die grens daar getrokken. Iedereen die de vorige generatie Ti heeft aangeschaft, zal de 3090 willen om er niet op "achteruit' te gaan.

Gezien de specs en de trend bij Nvidia, verwacht ik dat ze rustig €2000 voor de 3090 gaan vragen.

Waarbij veel mensen de RTX2000 over gingen slaan, ben ik wel tevreden met wat ik heb gehad de afgelopen 2 jaar, maar ik verwacht niet erg veel van deze aankomende release. En ookal was de 3080 50% sneller; waar ga je dat momenteel voor inzetten? 4K 120hz red je dan nog niet en 4K 144hz is eigenlijk officieel niet binnen het bereik van de display standaarden die erop zitten.
Gokje,
3080 voor 999 dollar.
3090 voor 1499 dollar.
Veel goedkoper zal het zeker niet zijn en kans is groot dat 3090 richting 1799 dollar of meer zal zijn.
Gokje,
3080 voor 999 dollar.
3090 voor 1499 dollar.
Veel goedkoper zal het zeker niet zijn en kans is groot dat 3090 richting 1799 dollar of meer zal zijn.
Als het zulke prijzen woord, wacht ik wel op AMD tot zij hun nieuwe Grafische kaarten uit brengen.

Ook als die (AMD) grafische kaarten langzamer worden dan de Geforce RTX 3080, koop ik liever die dan een €1000 grafische kaart van NVIDIA, voor mij is €1000,- te duur voor een snelle grafische kaart.

De Geforce RTX 2080 was ook gemiddeld €800,- de eerste maanden toen ze uit kwamen, dus zou me niks verbazen dat ze (Geforce RTX 3080) gemiddeld €1000,- worden als ze uit komen, je ziet dat ook nu met de smartphones van Samsung en Apple en Huawei en meer.

Edit foutjes

[Reactie gewijzigd door AmigaWolf op 29 augustus 2020 17:48]

AMD loopt qua performance in het hoge segment nog hopeloos achter en in het midden kosten ze meer energie en stoten ze meer warmte uit. Ergo, je hoeft nergens op te wachten. Je kunt al minder performante grafische kaarten kopen van AMD. Ik verwacht dat dat in de aankomende generatie niet ineens veel anders zal worden, gegeven de historie.

Overigens: Worden*, woorden zijn dingen die je schrijft, uitspreekt of typt.
Het is waarschijnlijk zeer verstandig om te wachten tot de nieuwe AMD kaarten komen.
AMD loopt helemaal niet hopeloos achter, de mensen die dat denken missen informatie: AMD heeft helemaal geen high-end eerste generatie Navi kaart uitgebracht, de chip waar de 5700XT kaarten op werkt is midden segment chip. De 5700 kaarten zijn prima voor het middensegment en lopen zeker niet hopeloos achter op Nvidia.Wil je sneller dan moet je nu naar Nvidia maar dat is niet omdat AMD hopeloos achterloopt.

Het is waarschijnijk dat ook de komende tijd Nvidia de snelste kaart zal hebben, maar in tegenstelling tot de 5700xt generatie, weten we nu dat er weer high-end modellen gaan komen.
Ook heeft AMD aangegeven dat ze met de 2de generatie Navi 50% performance per watt winst verwachten te halen vergeleken met de 1ste generatie Navi.

Dus neem de 5700xt en maak 'm 20-40% sneller en schroef de TDP iets terug en je hebt een goede schatting voor het nieuwe middensegment Navi2. Bedenk dan dat er ook nog een grote chip komt voor de high-end modellen die nog eens 25-50% sneller is en hebt echt een leuke kaart. De grote vraag is wat gaat die kosten?

Kortom AMD gaat wellicht niet concureren met de 3090 maar zeker met de 3070 en 3080. Zijn de AMD kaarten snel genoeg om met de 3080 te kunnen concureren en een stuk voordeliger dan zal Nvidia zeer waarschijnlijk de prijs van de 3080 en lager naar beneden moeten schroeven.
Het is waarschijnlijk zeer verstandig om te wachten tot de nieuwe AMD kaarten komen.
Dat heb ik al eerder gehoord.
AMD loopt helemaal niet hopeloos achter, de mensen die dat denken missen informatie: AMD heeft helemaal geen high-end eerste generatie Navi kaart uitgebracht, de chip waar de 5700XT kaarten op werkt is midden segment chip. De 5700 kaarten zijn prima voor het middensegment en lopen zeker niet hopeloos achter op Nvidia.Wil je sneller dan moet je nu naar Nvidia maar dat is niet omdat AMD hopeloos achterloopt.
Doet denken aan Polaris, was ook redelijk in de middenmoot, en de echte high-end zou nog komen. Toen die kwam (Vega) was dat niet echt een succes.
Kortom AMD gaat wellicht niet concureren met de 3090 maar zeker met de 3070 en 3080.
De vraag is wanneer...
Toen de RTX gelanceerd werd heb ik direct besteld, en werd door velen als gek verklaard, wacht maar tot AMD iets op de markt zet etc... Tegen de tijd dat dat gebeurde had ik al een half jaar plezier van de RTX, en wat AMD op de markt zette was niet echt spectaculair goedkoper of sneller.
Zolang we geen benchmarks en prijzen van de nieuwe Nvidia en AMD kaarten weten blijft het koffiedik kijken. Maar in de praktijk reageren beide partijen regelmatig op elkaar na een launch met een prijsverlaging of een boost kaart.
Soms valt een nieuwe kaart tegen en dan hoeft de andere partij niet of nauwlijks te reageren. Zijn de launches vrij dicht bij elkaar dan loont het meestal om even te wachten.
De 5700XT moet het opnemen met de 2700RTX en is daarbij vaker dan niet toch langzamer op een aantal hele selectieve games na. Dan hebben wij het nog niet eens over raytracing gehad. Na de eerste lichting kan je op de 2070 vrij deftig raytraced games met 60+ fps spelen. Control ziet er fenomenaal uit met alle raytracing settings aan.

Dan heb je nog de DLSS2 games welke gewoon op een relatief langzamere kaart als de 2700 Death Stranding op 4K laten draaien met uitmuntende visuals. Dit is gewoon niet mogelijk op een 5700XT. Zoveel voordeliger izjn de AMD kaarten nu ook niet, de bouwkwaliteit lijken qua returns volgens een grote computer keten in de VS hoger te liggen bij AMD en daarnaast zijn de kaarten sowieso minder deftig uitgevoerd qua koelers etc.

AMD is geweldig nu op CPU gebied, op GPU moeten zij dit nog laten zien.
Ik ben er niet helemaal mee eens, de RT cores van de 20xx generatie zijn gewoon te zwak. Alleen de 2080 ti en misschien de 2080 super kan bij sommige games soepel draaien op een acceptabele resolutie en frame rate.
Ik draai een 2070 SUper en alle RTX titels kan ik met 60+ frames op 1440P spelen in een 21:9 aspect ratio zelfs zonder settings terug te gaan schoeven. BIj launch was het erg meh. De drivers en de games zijn nu stukken beter geoptimaliseerd. Alleen daardoor doe ik nu een 2de run in Control.
Oh dat is wel fijn om te horen, blijkbaar hebben ze het in de loop van de tijd opgeschroefd.
raytracing is helemaal nog niet belangrijk { Nu } en als je het gebruikt kost het vermogen en je ziet er teweinig van enz....

Dus die trukendoos als het wat wordt is niet belangrijk op dit moment.
Control zonder raytracing aan ziet er in vergelijking met de RT variant er uit alsof het op low settings draait. Als het goed geintegreerd is in de game en er wordt op ontworpen is het machtig mooi. Cyberpunk zal de volgende game zijn die dit gaat doen.

Metro Exodus ziet er ook gewoon fors beter uit met RT global illumination etc.
De meeste retouren van Navi kaarten waren in de tijd dat de drivers van navi hondse instabiel waren.... tegenwoordig zijn de mensen die n 5700(xt) kopen over t algemeen wel degelijk te spreken over de kaart die ze hebben...
Mensen die de kaarten mee rin-depth hebben gereviewed kwamen heatsinks tegen dat niet voldoende de cheap aanraakten, te weinig drop uitoefenen etc binnen het AMD kamp. Je kan weldegelijk objectief zeggen dat er een hoop ondermaatste kaarten verkocht werden zelfs van de grote merken zoals Asus en MSI. Dit lijkt dan ook beaamt te worden in de cijferes. Er wordt geen onderscheid gemaakt in waarom deze kaarten terug kwamen. Maar er wordt wel gehint naar daadwerkelijk board fouten en niet software.
als ik hier naar n techspot article kijk staat er daadwerkelijk "why the cards were RMA'd isnt revealed and its best not to read too much into data from just one retailer (mindfactory...) Moreover a particular batch could've shipped with problems (de eerdere shipments van de RTX kaarten met hun artifacting problems maybe?) and improvements to drivers ofter mean later cards are more reliable than their predecessors"

als we verder kijken naar de nummers die gegeven worden zijn de RMA rates van de PRE super refreshes van de turing kaarten (dus de 2080TI, 2080, 2070) "schrikbarend" hoog ten opzichte van de super modellen..

daarnaast ziet mindfactory aanzienlijk minder 5600 XT en 5500 XTs terug komen TOV de 5700(XT)
dit doet mij geloven dat driver stability daadwerkelijk een factor is in deze retouren - ja de 5700(XT) evoke en de XFX 5700 (XT) THICC 2, en de Asrock Phantom/challenger kaarten waren terrible, de red devil zag veel retouren (13.18%) omdat qua koeling dit een van de kaarten was die werd aangeraden rond release (naast de sapphire pulse volgensmij) vandaar dat deze dus ook vaak terug getrapt werd omdat de drivers 3x ruk waren
Ik keek naar de cijers die geprojecteerd werden door digital trends market analysten.

De 2080TI was van een aantal manufacturers ook erg matig. Als je kijkt naar de onderste range aan 2080TI kaarten zie je een hoop bar slechte modellen voorbij komen.

Maar je kan wel objectief stellen dat de uitvoeringen vaker van hgoere kwaliteit zijn binnen het Nvidia kamp. Op AMD gebied heb je eigenlijk alleen Sapphire dat super constant is. Asus en MSI als andere grote partijen laten te vaak steken vallen op AMD gebied. Mede omdat zijn kosten wat het kost koelers willen blijven hergebruiken. De AMD reference koelers zijn helaas niet voldoende. BIj Nvidia kon je dan nog terug vallen op de FE koelers. Niet altijd de koelste, wel heel erg mooi in elkaar gezet en prestaties waren bovengemiddeld.
eerst zien dan geloven, geruchten gaan dat de big navi een kunstwerkje gaat worden maar momenteel is die er nog niet. heb persoonlijk meer vertrouwen in de videokaarten van nvidia dan die van amd. zeker na het 5700 debacle waarbij de drivers/software gewoon niet goed werkte.

de videokaart is één maar fatsoenlijke aansturing daarvan is zeker zo belangrijk. een Ferrari gevuld met cola komt ook niet vooruit.
Ja je hebt helemaal gelijk.

Vega was door meerdere oorzaken een tegenvaller. AMD had geen R&D budget om een losse chip voor pro en consumer te maken dus Vega had functionaliteit die voor een consument niet boeiend was maar wel die area innam en energie vroeg. HBM2 was duurder, langzamer en later te krijgen dan verwacht. Vega was enorm overhypt. En er was zelfs iets in die chip die een goede performance boost moest geven maar die uiteindelijk nooit geactiveerd is en van alle marketing materialen verwijderd is, ik had stille hoop dat ze dat later nog aan de praat zouden krijgen maar helaas. Geen idee zelfs meer hoe dat heette
.
Navi was alleen een midden segment GPU en werd geplaagd door een driver probleem dat veel tijd koste om op te lossen. Ook nu weer was AMDs beperkte budget een reden dat er geen high-end game model was. Wellicht ook een slimme keus gezien de driver problemen, het missen van ray tracing, en de beperkte volumes op de high-end markt, want het was maar de vraag of big navi geld had opgeleverd.

Maar ik heb zelf een Vega64 en ik kan alles spelen wat ik wil, dus ik ben er erg blij mee. De meeste mensen die ik ken met een 5700(XT) hebben geen driver issues gehad maar 1 vriend had ze wel en die heeft 'm geruild voor een Nvidia. Dus we moeten ook niet overdrijven. Vega, Polaris en Navi waren voor de meeste mensen prima kaarten. Ik meen me zelfs te herinneren dat in 2018 een onafhankelijk onderzoek naar drivers aangaf dat AMD minder bugs had dan Nvidia, maar dat was voor het Navi debacle.

Big Navi2 lijkt gewoon een leuke optie te worden, en ik heb er alle vertrouwen in dat we goede kaarten gaan zien. maar ik zou zeker de reviews afwachten.
Het zal inderdaad meer de 3080 en 3070 zijn waar ze tegen elkaar gaan concurreren, als ze al volgens de geruchten hun gpu's softwarematig minder doen presteren om niet in hun kaarten te laten kijken zal eerder daar en lager zijn dat ze het gaan uitvechten.

Alsook nu AMD en hun cpu's een succes worden/zijn is er meer R/D budget en kunnen ze misschien wel in nabije toekomst met Nvidia's flagship gpu concurreren al heb ik liever dat ze niet stilzitten met het Intel gevalletje als mooi voorbeeld ;)
Ik denk dat het voor AMD helemaal niet loont om te concureren met een 3090, want de markt voor zulke dure kaarten is heel klein.

Nvidia is een zeer geduchte concurent die meer geld heeft en op meerdere vlakken voorloopt. Dan heeft Nvidia ook meer geld in hun sponsor programma's zitten dus meer games met GeForce optimalisatie en hun marktaandeel is ook groter dus meer kans dat developpers zorgen dat het op Nvidia goed werkt. Dan heeft Nvidia ook nog flink ingezet op dingen die alleen op Nvida werken zoals Gsync, Cuda, RTX en hebben ze flink wat spellen voorzien van extra functionaliteit die express slecht werkte op AMD (denk vooral aan Hairworks) En in tegenstelling tot Intel is Nvidia nooit gestopt met innoveren en keihard doorgaan, dus is het voor AMD veel moeilijker om Nvidia in te halen dan Intel. Wat Nvidia gedaan heeft met die voorsprong is heel veel geld binnen harken, dus duurde videkaarten want weinig concurentie.

AMD moet inzetten op lange termijn, zorgen dat hun marktaandeel vergroot wordt, en dat ze met elke chip winst maken. Dus middensgement is super belangrijk en nu met de nieuwe consoles zullen veel game engines ook geupdate worden en raytracing is langzaam aan het komen dus zal er ook meer vraag zijn naar wat hogere modellen.
Performance per watt is alleen interessant als je je aan een bepaald watt-budget wilt houden. En de meeste gamers zijn niet op zoek naar een kaart die nu niet zo heet wordt en het wel aardig doet voor de huidige generatie. Het is voor mij geen argument als ik aan het shoppen ben voor een upgrade. Anderen zullen dat ongetwijfeld wel zijn.

Iedereen is lyrisch over AMD's RDNA2 en de toekomstige RDNA3 -- maar vooralsnog is het alleen maar geruchten en gewijs naar de nieuwe consoles. Komt AMD met iets op het niveau van een GTX3080 of beter voor minder geld, dan hebben ze mijn aandacht. Zo niet, dan zijn ze niet interessant. En ze moeten opschieten want de GX30 generatie ligt binnenkort in de winkel en dat geld kan maar een keer uitgegeven worden.
Ja een echte game fanaat zal het worst zijn of die kaart 250 of 350 watt gebruikt, maar performance per watt is veel belangrijker dan je denkt. Want het koelen van moderne high-end videokaarten is echt een uitdaging, zeker qua geluid. Maar het belangrijkste is dit, alle moderne kaarten werken met variabele frequenties, dus hoe beter de perfirmance per watt hoe langer je kaart op een hogere clock kan werken.

Maar de echte game fanaten zijn met steeds minder, steeds meer mensen gamen op smartphones, laptops en kleine kastjes. Dus er is een groeiende groep gamers voor via performance per watt een super belangrijke parameter is.

Ik wist niet dat er mensen waren die lyrich zijn over RDNA2 en zeer niet over 3, dat lijkt me nog wat vroeg want we weten er nog erg weinig over. AMD heeft voor zover ik weet alleen aangeven dat RDNA2 50% betere performance per watt is, dat er raytracing support is en dat ze 4K gaming voor een groot publiek betaalbaar gaan maken. Dat lijken mij zeer goede beloftes maar de nieuwe Nvidia kaarten lijken ook erg goed te worden, dus 4K gaming op Nvidia is geen enkel probleem. Wat AMD zegt is dat de nieuwe kaart behoorlijk wat sneller zal zijn de 5700XT want dat is geen 4K kaart en dat die ook nog betaalbaar moet worden. Dus ik verwacht 5700XT performance +50-100% voor ca 500 euro.
AMD bakt hun chips echter op een veel beter procede dan Nvidia momenteel. Er is ook sprake van een 80CU chip met al dan niet 3xxbit bandbreedte. Ik vlak AMD zeker niet uit, ook niet op de echte highend 3080+.
Maar vanwege driverkwaliteit en dlss heb ik besloten toch op zoek te gaan naar een Nvidia 3090 volgende week. Die biedt voldoende performance en toekomstvastheid (zelfs nog nvlink) en ik heb het geld er voor over.
Dit is momenteel gewoon niet waar, de RX 5700 (XT) is qua performance/watt vrijwel gelijk aan de RTX 2000 kaarten van Nvidia, en stoot dus niet meer warmte uit...performance zit bij de rtx 2070 voor de rx 5700 XT. Ook lijkt het er momenteel op dat AMD wel eens de efficiency kroon zou kunnen pakken bij hun RDNA 2 kaarten...Tis afwachten, maar Ampère lijkt veel te gebruiken alvast, gezien de 350W (!!) voor de RTX 3090.

En de prijzen, die zouden volgens de geruchten 1400 dollar voor de 3090, 800 voor de 3080 en 600 voor de 3070 zijn...
De RX 5700 XT zou ik gekocht hebben als ze de drivers op order hadden. Toch gegaan voor een 2070 super trio van MSI. Performance is ook stukje stabiele software.
Drivers worden continu bijgewerkt, het is wel eens hit-and-mis met niet-standaard configuraties, en zaken zoals 3 of meer verschillende schermen bijv in combinatie met VSR en eyefinity dat AMD met een bepaalde driverversie er toch issues komen, dat is geen probleem, dan ga je gewoon verder met een oudere driver waarmee het probleem zicht niet voordeed en sla je een of twee releases over.

Het argument dat AMD's drivers per definitie "slechter" zijn is onzin.
Misschien wel, misschien niet. Feit is wel dat AMD voor mij een onbetrouwbare reputatie heeft, terecht of niet. Ik zal wel 3 keer nadenken voor ik een AMD videokaart koop. En als het echt een betere deal is dan NVIDIA dan zal ik eerst bewijs willen zien dat ze de boel op orde hebben. En dat is het vervelende aan vertrouwen; het duurt lang om op te bouwen maar is zo kapot. Jammer vind ik het wel, ik heb wel sympathie voor AMD (heb nu ook een AMD processor). Ik hoop dat ze mij met nieuwe kaarten wel kunnen overtuigen...
Zo ben ik even terug toch gezwicht voor een 5700xt, keurige prijs ruim onder 400 euro. Performance is goed en op zich stabiel, maar hij wordt enorm heet tot 100 graden en de radeon software is erg slecht. Zo reset ie vaak de fan instelling, terwijl die default ondermaats is en daardoor mijn hele systeem na een uur gamen oververhit. Ook opties voor recording en streaming vind ik vele malen minder gebruiksvriendelijk. Daarnaast werkt updaten slecht, dit moet bij mij handmatig dmv uninstall en install.

Qua gameprestaties dus wel tevreden, maar een hoop extra gedoe. Ik kijk met smart naar de nieuwe gpu ontwikkelingen en wil best wat extra betalen voor stabiliteit.
Recording en streaming doe ik niets mee, dus disable het ook altijd. Het oververhittingsprobleem is idd bekend, dus daarom de 5x00 maar gewoon geskipt. het updaten vermoed ik dat het bij jou ligt ( ;-) ), en van 270x, naar 2x270x in crossfire, naar een fury op een inmiddels vijf jaar oude win10 installatie is dit ook nooit "gebroken" geweest, wel een keer een brakke driver release meegemaakt, maar dan is het reverten en afwachten(en kijken op de AMD site wie er nog meer issues heeft).

Dat je gameprestaties ok vind, maar niet langer dan een uur kan spelen zou voor mij overigens wel een dealbreaker zijn, ik speel genoeg games waarin een sessie zo 4-6 uur duurt. Dan had die kaart allang omgeruild geweest(vanuit gaande dat de kaart hardwarematig de oorzaak is)
Ik kan zeker langer dan een uur spelen als de fan settings goed staan. Maar die springen regelmatig naar default, waardoor oververhitting wel mogelijk is( hij blaast dan op max 40%)dus dat moet ik in de gaten houden. Raak je aan gewend, dus ik kan er mee door. Maar ideaal is het niet nee!
Maar op basis van geruchten en zaken niet onderbouwen kun je niets. Al helemaal geen conclusies trekken over een product waar je zelf geen ervaring mee hebt. In dat geval is het niet alleen de negatieve, maar ook de positieve reakties lezen(wel met een kritisch oog) tussen zowel professionele review sites als individuele gebruikers.

De 5700XT was/is idd een probleem, vooral omdat de latere uitgekomen 5500 en 5600 de issues niet hebben. Misschien was de 5700XT gewoon te hoog gegrepen, en hebben ze daarom nooit de 5800 en 5900 uitgebracht, maar zijn ze gelijk doorgegaan met de volgende architectuur. Fouten maakt iedereen, en je gaat Nvidia nu ook niet meer afrekenen op de GeforceFX series of TNT2 Vanta.

Ik zag zelf geen reden om mijn fury te vervangen tot recent, dus heb deze gen. maar gewoon geskipt, maar gebruiken ALLEMAAL dezelfde driver package!
Lol ik kies juist voor amd vanwege de drivers
Alle RTX-2000 kaarten? Nee. Het performed net onder de 2070 en heeft veel meer problemen met warmte. Ik zou zelf dus eerder voor een 2070 gaan dan een 5700XT. Je kunt niet zeggen "de RTX 2000 kaarten" en dan per ongeluk de 2080, 2080S en 2080 TI niet meetellen. AMD ondersteunt ook geen raytracing of gebruik van ondersteunende cores, die vanaf de 2000-series wel bij Nvidia aanwezig zijn.
Dit is momenteel gewoon niet waar
Wat jij zegt is dus gewoon niet waar.

[Reactie gewijzigd door ItsNotRudy op 29 augustus 2020 17:06]

Sorry, maar ik zei toch duidelijk dat hij performde onder de rtx 2080? Misschien eerst mijn hele post lezen voor je reageert... Tis echter vrij duidelijk dat je een fanboy bent, ik probeer hier alleen de objectieve feiten weer te geven. En drivers, tja, daar hebben beide kampen hun problemen, afhankelijk van de games die je speelt of functies die je gebruikt...
Mensen die de 3090 gaan kopen verwacht ik dat ze er een compleet nieuw systeem omheen zullen bouwen mocht hun oude "er moeite mee hebben", en meer geven om FPS dan om efficiency. Het is dan ook een "flagship" kaart.

Ik denk ook dat ze wel met een kaart zullen komen voor rond de 400 euro, de +750 euro afzetmarkt voor videokaarten is er wel, en zeker niet iets nieuws, maar tussen de 250 en 500 euro zullen ze in aantallen veel meer omzetten.
De huidige generatie van AMD zegt niks over de komende generatie. Groot gelijk dat hij wacht.
Ja de bedoeling van AMD is de Architectuur te spitsen in Gaming en pro. Dus de Game lijn krijgt niet de pro balast dat is voor CRDNA en RDNA2 is dubbele stap in dat onderscheid met Hardware DXR.
Zodra de console er zijn en 2de golf aan console game gereased zijn zullen de game ook beter geoptimaliseerd zijn voor RDNA2(X) dus prestatie op release kunnen met de tijd ietswat verbeterd worden.
Gezien de architectuur iteratie is het wat lastig voorspelbaar.
De zen architectuur sloeg anders ook in als een bom...
3080ti gaan ze vast nog tussen de 3080 en 3090 stoppen als AMD haar nieuwe kaarten op de markt brengt. Kunnen ze mooi een paar maanden flink geld vangen en als AMD echt goede performance biedt gooien ze de prijzen naar beneden
Dat is wat ik hoop, we zullen wel zien, ben wel benieuwd met wat AMD komt en wanneer, hoop niet dat het weer jaren later is.
Rtx 2080 voor 800?
Wanneer was dat?
Dat was toch 1200/1399 euro
Rtx 2080 voor 800?
Wanneer was dat?
Dat was toch 1200/1399 euro
Nee dat was voor de Geforce RTX 2080 Ti, die nog steeds tussen de €1100 zitten en €1300, niet de Geforce RTX 2080, die waren rond de €800.

[Reactie gewijzigd door AmigaWolf op 30 augustus 2020 11:21]

volgens mij waren er al prijzen gelekt.
3080 voor 800 dollar
3090 voor 1400 dollar

De dollar prijzen zullen één op één euro prijzen worden.
800 dollar is momenteel 671euro, hier komt nog een bachelijke berg nederlandse belasting overheen en voila 800euro.
Echt wauw... toen ik nog high-end pc’s bouwde kocht je voor € 1200 een hele dikke high-end pc. Toen kostte de high-end gpu’s nog € 500-600. Is wel van de HD Radeon 5870 en i7 860 geleden dat ik nog in de pc scene zat, maar wat een prijzen voor videokaarten.... zijn er echt mensen die €1500 gaan neertellen voor een videokaart?

De 3080 is gewoon de nek omgedraaid met 10GB VRAM. Slechte zaak.
Heeft weinig zin om 2 verschillende architecturen op verschillende nodes te gaan vergelijken. De 3080 zal rond de 25-30% sneller zijn dan de 2080ti en goedkoper naar verwachting.
3080 zal rond de 25-30% sneller zijn dan de 2080ti en goedkoper naar verwachting.
Laten we maar gewoon de benchmarks afwachten, dan weten we wat de prestaties gaat zijn van deze nieuwe kaarten. Ben eerder benieuwd naar het verbruik en de prijs, die twee zijn doorslaggevend om tot eventuele aankoop over te gaan.
Dat een trede lager is volgens mijn altijd de strategie van Nvidia.
Ik zie wel wat de prijs wordt van de RTX3080, want daar ga ik voor. Mocht deze echt veel duurder zijn dan een tweedehands 2080ti dan ga ik gewoon de tweede hands markt af voor een RTX2080ti aan die verbeterde RT heb ik toch niets aan voor MS FS2020. Want die tweede hands 2080ti moeten nu wel gaan kelderen.
Of je wacht even een maandje en koopt dan de 3070 die 2080Ti performance levert voor veel minder geld.
Of je wacht 2 jaar enzovoorts enzovoorts.
Kan eigenlijk altijd wel wachten op een volgende generatie.
of je skipped je aanschaf bij introductie en wacht af tot na de feestdagen.
Ik sla standaard altijd een generatie over, zodat je gegarandeerd een flinke update hebt.
Of je wacht een maandje en je koopt big Navi die de 3080 outperformt tegen een zelfde/lagere prijs.
Heeft niet veel zin als hij de 3080 te duur vindt... Daarbij verwacht ik niet dat AMD erg veel zal undercutten, dat tijdperk is voorbij. Daarbij hebben feitelijk geen van AMD's afgelopen GPU lanceringen de verwachtingen waargemaakt, dus verwacht ik niets bovengemiddeld van RDNA2.

[Reactie gewijzigd door Pliskin op 29 augustus 2020 16:32]

Ja als hij de 3080 overtreft zal de prijs ongeveer gelijk zijn inderdaad. En toch verwacht ik dat RDNA2 dit keer wél bovengemiddeld zal zijn, net als ZEN3.
In tegenstelling tot Intel heeft Nvidia de laatste generaties niet stilgezeten. Denk niet dat je zodanig hoopvol moet zijn op magische GPU's. Helemaal omdat gebasseerd op de nieuwe XBox schematics de raytracing functionaliteit bij de nieuwe RDNA2 GPU's achter lijkt te blijven.
Bwah, tot nu toe ziet de 3000 eruit als een echte heet hoofd... de vraag is hoeveel beter is het als rtx u niet interesseert ? Want gelekte specs was dat rtx cores 4x zo goed gingen zijn ... maar hoeveel “gewone” tensor cores beter zijn?
Door analysten is een 40% neergezet als pure rasterization performance uplift.

De hitte shcijnt van het geheugen voornamelijk te komen.
Ach, wat maakt het uit als het een heet hoofd is, als die daardoor veel beter presteert ligt ik er niet wakker van.
Dat heb ik dus niet beschreven, mijn gaat het om de vergelijking van @RamJaane dat de 3080 en de 2080ti gelijke prestaties hebben en als een tweedehands 2080ti veel goedkoper is, ga ik gewoon voor de 2080ti.
Dat het een 2080ti/3080 is of 7/12nm GPU en AMD/Nvidia zal mij echt een worst wezen.
Maar we moeten eerst maar eens de testen afwachten, dan weten we meer over de performance en de prijzen.
Je hoopt dan dat die big Naci de 3080 outperformt, want er is verder nog weinig van bekend.. En tuurlijk hopen we dat AMD voor lagere prijzen beter presteert, hopelijk dat Nvidia dan ook hun prijzen verlaagt. Maar tot nu toe is het nog altijd gebleken dat de nieuwe GPU van AMD behoorlijk werd gehypte en aangaf dat die beter zou zijn dan de Nvidia, maar tot nu toe was het elke keer toch weer terugkomen van een koude kermis.. Laten we dan hopen dat AMD het dit keer wel waarmaakt. Maar ik heb er een hard hoofd in.
Je hoopt dan dat die big Naci de 3080 outperformt, want er is verder nog weinig van bekend.. En tuurlijk hopen we dat AMD voor lagere prijzen beter presteert, hopelijk dat Nvidia dan ook hun prijzen verlaagt.
En net dat is het probleem van AMD geweest, komen ze met een product dat qua specs goed meekan, hoopt iedereen dan NVidia de prijzen ook zal verlagen en koopt iedereen NVidia.
Kans is groot dat je niet meer de prijs voor een 2080ti zult krijgen die menig hoopte toen ze deze kochten, want je zult denk ik echt met de helft van de prijs moeten komen waarschijnlijk, want wie gaat nog een 208ti 2e hands kopen als een nieuwe 3080 maar een fractie meer kost dan wat men vraagt.
Klopt, dus als een nieuwe RTX3080 €900,- gaat kosten ga ik echt niet €900,- betalen voor een oude generatie RTX2080ti van 2y oud, met de hoop dat deze RTX2080ti niet afkomstig uit de inventaris van andermans ellende. Hoe dan ook als de geruchte over de prijzen juist zijn zullen de prijzen op de tweede handsmarkt voor de 2080ti zoals ze nu zijn niet meer te houden zijn. :Y)

Maar ok eerst de vergelijkingstesten afwachten voor mijn toepassing, maar het lijkt er wel op dat de performance van de 3080 tov 2080ti vergelijkbaar zijn.
En dan zijn de geruchten dus dat de RTX3080 dezelfde prijs gaat krijgen als dat de RTX2080 bij introductie had, ofwel $799 (founders edition).. Dus je moet dan toch echt een kronkel in je kop hebben als je meer als dat voor een 2e hands RTX2080ti gaat betalen, en een RTX2080ti verkopen voor $799 doet menig toch wel pijn, want ik denk dat ze hadden verwacht em wel te kunnen verkopen richting de $899-$999..
Ik denk niet dat de 3080 vergeleken moet gaan worden met de 2080Ti maar met de 2080. Waarschijnlijk maakt Nvidia de 3090 om de 2080Ti te vervangen. Dit zou logischer zijn aangezien je anders weer een 2080, 2080 super en 2080Ti zou hebben.
Nvidia heeft nou juist een reputatie dat niet te doen.

Voorbeeld 1080ti release $699,-
2080ti release $1,199
2080 release $799,-

Nou heeft vrijwel niemand een 1080ti kunnen kopen voor $699,-
Maar we kunnen wel zeggen dat Nvidia qua prijs vaak een klasse doorschuift.
het gaat voornamelijk om de benaming, dus ipv de kaart 3080ti te noemen, noemen ze deze nu 3090.
Nee ik denk dat ze de 3090 als Titan vervanger gaan verkopen en deze zou dan dus ook 'goedkoper' worden. Vervolgens als big Navi de 3080 verslaat lanceren ze een 3080ti.
Wat de ene gpu per clocktick doet is niet hetzelfde als de ander. Insiders verwachten een 40% performance uplift qua rasterization, tot 4x snellere raytracing en het krijgt compressie logic en cores om hardware matige data compressie uit te voeren vergelijkbaar met de aankomende Xbox.
Ik word niet warm van de hele nvidia line-up. :+ :X
Is het dan niet zo dat er gewoon TI varianten van de 3080 en -90 komen?
Schijnt rond de 800 te gaan liggen (volgens de leaks althans), dat zou een koele 500 a 600 minder zijn dan de 2080ti. (Natuurlijk neem ik dit met een korrel zout, ik vermoed eerder dat de prijs tussen de 1000 en 1200 gaat liggen en dat de 3090 ergens tussen de 16 en 1800 terecht gaat komen.
Ik wil heeeel graag weten wat de PCB lengte van de RTX 3090 is, om te weten of hij in mijn SFFPC past :o (met waterkoelblok, dus originele koelerlengte maakt niet uit)

Dit lijkt goed nieuws:
It’s a 2.7-slot and triple-fan cooler design with a full cover backplate. The PCB however is much shorter than the cooler and the third fan pushes the air through the exposed heatsink.

[Reactie gewijzigd door marowi op 29 augustus 2020 15:25]

Ik denk dat je ook moet kijken naar de hoogte. Op de leaks van de vorige weken leek het alsof de kaarten een stuk hoger zijn.

/EDIT:

Op de foto's zie je dat de kaart een stuk boven de bevestigingsbeugel uitsteekt. Ik denk niet dat hij zomaar in elke kast past.

[Reactie gewijzigd door TechSupreme op 29 augustus 2020 17:53]

3 slot voor RTX 3090 blijkbaar...
Klopt, maar dat is de dikte. @TechSupreme had het over de hoogte.
https://i.imgur.com/YkHlzvT.jpg
Wat een slechte aanduiding op die afbeelding. Dikte zou gewoon hoogte moeten zijn. Dat de breedte van de kaart als width/height staat aangeduid is gewoon duf. Een engineer zou het nooit zo aanduiden.
Word vaak niet opegeven , vindt eigenlijk dat zoiets in de pricewatch moet komen, ik zoek ook nog een lage kaart, maar kan niets vinden, mijn werkstation is maar een halve centimeter ruimte, en andere kast geen optie, (moederbord is custom form factor, kast heeft backplane voor powersupplys enzevoort)
Nou tot de dag van vandaag was het eigenlijk dat de kaart gelijk was met de bovenkant van de beugel. Soms steekt hij een half centimeter, misschien een centimeter uit maar niet veel. Dus tot de dag van vandaag was daar eigenlijk geen behoefte voor. Als ik kijk naar dit design dan steekt hij al gauw een centimeter of 5 a 7 uit, dat is best veel.
Uhm van beide partijen zowel amd als nvidia is het de laatste generaties dat de kaarten hoger zijn dan de beugels,
Founder edition kaarten daarbuiten gelaten.
Die van Gainward is 2.7 slots, maar dat is alleen voor de koeler. Er zitten geen aansluitingen, dus dat zaag ik er zo af :Y)
Het wordt hoog tijd dat grafische kaarten zuiniger worden.
Bovendien zijn deze kaarten volgens mij overkill tenzij je per sé op 4K wilt gamen?
Met mijn XT5700 draai ik op 1440P alle games op max.

Sowieso heeft Nvidia nu geen concurrentie van AMD. Nvidia heeft al de snelste kaarten, en doet er nu een schepje bovenop.
Grafische kaarten zijn al jaren niet spannend meer, en innovatie (zuinigheid) is ver te zoeken...
Voor VR heb je nooit overkill. 4K gamen kost ook veel performance en ik moet zeggen met een 1080 in het begin ook bijna nooit 144 frames te kunnen halen voor mijn 144 Hz monitor. Er zijn best veel scenario's waarbij je meer performance wil. Ben alleen bang dat ze onbetaalbaar worden
Daar heb je het lage en mid range segment voor.. Niet het top segment.
De snelste auto's maak je ook niet zuiniger als je de snelste wil zijn.
Waarom moet het verbruik omlaag? Voor extreme prestaties heb je nu eenmaal extreem verbruik. Een 3060 is voor 1440p waarschijnlijk voldoende en zal lang niet zoveel verbruiken
Met mijn XT5700 draai ik op 1440P alle games op max..
I call bullshit. Die draait echt niet elke game 1440P ultrawide met alles max op 144Hz ;)
zelfs een 2080ti op 2 ghz doet 50 fps in metro op 1440p in veel maps met max settings lol. Internet the place of leugenaars.
AMD zuigt gewoon bigtime.. Lisa Suuc Ma Duuc. Wat een NOOOOB bedrijf sinds overname

[Reactie gewijzigd door A87 op 31 augustus 2020 15:11]

Hz is de snelheid van je scherm, hij/zij heeft het over FPS. ;)
Nee, niet echt, want het enige dat die zegt is dat die alles op1440p draait, maarja, op hoeveel fps is dan niet duidelijk of ultrawide is natuurlijk weer een heel ander verhaal..
Dat hoef je mij niet te vertellen, ik ga al een tijdje mee.

Jij bedoelde waarschijnlijk dat het 144FPS moet zijn op een 144Hz monitor? Je hebt geen 144FPS nodig om voordeel te hebben van een 144Hz scherm. ;)
Probeer al tijdje te googlen maar vind er weinig over....tov de vorige generatie....heeft nvenc enige upgrades gekregen? De stap naar Turing was al een hele stap voorruit. Zijn er terug nieuwe ontwikkelingen op dit gebied of niet? Av1 zou leuk zijn

[Reactie gewijzigd door SadisticPanda op 29 augustus 2020 15:33]

https://www.tomshardware....x-3080-ampere-all-we-know

Zij zeggen het volgende:
Oh, and the NVENC hardware got a major upgrade that added hardware accelerated encoding and decoding of higher resolutions and more codecs like VP9 and HEVC.

Klink goed dus nu afwachten wat Alphagaming en eposvox er van vinden
Vindt het tot nu toe niet indrukwekkend zeker het verbruik niet. Misschien dat de reviews nog enigszins wat goeds laten zien.
Dat vind ik wel bijzonder want waar het juist om draait is de performance en de prijs en daar hebben we nog helemaal niks van gezien. Wat is er dan niet indrukwekkend? Het heeft weinig zin om verschillende architecturen en verschillende nodes met elkaar te gaan vergelijken op enkel verbruik en aantal shaders. Dat zegt dus net helemaal niks.
nou laten we het hopen, ben een nieuwe videokaart nodig.
Geen verwarming nodig in de winter. Nvidia blijft maar die cores, powerconsumptie en prijs oppompen.

Hele hordes die er ongetwijfeld weer een maandsalaris tegenaan gaan gooien.
De Intel 10xxx serie is ook een lekkere stroomvreter. Dan hebben die 600+ watt voedingen ook weer wat te doen :P
Een beetje zoals AMD en hun processors een tijd terug. Niet kunnen competen met Intel dus maar meer cores erin flikkeren en omhoog ging dat verbruik en die hitte. Grappig om Nvidia nu in die positie te zien maar dan op de GPU markt.
Als je beter had opgelet had je dan ook begrepen dat Nvidia niet in die positie zit. Ze hebben in het hoger segment gewoon geen concurrentie en nu met hun nieuwe lijn doen ze er nog een schepje bovenop.
Dit keer niet 2080 TI verkocht dus nu nog een keer de huur er bij ;)
En met een hitte golf is ut zweten......airco erbij?
ik vraag me vooral af of het nog steeds zo zal zijn, zoals bij bvb de 2080, dat als je meer dan 2 schermen aansluit de kaart op 100% gaat draaien en dan ook zijn fans continu aanzet, ook bij gewoon de windows desktop tonen.
Zal dan toch eerder een probleem met je instellingen/kaart zijn.
Driver probleem... Had dit heel lang geleden ook met mijn gtx780 op een 144hz desktop omgeving... Heeft uiteindelijk zichzelf opgelost
ik heb er met hen contact voor opgenomen.. default behavior volgens hun :(
Ik heb al meer dan een decennia meer dan 2 monitors en Nvidia kaarten welke deze aansturen en heb hier nog nooit van gehoord of zelf last van gehad.
Nouja, misschien dat het zich dus pas voordoet als je een 3e scherm aansluit, want hij zegt wel 'als je meer dan 2 schermen aansluit'.. Maargoed, bij ons de laatste Intel NUC ook gewoon 3 schermen zonder problemen.
yep, pas vanaf het derde scherm spring hij naar 100% gebruik. Ik gebruik nu het derde scherm via de igpu
Meer dan 2 monitors schreef ik, dit is dus 3 of meer. Ik gebruik er 3.
Sorry maar ik heb niet deze problemen.
Hopelijk Nachte ook in de toekomst niet meer want het lijkt mij wel degelijk vervelend. Succes.
Loopt één van de schermen op meer als 120Hz? Zo ja dan is het misschien op te lossen. Hier een link naar een pagina waar iemand beschrijft hoe hij het heeft opgelost, laatste reactie.
https://linustechtips.com...-with-dual-monitor-setup/
nee, alle 3 draaien ze op 60hz
De VRAM valt echt heel erg tegen van zowel de 3080 als 3070 en stroom verbruik is ook flink, maar we zullen de benchmarks moeten afwachten.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True