Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Afbeelding toont referentieontwerp GeForce RTX 2080 Ti met twee fans

Er is een afbeelding verschenen die vermoedelijk het referentieontwerp toont van Nvidia's GeForce RTX 2080 Ti. Het gaat om een koeler met twee fans. Mogelijk betreft het de Founders Edition. Ook zijn de specificaties van de RTX 2080 en 2080 Ti bekend.

VideoCardz publiceert de afbeelding die de koeler van de RTX 2080 Ti toont. Het is nog niet duidelijk of Nvidia zijn eigen ontwerp weer Founders Edition noemt, zoals dat bij de vorige generatie het geval was. De afbeelding bevestigt een eerder gerucht dat stelde dat het ontwerp van Nvidia twee fans zou krijgen.

Er is nog weinig informatie bekend over de referentievideokaart van Nvidia, terwijl er al veel afbeeldingen en informatie uitlekte over de aangepaste kaarten van fabrikanten. Dat lijkt erop te duiden dat alleen Nvidia zelf de kaarten met zijn eigen koelers gaat verkopen via zijn webshop. Met de koeler met twee fans wijkt Nvidia af van het ontwerp van voorgaande jaren. De Founders Editions van de kaarten in de GTX 10-serie hadden één radiale fan.

Gedurende het weekend publiceerde VideoCardz veel afbeeldingen van de komende RTX 2080- en RTX 2080 Ti-videokaarten van diverse fabrikanten. De uitvoeringen van Gigabyte, Asus, EVGA, PNY en Zotac staan online. Vrijdag verschenen al foto's van de kaarten van MSI en Palit.

Van PNY verschenen niet alleen foto's online, maar ook uitgebreide specificaties. Die laten bijvoorbeeld zien dat de RTX 2080 Ti een tdp van 285 watt heeft en dat de gpu een boostclock heeft van 1710MHz. Die specificaties kunnen bij de kaarten van andere fabrikanten verschillen. Wel is in grote lijnen bekend wat de specificaties van de nieuwe kaarten zijn.

De RTX-videokaarten zijn gebaseerd op de Turing-architectuur, die Nvidia vorige week aankondigde. Een belangrijke eigenschap is dat deze over speciale RT-cores beschikken, voor ray tracing. Nvidia houdt op maandag een presentatie getiteld GeForce Gaming Event. De videokaarten worden dan waarschijnlijk officieel aangekondigd. Er is een livestream op Twitch vanaf 18:00 uur.

Videokaart Cuda-cores Geheugen Geheugenbus Geheugenbandbreedte
Quadro RTX 6000 4608 24GB gddr6 384bit 672GB/s
GeForce RTX 2080 Ti 4352 11GB gddr6 352bit 616GB/s
GeForce GTX 1080 Ti 3584 11GB gddr5x 352bit 484GB/s
Quadro RTX 5000 3072 16GB gddr6 256bit 448GB/s
GeForce RTX 2080 2944 8GB gddr6 256bit 448GB/s
GeForce GTX 1080 2560 8GB gddr5x 256bit 352GB/s

Door Julian Huijbregts

Nieuwsredacteur

20-08-2018 • 10:57

121 Linkedin Google+

Reacties (121)

Wijzig sortering
Ik vraag me echt af hoe deze kaarten gaan presteren. Als een 2080 non Ti al een tdp van richting de 280 watt krijgt zou je denken dat hij hij wel een serieuze poging doet sneller te zijn als de 1080 Ti. Gezien de shader counts zou het mij niet verbazen als deze onder de 1080 Ti uit komt (maar dan verwacht ik wel een lager TDP) en dat vooral de 2080 Ti sneller is.
Al met al is deze generatie niet echt interessant als je nu een 10x0 serie hebt tenzij je geld hebt liggen waar je van af moet of echt meer fps nodig hebt dan je nu haalt met een 1080Ti. Want als je nog geen 1080 Ti hebt is dit wel het moment om relatie goedkoop een 1080 of 1080 Ti op de kop te gaan tikken en dan heb je waarschijnlijk veel meer bang for bucks dan met de nieuwe generatie.

Maar goed bij gebrek aan concurrentie kunnen we verwachten dat de vooruitgang stagneert. Dat zag je al toen er vorig jaar gewoon niets nieuws uit kwam en de 1080 Ti samen met de Titan XP de kaarten van dat jaar bleven (Titan V telt niet helemaal mee ja hij is een stuk sneller maar 3x zo duur voor 30% is gewoon geen goede deal)
De TDP van de RTX 2080 zal denk ik rond de 205W uitkomen, de RTX 2080 Ti zit op 285W. Kijk maar naar de specificaties van de Quadro RTX 5000 die net als de RTX 2080 met een TU104 GPU komt.

[Reactie gewijzigd door -The_Mask- op 20 augustus 2018 12:39]

Lijkt mij inderdaad ook logischer. Maar in dat geval zie ik het echt gebeuren dat de 2080 onder de 1080 Ti uit gaat komen of vergelijkbaar presteert. En dat het niet echt interessant is om te upgraden.
Van Ti naar niet-Ti is nooit echt interessant toch?
Zonder betere node is grote winst gewoon niet te verwachten

[Reactie gewijzigd door Olaf van der Spek op 20 augustus 2018 11:40]

Vorige generatie kreeg je een ~25% boost naar non-TI, maar Nvidia heeft blijkbaar zijn strategie aangepast.
Nee klopt al was de 1080 wel ietsjes sneller en vooral zuiniger dan de 980 Ti (beide refferenced)
Maar 12nm is +- gewoon 14nm met tweaks dus dat kan je nu niet verwachten het is puur architectuur en daar hoef je ook geen grote stap te verwachten.

Ik denk alleen dat mensen nu meer winst verwachten dan we gaan zien (my 2 cents)

Voor de grote winst moeten we wachten op 7nm chips.
Was alleen interessant als je van Maxwell Ti naar Pascal Ti ging. Ik ben zelf van de GTX 980 naar de GTX 1080Ti gegaan en de performance winst op 2560x1440p is echt enorm.
Dat kwam dan ook door het verkeinen van het procedé. Van 28nm naar 16nm.
Architectuur bleef hetzelfde en dat was maxwell.

Nu heb je niet veel verbeteringen dus gaat de 2080TI maar zo’n 20/30% beter zijn dan een 1080TI helaas.
Dat is van non-TI naar TI :P Precies wat hij dus niet zegt...
Eerste zin. Van Maxwell Ti naar Pascal Ti was op zich wel interessant.

[Reactie gewijzigd door Gekke Jantje op 20 augustus 2018 11:58]

Maar dat is van Ti naar Ti het ging over 980 Ti naar 1080 of 1080 Ti straks naar 2080. Dat is gewoon geen interessante stap.
Ik zag "niet" niet staan. Beetje dubbelzicht door mijn lezen die niet meer goed werken tengen keratoconus.
Naja, een GTX980Ti doet 't zeer vergelijkbaar (alleen voornamelijk meer stroom) met een GTX 1070. Ik heb zelf nu een 980Ti en denk eraan om een goedkope 1080(Ti) op de kop te tikken na de nieuwe generatie. van 980Ti naar 1080 zit echt wel winst, idd omdat de architecture veranderd.
Ja dat is inderdaad een goede keuze maar ook alleen als je die prestaties echt nodig hebt. Als je op 1080p speelt heb je weinig aan een 1080Ti.
2560x1440 144Hz op 2 schermen, waarvan er dan op 1 gegamed wordt en de ander vooral twitch/yt heeft aanstaan. Dus vandaar. Voor 1080p is 't niet nodig idd.
Naja het verbruik is ook wel een stuk lager (980ti vs 1080) en dus een stuk koeler en/of minder lawaai.

Ik zou dan wel meteen voor de 1080TI gaan om het verschil echt te merken op het scherm (idd hoger dan 1080p en/of een 144Hz scherm). TDP is dan wel weer gelijk met de 980TI, maar dan wel een stuk flotter :)

[Reactie gewijzigd door watercoolertje op 20 augustus 2018 12:41]

De geruchten zijn jusit dat de 2080 40% beter presteerd dan de 1080ti. De 2070 gaat er net boven of onder zitten afhankelijk van welke geruchten je geloofd.
Gezien de specs gaat dat er bij mij echt niet in. De 2080 Ti gaat misschien 30% sneller zijn maar de 2080 zeker niet.
Van Nvidia kan je ook andere technieken verwachten dan alleen meer cuda cores & hogere clocksnelheid. Chroma compression heeft weer een upgrade gehad, tensor cores die ook andere zaken uitvoeren etc. De chip die is fors groter dan de voorganger.

Pascal zou met deze logica ook niet fors sneller moeten zijn dan Maxwell. Maar was dit wel.
De 2080 heeft minder CUDA cores. Is gemaakt op 12nm wat gewoon 14nm is alleen met wat optimalisaties maar niet kleiner. Clocksnelheid en andere optimalisaties kan zeker. Maar hij heeft minder geheugen bandbreedte als de 1080 Ti. TDP is 205watt wat een stuk lager is als de 280watt van de 1080 Ti. Hij zal wellicht in de buurt komen maar ik zie het niet direct gebeuren dat hij sneller is.

Tensor cores gaan denk ik niets doen voor games van vandaag de dag dat is meer iets voor de toekomst en cyrpto mining. RTX idem gaat weinig doen voor games die er nu zijn en verwacht het in de komende jaren nog niet echt in grote hoeveelheid terug te zien.

Pascal naar maxwell was en architectuur en 28nm naar 14nm dus chips werden veel kleiner en verbruik lager die stap maken ze nu niet want 12nm is gewoon een geoptimaliseerd 14nm proces. Ik verwacht zelf pas weer grotere winst zodra er 7nm chips komen.

Tijd zal het leren maar ik denk dat die 2080 net onder de 1080 Ti uit zal komen / gelijk presteert en de 2080 Ti er 30% boven zit. We gaan het binnenkort zien.
De presentatie is net geweest en dit mag er verwacht worden volgens de marketing praat. Fors betere performance dan de 1080ti

https://wccftech.com/nvid...-price-specs-performance/
Quote van Anandtech
Unfortunately, NVIDIA is already taking pre-orders here, so consumers are essentially required to make a “blind buy” if they want to snag a card from the first batch. NVIDIA has offered surprisingly little information on performance and we’d suggest waiting for trustworthy third-party reviews (i.e. us), however I have to admit that I don’t imagine there’s going to be much stock available by the time reviews hit the streets.
Kortom afwachten. Ze hebben alleen wat over de raytracing performance tov de vorige generatie gezegd. Maar daar hebben we nog weinig aan.

Gezien de specs en verbeteringen blijf ik bij mijn prognose dat de 2080 vergelijkbaar zal zijn met de 1080 Ti of er iets onder zit.

[Reactie gewijzigd door Astennu op 21 augustus 2018 00:42]

Per kloktik is 1.5x de performance gezegd. Denk echt niet dat de 2080 rond de 1080ti zit.
50% uplift is heel erg veel. Is misschien best case en zeker niet bij alle workload.
Ik moet dat echt eerst zien voordat ik dat ga geloven. Dat hij met Ray tracing sneller is weten we wel. Maar met gewone workload zo'n winst boeken bij gelijke clockspeeds en shader aantallen geloof ik echt niet.

Of ze hebben het over de 2080Ti op gelijke clocks tov de 1080Ti want dan tellen ook de extra shaders mee.
Je moet in dit geval weten hoeveel sneller hij is geworden bij gelijke clocks, shader counts en memory bandwith. Maar we gaan het zien ik denk niet dat we 50% winst gaan zien tov de Pascal kaarten. Eerder 35% gemiddeld met een uitschieter naar 50+% bij specifieke workloads.
Dat niet alleen de cuda cores zijn weer toegenomen.Bovendien gebruiken ze het nieuwe gddr6 geheugen, wat dus weer sneller is dan gddr5 of gddr5 x.Maar als ze sneller zijn dan hbm 2 dat weet ik niet.Leuke kaarten zijn het maar net zoals het typenummer onthult zal hij sneller zijn dan de 1080 ti.tenminste dat denk ik.

[Reactie gewijzigd door rjmno1 op 20 augustus 2018 13:42]

De TDP van de RTX 2080 zal denk ik rond de 205W uitkomen, de RTX 2080 Ti zit op 285W. Kijk maar naar de specificaties van de Quadro RTX 5000 die net als de RTX 2080 met een TU104 GPU komt.
De specificaties die PNY lekte zijn uiteraard AIB type kaarten die doorgaans een hogere TDP kennen.
We zullen waarschijnlijk de Founders kaarten gewoon zien met een 250W TDP.

We moeten overigens ook de performance verschillen vergelijken met de referentie videokaarten die ze uitbrengen.
Een nieuwe generatie reference videokaart vergelijken met een oude OC-AIB of een oude generatie reference kaart vergelijken met een nieuwe generatie OC-AIB geeft wel scheve verhoudingen in beoogde prestatiewinsten en performance per watt.

Zoiets als een 980Ti ver overklokken (wat bij Maxwell redelijk ging) zal natuurlijk teweeg brengen dat de prestatiewinsten van een reference 10-series kaart minder lijkt dan het is, terwijl het stroomverbruik hoogstwaarschijnlijk onevenredig hoog wordt met de 980Ti.
Dat terwijl een enkele 1080Ti referentie twee 980Ti referenties in SLI redelijk goed kan bijbenen op de enkele procenten verschil in marges. (natuurlijk heeft multi-gpu wel meer driver-overhead)

Maar goed, dat is hoe ik er tegenaan kijk.
Van wat ik begrijp is 35W van het TDP-cijfer afkomstig van de Type-C VirtualLink aansluiting die er op zit om toekomstige VR-headsets met 1 kabel aan te kunnen sluiten. Als je deze dus niet gebruikt scheelt het dus al 35W.
Klinkt niet heel logisch, TDP is het te koelen vermogen, als een externe headset 35Watt verbruikt dan komt die warmte ook niet op de kaart vrij en hoeft daar dus ook niet gekoeld te worden...
TDP is hitte niet stroomverbruik. als die 35 watt voor naarbuiten is gaat die ook niet in hitte omgezet worden op de die zelf en zal die dus ook niet in TDP verwerkt worden.
"Want als je nog geen 1080 Ti hebt is dit wel het moment om relatie goedkoop een 1080 of 1080 Ti "

Ik neem aan dat je 2de hands bedoeld....
Heb een aantal 1080Ti al een paar maanden op mijn wensenlijst staan. Yes... t.o.v. van begin van dit jaar, is de prijs (uiteraard) flink gedaald.
Echter t.o.v. de intro prijs van 2 jaar geleden zitten ze daar nog 10%-15% boven. Het valt dus nog wel mee met de 'relatief' goedkope kaarten
Ja 2e hands vooral. Nieuw is maar de vraag hoeveel voorraad er is en hoe de vraag is.
Als de 2080 en 2080 Ti nu beide uit komen verwacht ik wel dat de prijs van de 1080 en 1080 Ti in de winkel en vooral 2e hands een stuk zullen dalen.
En dat is dan interessanter dan een 2080 kopen. Voor Vega geld het zelfde. Die dalen nieuw niet echt maar 2e hands weer wel.
Ik heb op dit moment nog steeds de 4870x2 videokaart. Mijn gedachten gang was dan nu voor de 2080 Ti te gaan.

Is dit dan wel een slimme keus of nog steeds beter voor de 1080 Ti te gaan?
Ligt er aan wat je van plan bent. Gezien dat je een 4870X2 hebt doe je lang met je kaart.
Maar qua prijs prestatie verhouding zijn die 1080 Ti en de 2080 Ti in het bijzonder geen goede kaarten die zijn relatief duur.

Als je echt een goede deal wil kan je beter 2e hands een GTX 1080 of RX Vega kopen voor 400-450 euro. Best een kans dat die zodra de 20x0 serie uit is 2e hands op 350-400 euro zitten. En dat is al vele malen sneller dan die 4870X2 die je hebt.

Dat Ray tracing moet zichzelf eerst gaan bewijzen ik verwacht daar de komende 2-3 jaar weinig van. En als het dan komt heb je mogelijk de RTX 4xxx of 5xxx nodig die dan uit is om het soepel te draaien. Dus daar zou ik mij persoonlijk niets van aan trekken.

Persoonlijk ben ik ook niet echt happy met de bedrijfs voering van nVidia. Na die poging GPP er door heen te drukken ben ik wel goed klaar met dat merk en wil ik geen producten meer van dat merk. Dus ik blijf lekker door spelen met mijn RX Vega kaartje voor 1440P werkt dat meer dan prima. Nu maar hopen dat AMD in de komende 2 jaar wel een keer met iets komt wat een stuk sneller is :P

[Reactie gewijzigd door Astennu op 20 augustus 2018 11:38]

En toch is de prijs/TPD/kwaliteit verhouding van de GTX1080TI erg goed. Als je met AMD dezelfde performance wilt krijgen als een GTX1080TI zul je toch voor tweemaal een Vega56 in cross-fire moeten kiezen. Op het gebied van TPD heeft AMD helaas nog steeds problemen. Vaak doen vega kaarten terug klokken om te voorkomen dat de maximum TPD wordt overschreden.

NVidia kan inderdaad niet concurreren op prijs/kwaliteit alleen, maar NVidia heeft volgens de Steam statistieken ruim 70% van de gaming markt in handen.

AMD heeft dankzij de crypto mining hype eindelijk eens een paar kwartalen winst gemaakt en hopelijk stopt AMD dit in R&D voor de GPU. Op CPU vlak kan AMD gelukkig weer met Intel mee, maar het lijkt erop dat men nu weer moeite begint te krijgen om NVidia bij te houden..
Ik heb het ook meer tov de 1070 en de 1080.

Vega is even een geval apart en als je zuinig belangrijk vind moet je Vega gewoon tweaken want Vega kan best zuinig zijn alleen zoals AMD hem uitgebracht heeft (met een hoge v-core ook aanzienlijk hoger dan wat nVidia gebruikt) is het gewoon ruk qua verbruik.

Vega is eigenlijk ook ontworpen voor het Datacenter (deep learning) Polaris is de "game" architectuur. Verschil is dat nVidia meer geld heeft en dus de GP102, 104 en 106 als gaming architecturen heeft en de GM100 en GV100 als compute architectuur.

Navi wordt de volgende Game architecuut van AMD maar daar moeten we helaas nog even op wachten.
AMD richt zich helaas niet echt meer op de videokaart markt maar vooral Enterprise markt: EYPC en Instinct GPU kaarten en daar naast Semi Custom SOC's zoals die in de Playstation en Xbox One.
Als laatste komen gaming kaarten die wij gebruiken. Ze hebben het geld niet om alles te doen en in die andere markten kunnen ze wel goed presteren en winst maken dus logisch dat daar nu de focus op ligt tot dat het financiële plaatje weer beter op orde is.

De RX470/480 en 570/580 zijn niet zo zuinig als de 1060 maar zonder opgeblazen crypto prijzen waren ze qua prijs prestatie verhouding erg goed.
En natuurlijk de semi-custom Vega M GL en Vega M GH socs specifiek voor Intel laten ook wel zien dat AMD zich op een heel andere manier op de markt beweegt dan Nvidia. Waar Nvidia meer focust op direct verkopen van kaarten, levert AMD een heel ander product tegenwoordig. Daar kun je een eigen design videokaart incl. drivers aanvragen. De AMD architectuur is nou eenmaal zo flexibel.

Er komen zo ook nieuwe Kaby Lake G CPU's op basis van Navi.

[Reactie gewijzigd door fapkonijntje op 20 augustus 2018 13:08]

Ik denk dat een 1080ti meer op zijn plaats is, gezien hij hiervoor dus ook voor een kaart is gegaan die verre van de beste prijs/prestatie had (dat zijn dual kaarten nooit), schat ik dat daar zijn prioriteit niet ligt.

[Reactie gewijzigd door watercoolertje op 20 augustus 2018 12:45]

Mja als je er vervolgens zo lang mee gaat doen weer wel.
Dan kan je beter iedere 1-2 jaar 2e hands of nieuw last years prijs performance topper kopen dan elke 5 jaar het duurste.
zie mijn reactie op legendareN

stukje hieronder met meer achtergrond info :)
Heb je wel een degelijke PC dan? Want als de rest van je hardware net zo oud is als je 4870x2 dan heeft een nieuwe videokaart geen nut :P
Plan is om dit jaar alles langzaam te gaan upgraden. intel komt ook met nieuwe reeks uit, dus kan ik daar ook meteen aan beginnen.

heb nu een 3770K en had 2x een 4870x2 in crossfire. Heb er nu 1 uitgehaald.

Mijn idee is om nieuwe 2080Ti bijv. te halen en zodra Intel op de markt komt, daarvan te kijken welke het beste is en die te kopen, zodat je langzaam aan einde van jaar nieuwe machine hebt draaien.

Ik hoor alleen heel veel over dat nieuwe wat nvidia nu in de nieuwe reeks dropt, maar ik mag toch aannemen dat los daarvan deze kaart nog steeds sneller zal zijn dan de 1080Ti, want anders snijd Nvidia zichzelf heel hard in de vingers?

Dat wat nieuw is nog echt in kinder stoelen staat, snap ik, maar dat mag toch de performance van nu met ondersteuning niet beinvloeden lijkt mij?
Die CPU is opzich best prima en hoeft nog niet perse vervangen te worden zou nu eerder geld in een GPU steken dan in de CPU. Volgend jaar moet ook Ryzen 3 (Zen2) komen en dan barst de concurrentie op CPU gebied pas echt lekker los.

Qua GPU's is het momenteel een gelopen race. Ik verwacht dat AMD hooguit met een 12nm variant van Polaris op de proppen komt welke 15% sneller is als de 580. Maar dat is niet de markt waar jij en ik in shoppen.

De 2080 Ti is de kaart die je moet kopen als je sneller wilt zijn als de 1080 Ti echter zal die wel lekker aan de prijs zijn het is de vraag of je dat het waard vind.

De performance in huidige games zal gewoon goed en sneller zijn maar je zal weinig aan die Tensor cores of RTX hebben. Of je moet hele specifieke games/tech demo's of reken werk gaan draaien.
Persoonlijk zou dat voor mij geen rede zijn om zo'n kaart te kopen. De hogere prestaties tov de 1080 Ti wel (mits ik die nodig zou hebben).
Het is gewoon straks als de kaart uit is, kijken wat verschil is tussen de 1080Ti en 2080Ti kwa performance en wat prijskaartje gaat doen.

Dit is min of meer beetje advies ook wat je bedoelt of niet? :)
Ja inderdaad en dan kijken of je het de moeite vind.
Dat RTX en Tensor core gebeuren gaat over 2-3 jaar misschien iets doen. En de hardware die er dan is kan dat dan velen malen (mogelijk 5-10x) sneller dan deze eerste generatie die het krijgt.
Iedereen is vooral nieuwsgierig naar die nieuwe raytracing cores, maar ik heb in een van die uitgelekte foto's nog een interessant dingetje gespot...:
Latest AI Enhanced Graphics

Powered by NVIDIA Turing, Geforce RTX 2080 Ti brings the power of AI to games
AI Enhanced Graphics?
Ik begrijp dit niet.

Dit zijn IPRs. De partners zijn GPU renderers en 3D suites van meerdere honderden/duizenden euros in licenties. Dit zit morgen niet in Call of Duty 11 en het lijkt een beetje alsof ze gamers wijs willen maken dat IKEA folder realisme aan komt kakken met zo'n kaart.
Het idee is dat denoising ook naar games komt. Op dit moment is het nog iets voor grafische professionals, de benodigde hardware zat dan ook alleen nog maar in peperdure Volta gebaseerde kaarten. Kijk voor de grap maar eens onderaan die pagina naar de performance verschillen tussen Volta en Pascal, Volta is drie keer zo snel.

Mijn @mindcrash vroeg zich af hoe je met AI graphics enhanced, dus gaf ik hem een voorbeeld. Overigens heb ik een hekel aan het te pas en te onpas strooien met de term AI, die algoritmen hebben niets met intelligentie te maken; Machine Learning is een betere naam.

[Reactie gewijzigd door Omega Supreme op 20 augustus 2018 15:22]

Die AI wordt ook ingezet voor denoising van (sparse) raytraced schaduwen en reflecties in games.
Het zal meer een AI processing offload zijn van de CPU naar de GPU zijn. AI processing is op zich niet zo complex, maar je hebt wel veel te maken met een flinke data set. Dit is niet anders dan crypto mining op de GPU. Het berekenen van een hash is niet complex, alleen een GPU kan door de veel grotere hoeveelheid cores meer data binnen dezelfde tijdseenheid berekenen..

Men kan de AI bijvoorbeeld inzetten voor betere tegenstanders in single player mode. In een open sandbox game zou de game engine beter kunnen voorspellen waar je naar toe gaat en dus al efficienter delen van de wereld activeren zodat er een nog grotere variatie in de game play ontstaat..
Het zal meer een AI processing offload zijn van de CPU naar de GPU zijn.
Volgens nvidia gebruiken ze AI om artifacts weg te werken die een gevolg zijn vd "sparse" raytraycing tbv schaduwen en reflecties.
Dit verwijst vooral naar de Tensor Cores, die geschikt zijn voor deep learning, maar ook gebruikt worden om raytraced scenes te ''denoisen'', zelfde als met effecten. Ook hier geld, net als bij de RT Core, dat deze vooralsnog bedoeld zijn om gamedevelopers bekend te laten raken met deze nieuwe ''speeltjes''. Voor gaming blijft het vooralsnog beperkt tot een feature waar betere reflecties/schaduwen behaald kunnen worden.
LOL dat is een typische hyped woord verzonnen door de marketing boys van Nvidia, om het voor de gemiddelde consument begrijpbaar te houden.

In die zin heb we al AI enhanced graphics, flow control is daar een voorbeeld van https://developer.nvidia....2/gpugems2_chapter34.html

Net als keratine in shampoo, een verzamelnaam is van haar verbeter ingredienten waar keratine maar 0.1% van is.

Ik zou hier niet teveel van aantrekken

[Reactie gewijzigd door Turismo op 20 augustus 2018 17:02]

Waarom zou je een 1080Ti vergelijken met de 2080? Ik denk dat het prijspunt van de 2080 heel anders is.

Edit: sorry was een reactie op vectormatic.

[Reactie gewijzigd door @baddon op 20 augustus 2018 11:12]

Omdat een (x + 1)80 meestal sneller is (was?) dan een x80 Ti..
De 2080 zal ongeveer hetzelfde kosten als de 1080 Ti nu vandaar de vergelijking. Zou mij ook niets verbazen als hij in het begin duurder is als de 1080 Ti.
Volgens mij zijn de geruchten dat de 2080 een gemiddelde prijs van 100 euro minder zal hebben als de gemiddelde 1080Ti, maar goed dat zijn geruchten en nog geen waarheid. Dit was trouwens voor een niet founder kaart maar een MSI kaart. Ik ben bezig met het kijken naar een nieuwe pc te bouwen en voor mij is het ook de vraag wat nou interessanter zal zijn.

[Reactie gewijzigd door Rebelattack op 20 augustus 2018 15:18]

Een TDP van 285 watt voor een RTX2080ti, OC of niet dat beloofd nog wat voor de RTX2080ti. Wel een behoorlijke stap qua power requirement tussen deze en de vorige generatie. Verklaard dat dan ook wel de keuze voor een tweede reference cooler met 2 fans. Eentje met wat meer capaciteit dan de standaard.

-edit- En dan staat er ineens een ti achter in het artikel.

[Reactie gewijzigd door Case_C op 20 augustus 2018 11:36]

IK vraag me af of dit door de RT-Cores komen. Dit is iets wat op voorgaande kaarten niet zat. Ik vraag me af hoeveel stroom deze nodig hebben. Raytracing vraagt namelijk een enorme hoeveelheid aan calculaties gezien het elke lichts straaltje op de milimeter berekent. Waar het op reflecteerd, wat voor materiaal dit is, de kleur en waar het uiteindelijk land, dit per lichtstraal per lightsource in de scene.
Raytracing vraagt namelijk een enorme hoeveelheid aan calculaties gezien het elke lichts straaltje op de milimeter berekent.
RTX raytracing berekent juist niet iedere lichtstraal en niet met super hoge nauwkeurigheid, het is 'simplified'/'sparse' raytracing bedoelt voor schaduw en reflecties, niet voor full-scene raytracing. zie https://www.youtube.com/watch?v=lFnWy0Odsh8 (nvidia rep aan het woord)
Daarnaast zullen de raytrace cores allicht geen/weinig stroom trekken als die niet worden gebruikt zoals voorlopig in verreweg de meeste games.

[Reactie gewijzigd door BadRespawn op 20 augustus 2018 12:33]

Oh, RTX Raytracing is dus net wat anders, Ik nam aan dat het het zelfde was. En indd, dat denk ik ook ja, Ergens denk ik ook niet dat de kaart 285 TDP word. Nvidia is altijd erg goed met de TDP's maar ik weet ook niet hoe Turing is opgebouwd. Word afwachten wat het stroom verbruik is.

Even ter info, Hoe noteerd nVidia hun TDB, Ik heb in mijn hoofd zitten dat het met de Peak TDP gedaan word.. maar helemaal zeker weet ik het niet.
Het is nog steeds raytracing, alleen bedoeld om specifieke elementen te verbeteren die voor een raytracer appeltje eitje zijn (Reflecties, schaduwen), maar voor een rasterizer zoals een GPU ''hacks'' vereisen zoals een cubemap, of Screen Space Reflection.

Neemt niet weg dat dit voor games vooral een experimentele feature is. Wie er op gaat letten zal in games zoals Metro Exodus het verschil zien, anderzijds is dit vooral een hardwarematige variant voor de DXR API. Welke ook ''gewoon'' op je oudere kaart zal draaien. Dit zal dan gaan middels een DXR Fallback, een emulatielaag die raytracing ''brute forcet'' middels DirectCompute. Zie meer info: https://github.com/Micros...s/D3D12RaytracingFallback
Ah,op die manier. Ik vraag me af wat de performance verschillen zijn tussen kaarten zonder de cores en met. Het is niet geheel onvoorstelbaar dat dit alsnog een aardige belasting is voor kaarten die de cores niet hebben.

Het word wachten op Exodus en de benchmarks er op. ben erg benieuwd. Lijkt me ook leuk om te zien hoe bijv stealth games gebruik maken in gameplay elementen met deze technologie gezien het lijkt dat Ray tracing accurater is dan de traditionele methodes als het gaat om de reproductie van shadows
BoostClock heeft de DXR Fallback laag eens uitgetest. Als er primair van Raytracing gebruik wordt gemaakt, dan doet een GTX 1080 zon 70 mrays/s voor ''Primary Diffuse + Shadow Rays - http://boostclock.com/sho...k-layer-perf-preview.html. Dit is op 1080p. Dan kan je je natuurlijk afvragen wat RTX's ''Gigarays'' betekenen gezien met 6 respectivelijk 10 grays/s adverteren.

Neem bovenstaande ook niet gelijk als een feit over, DXR Fallback is immers nog zelf een prototype, maar dit geeft wel een kleine preview in wat men kan verwachten. Als Gigarays staat voor ''miljarden'' dan is het verschil immers enorm te noemen. Daarnaast doet een GTX 680 275 mrays/s voor alleen de Primary ray - http://khrylx.github.io/DSGPURayTracing/ dus veel zegt dit dus niet, behalve dan dat je kan afmeten wat de performance van DirectCompute in deze is :)

Raytracing biedt o.a meer waarheidsgetrouwe reflecties en schaduwen, maar dat is niet het enige wat RT kan. Dit zijn echter wel aspecten waarvan Nvidia (en ook AMD) denken dat dit nu haalbare kaart is om in games in te zetten.
Ik vraag me af of dit de optie bied tot een nieuwe variant van de wel bekende "Gebruik het als PysX kaart" Ik ben ook erg benieuwd hoe deze technologie de games veranderen. Ik hoop dat deze tech zich terug zal vinden in een aantal games die al geannounched zijn. zoals de nieuwe Dying Light en Cyberpunk 2077 voornamelijk. Hoogst waarschijnlijk niet als je kijkt naar de developing time die de games nog hebben. Daarnaast vraag ik me af hoe andere API's anders dan DX12 deze technologie kunnen gebruiken. Vulkan is (in mijn ogen) een van de betere API's en vind het erg jammer dat zover weinig games dit gebruikt hebben.

Ben ook erg benieuwd hoe mijn RX 480 Raytracing zal vinden. Het zal ook interesant zijn hoe VR game dev's dit zullen gebruiken. gezien je toch wel 90FPS minimaal moet halen. Bendankt voor de linkjes, erg informatief!
Dat zit er zeker in. Als Gameworks foefje zou RTX support helemaal niet raar wezen. Echter is het wel zaak dat men dan vermeld dat dit vooral geld voor RTX kaarten. De andere optie is dat men gaat benadrukken dat je dergelijke effecten ook op non-RTX kaarten kan krijgen (en AMD) maar dat dit dan zal gebeuren via DXR Fallback. Aangezien dat PR technisch de ''voordelen'' van RTX te niet doet, zie ik de eerste optie als meest aannemelijk :)

AMD heeft een vergelijkbaar iets lopen met Radeon Rays. Deze doet zijn werk op OpenCL en is onderdeel van GPUOpen. Of het 1 op 1 hetzelfde werkt kan ik niet gelijk zo 123 zeggen - https://gpuopen.com/gaming-product/radeon-rays/ al wordt in het geval van Nvidia RTX wel gesproken over Vulkan support.

Betreft je RX480: Volgens Boostclock is de RX580 (Zeer vergelijkbaar) in staat tot 33 mrays/s voor Primary Diffuse + Shadow Rays onder DXR Fallback - http://boostclock.com/img...ts/dxr-fb_sponza_diff.png. Ook hier geld dat dit met een korreltje zout te nemen is, want onder Radeon Rays behalen ze dan weer andere resultaten :)

VR Raytracing zal wel een lastige kaart worden, al is het maar inderdaad vanwege de hoge verversingsnelheid die je moet behalen. Daarnaast zal het verschil beperkt blijven tot dingen waar RT vanouds sterk in is: Schaduwen, Reflecties. Gezien de hogere frameratevereisten (En het gegeven dat RT nu 360 graden gerenderd moet worden?) zie ik deze ontwikkeling als iets voor de toekomst :)
Misschien een tikje voorbarig, aangezien we niet weten wat er kwa architectuur is veranderd, maar:

1080Ti vs 2080, de oudere kaart heeft ~ 16% meer cores en levert maar pakweg 8% boostclock in, en wint het op bandbreedte met bijna 10%

Gaat de 2080 dan niet gewoon merkbaar langzamer zijn dan een 1080Ti? Valt me nogal tegen
Dat is dan waarschijnlijk ook de reden dat de 2080Ti direct uitkomt. Omdat 1080Ti eigenaren dan een reden hebben om te upgraden, zoals het in voorgaande jaren ging. Toen was de nieuwe 80 sneller dan de vorige generatie 80ti, zodat men de nieuwe 80 ging kopen en paar maanden later weer de 80ti.

Grote kans dus dat de 2080 langzamer is dan de 1080Ti en men daarom meteen de 2080Ti uitgeeft..
Zou het dan niet logischer zijn om de 2080Ti 2080 te noemen en de 2080 2070?
Alleen als ze nog een stukje spannender silicium in de pijnlijn hebben zitten om als 2080Ti te verkopen, anders krijg je meteen geruchten over problemen bij nvidia etc...
Of ze willen mensen eindelijk een goede reden geven om een Titan te kopen
anders krijg je meteen geruchten over problemen bij nvidia etc...
Als de 2080 iets trager of zelfs maar even snel is als 1080Ti is dat ook niet om trots op te zijn.
Maar dat en vergelijkbere problemen (eerder al meer tijd nodig dan voorheen tussen opeenvolgende process steps, en recenter Intel's 10nm) zijn symptomen dat de hele industrie een beetje tegen de limiet van de wet van Moore begint aan te lopen.
Dat hebben ze aangezien ze we een paar honderd units afgehaald hebben en de geheugen bus geknepen hebben.
Nee want dan kunnen ze er bij Nvidia niet genoeg geld voor vragen.
Ik ben ontzettend blij met de "verdwijning" van reference design kaarten.
Een hoop kaarten gehad en ze waren allemaal luidruchtiger dan met aftermarket koeling.

Deze lijkt stiller op basis van het 2 fan design en ik vind het wel wat hebben! :)
Ik ben zelf altijd groot fan van refferenced AMD en nVidia kaarten. Ja blowers zijn luidruchtiger maar in kleine kasten zoals ik nu zelf gebruik erg handig om die hete lucht mooi naar buiten te brengen. Een dual of tripple fan kaart werkt in mijn kast erg slecht en maakt ook heel veel herrie.

Dus blowers hebben zeker hun nut. Al zullen de meeste gamers en tweakers wel een grotere kast hebben.
Blower fan's zijn tot nu toe ook betrouwbaarder gebleken omdat die wel ball bearing fan's hadden en veel Dual fan kaarten hadden dan sleeve fan's die bij intensief gebruik snel kapot gaan. gelukkig kom daar bij de duurdere kaarten nu wel verandering in maar dan heb je ook een ander prijs kaartje.
22% meer CUDA cores en 27% meer geheugen bandbreedte voor de 2080Ti tov de 1080Ti dus. Best flink, ben erg benieuwd naar de andere optimalisaties en natuurlijk de nieuwe (raytracing) functies!
ikzelf vind dit ontwerp voor de founders edition niet zo mooi. ik vond het shard-achtige ontwerp van de vorige generatie wat mooier. dit is gewoon zo.. saai.
Mee eens! Het lijkt gewoon een doos met twee ventilatoren, alsof er totaal geen moeite in is gestopt. Wellicht is dit een fake/impressie van een artiest. We zullen het zien :)
Eh.. zo hoort het eigenlijk ook eruit te zien wat mijn betreft. Laat ze de inspanningen (gelduitgaven) voor het design liever gebruiken voor prestaties of om de kaarten goedkoper te maken. Een videokaart zit (hier althans) toch in een kast. Sinds best veel PC kasten kermis geworden zijn bestempel ik mezelf maar als van de vorige generatie die doorgaans nog niet zo om toeters en bellen gaf. Natuurlijk zijn er PC bezitters die het uiterlijk van de PC kast erg belangrijk vinden, maar er bestaan ook nog steeds mensen die er gewoon geen drol om geven. Vandaar dat deze reactie ook gewoon een goede reactie is.
Uiteindelijk vind ik de kaart er prima uitzien, nadat ze een fysiek exemplaar hebben laten zien. Afwerking ziet er namelijk van hoge kwaliteit uit.
Zelf geef ik de voorkeur aan een strak/minimalistisch ontwerp. Iets hoeft niet een "kermis" of veel "toeters en bellen" te bevatten om eruit te zien als een mooi en doordacht ontwerp. Een mooier ontwerp hoeft niet veel meer te kosten dan een lelijke, dit spreek ik uit ervaring als industrieel ontwerper. Maargoed, er zullen genoeg andere koelers komen van de board partners.
Het argument dat sommige mensen geen drol geven om hoe het eruit ziet is niet echt overtuigend. Als je het toch niks kan schelen, kun je het beter mooi maken. Dan pak je immers ook de mensen mee die wel om dergelijke dingen geven.
ikzelf vind dit ontwerp voor de founders edition niet zo mooi. ik vond het shard-achtige ontwerp van de vorige generatie wat mooier. dit is gewoon zo.. saai.
Het is vanwege die focus op het uiterlijk van PC hardware dat bijna alle consumenten mobo's VRM- en chipset koelers hebben die er zgn leuk uit zien maar wel minder goed koelen.
Mooie specificaties, maar zonder benchmarks weten we nog maar vrij weinig. De benchmarks zullen pas echt duidelijk maken wat deze nieuwe Turing-architectuur en Ray Tracing gaat betekenen.
Nu betreffen het hier alleen nog de NVIDIA Quadro RTX kaarten die er aan staan te komen, en dus niet de GeForce consumenten serie van deze nieuwe generatie kaarten, maar goed. In elk geval een goeie ontwikkeling om te zien dat ze voor de consumenten uitvoering van deze nieuwe generatie, voor twee fans koeling gekozen hebben, in plaats van een enkele fan, wat het toch weer wat weard maakt dat ze voor de Quadro uitvoering wel voor een enkele gekozen hebben. Anyhow, Ik heb zonet in elk geval nog even een twee paar foto's op mijn Google drive geupload, voor de mensen die dit wellicht op een telefoon bekijken, aangezien de info op deze foto's rechtstreeks uit de video's hieronder komen, en dus ook daar te zien zijn.

- NVIDIA RTX - Cinematic Real-Time Ray Tracing in actie video.

- World's first Nvidia ray tracing GPU = Quadro RTX foto.

- Nvidia's ray tracing GPU video = Greg Estes describes highlights of CEO Jensen Huang's SIGGRAPH 2018 presentation, where he unveiled the NVIDIA Turing GPU architecture and NVIDIA Quadro RTX, the world's first ray-tracing GPU.

- Prijzen van deze Quadro RTX kaarten = foto.
:)

[Reactie gewijzigd door SSDtje op 20 augustus 2018 12:21]

10k 🤔😂

Flinke investering als bedrijf

[Reactie gewijzigd door Bjorn89 op 20 augustus 2018 15:09]

Jep, en ben dan ook benieuwd naar wat de consumenten uitvoering van deze nieuwe generatie gfx kaarten gaan kosten, en ik ben daarin vast niet de enige die hier benieuwd naar is. Mede aangezien deze Quadro kaarten altijd zo enorm duur zijn, door de enorme hoeveelheid een video geheugen waarvan deze zijn voorzien, in vergelijking tot de consumenten versies. Maar goed, wat de prijs van de consumenten uitvoeringen gaat zijn, blijft dus nog even afwachten, jammer maar helaas.

[Reactie gewijzigd door SSDtje op 20 augustus 2018 15:39]

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True