Afbeeldingen van GeForce RTX 2080 Ti en RTX 2080 van MSI verschijnen online

VideoCardz heeft afbeeldingen gepubliceerd van de MSI GeForce RTX 2080 Ti Gaming X Trio en de GeForce RTX 2080 Gaming X Trio. Kaarten van andere fabrikanten zouden maandag verschijnen, de dag waarop ook de voorverkoop van start zou gaan.

De GeForce RTX 2080 Ti Gaming X Trio heeft, afgaande op de gepubliceerde afbeeldingen, 11GB gddr6-geheugen, drie ventilators, twee achtpinsvoedingaansluitingen en een backplate die de indruk van geborsteld aluminium geeft. Aanwezig zijn verder de nieuwe VirtualLink-connector met type-c-aansluiting en NVLink. Het is opvallend dat nu al een afbeelding van de Ti-versie van de komende kaart verschijnt. Voorheen verschenen de Ti-modellen ruim na de eerste generatie videokaarten.

VideoCardz toont daarnaast een afbeelding van een MSI GeForce RTX 2080 Gaming X Trio. Deze kaart heeft volgens de doos 8GB gddr6. De site meldt dat maandag meer RTX 2080-kaarten met eigen koeling van Nvidia-partners verschijnen. Ook dat zou opvallend zijn. Bij de laatste paar generaties videokaarten bracht Nvidia eerst zijn eigen Founders Edition-modellen met referentiekoeling uit. Videocardz heeft een goede naam wat het vroegtijdig publiceren van videokaartafbeeldingen en -specificaties betreft.

Volgens de Zweedse site Nordic Hardware is het vanaf komende maandag al mogelijk pre-orders te plaatsen voor RTX 2080-kaarten. De site zou dit bevestigd hebben gekregen bij webwinkels. De prijs zou tussen de 7000 en 8000 Zweedse kronen komen te liggen, omgerekend tussen 668 en 763 euro. Nordic Hardware heeft het over de RTX 2080, niet over de Ti-versie.

Update, 16.30: Ook de afbeeldingen van RTX GeForce 2080-kaarten van Palit staan online bij Videocardz.

Videocardz MSI RTX 2080 (Ti)Videocardz MSI RTX 2080 (Ti)

Door Olaf van Miltenburg

Nieuwscoördinator

17-08-2018 • 14:24

205

Submitter: Denzo

Reacties (205)

205
200
119
14
2
57
Wijzig sortering
Het is duidelijk dat Nvidia en AMD een andere blik op de toekomst hebben:
- Nvidia target state-of-the-art tech. Met de RT Core's, Tensor Cores.. AMD heeft veel ''firsts'' gehad, en ook hybride rendering met rasterization en raytracing is niet iets nieuws (Zie daarvoor Imagination's Wizard) maar Nvidia brengt het nu wel naar de consument. Zij mikken erop dat het verschil in performance het introduceren van deze nieuwe tech rechtvaardigt, en met een bijbehorend prijskaartje. Vreemd is dat immers niet, want wat heeft AMD daar tegenin te brengen? De RTXen zullen dus qua performance ook bij deze kaarten sowieso de overwinning behalen.

Boeidender zijn de GTX 20xx kaarten die daaronder vallen. Daar heeft AMD nog wel wat te zoeken, en kan dan verwijzen naar zijn bestaande Vega/Polaris line up. Daar staat dan tegenover dat AMD deze kaarten waarschijnlijk goedkoper kan maken/krijgen daar deze al wat langer uit zijn. In dat segment heeft AMD nog wel een slag om te leveren.

- Dan de positie van AMD zelf. Die (lijken) veel minder gericht op het leveren van de top-end GPU's. Zij hebben immers nog geen RT Cores, laat staan Tensor Cores, maar trachten met Radeon Rays en het GPUOpen initatief een goedkoper (leest: Softwarematig via DXR en open source?) alternatief voor elkaar te boksen. Daarnaast heeft AMD wel weer de beste kaarten als het GPU integratie gaat: De Ryzen's met Vega GPU's bieden zeer sterke prestaties voor een IGP, en werken zij ook met Subor aan een nieuwe SoC voor consoles, naast de al bestaande consoles die van AMD hardware gebruikmaken. Dit zijn allemaal gaming applicaties waar Nvidia een veel kleinere krent in de pap heeft. Zij bouwen immers geen APU's en hebben in deze markt alleen de (zeer populaire) Nintendo Switch waar ze tech aan leveren.

Zoals ik het zie kijken zowel Nvidia als AMD naar andere delen van de vijver en zitten ze (Vooralsnog) niet zozeer in diens vaarwater (Diens focus, bedoel ik dan) Puur op GPU gebied heeft Nvidia echter wel de tech kroon in handen, AMD's hardware is echter wel op veel meer spullen te vinden. En over een kleine 2 jaar zal Intel ook zijn intrede doen. Het wordt dan boeiend om te zien wat Intel's strategie gaat worden. Zullen zij net als Nvidia meer gericht zijn op nieuwe tech, of net als AMD gericht om hun hardware over een breder scala apparaten beschikbaar te maken? Arctic Sound GPU in een NUC, bijvoorbeeld. De tijd zal het leren.
Dat raytracing etc is leuk en aardig, maar natuurlijk niet in onze voordeel als Nvidia net als gameworks gaat implementeren om AMD te benadelen. Zelfde met G-sync.

Is ook leuk dat ze met tensor cores etc Komen, maar er is maar 1 spel die met raytracing zal uitkomen, en vooralsnog maar 1 game-engine met raytracing ondersteuning (unreal engine).

We zullen de komende jaren niet veel merken van raytracing etc. Het is vooralsnog alleen de 200x serie die het ondersteunt.

Als dit de kant op gaat van gameworks, zie ik het niet echt goed aflopen.

https://www.google.nl/amp...ameworks-controversy/amp/

https://www.google.nl/amp...ection-and-price.amp.html
Absoluut. De raytracing waar Nvidia nu mee komt via RTX is natuurlijk niet het principe van een gehele scene raytracen. Dat is ook domweg ook gewoon een te duur kostenplaatje op dit moment. Maar wat wel kan (en wat Nvidia nu als zodanig market) is een Hybride Rendering Model. Oftewel, dat Rasterization en Raytracing deels met elkaar gaan samenwerken. Dit omdat bepaalde aspecten van raytracing, zoals reflecties, Nvidia nu van denkt dat deze in games gebruikt kunnen worden zonder dat we meteen een slideshow krijgen. Vandaar de RT cores.

Dit bekent niet dat gelijk alles maar via raytracing zal worden gedaan. Bepaalde aspecten van raytracing, de dingen die je dan weer in films ziet, zijn van een dermate complexiteit dat dit nog veelste veel een performance penalty oplevert. Dat is nog steeds de toekomst. Maar dat stukje ertussen in, namelijk die aspecten van RT gebruiken die relatief gezien goed scalen op performance, dat is nu wel een mogelijkheid. En dat is nog steeds een flinke evolutie in hoe men dingen kan renderen, in real time dan he. :)

Zoiets als Metro Exodus zal ''gewoon'' uit rasterization bestaan, met een aantal aspecten de mogelijkheid om RT op toe te passen. Voor het totale plaatje zal het effect minder zijn, maar voor (veel accuratere) reflecties bijvoorbeeld, is het wel een optie. En dat zal dan prima kunnen op een RT Core.

Voetnoot: Dat Nvidia nu speciale RT cores heeft (Wat, van wat ik er van heb begrepen vooral een Turing SM met extra ASIC hardware is) betekent niet dat alleen Nvidia dergelijke raytracing effecten kan en zal ondersteunen. Ook AMD en Intel (Met driverssupport) komen in dit verhaal voor, hetzij dat het dan zal gebeuren via DXR, dus via de streamprocessors van die kaarten (AMD zal dat dan doen via Radeon Rays, maar dat is dan stream processor based volgens mij). Deze oplossing zal minder effectief logischerwijs wezen dan een aparte RT core, en je zal ongetwijfeld ook met lagere kwaliteit raytracing gaan werken, maar het kan wel. Al zal de performance penalty een stuk meer zijn tov dedicated hardware.
Mooi verhaal (geen sarcasme :)), maar in het kader van de laatste alinea verwijs ik je door naar PhysX dat je nu ook nog slechts in een handvol titels tegenkomt. Je kán er hardware voor bouwen maar dat kan de concurrentie niet, en dus wordt het daar effectief nooit gebruikt, tenzij het om CPU PhysX gaat en dat is van een andere orde - raytracing op de CPU gaat 'm sowieso niet worden.

Kortom, dat hele raytracing kun je de komende jaren lekker links laten liggen. Dit wordt pas interessant als het in de gehele stack en dan met name de midrange hardwarematig en breed ondersteund wordt. Tot die tijd probeert Nvidia met Turing een GPU te verkopen die weinig te bieden heeft op dit moment tov Pascal - zeker gezien het prijskaartje tov een 1080ti. Ook het 'gericht' raytracing van een specifiek element in een scene zie ik niet echt iets opleveren. 100% gimmick zonder enig 'voordeel' op grafisch gebied tov bestaande methoden. Ondertussen zijn we nu vanaf 2016 hetzelfde aan het betalen voor dezelfde performance en deze Turing x80 release doet daar nog een jaartje bovenop. Nul vooruitgang voor hetzelfde geld - nouja, misschien win je eens 10-15%. Poeh... Dat is ongekend in GPU-land. Jij zegt dat AMD nog meedoet in de midrange... ik stel daar tegenover dat ze ondertussen alle marge verloren zijn op dat segment, want die prijs moet drastisch omlaag om nog interessant te zijn. Polaris is te oud en Vega is sowieso al te duur om te maken. Er staat slechts een vaag verhaal over een Vega shrink op de roadmap (niet per definitie een Turing-killer, lijkt me zo...) en van Navi hebben we in de verste verte nog niets gehoord of gezien.

Nvidia heeft inderdaad aan de concurrentie gedacht, namelijk door ze per definitie op achterstand te zetten qua efficientie. Dat is precies de manier waarop Nvidia de slag met AMD heeft gewonnen: op efficientie. Efficientie van het gebruik van z'n CUDA cores maximaliseren om zo kleinere GPUs te produceren die meer uit een shader persen dan de concurrent. Efficientie in VRAM gebruik om zo met een smallere bus en dus lager verbruik meer over te houden voor de 'core'. Enzovoort.

Kortom als de concurrentie hier in trapt zijn ze wel een stuk dommer dan ik ze had geacht te zijn. Not gonna happen. Voor een ander vergelijk: Tesselation. Ook 'duur' en ook ondersteund door hardware. Zodra raytracing de status van tesselation nu heeft qua ondersteuning, dan praten we weer verder.

Verder heeft de huidige ray tracing ook op grafisch gebied nog niet veel te bieden. We hebben wat matige tech demo's gezien en een Metro demo die... nou ja heel eerlijk? ....er echt niet beter uit zag dan z'n voorgangers.

Maw trap er niet in :) Lekker afwachten tot er een x80ti uitkomt en de prijzen naar de huidige Pascal-maatstaf dalen, anders ben je geld aan het verbranden. Vergelijk louter op de performance versus de Pascal line-up want die Tensor Cores voegen niets toe.

[Reactie gewijzigd door Vayra op 30 juli 2024 18:54]

Maar ik heb dan ook niet over Raytracing op de CPU :P Het gaat hier om raytracing:
- Oftewel middels een RT Core van Nvidia Turing (Wat dan via Nvidia RTX gaat werken)
- Oftewel middels CUDA/GCN cores via de DXR API. Dit gaat middels een Fallback laag (Ook wel DXR Fallback genoemd) - https://github.com/Micros...s/D3D12RaytracingFallback. Dit is weliswaar nog in een prototype fase, maar stelt bestaande hardware in staat om toch te raytracen - Hetzij dan via CUDA/GCN cores. Beter dan helemaal niks dus, maar de performance penalty zal wel navenant hoger liggen dan een dedicated RT core :)

Betreft je verhaal over ''gericht raytracen'' - Futuremark werkt op dit moment aan een DXR benchmark die dit zal aantonen. Tuurlijk, het ''nut'' van selectieve RT effecten zal in het begin weinig opleveren (Leuk, die reflecties in Exodus die alleen maar op relatief hoge res werken op een RTX 2080!) maar op het gebied van technologische vooruitgang, is het wel een sterke verbetering. Nu kan je reflecties krijgen die ''alle'' omgevingdata meeneemt, ipv een shader-gebaseerde ''emulatie''. De fysieke accuratie zal domweg een stuk beter wezen, en het is ook een aspect van Raytracing wat een ''haalbare'' kaart is, wellicht zelfs op DXR Fallback (Zodat je Titan X ook niet volledig nutteloos is voor dat doel ;)) Dus een ''voordeel'' is er zeker te vinden, maar alleen als je goede ogen hebt ;) Voor 99% van de gamers zal het vrij weinig opleveren.

Dat gezegd hebbende, is het natuurlijk nog wel een proefballon om raytracing ''gemeengoed'' te laten raken binnen games. Daarbij focussen op de wat ''simpelere'' aspecten van raytracing die voor zijn principes doodmakkelijk te doen zijn (Accurate reflecties) maar een rasterizatie''hack'' vereisen zoals cubemaps of SSR is dan een leuke optie om mee te experimenteren, zeker als er dan hardware beschikbaar is die dat ''native'' kan versnellen of via een DXR Fallback kan worden geemuleerd op de huidige generatie kaarten. Het is kortom meer een experimenteerdoos van effecten dan dat je het gelijk grootscheeps in games zal gaan zien.

Met ''midrange'' denk ik zeker aan de huidige Vega cores. Deze zijn immers al een tijdje op de markt en kunnen daarom ook goedkoper verkocht worden. Ik denk dan inderdaad aan een die-shrink, maar ook een price cut behoort tot de mogelijkheden. Zoiets zie ik wel opboksen tegen een GTX 2060 (Welke, mocht het gerucht waar zijn, dan aardig in de buurt zit van een Vega 56). En die heeft waarschijnlijk niet dergelijke RT/Tensor hardware aan boord. AMD zou hier dan op kunnen inspelen door zijn Vega lijn (ook de oudere kaarten!) een pricecut te geven. Dat is dan mooi voor gamers, want die kunnen dan voor minder geld 1080p/1440p gaming mogelijk maken.

Ik begrijp niet geheel wat je bedoelt over het gedeelte betreft ''concurrentie''. Je kan aan de andere kant namelijk ook stellen dat AMD zeer efficient is met zijn integratie van Vega graphics op hun APU's waardoor zelfs budget gamen op 1080p een haalbare kaart wordt (Nou ja, geen echte kaart natuurlijk lol). Zoals gezegd, dat zijn de verschillende stukjes vijver waarin men vist.

Betreft je laatste stukje dat je ''raytracing op grafisch gebied niks heeft te bieden'' ben ik het mee oneens. Tuurlijk, de Metro demo liet weinig verschil zien, maar dat is nu het hele hebben met wat men nu probeert. Voor de meerderheid is het ''verschil'' nog niet geheel waarneembaar. Maar op bepaalde aspecten (Zoals reflecties) is het wel te merken. Hetzij dat dit met een flinke penalty komt (als je het via DXR Fallback doet) of dat je er RTX hardware voor nodig hebt om die effecten te ''denoisen''. Het zit hem dus vooral in de ''details'' en dat is bij games vooralsnog niet heel erg belangrijk. Vandaar dat het dus optioneel raakt. Zoals gezegd, een experimenteerdoos. ;)
Het idee dat AMD in een andere vijver vist blijft hier hardnekkig terugkomen maar dat is echt grote onzin. Men haalt dan Polaris erbij als een 'goed voorbeeld' maar vergeet gemakshalve dat het merendeel naar mining is gegaan en daarna was er bijna geen RX580 meer te krijgen, en iedereen ging inmiddels voor een 1060 die wel beschikbaar maar ook te duur was (maar: zuiniger, stiller, en met een OC even snel/sneller).

Zodra je niet meer meespeelt op het topsegment sta je op achterstand. En elke dag die verstrijkt wordt die achterstand groter. Waar is die vijver dan? Het marktaandeel daalt nog steeds en is armzalig laag, óók ten opzichte van Intel's aanbod... want ondanks al die gaming-georienteerde APUs is het overgrote merendeel toch echt nog altijd een Intel iGPU. De vijver waarin AMD succes heeft is niet de Ryzen 2xxxG maar de gewone versies. CPU dus. Puur en alleen.

Dat Vega nu op APU-niveau mee kan doen is leuk, maar heeft met 'gaming' en zeker met raytracing ontwikkeling helemaal niets meer te maken. Dan zou Intel ook al jaren 'meedoen' en we weten dat dat buiten een beetje Candy Crush niet het geval is.

De eisen voor 1080p gaming blijven stijgen en zelfs met Vega is het nu 'net te doen'. Leuk, maar het brengt gaming niet verder. Daarvoor heb je nu alleen Nvidia die met gespecialiseerde hardware klaarstaat met het nieuwste, en dat is niet voldoende. Wat we van AMD moeten gaan zien is een nieuwe architectuur. Zolang dat niet het geval is, is het een sterfhuisconstructie. En als je een energieslurpende Vega core tegenover een 2060 gaat zetten... ja. We gaan zien hoe een prijsverlaging ze gaat helpen maar eigenlijk weten we het al: kijk naar de afgelopen vijf jaar en hoe het AMD vergaan is met al die rebrands en prijsverlagingen. Het is uitstel van executie.

Maw ik zie het landschap zo snel niet veranderen ten gunste van een voorspoedige ontwikkeling van raytracing in games.

[Reactie gewijzigd door Vayra op 30 juli 2024 18:54]

Ik zal het verduidelijken:
- Met ''andere vijver'' heb ik het over de console markt, de APU's, de Subor SoC, zelfs Intel's Kaby G. De ''focus'' ligt elders. Dit zijn aspecten waar Nvidia veel minder in bezig is, op Nintendo's Switch na dan. Andersom is AMD veel minder bezig met de top-end hardware aan de man brengen, maar meer met hun technologie op meerdere platformen beschikbaar te maken (zoals hierboven genoemd). Het Polaris voorbeeld volg ik dan ook niet in deze context, want die ging daar immers niet over. :)

- Zie bovenstaande over de vijver. Wellicht dat je hier in de oorspronkelijke post overheen hebt gelezen?

- Ik heb niet beweerd dat Vega APU's iets met raytracing doen en het verwondert mij dat een dergelijke conclusie wordt toegewezen. Vega hardware heeft immers niks van doen met raytracing, dus waarom deze opmerking wordt gemaakt? :?

- Dat Vega APU's niks met gaming ontwikkeling te maken hebben ben ik het niet geheel mee eens. Digital Foundry heeft o.a aangetoond dat de 2200G/2400G prima speelbare framerates kunnen neerzetten in games (op 1080p zelfs), als er maar van snel geheugen gebruik wordt gemaakt. De 2200G is dan met zijn 99 dollar een koopje voor entry-level gaming op een laag budget. Dat is mijn inziens ook de achterliggende gedachte achter dergelijke APU's, maar correct me if i am wrong :)

- Ik denk wel dat highend Vega's nog wel redelijk mee zullen komen met de GTX 2xx midrange, maar het is wel duidelijk dat AMD op dit moment geen alternatief bied voor zelfs een GTX 1080Ti laat staan een RTX 2080 Ti. Dat is voor AMD nog niet eens zo dramatisch gezien ze hun ''winst'' op andere vlakken boeken (Zie de vijver) maar het zorgt er wel tevens voor dat Nvidia steeds meer een alleenrecht gaat krijgen op de top-end markt. Dat ''alleen Nvidia'' nieuwe innovaties mag introduceren. Dat moeten we niet willen, maar het betekent niet gelijk het einde van AMD als zij de top-end markt gaan laten liggen voor wat het is, imo.

- Je afsluitende opmerking kan ik niet linken met wat je daarvoor zojuist hebt gezegd. Zoals gezegd is raytracing op dit moment meer een blokkendoos dan dat het meteen gemeengoed gaat worden in gaming. Middels DXR Fallback biedt het zowel Nvidia/AMD de mogelijkheid om alvast dingen uit te testen, waarbij Nvidia dan met zijn Turing hardware dergelijke effecten hardwarematig kan versnellen. Meer dan dat is het ook niet op dit moment: Het zijn experimentele features die voor de gamer mogelijk worden als ze daar behoefte aan hebben (tegen oftewel een performance penalty oftewel vereist RTX hardware) :)
Connect the dots. We hebben het over Raytracing en algemene ingebruikname binnen games. We hebben het over de spelers in de markt die iets met raytracing kunnen gaan doen.

Ondertussen doet er maar één speler écht iets met raytracing en van de andere hebben we nog niets gehoord. En staat er ook niets op de roadmap dat wijst op hardware voor raytracing. Kortom: dit blijft niche en er staat niets te gebeuren dat dat veranderen zal. We zijn het daarover denk ik wel eens. Dus alle mooie beloften en experimenteermogelijkheden ten spijt gaan we weinig van raytracing zien. De hele technologie wordt pas interessant zodra meerdere spelers op de markt dit gaan ondersteunen en ook goed kunnen benutten. Dat is nu met een DXR implementatie natuurlijk totaal niet zo, en als je al geen snelle kaarten meer kunt uitbrengen maar blijft pielen in de 'midrange' (wat een generatie later low-end wordt...) dan is er ook echt geen performance over om DXR te gebruiken.

Gaming = gaming of dat nu op een console gebeurt of op een rottig laptopje met een igp of een dikke gamebak met 1080ti. Het is dezelfde content. AMD gebruikt dezelfde technologie voor alle gaming-gerelateerde producten. Dus in het kader van raytracing zijn er geen 'vijvers', er is maar één. Het is hetzelfde als wat er met VR gebeurde: doordat alleen de high end er uberhaupt maar een speelbare ervaring uit kan trekken, slaat het niet aan. Dat gaat met raytracing ook gebeuren, het wordt al snel een gimmick.

[Reactie gewijzigd door Vayra op 30 juli 2024 18:54]

- Tuurlijk blijft Raytracing een niche, al wilt Nvidia dat PR technisch graag uitbuiten (En daar hebben ze ook alle recht toe). Ik zie het al gebeuren dat die leuke effecten in Exodus vooral het beste gaan werken op RTX hardware, wat ook niet onlogisch is daar 4A een samenwerking met Nvidia is aangegaan.

Wat dat betreft is alleen maar goed dat een dergelijke optie op korte termijn ''beschikbaar'' wordt. Dat betekent niet dat je het ''moet'' gebruiken of dat je er geen performance voor hoeft in te leveren (Want dat is een gegeven) maar het gegeven dat die optie (voor games) er is, is al bijzonder genoeg.

- Wat betreft DXR Fallback: Er valt nog bijzonder weinig te zeggen over de ''performance'' van kaarten die geen hardwarematige raytracing ondersteunen. Ikzelf verwacht dat als je al met ''brute force'' iets kan bewerkstelligen (Want GPU's zijn niet geweldig voor RT, maar ook niet geheel bagger) dat dit dan op een lagere kwaliteit (Sample count) en ook op resoluties lager dan 1080p zal zijn. Raytracing, zelfs de aspecten die met een RT Core ''haalbaar'' zijn, blijft gewoon zeer zwaar voor de meeste setups. Desalniettemin zal het wel zeer interessant zijn om te zien hoe DXR Fallback presteert op huidige top-end kaarten ;)

- Ik heb het dan ook niet over raytracing wanneer ik over ''vijvers'' spreek, ik heb het dan over de marketing focus van Nvidia en AMD in het algemeen. Ik dacht dat dit redelijk duidelijk was in mijn allereerste post :)
Vraag is of HBM ook noemenswaardig goedkoper is geworden. Idem voor het monteren van alles op zo'n MCM.

Nvidia loopt rond die kosten (en complexiteit) heen door voor consumentenkaarten van GDDR gebruik te blijven maken. Tegelijkertijd zorgen ze ervoor dat de productie van HBM geen extra boost krijgt (wat de prijs voor AMD zou doen dalen).

AMD heeft zichzelf in de voet geschoten door vol in te zetten op HBM. Anderzijds, een Vega-kaart verbruikt nu al veel, en met GDDR had daar nog eens een paar tientallen watt bijgekomen.

Eigenlijk petje af voor Lisa Su om gewoon te erkennen dat ze momenteel niets moeten hypen, maar de tijd nemen om terug met een competitief product uit te komen. Zowel qua prestaties als verbruik, bedoel ik dan.
Daar moet ik je je antwoord ook schuldig in blijven. Het is wel zo dat Nvidia ook gebruik maakt van HBM, maar dat is niet te vinden op de gaming kaarten. Of AMD zichzelf veel problemen heeft bezorgd door HBM zou ik niet willen zeggen. Het is wel mede dankzij die technologie dat Kaby G bestaansrecht heeft. En HBM bied ook gewoon veel bandbreedte.

Wellicht dat AMD iets gaat doen met hun SSG geheugen? 100en GB's an extra video geheugen door middel van SSD's? Dat is wel iets wat handig kan zijn voor gaming. :)
Kaby G lijkt een voorhuwelijks cadeau van Raja Koduri aan Intel. Intel heeft zelf geen deftige GPU. En net wanneer AMD een competitieve CPU architectuur lanceert, en dus zelf een eigen "Kaby G" kon maken waar Intel geen antwoord op had, sloot Raja een deal met Intel.
Al heeft AMD nu wel die Subor SoC en dus zijn eigen Kaby G :P Maar ja, het fijne daarvan zullen we wel nooit weten.
Hbm is wel belangrijk geweest voor de datacenter markt. nVidia gebruikt het daar ook maar amd heeft het ontwikkeld samen met geheugen fabrikanten.

Ik denk dat de komende midrange kaarten van AMD gewoon gddr6 krijgen. Een 2080 Ti killer zie ik voorlopig nog niet gebeuren daar zou hbm misschien interessant zijn. Maar beter houd AMD het bij gddr6 tot hbm echt goedkoper en goed te produceren is.
Oprechte vraag: dus als ze uitkomen eigenlijk een 1080ti scoren?
Zou ik persoonlijk wel doen. Maar als je het laatste van het laatste wil hebben los van of het een gimmick of echte bruikbare feature is dan zou ik voor de Turing serie gaan.
Zoiezo is er wel een vooruitgang, maar om daar na 2 jaar de volle mep voor alleen 2 nieuwe features te betalen is wel beetje overkill.

Het lijken me wel mooie kaarten, maar laat me niet echt neigen naar een nieuwe 2080. Ik draai zelf een 1080 geoverclocked in een AW 17 R4.
Denk dat ik nog wel 1 of 2 jaar vooruit kom.
Vooral eerst de benchmarks afwachten van betrouwbare bronnen. Wat Vayra wel een beetje over het hoofd ziet is power consumption. De 1070 die vergelijkbaar presteert als de 980Ti is wel een behoorlijk stuk zuiniger, 150 watt tegenover 234 watt (reference). Dat betekent ook lagere temperaturen en dus minder herrie van de fans.

Maar goed, dat weten we pas bij de reviews. Maar ik zou er niet van staan te kijken dat de 2080 een behoorlijk stuk zuiniger is dan de 1080Ti.
ik denk eerder wachten op een 2080ti?
ligt er aan tot hoever je wil future proofen, heb je de komende jaren geen zin om te upgraden (4-7 jaar ofzo?) zou ik de 2080ti scoren, als die 3-4 jaar je weinig boeit en je will de bank niet openbreken, 1080ti
Future proofen met een GPU is nooit verstandig. Daarvoor komt er nog steeds elke generatie teveel prestatie bij. Twee jaar na dato is je x80ti aankoop al zwaar overpriced. Dan kun je beter een treetje lager blijven en iets vaker upgraden, want dan kun je steeds je oude kaart verkopen en voor een klein meerprijsje weer écht up to date zijn/blijven.

Met een CPU/platform 4-7 jaar doen is dan weer wél verstandig.

[Reactie gewijzigd door Vayra op 30 juli 2024 18:54]

tja, maar dan kom je in een vicieuze cirkel terecht :P een keer moet je gewoon de knoop doorhakken

[Reactie gewijzigd door dakka op 30 juli 2024 18:54]

Als GPU over de 2 jaar oud is en er binnenkort of net nieuwe gen released is en nog beter op kleinere procede.
Als je een 10x0 serie hebt is dat niet het geval die is recent genoeg. De 20x0 serie is alleen sneller als je de spaar rekening open wil breken.
Hangt van beschikbaarheid en prijs af. Ik denk dat het veiliger is om te zeggen dat als je een mooie prijs ziet voor een 1080ti, nieuw of 2ehands, dat dat zeker de moeite van het bekijken waard is. Kijk je nu terug dan zie je dat een 980ti ook nog heel leuk meekomt bijvoorbeeld. En ook nog steeds een behoorlijke waarde heeft.

Maar het kan ook maar zo dat een 2080 prijs/perf zo weinig verschil maakt dat het niet de moeite is. Zal zeker in het begin niet zo zijn, maar een maand of twee na release... wie weet.

[Reactie gewijzigd door Vayra op 30 juli 2024 18:54]

hetzij dat het dan zal gebeuren via DXR
Dat vind ik misschien nog wel het knapste van Nvidia: de marketing. Het echte ploeterwerk is door Microsoft gedaan in het ontwikkelen van de DXR-api. Hoe mooi Nvidia ray tracing ook verkoopt in het pakket van RTX, onder de motorkap haken zij ook gewoon in op DXR - zij het dat ze dit goed hardwarematig kunnen versnellen. Ze doen echter inmiddels alsof ze zelf ray tracing hebben ontworpen, en mijn nekharen gaan al overeind staan als ik denk hoe sterk ze de concurrentie kunnen benadelen als dit in GameWorks terecht komt.
Als een optioneel performance slopend effect zie ik het zeker in Gameworks terecht komen. Neemt dan niet weg dat je met RTX kaarten dan geen problemen gaat krijgen. Overigens ook niet met non-RTX kaarten, alleen werk je dan met de DXR Fallback laag (als een game dat ondersteunt).

Het zal dan in die zin zeker een boeiende vergelijking zijn hoeveel rays een non-RTX kaart zoals de Titan Xp kan genereren met DXR Fallback en of CUDA/GCN gebaseerde raytracing ook nog een beetje performant is voor games. Als Metro Exodus deze Fallback laag en RTX hardware gaat ondersteunen, dan kan dat wel eens een mooie benchmark test worden.

Wellicht dan dat oudere kaarten zoals Titan X of GTX 970 dan ook zon test kunnen worden onderworpen. Het valt en staat echter met het gegeven of DXR Fallback performant genoeg is om ook op non-RTX kaarten raytracing effecten te gaan ondersteunen. Mocht dat zo zijn, dan verwacht ik wel een lagere kwaliteit en ook wel dat dit op lagere resoluties (720p? 900p?) zal worden gedaan. Raytracing, zelfs effecten, zijn nu immers navenant anders en zwaarder dan rasterizatie technieken. Dit doen via CUDA/GCN cores die juist alleen maar voor rasterizatie geschikt zijn kan niet anders dan een flinke performance penalty opleveren voor de meeste kaarten. Maar voor top-end non-Raytrace kaarten zou je dan wel via ''brute force'' nog wat resultaten kunnen boeken. :)
Ja daar heb je hele goeie argumenten !

Ik ben gewoon bang dat Nvidia weer iets heeft gevonden om AMD te benadelen.

Performance hit op dx12 is best significant vervelen met dx voor de Pascal kaarten (gcn kan wat beter met asynchrone compute omgaan) maar dat heeft weinig met de hardware en meer met de architectuur te maken. Als dx12 straks mainstream is, en raytracing wat algemener is geworden denk ik dat AMD toch wel wat beter uit de voeten kan komen als Nvidia, maar tijd zal leren. Navi lijkt een goeie architectuur op papier, maar AMD lijkt niet echt te bewegen op graphics gebied wat op zich jammer is.

Vega zijn number crunchers, dat hebben de hashrates nu wel al bewezen, alleen voor gaming lopen ze soms achter op Nvidia (dx11) daar waar Nvidia heer en meester is op dit moment.

Ik ben benieuwd hoe het zal lopen, op zich is raytracing op zich zelf geen slechte ontwikkeling. Alleen ligt het er wel aan hoe veel vrijheid de developers krijgen om op hardware te coden VS software. Vind Turing wel een mooie architectuur alleen wel mager als je kijkt waar we 2 jaar op hebben gewacht.

20 augustus weten we meer !
Nee hoor :) Nou ja, Nvidia heeft nu wel een hardware matige Raytrace accelerator, maar deze zal naar alle waarschijnlijkheid alleen maar op RTX 2070/2080 en Titan RTX zitten. Dus een GTX 2060 heeft het dan al niet meer en zal dus dan afhankelijk zijn van DXR Fallback. Dit zorgt er wel tevens voor dat Fallback een haalbare kaart wordt voor raytracing op non-RT kaarten, of nou ja, je krijgt dan iig een platform waarop je deze raytracing effecten kan testen en aan kan zetten, ook al heb je niet zon RTX kaart.

Het ligt er meer aan hoe ''goed'' DXR Fallback gaat zijn op top end kaarten. Als een 1080/RX Vega 56 nu redelijk mee kan op zeg 900p, dan is het zeker iets om te overwegen. Dan is Nvidia's voornaamste voordeel dat zij met hun RTX hardware dit domweg op hogere resoluties en in betere kwaliteit met een hogere framerate kunnen doen.

Dat is echter een vraag die beantwoord zal moeten worden wanneer alle tech binnen is.
Het is wel altijd zo dat AMD pas in actie komt zodra Nvidia iets nieuws released. Ze kwamen pa smet Freesync nadat Gsync gelanceerd was (al biedt Gsync nogsteeds voordelen dankzij de dedicated scaler).

Zie AMD dan ook meer als een chip bakker dat alleen voor raw power gaat maar de innovaties komen vaker van Nvidia. Op Mantle na dan, dat heeft uiteindelijk wel tot de lancering van Vulkan geleidt.

Volgens mij komt de Frostbite engine ook binnenkort met Raytracing support. Maar afgezien van dat zal het wel weer een forse snelheids boost zijn. Iets wat AMD nauwelijks biedt te laatste jaren. Erg zonde.

Intel pushed wel voor een dedicated GPU release in 2020.
Naar mijn gevoel was het altijd andersom, amd met meer innovatie maar door gebrek aan slagkracht werd het haast nooit marktstandard of haalden ze er weinig voorsprong uit. Denk aan gddr4, hbm, sli via pcie, diverse driver feateres, en de hoop aan technologie die in vega ongebruikt blijft etc. etc.

AMD implementeerde vaak nieuwe technologie waar de markt nog niet op aangepast was, meestal maakte de markt hier weinig gebruik van en als dat wel gebeurde kwam nvidia tegen die tijd al met een eigen variant.
Gddr4 is dankzij geheugen fabriekanten, sli/crossfire via pci express is triviaal en vaak minder effectief op moederbords met slechte routing en vega is gewoon te inefficient voor de prijs/prestaties. Nvidia heeft chroma compression naar een nieuw niveau getild, power efficientie gepushed etc. Amd was de laatste 8 jaar vooral goed op gebied van prijs kwaliteit maar die factor is nu wel minder wat jammer is. Maar nvidia heeft niets voor niets deze positie verworven. Hun firsts negeren is onverstandig.
Innovatie komt bijna altijd van AMD af, enig probleem is dat AMD altijd ‘te vroeg’ daarmee is.

En zodra het echt aanslaat met een bepaald iets loopt Nvidia ermee weg.
Als AMD alles onder een patent had gegooid wat ze hebben ontwikkeld was nvidia nooit geweest waar ze nu zijn.
Oh waar was de freesync dan? Physics standaarden hardwarematig implementeren, programmable shaders etc. Dit waren allemaal nvidia firsts. De laatste jaren kan ik mij alleen mantle herrineren en daar heeft nvidia niks mee gedaan.
PhysX was geen standaard maar Nvidia only.
Nvidia kan wel eerste zijn geweest met Gsync, Freesync heeft het in een korte tijd weten in te halen als standaard door het open te lanceren en niet AMD only te maken. De nieuwe samsung tv’s komen ook met freesync ondersteuning, wat simpelweg een software oplossing is ipv een stuk duur hardware die je alleen bij Nvidia kan kopen.
Physx is wel een standaard API naast Havok. Dan zou DirectX ook geen standaard zijn bijvoorbeeld.

Freesync heeft vrij lang geduurd voordat het qua consistentie ook maar in de buurt kwam van Gsync en het is toch echt de push vanuit het Nvidia kamp. Freesync is verder niets meer dan een rebranded Vesa standaard.

Dat stukje dure hardware is namelijk ook een zeer goede scaler. Erg prettig als je niet altijd op native resolutie werkt.

Het kost meer geld ja, het is klote dat je niet Gsync tegelijkertijd met Freesync kan gebruiken en dus vast zit aan 1 merk wil je er gebruik van maken. Maar zou AMD de standaard gepushed hebben als Nvidia er niet eerst mee kwam?
PhysX is net als de rest in gameworks Nvidia only, en zal nooit kunnen werken op AMD of Intel hardware tenzij Nvidia dit wijzigt.

Freesync was sowieso al beter dan Gsync omdat het minder lag had. Freesync 2 is hierin nog sneller. En VESA heeft dit uiteindelijk als standaard gemaakt onder de naam “Adaptive Sync” en niet andersom.

Dat je geen Freesync kan gebruiken op Nvidia of Intel hardware ligt helemaal aan hun omdat dit gewoon een open standaard is geworden (VESA) en dit niets meer is dan een kleine toevoeging aan je driver.
Ik kom alleen maar bronnen tegen dat adaptive sync er eerder was. Heb ook nooit bronnen vezien dat freesync minder lag heeft.
Mijn verbinding is op dit moment wat beperkt om de video op te zoeken. Maar Linus heeft dit getest en bleek dat Freesync minder input lag heeft. Wat ook logisch is omdat er geen extra dedicated chip voor tussen zit, wat Gsync wel heeft.
Linus vind ik nou niet de meest solid bron. Naast input lag is ook panel+controller afhankelijk.
Het is gewoon een speciale HW feature zoals AMD die ook heeft op Vega om wat sneller te zijn met bepaalde taken.
Realiseer jij je wel dat de Unreal engine een van de meeste gebruikte game engines is. Al dan niet het grote marktaandeel / developers heeft.

Het feit dat Unreal dit al bijna een jaar lang ondersteund houd in dat alles wat in ontwikkeling is op Unreal van de afgelopen 2- 3 jaar kan dit gaan ondersteunen bij release. Dus ik verwacht binnen 1a2 jaar heel veel high end games met support zeker gezien de eye Candy 100 keer beter is dan zonder.
Er is nog maar 1 game met ray tracing, dus waarom zou je het ondersteunen? Meen je dit nou serieus. Dit soort technologieën hebben een aanlooptijd nodig. Op de manier waarop jij redeneert hoef je nooit weer een nieuwe technologie te introduceren, omdat er nog maar een paar apparaten gebruik van kunnen maken.
Ik zie een gigantische discussie over raytracing, waarbij ik de indruk krijg dat er een hoop van overtuigd zijn dat raytracing een Nvidia gimmick ala physix is.

Raytracing is geen eigendom van Nvidia :/
Ze introduceren niets nieuws, ze gebruiken het enkel voor marketing.

En aan de berichtjes te zien hier met +3 ervoor, halen deze marketing technieken nu al hun doel. Wel een beetje voor jezelf na blijven denken dames en heren.

[Reactie gewijzigd door Verwijderd op 30 juli 2024 18:54]

Wie zegt dat er GTX 20x0 kaarten komen?
Dit was o.a volgens mij opgenoemd in het geruchtenfilmpje die de RTX2080 vermeldde - https://www.youtube.com/w...ontinue=505&v=ms7HQ7rckpA

Ook is er een benchmark van GTX 2060 opgedoken: https://wccftech.com/nvid...edly-leaks-its-very-fast/

Datzelfde AdoredTV vertelde ook dit:
NVIDIA Titan RTX – $3000 US (50% Sneller dan 1080 Ti)
NVIDIA GeForce RTX 2080 8GB GDDR6 – $500-$700 US (50% Sneller dan 1080)
NVIDIA GeForce RTX 2070 7GB GDDR6 – $300-$500 US (40% Sneller dan 1070)
NVIDIA GeForce GTX 2060 5GB GDDR6 – $200-$300 US (27% Sneller dan 1060)
NVIDIA GeForce GTX 2050 4GB GDDR5 – $100-$200 US (50% Sneller dan 1050 Ti)

Dit was op 10 augustus geplaatst en tot dusverre lijken zij redelijk op de money te zitten.
Die voorspellingen van AdoredTV zijn inderdaad goed. ;)
Dan zou je gemakshalve dus kunnen aannemen dat de GTX versies geen RT of Tensor cores bevatten en dus meer ''traditioneel'' zijn. Al zal een GTX 2050 al redelijk richting een GTX 1060 afbuigen en een GTX 2060 richting een 1070, enzovoorts.

De RTX 2080Ti wordt echter nog niet genoemd, ook al zijn daar alle specs en fotos al van bekend. ;)

Als deze GTXen voor dergelijke prijzen in de markt kunnen komen heb je redelijk wat extra power in handen. Al ben ik niet zon fan van die rare geheugen afwijkingen.
Ik denk niet zozeer dat het om toekomstvisie gaat eerlijk gezegd.

Nvidia heeft gewoon meer geld dan AMD, en kan (veel) meer geld steken in R&D. Nvidia heeft twee keer zoveel omzet als AMD, en de meeste van AMD's omzet komt tegenwoordig uit cpu's en niet gpu's.

Je ziet ook dat de dingen van AMD gericht zijn rondom het concept van "meer geld halen uit ons bestaande IP". Open source tooltjes om beter de (competitieve) compute op AMD-kaarten te hergebruiken. Het licensen van hun IP - en custom hardware omtrent dat IP - ontwikkelen voor Microsoft, Sony en (soort van) Intel en anderen. Nvidia is alleen een walled garden aan het opbouwen: je doet het op Nvidia's manier, of je doet het niet. Koop Nvidia custom hardware, eigen tooling. Doe mee aan het GPP-programma. Je ziet het zelfs in de Switch: waar Sony en Microsoft (en zelfs voorheen Nintendo) allerlei custom spullen van AMD krijgen, gebruik Nintendo bijna letterlijk dezelfde Tegra als die in de Shield TV kunt kopen. Nintendo heeft nog nooit aan off-the-shelf hardware gedaan. De machtspositie en technische voorsprong van Nvidia is gewoon erg groot.

Op dit moment is AMD nog redelijk competitief met Nvidia, in de zin dat ze nog prijsconcurrerende kaarten kunnen uitbrengen op dit moment. Ik ben bang dat dit snel voorbij gaat zijn. Dat betekent niet dat je je om AMD heel veel zorgen hoeft te maken: hun APUs en semicustom markten zijn echt nog wel voldoende om AMD GPU-technologie relevant te houden. Maar Nvidia zal zich extreem monopolistisch gaan gedragen, en daar gaat met name de PC gaming markt onder lijden.
Op dit moment is AMD nog redelijk competitief met Nvidia, in de zin dat ze nog prijsconcurrerende kaarten kunnen uitbrengen op dit moment. Ik ben bang dat dit snel voorbij gaat zijn. Dat betekent niet dat je je om AMD heel veel zorgen hoeft te maken: hun APUs en semicustom markten zijn echt nog wel voldoende om AMD GPU-technologie relevant te houden. Maar Nvidia zal zich extreem monopolistisch gaan gedragen, en daar gaat met name de PC gaming markt onder lijden.
Ik denk dat je daar AMD even stevig onderschat. Intel had een decennium bij lange na de prestatiekroon en de technische voorsprong op de CPUs van AMD en toch is het AMD gelukt om dat gat zover te dichtten dat Intel zich ineens gedwongen zag evenveel cores in hun CPUs te doen als AMD om competitief te blijven. Ik denk dat AMD daar in het GPU segment ook kans op maakt (op termijn).

En dat Nintendo deze keer naar NV greep ipv AMD moet je niet te zwaar wegen. Het was waarschijnlijk eerder om te voorkomen dat de console bij af direct slecht in het nieuws kwam ivm me 1/3 CPU kracht en 1/4 GPU kracht van de PS4/XBOX1. En daar komt natuurlijk bij dat de Tegra precies in hun segment valt en dus ook goedkoper zal zijn geweest dan een custom-APU van AMD. Een Tegra in het prestatiesegment van de APUs in PS/XB bestaat gewoon niet omdat de off-the-shelf ARM cores die NV daarvoor gebruikt noch een decennium achterstand hebben op AMD/Intel CPUs
Nee, ik denk oprecht niet dat ik AMD hier onderschat. Je hebt gelijk dat 'plotselinge comebacks' mogelijk zijn, maar de CPU-markt en GPU-markt zijn gewoon niet hetzelfde. En Nvidia is gewoon vele malen beter bezig zelf dan Intel de afgelopen jaren is: er is minder ruimte voor een comeback, en een enorme R&D-achterstand. Ik had de hoop gevestigd dat AMD met een aan Ryzen/Epyc vergelijkbare multichipstructuur zou kunnen terugkomen, maar AMD heeft al bevestigd dat multichipstructuren een probleem is dat ze voor GPU's nog niet hebben opgelost en misschien niet kunnen oplossen.

Ik weeg de greep van Nvidia naar AMD ook niet zwaar - je begrijpt me verkeerd. Het enige wat ik zeg is dat Nvidia zo op zichzelf is dat ze nog nooit een poot hebben uitgestoken om een custom chip voor een console te maken - niet voor de Xbox (standaard NV20/GeForce 3 hoewel er wat marketingprietpraat omheen was), niet voor de Playstation 3 (standaard G70/Geforce 7900GT), niet voor de Switch (standaard Tegra X1). Het geeft aan wat het verschil is met AMD, die altijd een zwaar customized GPU heeft geleverd aan consolefabrikanten. Maar AMD heeft simpelweg niet de technologie om een chip voor een Switch-achtige console te leveren.

[Reactie gewijzigd door DCK op 30 juli 2024 18:54]

Daar heb ik dan ook weinig tegen in te brengen daar ik het er mee eens ben. Ergens is dat ook helemaal niet verkeerd dat ze verschillende doelen najagen. Het is echter wel zo dat Nvidia wat dat betreft steeds meer een monopoliepositie gaat verwerven - en daar ook gebruik van maakt. Dat is wel iets waar ik zorgen over heb, want dergelijke dingen staan uiteindelijk ook innovatie in de weg - En nee, het moet niet zo wezen dat ''alleen Nvidia'' dergelijke innovaties mag doen en niemand anders. Concurrentie is dus iets wat gepromoot moet worden.

...Wellicht door Intel? ;)
Misschien heeft AMD wel niet de snelste GPU architectuur, dat gezegd de GTX/RTX xx80 kaarten zijn ook niet bedoeld voor de midrange markt en zijn maar héle kleine x% van de GPU markt. Navi zou op de zelfde prestatie zitten als de Vega voor een lagere prijs(neem ik ff met een korrel zout). Als men dan ook nog betere prestatie per watt neer kan zetten. Zijn ze nog steeds concurrent in het markt segment waar de meeste videokaarten worden verkocht en dus geld op levert. Samen met de op zakelijke en Science gerichte 7nm Vega kan men hun winst behalen en vergroten. Daarnaast doet hun op Zen architectuur CPU's voor consument en zakelijke markt het ook zeer goed, dit heeft geleid tot winst onder de netto streep en boven de streep een groter R&D budget. Dus ik zie het best positief in voor AMD ze doen het goed in de consumenten en zakelijk/science markt en in beiden markten is men aandeel aan het winnen, zeker in de servermarkt gaan ze de komende jaren markt aandeel afpakken van Intel, en dat is de markt waar veel geld in zit en valt te halen voor AMD. Intel heeft niet alleen de komende jaren stevigere concurrentie van AMD maar ook van ARM "komende ARM-socs voor laptops moeten U-versie Core i5 voorbijstreven" en nVidia is ook niet zonder concurrentie op deze zakelijke markt voor AI en science toepassingen.
zij nog geen RT Cores, laat staan Tensor Cores
je weet dat "RT cores" en "Tensor cores" gewoon Nvidia naampjes zijn voor gespecialiseerde cores, toch? Net als CUDA cores. Dus dat AMD dat niet heeft is logisch..
Klopt, maar AMD heeft daar op dit moment alleen Radeon Rays en GPUOpen tegenover staan (Welke ook AI routines bevat). Dit zijn vooral software collecties die op de GCN cores van Radeon kaarten werken. Ook leuk, en je kan er (volgens mij) met RT Raytracen, maar het is niet wat Nvidia doet, een stuk ASIC hardware bouwen om het geheel te versnellen.

En zoals aangegeven, daar zit AMD's focus ook op dit moment niet in. Tenzij Navi nu ook dergelijke hardware gaat bevatten.. :)
AMD Navi wordt een gloednieuwe architectuur en bevatten wat nu 'Next Gen Memory' wordt genoemd. Of dat nu GDDR6-geheugen is, of de volgende iteratie van HBM 2(/3) (High Bandwidth Memory) dat door AMD's op hun huidige Vega-kaarten bevindt of iets anders, weet niemand :X .
Prestatie wordt verwacht dat deze op het zelfde niveau ligt als de huidige Vega architectuur, met laten we hopen met beter stroom verbruik en prijs prestatie verhoudingen.

[Reactie gewijzigd door Dragonetti op 30 juli 2024 18:54]

Als AMD Nvidia wilt volgen zullen ze ook wel met een RT/Tensor achtige core komen. Wordt het echter meer een traditionele architectuur met een nieuwe geheugen variant, dan lijkt het mij meer dat ze gaan focussen op de RTX 2070 (max) en daaronder. Het upper mid-end dus. :) Er is echter nog zo weinig bekend over Navi dat het vooralsnog speculeren is.
Dat klopt, daarom geef ik ook een vrij open verhaal. Navi wordt wat ik begrepen heb een echte gaming gpu terwijl de Vega gpu op gpgpu, AI en science toepassingen gericht is. Maar er is te weinig bekend om nog maar een aanname te maken over de Navi architectuur en wat deze wel of niet bevat, AMD heeft in haar geschiedenis bewezen dat ze met weinig R&D (welke door stijgende winst al hoger is) heel creatief kunnen zijn. En nu de Zen architectuur gemeen goed is en goed op de rit zit, zal de gpu afdeling meer R&D krijgt om Navi ontwikkeling te bespoedigen. En wat ik begrepen heb komt de Videokaarten met Navi ergens Q1 of Q2(de laatste lijk logischer) op de markt.
Boeidender zijn de GTX 20xx kaarten die daaronder vallen. Daar heeft AMD nog wel wat te zoeken, en kan dan verwijzen naar zijn bestaande Vega/Polaris line up. Daar staat dan tegenover dat AMD deze kaarten waarschijnlijk goedkoper kan maken/krijgen daar deze al wat langer uit zijn. In dat segment heeft AMD nog wel een slag om te leveren.
Voor wat betreft Vega zal 'm dat niet zomaar gaan worden. AMD kan Vega niet veel goedkoper produceren. Met name door de prijs van HBM2, wat nu een groot deel van de kostprijs van Vega vertegenwoordigt. De kostprijs van HBM2 is relaties hoog en die zal voorlopig zeer waarschijnlijk relatief hoog blijven.
En over een kleine 2 jaar zal Intel ook zijn intrede doen. Het wordt dan boeiend om te zien wat Intel's strategie gaat worden.
Absoluut.

We weten echter nog helemaal niets concreets over de discrete GPU waar Intel aan zegt te werken. Het is nog steeds mogelijk dat deze vooral op professionele/datacenter toepassingen gericht zal zijn. Wat enigszins logisch zou zijn aangezien dat voor discrete GPU's op dit moment de meest lucratieve groei markt lijkt te zijn. Zie ook Nvidia's efforts en AMD's hernieuwde efforts op dat vlak.

Mocht Intel juist wél zijn intrede doen in de markt voor discrete op consumenten gerichte gaming grade GPU's, dan is het lastig voorspellen wat het effect zal zijn.
Enerzijds is het zeer welkom dat er een nieuwe kapitaalkrachtige partij in die markt stapt. Het mantra is immers dat meer concurrentie leidt tot snellere ontwikkelingen en betere prijs-performance verhoudingen.
Anderzijds is het echter ook goed mogelijk dat dat op termijn de doodsteek in die markt wordt voor de kleinste partij. En die kleinste partij lijkt in ieder geval qua kapitaal vooralsnog AMD te zijn. Het ontwikkelen van die gaming grade GPU's is namelijk nog steeds zeer kapitaalintensief. Terwijl de marges relatief ten opzichte van professionele/datacenter oplossingen kleiner zijn. Meer concurrentie zet die marges waarschijnlijk verder onder druk, door bijvoorbeeld concurrentie op prijs-performance en bijvoorbeeld doordat een extra concurrent een deel van de absolute verkopen afsnoept.
Zullen zij net als Nvidia meer gericht zijn op nieuwe tech, of net als AMD gericht om hun hardware over een breder scala apparaten beschikbaar te maken? Arctic Sound GPU in een NUC, bijvoorbeeld. De tijd zal het leren.
Wat dat betreft: een NUC is een ideale omgeving voor een capabele energie efficiënte SoC, en veel minder voor een discrete GPU.

Intel kan de expertise die ze opdoen door de ontwikkeling van die discrete GPU echter eventueel aanwenden om een krachtigere geïntegreerde GPU te ontwikkelen. Net zoals AMD dat eigenlijk historisch gezien gedaan heeft.
Als Intel daarin slaagt dan heeft dat niet alleen effect op segmenten waar Intel nu ook al in opereert met geïntegreerde GPU's, zoals bijvoorbeeld: mainstream PC's, laptops, all-in-one's, NUC's, etc. Maar bijvoorbeeld eventueel ook in segmenten waar Intel nu weinig in te zoeken heeft, zoals bijvoorbeeld console hardware.
Tegelijkertijd heeft AMD met zijn Subor SoC wel bewezen dat een Vega chip niet ''perse'' HBM2 geheugen hoeft te gebruiken. Immers maakt die SoC gebruik van GDDR5. Of dat nu veel goedkoper is dan een HBM2 Vega zou ik je niet kunnen zeggen, maar het gegeven dat er een Vega chip met GDDR5 gemaakt kan worden, zou wellicht in de toekomst ook op AMD's kaarten te vinden kunnen zijn.

Wat betreft Intel deel ik je opinie. Het zit er gezien Intel's achtergrond goed in dat men deze GPU's als Quadro/Firepro concurrent gaat presenteren. Dat impliceert echter ook gelijk dat een gaming variant ook mogelijk kan wezen :) Dit is echter nog toekomst muziek. Al betekent het waarschijnlijk wel dat je qua GPU featureset wel het hoogst haalbare gaat ontvangen - Intel's iGPU ondersteunen opmerkelijk veel moderne dingen.

Betreft NUC's: Al heeft Intel nu wel Crimson Canyon met een Radeon 540 ;) Maar dat is uiteraard ook zeer mogelijk. Dat Arctic Sound tech in hun iGPU's terecht gaat komen of dat Intel de console markt gaat bezoeken. Dat laatste zal wel afhangen van hoe performant hun nieuwe GPU's zullen wezen. Hoewel Intel bijzonder veel progressie heeft geboekt de laatste jaren, zijn de meeste GPU's van hun hoogstens geschikt voor current-gen titles op lage resolutie, of last-gen games op wat hogere resoluties. Kortom er valt te gamen op Intel iGPU's, en vaak beter dan het PS360 equivalent, maar heel veel meer in het vat krijg je er niet uit.

(Ik heb geen idee hoe ik sub-quotes kan maken zoals jij dat doet :'()
Nu blijft het altijd nog de vraag of dit hieronder ook klopt, maar da's nu eenmaal afwachten, totdat de lancering ook daadwerkelijk eens gaat plaatsvinden.

- NVIDIA RTX - Cinematic Real-Time Ray Tracing in actie video.

- World's first Nvidia ray tracing GPU = Quadro RTX foto.

- Nvidia's ray tracing GPU video = Greg Estes describes highlights of CEO Jensen Huang's SIGGRAPH 2018 presentation, where he unveiled the NVIDIA Turing GPU architecture and NVIDIA Quadro RTX, the world's first ray-tracing GPU.

- Prijzen van deze Quadro RTX kaarten = foto

There's a lot of potential tech under the hood, but if you want exact specifications we have to turn to the TechPowerUp GPU database which recently saw some additions that claim to show what the successor to the GTX 1080, the Nvidia Turing GTX 2080, will be capable of.

According to these specs, the 2080 will have 3584 CUDA cores (a 40% increase over the GTX 1080), 224 TMUs (another 40% increase) and 16GB of GDDR6 RAM (a 100% increase).

Overall, this means the new card will have 13 teraflops (tflops) of computing power, which not only faster than the 1080's 8.7 tflops, but is even faster than the Titan Xp.

The specs also suggest that the new card will be based on a 12nm fabrication process, rather than the smaller 10nm fabrication process that was originally rumoured. The smaller the process size, the more transistors (the yes/no gates that do all the work) you can fit on a piece of silicon, which means you effectively get more powerful components without using more energy. We warned you this would be technical.

Check out how all the specs compare in the table below:
Klik = Table

Het gehele artikel is hier te vinden/lezen.
Mocht dit hierboven nu nog blijken te kloppen ook, dan heeft NVidia hier een hele mooie kaart in handen die zo ongeveer het dubbele aan reken capaciteit in huis heeft in vergelijking tot zijn voorganger. het dubbele aan reken capaciteit in huis heeft in vergelijking tot zijn voorganger.

Edit: Nieuwe NVIDIA RTX - Cinematic Real-Time Ray Tracing informatie toegevoegd.

[Reactie gewijzigd door SSDtje op 30 juli 2024 18:54]

16GB? En 10nm? Dat heb ik maar weinig voorbij zien komen
Jep, true.
Maar zoals reeds gezegd, eerst zien en dan pas geloven natuurlijk.
We hebben echt concurrentie nodig want dat de Ti versie nu al aangekondigd is baart me zorgen. Het ziet er naar uit dat nVidia vrij spel heeft.
Is het niet gewoon de GTX2080+ variant waar al eerder over gespeculeerd werd op hardware.info maar toen nog als GTX1180+ genoemd werd. Bron: https://nl.hardware.info/...serie-releasedata-onthuld

Quote:
Ten slotte zou er naast de GTX 1170 ook een GTX 1180+ gelanceerd worden op 30 september, maar wat voor een kaart dat precies zou zijn, is momenteel onduidelijk. Het zou kunnen gaan om een Nvidia GeForce GTX 1180 met meer geheugen of een hogere kloksnelheid, maar meer dan een beredeneerde gok kunnen we momenteel niet geven. We willen benadrukken dat deze e-mail en de informatie die erin staat niet afkomstig is van een geverifieerde bron en dat we dit dan ook met een korrel (of zelfs een heel vaatje) zout moeten nemen.

[Reactie gewijzigd door aliberto op 30 juli 2024 18:54]

Die volg ik even niet. Wat heeft dat met concurrentie te maken? Het lijkt me toch juist dat ze het "benauwd" lijken te hebben, en daarom nu al de Ti versie meteen uitbrengen?
Ik denk dat SilverRSt er op doelt dat dit waarschijnlijk een rebrand van de oude GTX 1080 en GTX 1080TI zijn. Dat er weinig ontwikkeling is op het gebied van grafische kaarten omdat AMD nog steeds geen antwoord op de GTX1080TI heeft. Komt natuurlijk omdat AMD de investeringen in R&D volledig in Ryzen heeft zitten, maar door de succesvolle lancering van Ryzen kan het R&D budget omhoog voor de videokaarten divisie. Maar dat zal waarschijnlijk betekenen dat AMD pas over een jaar een antwoord heeft, misschien wel later. Nu kan Nvidia teren op oude technologie rebranden en daar de vruchten van pakken. Al heeft AMD dit ook wel gedaan met de R9 serie...
De RTX kaarten zijn zeker geen rebrand; nieuwe architectuur, nieuw 12nm proces GDDR6,, nieuwe RT cores en daarnaast ook de Tensor cores van Volta.

Dat AMD het behoorlijk benauwd gaat krijgen heb je wel gelijk in, want zelfs de Vega 64 kan nauwelijks opboksen tegen de hudige GTX 1080.

Edit: Was het nieuwe geheugen vergeten te melden. Thanks @Balance.

[Reactie gewijzigd door Denzo op 30 juli 2024 18:54]

Er zit natuurlijk ook veel marketing praat bij. Zeker over het nieuwe 12nm proces "12nm is more of a marketing term than a true die shrink". In het verleden zijn er meer fabrikanten geweest die een zelfde videokaart uitbrengen onder een lagere nm. Kijk naar de ps3 en ps3 slim, zelfde architectuur alleen met een lagere nm waardoor het goedkoper is om te produceren en minder warmte ontwikkeling. GDDR6 zou je ook kunnen toepassen op de huidige videokaarten, dit zegt natuurlijk niet veel over dat het daadwerkelijk geen rebrand is. Enige wat een groot verschil kan zijn is de Tensor cores die er in zitten. Maar weet wel dat een marketing afdeling heel goed is om specificaties zo in de markt te zetten dat iedereen het fantastisch vindt en dat er uiteindelijk niet veel veranderd is.

Denk dat de verschillen toch echt kleiner zijn dan Nvidia ons laat denken. Helemaal doordat er weinig concurrentie is en dat er daardoor minder geld naar R&D gaat.
Dat kan, maar dat zullen we dan snel genoeg zien bij benchmarks. Future mark had volgens mij ook al een ray trace benchmark en daar zouden deze kaarten volgens mij echt het verschil moeten maken.
Dat is zeker waar. De geruchten zijn nu dat de adviesprijs 649 dollar zou zijn voor de RTX 2080 en dat die sneller zou zijn dan de titan V. Ik denk dat de RTX2080 wel sneller zal zijn door optimalisaties en het nieuwe geheugen, maar ik vraag het me af of die daadwerkelijk sneller is dan de titan V. Waarom zullen ze de snelste kaart goedkoper maken dan de huidige prijzen? Wat heeft Nvidia hierin te winnen?
Nieuwe hype creeeren.
Ik denk dat de 10x0 serie dalende verkopen laat zien, dus moet er een nieuw stokpaardje komen.
Je eigen markt in stand houden.
en niet te vergeten: hardwarenatige raytracing!
Dat bedoelde ik met de RT cores ;)
Ik vraag mij af of AMD het werkelijk benauwd heeft. Ze hebben 1 nieuwe videokaart met 1 architectuur op de markt gezet en daar met een minimaal budget een maximaal resultaat behaald, zeker vergeleken met de R&D budgetten van nVidia. Ze weten waar hun huiswerk zit, ze weten dat met een goede non-paper launch van de volgende generatie ze weer bij de tijd kunnen zijn of zelfs vooruit zouden kunnen gaan lopen. Ik denk dat het eerder komen van een TI dan normaal het juist bevestigd voor AMD dat de koers juist is, nVidia wil deze schijnbaar niet in hetzelfde tijdslot programmeren als een AMD launch.

Zo kunnen ze straks altijd zeggen dat hun propositie al even op de markt is, als de performance kroon gepakt wordt..
nV industrie gedrag is dat zij "at all cost the crown" moeten hebben op dwang matig manier.
Dus lopen ze achter wat zij niet kunnen hebben dan schuift de line up niet zozeer in prijs maar komt er over de top OC iets dat als straaljager in PC de kroon moet pakken. Tenzij ze nog bigger chip dan highend achter de hand hebben .

AMD schuift met de prijs in lager segment en volgende gen of refresh nieuwe kansen.
Dat kon niet met Vega door de hoge kosten van HBM2 .
Innovatie kan ook backfiren.
Is het een wedstrijdje dan?
95%+ koopt gewoon alle kaarten tot aan de RX 580/GTX 1060.
Nou ja, het is wel een wedstrijdje als het op performance per dollar aankomt. Als de benchmark die we hebben gezien van de GTX 2060 (of die echt is is nog even afwachten) is deze iets sneller dan een GTX 1080.

Dan krijg je wel een stuk meer waar voor je geld bij NVIDIA zolang AMD met niks nieuws komt, en dat is wél een probleem. Je hebt namelijk inderdaad gelijk dat het gros van de omzet op de midrange kaarten komt waar AMD momenteel nog enigzins competitief is, en dan gaan we als gamers pas echt te maken krijgen met idiote prijzen.
Nou performance per dollar is voor igpu het beste.
Alleen zijn dit geen rebrands, maar kaarten gebaseerd op de dinsdag aangekondigde Turing architectuur.

Steeds vaker lees ik hier op Tweakers dat Nvidia probeert de vooruitgang van de gpu markt tegen te houden omdat AMD nauwelijks kan concurreren. Vaak wordt dan de vergelijking met het Intel van voor AMD's Zen arch gemaakt. Dus jarenlang quad cores met iedere generatie een kleine clock boost. Simpelweg omdat de enige concurrent geen reden geeft tot meer actie.

Dit is echter niet te vergelijken met Nvidia die iedere generatie de toon zet qua performance. Je kunt afgeven op Nvidia's hoge prijzen, de anti open-source houding of het hele GPP fiasco, maar tegelijkertijd is het wel Nvidia die de markt vooruit pushed.
Ik heb dan ook moeite het begrijpen van hele "Nvidia rebrand" sentiment.

[Reactie gewijzigd door ColinZ op 30 juli 2024 18:54]

Dit is nou eenmaal hoe vraag en aanbod werkt. Als er een monopolie positie is dan is er ook weinig reden om veel geld in R&D te stoppen. Dat Nvidia qua performance het veel beter doet dan AMD is omdat Nvidia de afgelopen paar jaar wel geld in R&D heeft gestopt en AMD niet. Nu kan het wel zijn dat hierdoor Nvidia ook minder geld in R&D gaat stoppen omdat het nu even niet nodig is.
Logisch aangezien AMD zowel de CPU als GPU markt wil bedienen. Nvidia daarentegen is veel meer gespecialiseerd in GPU's en heeft daar dus ook veel meer geld voor.
Akkoord; maar de Ti's zijn dezelfde generatie, en deze zijn nu ook al aangekondigd, daar ging het over, toch wel een merkwaardig signaal.
Volgens de geruchten heeft Nvidia deze generatie meerdere keren uitgesteld. Eerst door de crypto hype en later door het daaropvolgende gpu overschot. De launchdate van de 2070/2080 zou eerst ergens in maart zijn.
Als je dan bedenkt dat 7nm voor gpu's ook niet lang meer op zich zal laten wachten, is het ergens wel logisch dat Nvidia de Ti naar voren haalt. Turing zal waarschijnlijk vrij snel worden opgevolgd worden door een nieuwe generatie (Ampère?) Ook wel positief gezien dat de Pascal generatie meer dat 2 jaar heeft geduurd.
Het rebranden is meer een OEM wens als uitblijven van volledige nieuwe lijn. Daar doen AMD en nV aan.
Voor ons tweakers geen probleem wij zoeken het wel uit. En voor consument die geen weet heeft is het ook niet zo rekevant want keprachtigere chip is vaak ook stuk duurder. Dus hogere nummer met zelfde prijs is ook hint voor de onwetende.

Dus ik zie het probleem niet van rebranden.

Zelf kijk meer naar chip architectuur en featurelevel
Rebrand is het sws niet, er zitten Tensor-cores in, nieuwe mixed-precision cores (voor FP16, INT8, etc.), een nieuw geheugentype (met dus nieuwe controller) en een nieuwe videoconnector.

Het probleem is dat de extra perfomance en features ook voor extra geld verkocht worden. Qua prijs/prestatie-verhouding ga je er dus maar weinig tot niet op vooruit. En dat komt voornamelijk door het gebrek aan concurrentie.
Dat AMD de en de 8000 serie 200 serie moest rebranden had andere redenen. Toen was het budget voor R&D ook al beperkt.
Meestal houden ze de Ti achter de hand om er mee weer overheen te gaan als AMD met een antwoord komt op de "80. Nu lijkt het erop dat ze denken dat AMD geen antwoord heeft.

Ik denk dat hij dit bedoelt.
Agh, tis niet echt een verrassing dat er ook een Ti versie aankomt. Gezien dit ook bij de 1080 zo is. En als AMD met een antwoord komt dan brengen ze toch gewoon 2090 of 2080 TI2 uit. Er zit toch al weinig logica in de naam:

Opblaaskrokodil in 'nieuws: Nvidia hint op naam RTX 2080 voor komende GeForce-kaart'
De 1080 TI kwam maanden later uit, dat is dus wat het raar maakt dat ie nu meteen uit komt.
Nvidia schuift de klassering op. De 2080 was voorheen de x70. De 2080Ti was voorheen de x80. Er komt ongetwijfeld nog een nieuwe gaming kaart die de Ti moet vervangen.
Toen was er nog een AMD belofte met de Vega.
Dus werd de Ti achtergehouden. Nu heeft AMD helemaal niets (helaas) in het vat zitten.

En Nvidia heeft zelf ook aangekondigd dat er de komende 2 jaar niets spectaculairs gebeurd. Dit zal meer een refresh zijn verwacht ik.
Volgens mij heeft AMD wel wat in het vat zitten anders was het niet zo stil geweest.
Mijn vermoeden is dat AMD het veel drukker heeft met de consoles. Daar zijn ze namelijk de grote speler.
Er komt ook nog Navi alleen of dat nou mid of high end is geen idee.
Ik geloof dat er best waarheid kan zitten in de lek en analyse van AdoreTV. Wat hij eigenlijk zegt is dat de 2080 normaal gesproken de 2070 moest zijn. En de 2080Ti normaal gesproken de 2080 kaart.
De Ti versie was altijd gebaseerd op een Geforce 110 chip. Een grotere en krachtigere chip dan de 104 chips die in bijv. de xx70 en xx80 kaarten zit. Nu lijkt het er op dat dit niet het geval is dus.
Het zou mij dan ook niet verbazen als er straks nog een snellere gaming kaart komt volgend jaar die traditioneel de Ti plek inneemt.

En dan te bedenken dat de 104 chips zelfs bij de 400 en 500 series nog in de xx60 kaarten werd gestopt.
De Ti versie was altijd gebaseerd op een Geforce 110 chip.
Niet echt. De 780Ti was GK110. De 980Ti was GM200. De 1080Ti was GP102.
Een grotere en krachtigere chip dan de 104 chips die in bijv. de xx70 en xx80
Dat is bij Maxwell en Pascal inderdaad het geval, respectievelijk GM204 en GP104. Bij Keppler was het echter zo dat de 780 ook GK110 gebruikte, en de 770 GK104.

Wat wel een constante is, is dat de Ti versie altijd gebruik maakte dezelfde chip als de Titan.

[Reactie gewijzigd door houseparty op 30 juli 2024 18:54]

Precies, dat bedoel ik.
Misschien dat 7nm al snel in 2019 komt, van AMD en/of van NVIDIA zelf... dat ze daarom nu al de Ti lanceren? Daarnaast is deze 2080 eigenlijk laat, als je kijkt hoelang Pascal al geleden is.

[Reactie gewijzigd door DoubleYouPee op 30 juli 2024 18:54]

Dat zal van TSMC afhangen. En voor AMD in mindere mate van GloFo, aangezien het er nu naar uit ziet dat AMD hun op consumenten gerichte GPU's bij TSMC blijft produceren.

De verwachting is dat het 7nm proces bij TSMC en GloFo binnen nu en 2019 gereed is om complexe chips zoals GPU's in volume te kunnen produceren met kostenefficiënte yields.

Dus ja, je zou kunnen stellen dat de Geforce 20 serie mogelijk slechts een tussengeneratie is, aangezien die waarschijnlijk gebruik maakt van TSMC's 12nm-FinFet. Wellicht zit er een refresh met een die-shrink aan te komen in 2019 of misschien zelfs een nieuw ontwerp (Ampère?).
Of dat daadwerkelijk het geval zal zijn is koffiedik kijken. Aangezien Pascal bijvoorbeeld ook op TSMC's 16nm-FinFet is blijven steken (afgezien van GP107 en GP108, welke over zijn gegaan naar Samsung's 14nm-FinFet).

[Reactie gewijzigd door houseparty op 30 juli 2024 18:54]

nvidia marketting lijkt het gewenst effect te hebben dan blijkbaar. Dit is exact de sfeer die ze willen creeeren...
...Met rebrands. Op zich niets mis mee, maar het toont wel de slechte marktsituatie aan.
Het is voor AMD te hopen dat ze in staat zijn om (een stuk) eerder dan nvidia de 7nm gpu’s kan lanceren volgend jaar.
Dat gaat AMD zekers doen met NAVI, alleen niet voor onze. Xbox en PS? gaat voor daarna ergens in Q42019/2020 zijn wij aan het beurt. maarja 2020... intel GPU, RTXgen2..

Dus voor aankomende jaren: nvidia :'(

PS het kan wel spannend worden in mid/low segment, als AMD VEGA gen2 met GDDR uit gaan brengen(eigen mening). concurrerende prijs voor GTX2060 en RTX2070

[Reactie gewijzigd door icegodd op 30 juli 2024 18:54]

Waarschijnlijker is dat ze elkaar niet veel zullen ontlopen wat betreft 7nm. In ieder geval niet qua productiemogelijkheid. Beiden hebben namelijk geen eigen fabs.

Zowel TSMC als GloFo lijken op koers te liggen wat betreft 7nm. Nvidia produceert tot nog toe bij TSMC. En zoals het er nu naar uit ziet zal AMD zijn op consumenten gerichte GPU's ook bij TSMC blijven produceren.

De enige mogelijkheid voor AMD om een stuk eerder op 7nm GPU's te kunnen produceren zou zijn dat TSMC flinke tegenslagen heeft in het volwassen maken van dat proces, dat GloFo wat dat betreft op koers blijft, en dat Samsung niet een vergelijkbaar proces volwassen krijgt voor die tijd. Echter, aangezien GloFo geacht wordt onafhankelijk te opereren van AMD, en AMD ook geen shareholder meer is in die firma, kan GloFo in principe ook voor Nvidia produceren.
Waarom zie je intel niet echt met een serieuze videokaart komen eigelijk. Ik denk dat ze dat makkelijk kunnen.
Het zal ergens in 2020 en is het maar de vraag of dat ook echt gebeuren en tegen welke prijs. Intel zie ik nu nog als een iGP liefhebber.
Wanner binnen kort nee. Voorbij 2020+ dat kan. Het kost gewoon de nodige tojd om GPU te ontwikkelen en daarmee hebben die firma vaak overlappende teams . 3 jaar duurt het toch wel als ze al jaar bezig zijn is conumenten versie na 2020 goed mogelijk.

Wordt het mogelijk mijn 2de intel Gkaart gezien Asus i740 die ik ook gehad heb.
Tja, nVidia heeft nu zoveel tijd gehad voor de ontwikkeling dat zelfs de grootste dies waarschijnlijk al hele acceptabele yields haalt (en dus al een voorraadje heeft kunnen opbouwen). Dat ze die dan gelijk uitbrengen is mogelijk ook een geste richting de gamers die de vorige keer een beetje in het ootje genomen waren omdat de TI uitvoering ineens zoveel sneller was, en omdat (beschikbaarheid en prijs van) de vorige generatie sowieso wel verpest was door de mining grote.
Hopelijk kan Intel wat terug gaan doen, ik zag gisteren of eergisteren een teaser voor hun nieuwe desktopkaart langskomen. Die hebben in ieder geval het budget om mee te kunnen, hopelijk hebben ze ook de juiste expertise om een échte high-end concurrent neer te zetten.
Eerst maar eens afwachten of het echt waar is, die plaatjes zien er niet heel overtuigend uit, en de 2080 en 2080ti zijn 99% hetzelfde plaatje. Maar goed lijkt me ook niet dat Videocardz hiermee zn reputatie omzeep wil helpen.
Nvidia gaat zeker met argusogen naar Intel kijken. Zij gaan hoe dan ook marktaandeel van Nvidia afsnoepen. Hoe meer concurrentie hoe beter voor de concurrent (over het algemeen)
Dat is voorlopig echt nog niet, das waarschijnlijk pas bij de volgende generatie (dus na de 20xx).
Al sinds de 9xx serie is er qua high-end amper concurentie, dit is niets nieuw.

Het is dat gebrek aan concurrentie dat ervoor zorgde dat nVidia
  • Een GTX 970 met een borked memory controller kon verkopen
  • De GTX1060 3GB kon verkopen terwijl dit helemaal geen 1060 was, een eerlijke naam was 1050 (of 1055) geweest, want de GPU zelf was simpelweg zwakker, terwijl de naam deed vermoeden dat er gewoon minder geheugen in zat
  • De GTX 1070Ti met bijna identieke prestaties en bijna identieke prijs aan de 1080 kon uitbrengen om de markt nog meer te segmenteren
  • De MX150 merknaam gebruiken voor een groep verschillende GPUs, waardoor je als gebruiker geen flauw idee hebt wat je koopt
En zo zijn er nog voorbeelden, ik heb het nu nog neit eens gehad over nVidia's walgelijke software strategie (waarbij je met een account moet inloggen om alle features van je GPU te gebruiken, en eht door de strot rammen van de pure kanker die GameWorks is) en het gedoe met de GPP.
nVidia is nu al meerdere jaren enorm klantonvriendelijk praktijken aan het toepassen, maar helaas gedraagt AMD's RTG zich als een bende lijmvretende peuters die gene flauw idee hebben wat ze doen, en deze periode zonder concurrentie zal dus nog even duren.

Ik heb maar 1 klein lichtpuntje waaruit ik hoop kan putten: AMD heeft de top van de Radeon groep begin dit jaar vervangen. Als de nieuwe top meteen keihard aan het werk is gegaan, kunnen we over 2 jaar hopelijk weer een concurrerende GPU verwachten van AMD.
Wel moet je de kanttekening maken dat Radeon zich momenteel primair richt op de servermarkt: Vega is een fiasco voor gaming (duurder en 2x meer energie dan een 1080Ti, met prestaties die er licht op achter blijven), in de servermarkt is Vega een bescheiden succes. Als gamer hoop ik dat deze focus op de servermarkt tijdelijk is, simpelweg omdat de tech die ze nu hebben met Vega alleen op die markt goed is, maar de kans bestaat dat AMD voor langere tijd enkel op de servermarkt wil inzetten met de Radeon groep: daar doen ze het al goed, en de marges liggen hoger. Gaming hebben ze misschien niet echt nodig. Dat is voor mij een anchtmerriescenario, want in dat geval zitten we echt voor nog JAREN in deze rotsituatie waarbij nVidia helemaal vrij spel heeft.
Vreemd hoe de 'doos' in de twee afbeeldingen zo verschillend is (ga maar eens snel heen en weer tussen de afbeeldingen). Ik mag toch aannemen dat MSI wel goede designers in dienst heeft en deze afbeeldingen dus niet zo afwijkend van elkaar zijn?

Ik weet niet wat ik hier van moet denken.
Lijkt inderdaad op een slechte photoshop maar dat moeten we afwachten.
En 8GB videogeheugen? Volgens mij gaat het ook echt 12GB worden voor de GTX2080 ook omdat er al een PCB gelekt was geweest met deze hoeveelheid en geen van de Quadro kaarten met deze hoeveelheid overeenkomt.

Verder ziet het plaatje van de 1080Ti zelf er enorm slecht uit, rechter uiteinde lijkt zelfs naar beneden te buigen, de fan aan de linkerkant heeft ineens een heel andere onlogische positie, laat staan de wisselende verhoudingen en kwaliteit op de doos zelf.
Ik weet overigens niet of het design van deze koeler al eens gespot is bij voorgaande modellen, maar de GTX2080Ti hoeven we voorlopig nog niet te verwachten, en zeker niet met enkel 11GB videogeheugen.

Overigens weet ik niet of de AIB merken wel meteen hun model samen met de Founders mogen uitbrengen, volgens mij had de Founders al een aantal keer een korte tijd een exclusiviteit.

Natuurlijk zullen er altijd wel een paar hoog geprofileerde merken die vroegtijdig tegen de NDA in vroegtijdig hun kaarten 'lekken' om een hype te creëren rondom hun kaarten.
Soort van achterbakse marketing terwijl de betere fabrikanten zich wel aan de NDA houden en dus hier hun nadeel in vinden. (meestal ook merken die eventuele NDA boetes wat minder goed kunnen verwerken of erg afhankelijk zijn van de Nvidia GPU markt)
Ik denk dan slechte fotoshop ;)
Denk ik ook, de woorden Gefore RTX op de voorkant staan wel bij beiden op exact dezelfde plek, maar voor de rest is alles minimaal anders. Lijkt op een zeer slechte photoshop.
Inderdaad. Ik had dit ook meteen gezien toen ik snel door de 2 afbeeldingen ging. Misschien weer 'fake news'?
Haha, ook mijn eerste gedacht. Resizen van de logo's is niet echt optimaal. Ook Ti dozen zijn meestal iets dikker, maar hier exact hetzelfde?
(Straks is het een 1180 ... XD)
Inderdaad. Wat mij ook opvalt is de 8 en 11 GB voor resp. de 2080 en 2080Ti. Dat zijn de geheugenwaarden van de huidige 1080 serie. Volgens mij gaan ze met gddr6 op 12 GB zitten op de 2080 serie.

Of het zijn echt gewoon rebrands. ;(
Kwestie van smaak maar jammer dat ze van het rood afstappen.
Lijkt op de plaatjes dat er RGB strips op de zijkanten zitten, kan je die op "msi rood" zetten misschien? :*)
Ik vindt dat juist een goede zet, ik kon in geen mijn builds een MSI kaart kwijt vanwege het rood :)
Die snap ik niet echt, wat heeft de kleur van een kaart met je build te maken?
Sommige mensen bouwen hun computer met alles in 1 kleur aan de binnenkant.... tja, ik zie het nut er ook niet van, heb een hekel aan een kast met een glazen paneel en een hoop leds, vind zelfs vaak de led voor de power aan/uit al te veel.
En @SuperDre, niet zozeer leds maar ik waardeer kasten met een open paneel en dan wil ik het liefst geen kermis attractie ;)
Zou dat niet met de RGB hype te maken hebben? Een neutrale kaart pas beter bij verschillende builds omdat je de algemene kleur kan aanpassen i.p.v. een knalrode kaart met blauwe led verlichting in een donkere kast bijvoorbeeld.
Let wel, dit is de Gaming X Trio. deze heeft weinig rood gehad in de voorafgaande modellen. Ik ga er dus van uit dat de normale Gaming X modellen de wel bekende Rode shroud zullen hebben.
Kan mij iemand het verschil tussen RTX en GTX uitleggen?

Vroeger in de 8800 tijd had je GS,GT,GTS,GTX,Ultra

Waar past deze RTX in?
Wat is de bedoeling van de nieuwe benaming?
Gaan ze nu voor nog hogere prijzen, zoals al wordt gespeculeerd?
RTX is voor topmodellen (xx80 (ti) en xx70) en GT (of GTX) zal dan voor de lagere worden
Ray-Tracing Graphics (x als verbastering)
GTX heeft geen RTX cores, weet niet waarom ooit voor de GTX gekozen is. (Mischien geen achte afkorting)

Dit is mijn theorie, maandag als de launch er is (alles hint hier op, zie de film van eerder deze week, met als not 11_0 en andere subtiele hints) weten we alles.
Volgens een andere site is het mogelijk dat alleen 2070/80 Ray-Tracing ores krijgen en deze kaarten duidelijker willen onderschijden door een andere naam, namelijk RTX vs GTX.

Dit gaat ben ik bang alsnog een beetje verwarring scheppen, maar de gamer die kaarten los koopt zal wel tijdens zijn onderzoek het verschil opmerken/vragen.

Laatste theorie van mij dat als GTX fantasie is, dan is RTX ook fantasie, maar die R zal dan toch wel een beetje referen aan Ray tracing.

Hogere prijzen kan je zelf opzoeken, maar was die 1080 echt veel goedkoper dan die 670-750 euro? (Geloof dat de 1080 rond de 800 was voor sommige kaarten, net zelf 2 (oudste) willekeurige bekeken

[Reactie gewijzigd door Freyaldo op 30 juli 2024 18:54]

GTX zal wss wel staan voor Geforce technology Xtreme staan
Als GTX al niks betekend dan is de RTX naamgeving gewoon puur voor Raytracing en meer ook niet.

De prijzen zullen wel omhoog schieten ja, als er teveel vraag is en te weinig aanbod..

Ik heb toen de 1080 uitkwam een preorder gedaan dus ik weet er alles van.

Maar ik sla de 2000 generatie gewoon over :P
Kan mij iemand het verschil tussen RTX en GTX uitleggen?
De eerste schrijf je met een R, de tweede met een G....
Het is maar een naam, niks om je druk over te maken in mijn ogen, gewoon een labeltje. Nvidia lijkt een link te willen leggen naar Raytacing, maar dat labeltje heeft geen enkel invloed op de daadwerkelijke prestaties van de GPU's.
Gaan ze nu voor nog hogere prijzen, zoals al wordt gespeculeerd?
Aangezien de R verder in het alfabet zit zal de kaart inderdaad duurder worden :P
... nog even wachten, dan word hij gelanceerd en dan komen we er achter wat hij zou gaan kosten.
Deze afbeeldingen lijken mij zéér gephotoshopt.. Vooral de dozen.

Wat mij vooral zorgen baart is dat als dit legitiem is waarom er al reclame gemaakt wordt voor de RTX 2080 TI, hieruit blijkt maar weer dat nVidia weer vrij spel heeft en totaal geen concurrentie op die markt.

Door absent aan concurrentie vindt er minder technologische voortgang plaats naar mijn mening.
Deze afbeeldingen lijken mij zéér gephotoshopt.. Vooral de dozen.
Inderdaad, alles verspringt klungelig als je tussen de 2 afbeeldingen schakelt. En zelfde visual op reguliere versus TI heb ik in al die jaren ook nog niet geweten... Het kunnen ook placeholders zijn natuurlijk...
Deze afbeeldingen lijken mij zéér gephotoshopt.. Vooral de dozen.
Zijn ze ook, zoals standaard is bij product verpakkingen/dozen etc. Zelden dat men voor promotie materiaal een daadwerkelijke foto als bron gebruikt.
Gaat die ontwikkeling niet hard zat dan?

Zijn er spellen waar een 1080TI te kort schiet?

[Reactie gewijzigd door Mit-46 op 30 juli 2024 18:54]

Als je een 1440p/4K 144 Hz scherm hebt, mag het altijd nog wat sneller. :)
Vanaf 3440x1440 komt een 1080Ti ook al adem tekort. Tenzij je genoegen wilt nemen met 50-60FPS op een 100Hz+ scherm.
Ik zeg niet dat er iets te kort schiet, naar mijn mening is concurrentie gezond voor een bedrijf..

Lak aan concurrentie zal er minder innovatie en groei plaatsvinden in (nieuwe) kaarten. Zodra er concurrentie is zal er altijd veel meer/beter technologische voortgang komen omdat ze dan wel moeten.
Bijna alle triple AA kun je niet max settings draaien op 144hz+ 1440 of 4k en 60hz+ op een 1080TI.
Rare is juist DAT ze dan nu de TI al zouden uitbrengen als ze totaal geen concurrentie hebben, want waarom meteen uitbrengen als je ook pas maanden later dat kunt doen en dan nog eens extra incasseren voor die mensen die meteen de normale 2080 kopen..
Zou vreemd zijn als deze dus goedkoper gaat worden dan de huidige 1080TI . Die kost nu nog boven de 800 euro (en de crypto gekte is al lang voorbij).
Het gaat om de "Niet ti versie"als je kijkt naar de prijs
Volgens de pricewatch zijn de launchprijzen ongeveer:
780TI €650
980TI €750
1080TI €850

Dus ik ga er niet vanuit dat de gtx 2080TI goedkoper gaat worden, de steeds hogere prijzen waren al aan de gang voordat de schaarste door de miners begon.
daar gaat mijn spaargeld weer.
Werd wel tijd, ben erop aan het wachten, mijn gtx970 trekt niet alles zo goed meer op 1440p,
1440p gamen op een GTX970 vind ik sowieso vrij ambitieus, maar het hangt natuurlijk sterk er van af welke games je speelt en wat je mimimale eis is qua grafische kwaliteit :)
Naja precies wat je zegt, het gaat allemaal prima maar zeer intensive spellen zullen bij mij op medium moeten inderdaad. Hoop binnenkort te upgraden maar ben dan ook wel benieuwd naar de 2070.
Ik heb Wolfenstein II pas nog gespeeld op 4K op mijn 970 en het zag er prachtig uit. Ik heb liever 4K op mid dan 1080/1440 op Ultra. Het detail is zo mooi.

Alleen met VR kakt de framerate vaak in dus daar wil ik wel een nieuwe kaart voor.

[Reactie gewijzigd door GekkePrutser op 30 juli 2024 18:54]

Wilde net zeggen want ik gebruik sli980 voor 1440p144hz en 4k60hz en ben aardig toe aan een upgrade
Je kon ook gewoon een 1080ti met 11GB GDDR5 kopen van je spaargeld. Run je alles op ultra op 1440p.
Voor de 2080 of de 2080ti ga je er wss ook gewoon 3-400 euro bovenop zitten, daarmee kan je weer andere upgrades uitvoeren.
ame nooit niet dat de RTX 2080 1100 euro gaat kosten. Dan prijzen ze zichzelf echt uit de markt. Tuurlijk, de concurrentie heeft het lastig maar je kan ook zonder concurrentie te duur zijn.
Als de normale 20xx al gemiddeld tussen de 650-750 euro gaat liggen, dan kan je eigenlijk wel al verwachten dat de Ti versie rond de 1000 euro gaat liggen.

nVidia kan op dit moment zulke prijzen vragen sinds dat AMD nog niet iets nieuws aangekondigd heeft wat gaat concurreren met de 20-serie.
De TI versie zou kunnen, maar jij noemde ook de RTX 2080 en die zal eerder rond de 650 zitten. Dan zal je zo'n 10 procent meer performance dan de GTX 1080 TI hebben voor 650/700 euro, dus dat lijkt me dan een redelijke deal als je naar de huidige prijzen kijkt.

[Reactie gewijzigd door FrankoNL op 30 juli 2024 18:54]

Mijn AMD R9 390 8gb trekt het vooralsnog 1440p prima op een 34” scherm op de hoogste resolutie.
Ja de Fps is in de meeste games niet hoger dan 60-65 maar het is prima om mee te spelen.
Precies ik gebruik nog de r9 280 met een 1080P scherm en alles draait op ultra met 60fps. Je moet je altijd afvragen of het daadwerkelijk het geld waard is om te upgraden. Upgraden is alleen aan te bevelen als je naar 4K wil gaan, anders zijn er genoeg goedkopere alternatieven
Konden ze dat nu niet gewoon 1180 noemen? 8)7
Dan zouden ze ook dit topic moeten hernoemen :9
Nvidia GeForce GTX 1XXX Serie Ervaringen - Deel #1

Ik vind het logisch om over te stappen op 1000tallen, gezien je dan het eerste cijfer per serie omhoog ziet gaan ipv het 2de...

voor zowel 2080 als 1180 valt wat te zeggen :)

[Reactie gewijzigd door watercoolertje op 30 juli 2024 18:54]

Op dit item kan niet meer gereageerd worden.