Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

RTX 2080-benchmarks verschijnen bij 3DMark

In de database van 3DMark verschijnen resultaten van de GeForce RTX 2080-videokaarten van Nvidia. In de Time Spy- en Fire Strike-benchmarks is de kaart ongeveer net zo snel als de GTX 1080 Ti.

Volgens VideoCardz verschijnen de resultaten in de 3DMark-database omdat Nvidia vrijdag de eerste driver beschikbaar heeft gesteld aan reviewers. Een RTX 2080-kaart van Gigabyte haalt 10.659 punten in het grafische onderdeel van de Time Spy-benchmark, een andere kaart, waarvan het merk niet bekend is, haalt 9319 punten. Het verschil van zo'n 14 procent kan komen door afwijkende kloksnelheden en overklokinstellingen.

De scores zijn vergelijkbaar met die van GTX 1080 Ti-videokaarten. Het Nvidia-referentiemodel van die gpu haalde in de review van Tweakers een score van 9405 punten. Varianten met aangepaste koelers van andere fabrikanten halen vaak meer dan tienduizend punten.

Eind augustus verschenen er ook al scores in de 3DMark-database die vermoedelijk aan de RTX 2080 toebehoorden. De scores daarvan waren vergelijkbaar. Destijds was het niet zeker dat het om de videokaart ging, omdat de naam nog niet herkend werd in de database.

VideoCardz laat ook een screenshot zien met een score van de Fire Strike-benchmark. Daarin haalt een niet nader genoemde RTX 2080-videokaart 27.085 punten. Ook dat is vergelijkbaar met de score die een GTX 1080 Ti haalt in die benchmark.

Ten opzichte van zijn directe voorganger, de GTX 1080, is de RTX 2080 in 3DMark Time Spy zo'n 40 procent sneller en in Fire Strike is dat zo'n 30 procent. De prijs van de nieuwe videokaart is met 849 euro echter veel hoger. GTX 1080 Ti-videokaarten zijn inmiddels vanaf zo'n 700 euro te koop en GTX 1080-modellen zijn er vanaf ongeveer 500 euro.

De huidige 3DMark-benchmarks maken geen gebruik van de RT-cores voor raytracing die op de RTX-videokaarten aanwezig zijn. In de meeste gevallen zullen games voorlopig ook geen gebruik maken van die cores. Studio's moeten speciaal RTX-ondersteuning inbouwen. Onder andere Shadow of the Tomb Raider, Metro Exodus en Battlefield V krijgen deels raytracing ingebouwd.

Volgende week woensdag verschijnen er volgens VideoCardz uitgebreide reviews van de RTX 2080 en 2080 Ti-videokaarten.

Door Julian Huijbregts

Nieuwsredacteur

14-09-2018 • 14:39

194 Linkedin Google+

Submitter: BiG_ChilD

Reacties (194)

Wijzig sortering
Prachtig resultaat toch? Performance van een 1080 Ti voor de prijs van een 1080 Ti, en dan ook nog met Ray Tracing en Deep Learning!

Edit: Er is op het moment 1 1080 Ti voor ¤650 te koop, bij een dagdeal van Alternate omdat ze 20 jaar bestaan.

[Reactie gewijzigd door BlueKingNL op 14 september 2018 15:44]

Hoewel er van de performance van Ray Tracing (de afgesloten demo's draaiden 1080p op 30fps) nog niet veel gezegd is... en waar is de Deep Learning op een gamekaart nuttig voor?

Ja, het is een prachtig resultaat, maar we moeten één ding niet vergeten:

Er zijn geen game-titans meer. De titan kaart is niet eens op de zelfde architectuur gebaseerd (Titan-V = Volta, niet Turing), en wordt als "in between" pro & overig neergezet.. De Titan V is dus ook amper te krijgen.

Met die logica valt te stellen dat de hele 2000-serie enigszins verschoven is. Dat de 2080TI de plek in neemt van de Titan, en dat de 2080 eigenlijk de vervanger is van de 1080TI...

Dat gesteld zijn de resultaten wel erg mooi, maar niet van het niveau: "wauw, daar ren ik voor naar de winkel" (ze zijn best vergelijkbaar met wat we dus 2jr geleden hadden).

Ja, RTX is mooi, maar heeft ook een paar nadelen voor mij, nadelen die Physx, Hairworx, of andere zaken die nVidia only waren best opbreken:
  • Het is nVidia only
  • De games die ik nu speel ondersteunen het niet
  • De games die komen gaan interreseren me op een enkeling na niet..., en ik ga geen game spelen puur om de graphics
  • Het is niet op consoles beschikbaar omdat het nVidia only is, waardoor je de grote AA-multiplatform games het ook niet super snel ziet adopteren.
Het is eigenlijk net zoiets als Freesync/GSync. Freesync is onderdeel van zowel de DP én HDMI standaard, waardoor zelfs de meeste zakelijke monitoren, en de huidige generatie TV + Consoles het ondersteund. nVidia heeft een duurdere, eigen variant die alleen op hun kaarten werkt, en puur in de gratie van de gamer (ik geef toe, AMD had lang geen supersnelle kaarten...) ondersteund wordt, zei het dat het in elke aspect (lock-in, dedicated chip nodig, duurder, DP-only) de mindere techniek is... Die luxe hebben ze buiten de PC exclusives niet op software gebied mede door consoles. Ik hoop dat ze het licht zien (zoals ze na zware ophef met GPP hebben gedaan, en zelfs dan zijn ze nog vrij dirty in hoe ze developers onder druk zetten...) en óók Freesync gaan ondersteunen, én hun hele RTX software API open stellen (net zoals dat Mantle open is, en de basis vormt voor Vulkan & DX12)... zodat ze ethisch zaken doen... en 10bit kleur op de desktop ook eens gaan ondersteunen.

Maar ja... ik heb dus een mixed bag aan gevoelens bij deze release... volgens mij heeft RTX té veel nadruk voor wat het kan waarmaken... zolang maximaal 0,10% van alle games het ondersteund vooral... en hoewel er nog raytrace-benches nodig zijn (waar we ook op games voor moeten wachten), neem ik alle benchmarks met een korrel zout want zó veel beter zijn ze nu niet. En op het moment dat je door RTX op max 1080p/30 zit... dan heb je een key feature die niet klopt (en ik hoop dat de rapporten gewoon fake news blijken, maar tot die benchmarks er zijn is het gewoon een name change, Titan > TI; TI > regular)
en waar is de Deep Learning op een gamekaart nuttig voor?
De deep-learning kan ook gebruikt worden voor DLSS (deep-learning super-sampling, voor antaliasing), of voor upscaling naar 4k met betere kwaliteit dan bijvoorbeeld checkerboard rendering:

https://www.nvidia.com/en...new-games-september-2018/
https://www.pcpowerplay.c...ew-dlss-technology,500694

[Reactie gewijzigd door johnbetonschaar op 14 september 2018 15:42]

Mooiste aan marketing is dat je een plausibel verhaal gaat vertellen waardoor mensen massaal teveel gaan betalen.

Je zo het bijna oplichting kunnen noemen.

Anno 2018 mag men verwachten dat zo een dure kaart op zijn minst 4k op 144hz kan doen.
Nou, Deeplearning + fatsoenlijke A.I in games(als in fatsoenlijke AI, nit cheatende AI) zie ik wel iets wat met Deeplearning te maken kan hebben. Snap niet waarom er geen deeplearning of machine learning bij ingebracht wordt?

Dat er nog geen RTS is waar alle informatie centraal verwerkt is, en men de AI daar on the fly kan op aanpassen zodat AI ook daadwerkelijk een uitdaging is. Nu is het vaak zo geprogrameerd dat de AI gewoon bonusses krijgt, en vaak onlogische beslissingen maakt.


Verder ben ik het met je eens, ik zie het nu ook 'nog' niet zo van de kaart. Bovendien ben ik enorm tegen de gesloten standaarden die nvidia iedereen probeert op te zadelen + hun hele Gameworks framework waardoor AMD kaarten vaak op het begin bij games minder presteren dan nvidia(waardoor alle fanboys weer gaan roepen, zie je nu wel nvidia is beter dan AMD).... 2-3 maanden later is het verschil nog enkele luttele procenten(na driver optimizations etc).

Ook AMD doet dat, maar hun hebben geen hele gameworks afdeling waarbij de gamedevs gewoon een developer krijgen toegewezen die alle speciale technieken intergreerd.

Daar heeft AMD het budget niet voor, en dat zie ik ook niet 1-2-3 in hun bedrijfs filosofie (winning by cheating).

Waar nvidia al naar mijn weten 3x z'n truukjes heeft gedaan(uitzetten van bepaalde grafische instellingen voor meer fps), het hele nvidia mag alleen de kaart zijn die jij mag maken gebeuren(productie lijnen scheiden), gesloten standaarden waar men royaal voor betaald(Gsync) terwijl AMD freesync gratis en opensource is

Het niet stimuleren van de API ontwikkeling(Vulcan -> DX 12)

AMD doet veel meer voor ontwikkeling dan NVIDIA en verdienen dan ook hard mijn centen daarvoor. Men moet eens verder kijken dan die paar procentjes op de scoreboards, want nvidia is opzich niet altijd de beste keuze(long term) voor wat je het liefste doet(gamen).
Daar zie ik bij AMD vaak innovatievere oplossingen(3DFX vs Nvidia anyone) ook al had nvidia 3DFX kapot gemaakt, en had 3DFX ook bepaalde fouten zelf gemaakt. Maar hun pushte wel the 'envelope' but hun SLI mogelijkheden etc etc.

Dit Raytracing draagt weinig bij, en zie deze kaart meer als een dure techdemo voor de early adopter. Maar ze zijn wel sneller, en mischien drukt het voor degene die een 1080 willen kopen de prijs omlaag ;p

[Reactie gewijzigd door Bjorn89 op 14 september 2018 15:26]

Dat zou betekenen dat je met een Nvidia RTX GPU een moeilijkere AI tegenstander krijgt. Met een snellere variant van een RTX wordt het dan nog moeilijker, puur omdat jouw AI tegenstander gebruik kan maken van DeepLearning.

Lijkt me niet echt handig, de moeilijkheid van een game koppelen aan welke videokaart je gebruikt.
Ik had het specifiek over de nuttigheid van Machine learning, ik snap niet dat dat niet ingezet wordt voor game AI. Mischien was dat niet helemaal duidelijk.

Dat deze kaart dat ook kan, zou betekenen inderdaad dat er ook selectief op geprogrameerd wordt. Maar als het een standaard wordt in DirectX Vulcan of een nieuwe API(voor AI) dan zou dat ons veel voordeel opleveren. Dan is het natuurlijk zaak te tweaken zodat de AI niet onverslaanbaar wordt(AI kan makkelijk 1000en commandos tegelijk geven wat je zelf nooit kan bijhouden)
haha en gezien de 'pay to win' generatie, is dat het laatste dat de meeste willen.
Die hebben liever dat het andersom werkt , AI moet minder zijn best gaan doen als het te 'slim' is :+
Toch draaien die AI's tegenwoordig, in het interesse van fair play, serverside. En ook daar zit natuurlijk weer het aspect in: dan is het nVidia only, en werkt het niet op consoles. We hebben nu zó veel CPU cores, waarom daar niet op? En als we tóch naar een GPU willen (deep learning in-hardware doe je meer om te trainen, het draaien van een neural net is meestal wat simpeler), waarom dan niet via OpenCL of DX12? Of is nVidia ineens juist bezig met het ontsluiten van hun deep learning juist via standaard API's?
Dat zijn allemaal geweldige oplossingen!

De reden dat ik dat zei is omdat wij al heel veel offloaden naar de GPU, ook voor AI.
Ik denk ook dat wij nog heel veel winst kunnen halen uit onze multicore ontwikkeling maar ik denk dat de performance er niet optimaal voor is omdat de CPU beetje ALL purpose is. Je kan voor zoiets beter specifiek kaart/technieken toepassen. Zoals al boven aangegeven zou daar gewoon een aparta API voor moeten komen, een soort van AI API, geen idee of dat uberhaupt zin heeft(zover rijkt mijn kennis van programmeren niet). Maar wat ik weet van mijn opleiding(Psychologie en Neuroscience). Lijkt me enorm veel toepasbaar op een game.

[Reactie gewijzigd door Bjorn89 op 14 september 2018 15:41]

Deep learning vergt nogal wat compute power, dat wil je niet door een CPU laten doen. Vooralsnog doet specifieke hardware daarvoor het gewoonweg vele malen beter. Meer cores is niet altijd per definitie beter of opeens afdoende.

De CPU doet de taken die niet hardwarematig gedaan kunnen worden en zal in de meeste gevallen trager zijn dan als je het hardwarematig kan doen. Dat zie je bijvoorbeeld goed in de hashrates van zowel de cryptocoins als voor distributed computing projecten (waaronder van de Dutch Power Cows en zo) erg goed terug.

Natuurlijk, uitzonderingen hou je, vandaar 'bijna altijd'. ;)

[Reactie gewijzigd door CH4OS op 14 september 2018 15:41]

Huh sinds wanneer is een cpu niet hardware matig? Een CPU doet normaal alle berekeningen mits er geen specieke hardware beschikbaar is die bepaalde taken beter kan. Heel veel van die dingen doett een CPU beter dan een GPU dat ooit zou kunnen.
Raytracing is juist the next big thing wawrbij veel grafische problemen in games nu opgelost zouden kunnen worden. Ze zijn nog niet snel genoeg voor volledige raytracing maar deze technologie is ontzettend belangrijk. Nu worden zaken als reflecties een soort van nagemaakt en is in veel gevallen niet accuraat.

Amd heeft de laatste jaren alleen maar door middel van mantle uiteindelijk een aandeel in vulkan gehad. Maar dit was misschien dan ook noodzaak omdat de prestaties in hun geval onder dx11 minder waren. Dx12 verhielp dat enigzins maar is nogsteeds geen gemeengoed.

Zaken die gepushed zijn door nvidia zijn destijds met de originele geforce hardware transform and lighting, met de geforce 4 shaders, later het pushen van tesselation, daarna gsync (daarna kwam pas AMD met freesync etc). Je kan echt niet ontkennen dat nvidia niks gepushed heeft dat zou selectief shoppen zijn. AMD was wat dat betreft paar jaar terug wel echt beter bezig dan nu maar hun focus was naar de Zen architectuur gegaan en foute gokjes op HBR geheugen etc.
Ik schrijf ook duidelijk in mijn statement Early Adopter, dat de techniek mogelijkerwijs erg goed is ontken ik niet. Ik zie het een beetje al 4K, we kunnen het nog niet op 60-120 FPS afspelen(mischien quadro setup).

Waarom zou ik nu al 4K standaard aanschaffen, als ik weer dat de aankomende generaties optimalisaties en verbeteringen met zich meebrengen waardoor het WEL goed werkt.

Ik speel nog lekker op FullHD totdat de FPS aantallen bij 4k hetzelfde zijn als wat ik nu ervaar(vloeiende game).

Ten slotte de technieken die jij noemt(met uitzondering van een paar) zijn uiteindelijk niet algemeen goed geworden. Zo is dat hele tesselation ook ingevoerd en heeft AMD daar juist lange tijd moeite mee gehad(Gameworks) omdat er belachelijk veel Tesselation werd gebruikt, wat voor nvidia geoptamisleerd was en niet voor AMD(z'n dingen doet Nvidia wel meer).

AMD heeft dat hele adaptive sync groter gemaakt dan nvidia heeft gedaan(twee dezelfde monitoren met specs, de 1 kost 200 euro meer puur voor gsync). Ja, hallo 200 euro voor een logotje? Iets waar het groene kamp een open standaard van heeft gemaakt.

Ik mag dan wel selectief zijn, Nvidia heeft gewoonweg meer performance, maar de top is nihil (10-15 meer of minder v.s AMD na enkele maanden). Ik ga niet extra betalen daarvoor, ik ben dan ook opzoek naar een Vega om mijn huidige 390 te upgraden momenteel :) AMD doet gewoon momenteel meer op meerdere gebieden(dat nVidia nieuw technieken(nu ook weer) introduceert doet daar niet aan af, ze hangen overal een dik prijskaartje aan om het te mogen gebruiken...iets wat AMD vaker NIET als wel doet.

Het ergste vond ik nog het recente schandaal dat Nvidia even ging vertellen aan third party manafacturors hoe ze hun productie lijnen moesten gaan noemen, want anders kregen ze minder kaarten of geen.

Met dat soort blackmail, of dwangeconomie ga je toch vragen stellen bij een bedrijf?
Tesselation geen algemeen goed? 90% van de games gebruiken het nu om de geometrie natuurlijker te maken zonder teveel resources in modelling te steken.

Als Nvidia niet met Gsync kwam was het maar de vraag of AMD inspiratie had om opeens aan Freesync te beginnen. In een vooregaande post waar een soortgelijke discussie al gezegd. Nee Freesync monitoren zijn niet 200 euro goedkoper voor hetzelfde. Op 1 monitor van Acer na zijn alle Gsync monitoren luxieuzer uitgevoerd dan de Freesync monitoren bij hetzelfde merk. Bij Asus bijvoorbeeld hebben de Gsync monitoren een metalen voet en de Freesync monitoren een plastic voet. Bij de Gsync monitoren is de achter panel afgewerkt met een soort van zilveren coating, bij de Freesync monitoren zijn ze standaard zwart ABS plastic etc.

Daarnaast is de performance jump wel meer dan 10-15% bij Nvidia en dan ook na verlop van tijd Wordt altijd gedaan alsof AMD kaarten wijn zijn dat met de tijd beter wordt. Ze hebben gewoon niet altijd hun drivers op orde op dag 1 en het is altijd een selectief aantal games waar ze wisnt bij behalen.

Daarnaast leidende partij in het bedrijfsleven doet. Namelijk hun positie vaststellen. anders haal je aandheeldhouders ook niet tevreden.

AMD moet echt echt harder aan de bak, heb een sloot aan AMD kaarten in het verleden gehad en vroeger ging de performance crown altijd om en om. Nu heeft AMD de fout gemaakt om puur op de mainstream te richten met de 4XX/5XX RX serie kaarten, en het klopt dat er meer klanten in die groep zitten maar je hebt een showpiece nodig om die te kunnen marketen. Daarbij is de gok op HBR gewoon niet goed gebleken.
Volgens mij zou wordt de AI in een game toch echt door de CPU gedaan, het heeft niks met het grafische deel van een game te maken.
Vroeger werd alles door de CPU gedaan. Nu hebben we ook kaarten waar we taken naar offloaden.

Deeplearning is iets wat de pc niet efficient doet als je het verglijkt met videokaart.
en waar is de Deep Learning op een gamekaart nuttig voor?
Tja, een mobiele telefoon had ook niemand nodig, wie kan er nou niet wachten tot je thuis bent?

Ik kan mij voorstellen dat men door intelligenter om te gaan met hoe een speler door een game gaat, er ook slimmer bijvoorbeeld gepreload kan worden, waardoor de hoeveelheid afneemt of er accurater gepreload wordt, om een voorbeeld te noemen. Ook kan het niveau van de game dan schalen met de speler, waardoor de een bijvoorbeeld een steeds uitdagendere game kan krijgen al naar gelang diens progressie.
Met de veelheid aan toepassingen zie ik die tensorcores graag (ook) in een cpu terug, of tenminste op de geïntegreerde gpu van cpu's. Lijkt me wel zo praktisch.
Ik had ook gehoord dat alles een plekje opschoof. ¤1200 voor een Titan is namelijk al wat langer de standaard. De demo's waarvan ik heb gehoord waren van Shadow of the Tomb Raider, waarvan de devs zeiden dat Ray Tracing ondersteuning niet bij launch in de game zou zitten, maar pas later met een update toegevoegd zou worden.

Met Deep Learning bedoelde ik Deep Learning Super Sampling (DLSS), wat zou zorgen voor nog betere performance in games.

Verder hoop ik ook dat NVIDIA FreeSync gaat ondersteunen, en dat Ray Tracing opengesteld word.
Voor Raytracing in games heb je DXR (DirectX Raytracing) nodig en die komt pas met de oktober patch tuesday van Microsoft voor het grote publiek beschikbaar (9 oktober).

DXR is een toevoeging op DirectX. Als een game gebruikt maakt van DRX, kan kan de techniek op elke kaart welke DXR ondersteund gebruikt worden, momenteel is dan alleen de RTX serie. Uiteraard kunnen developers ook besluiten om NVidia specifieke instructiesets te gebruiken, want de DXR abstractie zal wel iets van de performance afhalen, en realtime raytracing is erg zwaar.. Dus je hebt best kans dat developers eerst gebruik maken van de NVidia instructies en bijvoorbeeld pas als AMD ook raytracing gaat ondersteunen pas de switch maken naar DXR en dat dan als update voor de game uitbrengen. Misschien zelfs side-by-side zoals enkele games ook DirectX en OpenGL ondersteunen..

Daarnaast is raytracing in games helemaal nieuw en zal het aantal gamers welke in 2018 al over een RTX kaart beschikken minimaal zijn (vergeleken met het GTX aandeel). Ik kan dus begrijpen dat enkele developers/studio de tijd nemen de nieuwe technieken beter te leren begrijpen en toepassen..
Raytracing is misschien zwaar, het is qua belichting wel zo veel beter dan de trucs van nu, plus dat er minder werk zit in de belichting en textures wat betreft rendering. Die tijd en moeite kan nu in andere dingen gestoken worden.

Dit en voxels hebben te lang op zich laten wachten vind ik.
"Ja, RTX is mooi, maar heeft ook een paar nadelen voor mij, nadelen die Physx, Hairworx, of andere zaken die nVidia only waren best opbreken:"

je bedoeld gok ik raytracing?

Dat is niet nvidia only microsoft is hier namelijk ook mee bezig.
Ja, RTX is mooi, maar heeft ook een paar nadelen voor mij, nadelen die Physx, Hairworx, of andere zaken die nVidia only waren best opbreken:
Het is nVidia only
Nee, het is gewoon DXR (DirectX Raytracing) en dus ook in te zetten door andere fabrikanten (AMD)
Volgens mij wordt op dit moment de AI kant van de chip vooral gebruikt voor de-noising van het door raytracen gegenereerde beelden.

Zie bijvoorbeeld dit: https://blogs.nvidia.com/blog/2017/05/10/ai-for-ray-tracing/
Ik weet even niet of je daarop richtte, maar Nvidia PhysX is niet "alleen" voor nvidia, het werkt ongeacht welke kaart je hebt, Wat je dat NIET hebt is "GPU Acceleration" omdat PhysX via CUDA werkt, en andere merken hebben geen CUDA.

Maar je verliest er niks op want alle andere Physics Libraries op deze schaal hebben "geen" GPU Acceleratie, geen CUDA, geen OpenCL, geen Compute..

Dus basically, het is een bonus met een Nvidia kaart, geen negatief (zonder Nvidia)
Ray Tracing is niet Nvidia only. Ray Tracing is ook niet bedacht door Nvidia en dus ook niet van Nvidia, Nvidia leverd alleen de hardware ervoor.
Ray Tracing is hoofdzakelijk van Microsoft.
> Prachtig resultaat toch? Performance van een 1080 Ti voor de prijs van een 1080 Ti, en dan ook nog met Ray Tracing en Deep Learning!

De 1080TI is al goedkoper dan de 2080 en zal waarschijnlijk ook in prijs dalen wanneer Nvidia de stock dump voor plaats te maken voor de 2080. Er zijn al lang gerichten dat Nvidia zo een over stok heeft gehad van GPUs en dan de 3de partij partners deze moeten opeten hebben onder druk.

En als ik eerlijk mag zijn: "Who cares (now) about Ray Tracing". De grafische voordelen zijn zo minimaal dat buiten screenshots je nauwelijks het verschil ziet. De meeste mensen zodra ze meer dan 5 minuten zitten gamen, zien die fijne details niet meer omdat ze niet meer op focussen en meer concentreren op het actueel gamen.

Neem er nog eens bij, het is een 1ste generatie kaart met die feature. Ieder beetje tweaker dat in de PC hardware molen geweest is, weet dat je nooit een eerste generatie product koopt als het geen onmiddellijke effect heeft. Het kopen van hardware voor de "toekomst" heeft vaak de gewoonte om recht in je gezicht terug te keren want tegen dat er games zijn dat echt die technologie ondersteunen, zijn er al 1 of 2 generatie gepasseerd.

Dat is zoals DX12 en hoeveel games gebruikte DX12 echt in het eerste jaar. Hier en daar een patch om DX12 toe te voegen en een kleine winst. Maar games dat de volledige features echt gebruiken moesten van de grond opgeschreven worden.

Ray Tracing is hetzelfde potje nat. Je zal games hebben dat in een jaar Ray Tracing zullen toevoegen om links of rechts een paar visuele verbeteringen te hebben. Zaken dat je zal opmerken in screenshots of waar je in het game moet naar zoeken. Maar echt games dat visueel een zodanig leaps voorwaarts maken, vergeet het dat je deze binnen de 3 jaar gaat zien.

99.99999% van de markt heeft geen Ray Tracing support. Er is geen enkel game ontwikkelaar dat zich game gaat focussen op Ray Tracing wanneer er geen markt is.

Hoeveel games hebben DX12 support of zijn gebouwd rondom DX12. DX12 is nu al 3 jaar op de markt en de meeste nieuw games zijn nog altijd DX11 ondanks dat het markt aandeel van DX12 nu 85% is ( volgens Steam ).

Waarom? Het kost meerder jaren voor games te ontwikkelen. M.a.w, games dat nu uitkomen zijn hun ontwikkeling in 2015 gestart. Toen was DX12 markt aandeel zo goed als niet bestaande. Nu dat DX12 85% bedraagt en groeiend is, zal je meer nieuw games, waar men juist met de ontwikkeling begint, gebouwd worden rondom DX12. Maar die games zal je pas in 2 of 3 jaar zien uitkomen.

Vervang wat ik schreef over DX12 door Ray Tracing. En je kan zien dat met veel geluk er pas binnen 5 jaar echt meer games uitkomen met Ray Tracing. Tegen die tijd zit je niet meer aan de RTX2080 maar aan de RTX5080 of hogere generatie, dat 500% beter Ray Tracing doet.

En hou rekening, dat AMD op dit moment ook niet uitbrengt met Ray Tracing. Waardoor de markt adoptie nog trager zal verlopen dan met DX12. En veel games deze dagen zijn console/pc ports. Zie je Ray Tracing op de Xbox, PS consoles? Nee ... Daar is weeral een antwoord. Zo lang er geen nieuw consoles op de markt komen met Ray Tracing support ( fat chance want ze gebruiken allemaal AMD GPUs ) en er zijn geen nieuw console gepland in de volgende jaren. Plus het duur een lange tijd eer de nieuw consoles een deftig markt aandeel opbouwen.

Hype en je bankrekening zijn een slechte combinatie. Mijn advies is als je in de markt bent voor een goede GPU, koop gewoon een 1070 of zoiets. En je zal nog jaren gelukkig zijn tegen een fractie van de prijs dat je zal betalen voor de 2080. Hell, ik zie DX11 nog jaren domineren gewoon wegens de Console ports.
Lezen we hetzelfde artikel? Launch prijs van een GTX 2080 wordt zo'n 850,- en een 1080 Ti vind je tegenwoordig voor 650,-...
Ja, een Ti is nu goedkoper, maar is nu ook achterhaalde techniek...
Dat valt heel erg mee. Alle GPU's zijn iteraties van elkaar. de 2080 is gewoon voortgeborduurd op de pascal architectuur en heel misschien hebben ze wat volta techniek erbij gestopt, waarschijnlijk meer om hun enterprise diensten (machine learning/AI) te testen en pro-users ervoor te enthousiasmeren . Ze hebben echt niet opeens een GPU van scratch ontwikkeld. Het zijn vaak meer transistoren, meer cores, meer geheugen etc etc. Zelfs dat laatste is niet het geval...een 2080 heeft 8gb video geheugen en de 1080ti heeft meestal 11gb volgens mij.
NVIDIA ligt gewoon te ver voor op AMD en voelen totaal geen concurrentie, waardoor NVIDIA helemaal niets nieuws hoeft te presenteren. Ze concurreren voornamelijk met hun vorige generatie producten. Ze hebben de volgende iteratie allang klaar, maar houden die achter de hand voor de volgende generatie.

[Reactie gewijzigd door Abom op 14 september 2018 15:53]

Het valt niet mee, de basis is inderdaad hetzelfde, maar er zijn diverse extra, nieuwe, technieken toegevoegd, zoals de ray-tracing ondersteuning.
Je vergeet de opmerking 8 vs 11GB ram, de 1080Ti heeft hier toch wel een voordeel.
Hoeveel games gebruiken er werkelijk meer dan 5-6GB op 4k?. Volgens mij zijn die op 1 hand te tellen.
Voor redelijk wat games zijn downloadable texture packs met veel hq textures. Mogelijks komt dan de limiet van 8GB dichterbij.
Ik bedoel maar, vandaag een 1080ti voor 650 of nog een maand wachten op de 2080 aan 850 die dan ook minder ram heeft.
de 1080 Ti lijkt inderdaad een goeie optie, geniet al 1,5 jaar van mijn Ti ;).
De 2080 Ti heeft ook 11GB, ik zie dat dus niet echt een verschil in techniek.
Maar die 8 GB op de 2080 is wel GDDR6, en dus weer een vooruitgang op de GDDR5+ op de 1080 Ti
Hoeveelheid vram staat altijd boven snelheid vh vram als het om game-ondersteuning gaat. Slecht argument dus van jou.
Nope, geheugen hoeveelheid heeft pas invloed als er te weinig van is, en afaik zijn er nog geen games die 11gb nodig hebben. Geheugen snelheid heeft altijd invloed op de prestaties.
Ik had het over de 2080 die slechts 8 GB heeft. Als de game meer dan 8 GB nodig heeft gaat het niet goed of niet werken en op de 1080Ti wel, ook al heeft hij trager GDDR5X-geheugen.
Als de game meer dan 8 GB nodig heeft gaat het niet goed
Exact wat ik zei, die zijn er momenteel niet.
Maar die komen wel.
Ja, net als games met RTX en DLSS... waar de RTX serie dus een voordeel heeft
Leuk maar er zijn geen Ray Tracing games. En Ray Tracing is zeer zwaar voor een videokaart dat je vast zit aan 1080P en laten deze kaarten nu net gekocht worden door mensen die minimaal een 1440P scherm hebben.

Het echte Ray Tracing in games gaat nog jaren duren dus op dit moment is de 1080TI de beste koop als je een nieuwe high-end videokaart wilt.
dus op dit moment is de 1080TI de beste koop als je een nieuwe high-end videokaart wilt.dus op dit moment is de 1080TI de beste koop als je een nieuwe high-end videokaart wilt.
Nee, dat is de 2080Ti, het ziet er naar uit dat dat momenteel gewoon de snelste wordt. Ja, hij is duur en heeft wellicht niet de beste prijs/prestatie verhouding, maar als je daar geen belang aan hecht...
Je lult uit je nek. Shadow of the Tomb Raider is gisteren uitgebracht en gaat Ray Tracing ondersteunen. Dus jaren?
Nee dat is gewoon nog meerendeel rasterization met een klein beetje Ray Tracing.
Voordat er 100% Ray Tracing gebruikt wordt ben je jaren verder.

Niet teveel marketing geloven. ;)
Een klein beetje RT is ook RT.
Te ver voor op AMD? Ja inderdaad nu nog met RTX maar verder de RX Vega 64 vs Nvidia 1080 tikt in de meeste gevallen betere cijfers. Als je het combineert met verlaging van de vcore kom je in de buurt van de 1080ti. Om dat nu af te schilderen als te ver voor vind ik wel mee vallen. Je kan het ook anders stellen dat zon kleine fabrikant vergeleken Nvidia zon resultaat neerzet is ongelofelijk knap. Daar komt bij dat ze “verantwoordelijker” ondernemen richting hun leveranciers (afdwingen om gaming merken te veranderen of te lieëren aan Nvidia) en moeite doen om voor snelheid en kwaliteit te gaan. Ik denk dat Nvidia veel meer performance kan leveren naar doen ze dat niet doordat er geen concurrentie is. Is dat dan goed voor de consument? Als het ff kan kies ik dan voor David en niet voor Goliat.

Ik ben ook erg benieuwd wat voor antwoord AMD hierop gaat geven.

[Reactie gewijzigd door InsanelyHack op 14 september 2018 21:59]

Gelukkig maken vrijwel alle bestaande games blijkbaar gebruik van die achterhaalde techniek en heb je in de praktijk nog weinig aan die superdeluxe nieuwe techniek.
Klopt, en als iedereen er zo over denkt gaan we nooit nieuwe techniek zien.
Stilstand is achteruitgang.
Tuurlijk ik ben ook blij dat er mensen die extra knaken inleveren hoor zonder er direct wat voor terug te krijgen, maar ik doe het niet.
Ray Tracing is niet bedacht door Nvidia en dus ook niet van Nvidia. ;)

Ik zal eerst eens wat onderzoek verrichten als ik jou was.
Wat doet dat ertoe wie het bedacht heeft? Het gaat erom dat Nvidia het hardwarematig ondersteunt. ;)
Omdat je dat suggereerde.
Het is geen gameworks dus iedere fabrikant kan Ray Tracing gebruiken dat betekent dus zowel AMD als Intel.
En de 2080 heeft die hardware en de 1080Ti en AMD niet, dus ga je beter voor de 2080.
Dus niet, want het voegt (nu) niets toe en dan ga je voor de betere en goedkopere 1080TI als je Nvidia wilt natuurlijk. ;)
Het voegt wel toe want zo'n games zijn er al.
Het gaat gewoon via een standaard DXR API dus iedere kaart fabrikant (Hallo Intel in 2020) die raytracing hardware via die API beschikbaar heeft zou gewoon moeten werken.

https://www.bit-tech.net/...ytracing-api-announced/1/
Ja, een Ti is nu goedkoper, maar is nu ook achterhaalde techniek...
Ja want als je een Geforce GTX 1080 (Ti) heb ga je natuurlijk voor een kaart die maar een heel klein beetje sneller is, want dan kan je de handje vol spellen spelen die die Ray Tracing techniek gebruiken, die in de jaren uitkomen.

Nee je kan beter wachten op de GeForce RTX 3080 (Ti), dan heb je wel een waardige upgrade, en een stuk meer spellen die gebruik maken van Ray Tracing techniek.

De meeste spellen die uit komt nu en volgende jaar zijn ruim 99% zonder Ray Tracing techniek.

[Reactie gewijzigd door AmigaWolf op 14 september 2018 21:20]

Wow, je gaat toch niet ¤850,- of meer uitgeven voor een kaart die bijna niks sneller is dan de kaarten van nu, als je een Geforce GTX 1080 (Ti) hebt (is wat anders als je een oudere kaart heb), "ja maar hij kan spellen spelen die Ray Tracing techniek er in hebben", leuke van dat is dat er maar een handjevol van uitkomen nu en volgende jaar, en is het het niet waard om daarvoor ¤850,- of meer neer te leggen, dus nee is niet echt genieten als hij maar een beetje sneller is.

[Reactie gewijzigd door AmigaWolf op 14 september 2018 21:28]

Sorry, ik had de launchprijs verkeerd gezien.
Lol... er is 1 1080ti in de aanbieding bij alternate omdat ze 20 jaar bestaan en meteen kosten alle 1080 TI's 650 euro?
Ja en 8 andere Geforce GTX 1080 Ti kaarten kost je rond de ¤700,-

So what's your point?
En daarbij hebben alle 1080Ti's uiteraard ook allemaal direct de dezelfde score. Die score van de 1080Ti, is dat het reference model of bijvoorbeeld de overgeklokte Asus Strix? Die laatste kost in de Pricewatch 895 euro.. Er zit nogal flink wat verschil in de performance van de verschillende modellen..
De actie van de GTX 1080 Ti voor ¤650 is trouwens enkel vandaag bij Alternate. Anders heb je pas een GTX 1080 Ti voor vaak dik in de 700 euro of meer.
Zoals anderen al reeds gepost hebben is die 650 euro prijs voor een 1080 Ti een speciale dag actie van Alternate vanwege hun 20 jarig bestaan. Als je die negeert dan zijn de laagste prijzen voor een 1080 Ti tussen de 700 en 750 euro (ligt aan uitvoering en leverancier).

En als je bij de gemiddelde 1080ti in de prijs historie grafiek terugkijkt naar de launch datum dan zie je dat die ook zo rond de 850 euro lag.

[Reactie gewijzigd door CrazyJoe op 14 september 2018 16:51]

Je reactie raakt kant noch wal.

1080 Ti kost tegenwoordig 650 euro. een 2080 850 bij introductie. Je betaalt dus 200 euro voor features die nog door bijna geen enkele game ondersteunt worden en waarvan het resultaat op z'n best discutabel is (lees report op anand tech bv maar).
Een ti kost vandaag 650 euro... normaliter is die duurder.
Zouden we geen budget/prijsbewust/Aldi&Lidl variant van tweakers kunnen maken. Elk nieuwsitem over een nieuwe techniek gaat alleen nog maar over de centjes (ook bv bij iPhones). Laten we gewoon ingaan op het nieuws....
Het meest nieuwswaardige aan die nieuwe generatie is dan ook dat de prijs performance echt zwaar kwalitatief uitermate teleurstellend lijkt te zijn. Als je raytracing (nog) niet interessant vindt en niet met de 2080 Ti graag de allersnelste kaart wil (en daar gigantisch voor wenst te betalen) dan is er straks gewoon eigenlijk geen enkele reden om zo'n nieuwe kaart te halen. En dat dan nadat het al jaren duurde voor er eindelijk weer iets nieuws komt.
Dit probleem heeft met de consoles te maken, de consoles bepalen hoe snel de gemiddelde ontwikkeling momenteel gaat. Vroegah( toen de PC vooruitliep op de console) toen zag je ook zoveel nieuwe technieken en bedrijven uit de grond schieten met pure focus op grafisch pracht en praal(CryTek is hier een van de beste voorbeelden van). Dat was een engine die zijn tijd ver vooruit was en elke kaart op de hoogste instellingen op zijn knieeen krijgt.

Tegenwoordig heb je niet zovaak meer dat soort dingen(alhoewel ik daar ook blij mee ben, ik kan gerust naar pixel games kijken oid), ligt de focus mede door het limiet meer op de gameplay(in theorie (al is dat vaak voor mijn gevoel meer tijd voor marketing en loze beloften)).

Is het ook wel jammer, want grafisch staan we al een helepoos stil, en het fotorealisme wat al jaren geroepen wordt duurt nog wel even. Dit wederom mede dankzij consoles, waar men 4-5 jaar lang dezelfde console kan houden.

Dit betekend natuurlijk ook dat je minder vaak tegenwoordig je PC hoeft te upgraden(toevallig dat ik sta te popelen om te upgraden, maar de prijzen zijn nog veel te hoog).
Toch is de prijs een onderdeel van dit nieuws. Het wordt zelfs aangehaald in het artikel.
Dus jij betaald graag voor iets wat je

a) niet gebruikt
b) early adopter is = niet geoptimaliseerd
c) Performance erbarmelijk slecht is dat het alhoewel er mooi uit ziet, je echt niet vloeiend op 120 FPS kan spelen


Ik zie hier momenteel alleen nut bij strategy games ofzo, en zelfs dan zou ik het uizetten voor de performance boost Oo
Kan me nog goed mijn eerste dure videokaart herinneren, de hd3870X2. 2 gpus op 1 kaart, kost een duit maar dan heb je ook wat. Achteraf gezien had ik het eerste jaar vaak de performance van een enkele hd3780 omdat crossfire geen goede ondersteuning had.. ook frame tearing ingame was een veel voorkomend probleem.

Tegen de tijd dat deze problemen verholpen waren was de kaart een kleine 150 euro in prijs gezakt.. ik heb dus wel mooi een jaar kunnen opscheppen met mijn mooie dualcore videokaart, maar dat heeft me mooi 150 euro gekost. Sindsdien koop ik enkel hardware van een jaartje oud, alle kinderziektes zijn eruit en het is een stuk goedkoper :)
Nooit goed geweest zo dual kaart heb er zo 2 gehad konden nooit kracht neer zetten tegen over 2 lose bridged cf.En eigenlijk altijd total wast of money want er was wel altijd iets die verkeerd ging en meeste spellen waar het nodig was werkte het niet wegens geen Cf ondersteuning.
Yep, een groot drama was het. Dacht je even te investeren in een fatsoenlijke kaart om een paar jaar mee vooruit te kunnen; kan je dat ding achteraf gezien pas na een jaar optimaal benutten. Nooit meer :p
:+ als ik ooit standup weer ga doen onthoud ik deze :9

:P waar de man en vrouw elkaar niet 'gebruiken' lijkt me een saaie relatie(if you catch my drift)

[Reactie gewijzigd door Bjorn89 op 14 september 2018 16:35]

En terecht. Daar de fabrikanten steeds meer van onze centjes willen terwijl onze koopkracht nou niet bepaald is gestegen de laatste jaren.
Pardon? Waaruit concludeer jij dat de prijs hetzelfde is?

¤ 649 voor een 1080TI
pricewatch: Gigabyte AORUS GeForce GTX 1080 Ti 11G

¤ 849 voor een 2080
pricewatch: Inno3D GeForce RTX 2080 Gaming OC X3

Overigens zit er nog niemand te wachten op ray-tracing met +/- 40 FPS op een 1080p resolutie.

Doe jezelf een lol en investeer die 200 euro in een betere CPU / andere HW voor extra performance.

[Reactie gewijzigd door Sjaakys op 14 september 2018 14:54]

die 650 euro is een actie, normaalgesproken betaal je er >700 voor. Dus dan is het verschil toch al weer kleiner.
Klopt.
Alternate is 20 jaar dus is dit een dag actie.
die 649 is dus een actie die alleen vandaag geldt, en kijk je in diezelfde pricewatch zie je dat de volgende shop (en de rest) minimaal 769 is, wat dus maar 80 euro goedkoper is. Nou die 80 euro is dan dus beter besteed aan die nieuwe kaart zodat je er langer mee door kunt dan als je nu een 1080ti gaat kopen (vergeet niet dat de kaart dus echt iets sneller is, nieuwe features heeft en als het goed is, zuiniger is).
Is alleen niet leverbaar voor ¤650,- ;)
Hoezo prachtig resultaat? Normaliter worden productupdates verkocht voor de introductieprijs van het oude model.

Met de introductie van de 2080 en 2080TI gaan de prijzen met honderden euro's omhoog. De 2080 wordt verkocht voor de prijs van de 1080 TI, de 2080 TI is vele honderden euro's duurder dan de 1080 TI.

Ondertussen betaal je dus bij elke nieuwe videokaartgeneratie aanzienlijk meer dan daarvoor. Er was een tijd dat je voor 400 euro het absolute topmodel kreeg voor je geld, nu is dat bedrag al geklommen naar 1300 euro.
Normaliter worden productupdates verkocht voor de introductieprijs van het oude model.
Zo normaal is dat niet, in diverse productlijnen zie je een stijging van de introductie-prijzen, oa bij smartphones.
Je betaalt alleen wel 200 euro voor. En hebt er 2 jaar op moeten wachten. Het is maar wat je prachtige resultaten noemt.
Niet helemaal, de RTX2080 kost 850 euro terwijl de 1080TI 650 euro kost (200 euro goedkoper) volgens dit artikel.
Maarja het artikel klopt niet, want die 650 is alleen toevallig vandaag vanwege een actie, maar de normale prijs die daarna komt bij alle andere shops is minimaal 769, dus nog geen 80 euro goedkoper.. Nou, die 80 euro meer geef ik dan liever uit, aangezien hij toch echt iets sneller is, EN nieuwe features die genoeg games binnenkort gaan gebruiken (is bij de grote game-engines in principe niets meer dan een switch omzetten, MITS je je materials en models al gewoon fatsoenlijk gemaakt hebt).
Komt dan ook nog bij dat de kaart schijnbaar ook nog minder slurpt.
Mijn geld krijgen ze niet, enkel als AMD de markt weer competitief heeft gemaakt en dan nog moet Nvidia een betere deal bieden/ prijs prestatie. Maar mensen zoals jij zijn waarschijnlijk in de meerderheid. Ik weiger extra geld neer te leggen omdat Nvidia de (mining) markt uitmelkt. Idem met RAM; de reden dat ik geen nieuw systeem bouw op dit moment. Ik zal uiteindelijk dus kiezen voor iets van Ryzen 7nm met een AMD kaart, hopelijk krijgen we dan weer waar voor ons geld in plaats van videokaarten en geheugen die hun gewicht in goud waard zijn.

[Reactie gewijzigd door KleineJoop op 14 september 2018 14:52]

Hoewel ik het met een deel van je comments eens ben verwacht ik eigenlijk niet dat de mining markt er iets mee te maken heeft. Verder als er iemand de mining markt lekker heeft uitgemelkt (al jaren) lijkt dat AMD te zijn. AMD's kaarten zijn veel langer amper verkrijgbaar geweest voor consumenten / gamers omdat alles naar de miners ging.
Uhh niet dus want de Ti is al zo'n 200 euro goedkoper. Daarom zet Nvidia ook zo hard in op raytracing en DLSS omdat ze alleen met hunzelf concurreren.

Dat jij dit dus denkt is precies de bedoeling van Nvidia, alleen zie ik het zelf anders omdat raytracing en de andere features gimmicks zullen blijven doordat de kaarten maar een zeer klein marktaandeel zullen hebben door de prijs en ontwikkelaars niet exorbitant veel tijd gaan steken in een feature die op zijn max 5% (dit is al aan de hoge kant) op de totaal aantal spelers van een spel van toepassing zijn.

Dit is precies het cpu scenario met Intel, 10 jaar lang hadden we quadcores en ineens in 1 jaar tijd zitten we op octa cores voor dezelfde prijs doordat de concurrentie van AMD weer aanwezig is.

Ik hoop ook dat AMD dit met GPU's ook kan doen om de totale markt weer een boost te geven. Zelf bezit ik nu een 1070 doordat vega zo lastig te verkrijgen is maar ik bezit liever een AMD kaart omdat die drivers tegenwoordig zoveel beter zijn (Geforce experience :( ).

Maar ook voor Nvidia liefhebbers is de aanwezigheid van een geduchte concurrent beter. Immers zou iedereen liever een RTX kaart zien die 200 euro of meer goedkoper is toch?

Het gaat tenslotte allemaal om de prijs die je als consument er voor betaald.
De TI is dus niet gewoon 200 euro goedkoper, maar ongeveer 80 euro of zelfs minder, die 650 klopt voor geen meter en is alleen vandaag (erg slecht van tweakers om dat zo te vermelden).

tja, en wat is een gimmick, als we dan met jouw woorden gaan praten dan zijn alle shader units ook gewoon gimmicks..
Volgens mij is een 2080 net iets duurder dan een 1080 Ti.
En dus niet sneller. Ik had al verwacht dat het niet veel zou schelen en dat de 2080 af en toe zelfs langzamer zou zijn. 3DMark schaalt vaak erg goed met nieuwe hardware ben benieuwd wat games laten zien.
De 2080 is wel iets sneller dan de 1080 Ti. Het zal hooguit maar 5% schelen in games voor een enorme meerprijs waarschijnlijk.
In 3DMark misschien. Ik moet het in games eerst nog zien.
En dan bedoel ik niet vs de Refferenced 1080 Ti. Want die werd een beetje erg beperkt door zijn koeler.
Maar tov de betaalbare versies met 2-3 fan's. De 2080 refferenced cooler heeft dat nu ook dus dat is imo wel een eerlijke vergelijking.

Ik denk nog steeds dat de 2080 serie tegen gaat vallen als je DLSS niet kan gebruiken.
RTX vind ik niet nuttig in zijn huidige vorm. DLSS heeft wel meer waarde het is mooier dan MSAA of FXAA en zou niet zo'n heftige performance hit geven als TXAA. Maar ik ben wel benieuwd hoe de prestaties dan zijn met DLSS vs FXAA wat de meeste mensen gebruiken of gewoon ook FXAA voor de 2080.
Ach over RTX is ook vrij weinig bekend om daar al conclusies over te maken. 1080p 30 fps loopt iedereen ook maar wat over na te praten terwijl de game ontwikkelaars al aangaven er nog aan te werken.
vind 80 euro (of minder) niet een enorme meerprijs, die 650 is alleen vandaag vanwege een verjaardag van alternate (dus erg misleidend van tweakers om het zo in het artikel te vermelden OF gewoonweg slecht omdat ze niet fatsoenlijk gekeken hebben).
Over gaming prestaties heeft niemand het, dat je dan een sneer moet maken, en dan ook nog over iets wat jij zelf hier verzint slaat nergens op. Waarschijnlijk zei ik en dat betekent niet dat ik er een feit van maak. Overigens is niet alleen de RT core nieuw, maar ook de Tensor cores voor AI, DL werk, wat nu ook naar gaming komt. Wat er in games gaat gebeuren qua snelheid blijft nog even speculeren, maar jij weet al meer?

[Reactie gewijzigd door Gekke Jantje op 14 september 2018 22:20]

Ik denk dat die prijzen langzaam maar zeker gaan zakken als de 2080 goed leverbaar worden bij de leveranciers.Tevens wat je zecht over de titan xp videokaart, hij is altijd slecht leverbaar.
Maar ik denk dat die 2080 die wat snelheid betrefd de titan gaat inhalen.Ik vind dat die titan best lang nummer 1 is geweest als je nagaat hoe snel deze computer ontwikkelingen gaan tegenswoordig.
Moeten we maar een paar dagen wachten dan kunnen we de benchemarks zien, en kunnen we weer kwijlen voor de monitor.
Belachelijk slecht resultaat, na 2 jaar geen performance increase voor meer geld, echt heel slecht.
Ray tracing en deep learning, pfff, wij willen performance.
er staat mij iets van mij dat Nvidia de gebruiksvoorwaarden had aangepast waardoor deep learning toepassingen niet meer gebruikt mochten worden op de GTX 1000 series. Ik kan het helaas niet terug vinden zo snel. Benieuwd of de RX 2000 series ook restricties voor gebruik gaan krijgen in de garantie voorwaarden.

toch nog iets gevonden : een ruime verwijzing in de EULA voor datacenter toepassingen

http://timdettmers.com/20...ch-gpu-for-deep-learning/
Daarom gaven ze dus geen cijfers tijdens de presentatie :) mooi moment voor AMD om NVIDIA in te halen
Met wat? Eerst had AMD alleen nog maar de GTX 1080TI waar ze geen antwoord op hadden. Nu zijn dat de GTX1080TI, de RTX2080 en de RTX2080TI geworden.
Gaming GPU's zijn voor AMD momenteel geen focus punt.
Volgens mij is nr1 op dit moment de server markt + datacenter dus EYPC en Instinc producten voor deep learning.
Dan de normale CPU markt met Ryzen gevolgd door (of net andersom) de Semi custom chips in de Playstation en Xbox consoles
En daar na pas de markt voor losse kaarten zoals de RX 580. Ik noem Vega specifiek niet want je kan wel met Vega gamen maar het is geen Gaming Architectuur. Vega was gemaakt voor het datacenter (deep learning) en je kan er ook aardig op gamen. Maar hij is daardoor wat minder efficient met gaming. (en zeker omdat AMD het nodig vond de GPU op 1,2v te laten lopen ipv max 1.0)

AMD zal zich dus ook niet rechten op die RTX2080 Ti.
Ik verwacht dat Navi zich richt op 1080/1080Ti en Vega 64 performance voor een betaalbare prijs zoals Polaris dat eerder deed tov de 970/980 en R9 290(X) en R9 390(X).
En daar naast komen ze met lagere modellen. Maar dat is imo prima. Alleen qua marketing is het gewoon een nadeel als je niet in het top segment mee kan doen. Maar het is niet direct een ramp.

Het lijkt mij ook verstandig dat AMD nu alle tijd en effor steekt in de CPU markt want daar zijn ze net goed bezig. Zodra ze daar weer een beetje voet aan de grond hebben kan je extra moeite steken in de high end GPU's (want ze blijven wel gewoon door ontwikkelen voor de console fabrikanten. Navi zal in de PS5 en de nieuwe Xbox gebruikt gaan worden). AMD heeft maar beperkt budget dus ze kunnen momenteel niet beide dingen tegelijk doen. En Lisa doet dat heel goed door keuzes te maken helaas jammer voor de mensen die van zijn van high GPU's.
Klopt helemaal! AMD houd zich bijna niet meer bezig met de high end gaming kaarten. Opzich een prima keuze van AMD. Het jammere van deze keuze is dat nVidia nu wel de markt voor zichzelf heeft en dat komt de prijzen van nieuwe kaarten helaas niet ten goede. Enige concurrentie zal wel geholpen hebben om de prijzen te drukken.

Daarom hoop ik ook dat AMD het wel weer op gaat pakken in de toekomst. Naast dat de prijzen daardoor zullen dalen voor consumenten is het ook weer een reden om de ontwikkeling bij nVidia weer op een hogere prioriteit te zetten.
Dat topsegment wordt ook tevaak aangehaald, dat is maar een kleine markt. Echter sijpelt dit argument wel door naar Highend/Medium en lagere regionen (voor degene die er geen verstand van hebben, ja piet zei dat nvidia sneller was.... vraag je dan verder welke kaart, met welke andere kaart blabla) dan weet men geen argument te maken.

Het enige wat ik mij kan bedenken is het constante herhaal dat Nvidia het snelste is(maar waar, welk gebied wordt niet gevraagd).

Op die manier zou het belangrijk zijn voor AMD om toch TOPkaarten te hebben, maar hopelijk gaat men iets vaker met hun portomonee nadenken dan prestatie masturbatie.
Ja klopt en dat is zeker waar.
Echter kijken oem's gelukkig wel wat verder en hebben tegenwoordig steeds meer mensen internet zodat ze ook reviews kunnen lezen. Dus dan kan je wel zien dat kaarten van een ander bedrijf als nVidia in het mid range segment een betere keuze zijn.
Ik ben het met je eens dat er ook genoeg mensen zullen zijn die die moeite niet nemen of zich laten beïnvloeden door logo's in games.

Dus het is zeker belangrijk om de snelste kaart te hebben echter is dat gewoon niet haalbaar. Daar gaat te veel geld in zitten wat er op dit moment niet is. Ze kunnen beter proberen Intel in de CPU markt te verslaan en daar na weer naar GPU's te kijken. Want qua CPU's maken ze wel de kans om de prestatie kroon over te pakken als ze nu goed door blijven pakken. Dus het is niet logisch om nu veel geld in een High end GPU te pompen om vervolgens het net niet te halen. Qua GPU's is het gat momenteel gewoon groter. AMD heeft in qua CPU's nu wel goede kaarten in handen met de Zen architectuur en een 7nm proces waar intel problemen heeft met 10nm.

Ik hoop ook dat er weer een super GPU van AMD komt maar dat is nu even niet realistisch. Misschien schaalt Navi iets beter dan ik nu verwacht of toveren ze echt iets uit hun hoed wat het op kan nemen tegen de 2080Ti maar ik verwacht dat nu niet. Wellicht dat ze de volgende generatie met een echt nieuwe architectuur wel weer iets leuks neer kunnen zetten.

Over over dat men hopelijk na gaat denken. Dat zie ik niet snel gebeuren. Zie ook hoe relatief populair die Titan kaarten zijn. En dat is alleen maar voor de Epeen tov de 980, 1080Ti ect. Dus ik vrees dat dat er voorlopig nog niet echt in zit.
Zeker niet als nVidia zo goed blijft met die marketing. AMD doet het al wel iets beter de laatste tijd maar nog lang niet op het niveau van nVidia. Ze zijn daar in het verleden niet sterk in geweest. Ze hadden altijd geweldige technologie maar het aan de man brengen er van is lastig gebleken.

[Reactie gewijzigd door Astennu op 14 september 2018 18:48]

Ze hoeven niet sneller te zijn, als Navi bijvoorbeeld 50% goedkoper is, maar 75% van de prestaties heeft, is het al goed genoeg.
Deden ze met de 7950 ook, waarom zou het niet nog een keer kunnen.
Daarom gaven ze dus geen cijfers tijdens de presentatie :) mooi moment voor AMD om NVIDIA in te halen
Precies, kan ook niet anders als de GeForce GTX 1080 Ti bijna net zo snel is als de GeForce RTX 2080, nee het is nu in ieder geval geen goede vervanging van de Geforce GTX 1080 (Ti), wacht wel tot de GeForce RTX 3080 (Ti) ui komt, en voor die handje vol spellen die Ray Tracing er in hebben is het ook niet waard.

[Reactie gewijzigd door AmigaWolf op 14 september 2018 21:05]

Twijfel om de 1080 ti voor 650 euro aan te schaffen, zullen de prijzen van de 1080 ti's op 600-650 blijven na kost van de rtx series?
Dat lijkt me sterk, zeker als echt blijkt dat de 2080 slechts marginaal sneller is.. Maar wie weet zakt dan de 2080 ook wel in prijs ;) (ik denk het niet)
Als de prijs van de rtx niet daalt zal dat inderdaad niet hrel rap gaan. Mogelijk kan je erwel 1 voor 500 kopen 2dehands als de 2080ti uit komt. Van 1080ti naar 2080 is niet echt een upgrade dus daar zullen weinigen hun 1080ti voor weg doen.
Ik heb begrepen dat die prijs alleen vandaag geld. Als je het mij zou vragen: doen !. Het is dat Sli tegenwoordig vrijwel niet meer ( goed ) ondersteund word, anders had ik er een tweede bijgehaald..

Ik denk dat de RTX2080(ti) niet zo veel gaat brengen als we allemaal hopen/verwachten. Het is niet voor niets dat er nagenoeg geen Bench resultaten worden getoont door NVidia zelf. En dat Ray tracing: het zal wel, laten ze dat eerst maar goed implementeren/optimaliseren en een pak sneller worden.
Prijstechnisch lijkt de RTX2080 helemaal niet interessant; of je moet EUR 200 over hebben voor raytracing.
Ik zit momenteel op een GTX980 (non-Ti).
Als ik nu wil upgraden, waarom in godsnaam zou ik voor een 10-reeks gaan?
Die dingen gaan kelderen in prijs eenmaal de RTX-reeks op de schappen ligt, loopt nog steeds achter qua generatie (en volgens de benchmark, ook performance).

Ik zou die 200 euro niet enkel voor RT (of zelfs deeplearning) zien. Die RTX-serie gaat sowieso meer aandacht krijgen van nVidia, en een jaartje, of misschien zelfs 2 langer ondersteund worden met drivers.

Nu een serieuze upgrade doen met een 10x0 Ti is weggegooid geld. Als je moet vervangen omdat iets defect is, is dat een ander verhaal. Maar nu upgraden: RTX. Geen argument. Binnen 2-3 maand upgraden: dan zal de 10-reeks stukken aantrekkelijker zijn qua prijs.
Naar mijn idee een aparte beredenering. Je zal als je upgrade kiezen voor een apparaat van 650/700 euro voor een 1080ti welke x snelheid heeft. of 859 euro voor de RTX 2080 vergelijkbaar aan x snelheid. (er vanuit gaan dat je geen Raytracing gaat gebruiken) Dus ik vind er wel een argument voor als je minder geld wilt uitgeven voor meer performance 1080ti > 980ti. Maar misschien begrijp ik het verkeerd.
Gezien je blijkbaar niet extreem lang doet met je videokaart gezien je van een 980 komt lijkt het mij vrij onzinnig om naar de tijdsduur van de ondersteuning te kijken. Wat voegt dat precies toe als je verre voor het laten vallen van de ondersteuning de kaart al inwisselt? 10 of 12 jaar ondersteuning? Is dat echt relevant en 200 euro waard? Over 10 jaar heb je voor 200 euro een snellere kaart dan de 2080 :Y)

Ik betwijfel of de prijs van de 1080ti gaat dalen voordat de 2080ti goed beschikbaar is. Nu zit er al een enorm gat tussen de 2080 en 1080ti qua prijs waar je vandaag de dag performancewise niks aan heb. Het nut zal over tijd misschien wat groeien hoewel ik hoop dat zo min mogelijk games RTX gaan gebruiken zolang het een nvidia only ding is.
Een 'oude' videokaart gaat de deur niet uit, die wordt repurposed in huis. Dus ondersteuning is zeker wel een belangrijk aspect.
Dat kan en heb ik ook netjes afgedicht in mijn verhaal ;)

Zoals gezegd kan je over 10 jaar wat snellers kopen voor die 200 euro die je je nu kan besparen. En dan haal je daar makkelijk 20+ jaar ondersteuning mee ipv 10 of 12...

Maar je moet absoluut doen waar jij je goed bij voelt. Maar zoals duidelijk is ik vind het een totaal niet valide argument om 200 euro extra voor te lappen :Y)
Hoezo, je steekt een tweede kaart erbij tegen lagere prijs?

2x10x0 TI tweede hands kaarten veel goedkoper dan 1x 2080 met early adopter written all over it.
Want SLI is zo goed geimplementeerd overal ;)
zelfs de 680 krijgt niet driver updates, hoe lang wil je met een gpu doen? Is geen argument om voor een gpu van 1 generatie later te kiezen.
Voor jou wellicht weggegooid geld, maar ik zit nog op een GTX770 en ik zou dolgraag een 1070 of 1080 kopen voor een dumpprijs. Zelfs voor mijn nieuwe PC die ik aan het samenstellen ben zou ik graag een afgeprijsde 1070 kopen (alles op ultra 1080p) en dan over twee jaartjes weer een upgrade naar een dan gedumpte 2070. Ik betaal onder de streep hetzelfde maar ik heb wel twee keer prima waar voor mijn geld. Het is maar hoeveel geld je eraan wilt besteden. Ik ben niet bereid om voor de hoofdprijs een beetje extra performance te krijgen. Geef mij maar lekker die afgeprijsde 1070!
Performance increase van 770 => 1070/1080 is dan ook pakken groter dan 980 - 1080(Ti).
Dan zou je eigenlijk je increase aan FLOPS per gespendeerde dollar eens tegen elkaar kunnen afzetten en dan is een 10x0 geen slechte keuze. Maar zelf zou ik dan eerder toch die extra 200 binnenharken en voor een RTX gaan een maandje later. Gewoon. Omdat nieuw.

[Reactie gewijzigd door Tokkes op 15 september 2018 11:30]

die 200 euro klopt niet, dat is 1 shop die em voor 650 verkocht en alleen vandaag, de eerst volgende shop en de rest is minimaal 769 euro, ofwel 80 euro of minder goedkoper.
En de kaart is dus wel degelijk iets sneller, heeft dus nieuwe features en slurpt als het goed is ook nog minder, al met al wat meer future bestendig en daarmee dus wel degelijk die 80 euro (of minder) meer waard ten opzichte van een 1080ti... Komt wel bij dat ik zelf sowieso 300+ euro voor een videokaart al 8)7 vind.
Een RTX 2080-kaart van Gigabyte haalt 10.659 punten in het grafische onderdeel van de Time Spy-benchmark, een andere kaart, waarvan het merk niet bekend is, haalt 9319 punten. Het verschil van zo'n 14 procent kan komen door afwijkende kloksnelheden en overklokinstellingen.[
Vreemde stelling. De kloksnelheden staan er gewoon bij: 1995Mhz voor de onbekende kaart en 1875 Mhz voor de Gigabyte. En de Gigabyte zou sneller zijn omdat hij anders ( lager ) geklockt is ?

14% verschil vind ik trouwens ook wel een hoop tussen 2 dezelfde kaarten. Zouden het niet gewoon de 2080 en de 2080Ti zijn?

edit:typo

[Reactie gewijzigd door micla op 14 september 2018 15:36]

Die snelheid die daar staat zegt weinig over hoelang de snelheid wordt vastgehouden. Misschien boost de ene kaart eventjes naar 1995MHz en draait de ander constant op 1875MHz. Beide kaarten worden door 3DMark herkent als RTX 2080.

Een 2080 Ti zal een heel stuk sneller zijn dan een 2080, dat is geen verschil van 14 procent. Dat kun je al zien aan de specificaties van de kaart: 4352 cudacores voor de Ti en 2944 voor de reguliere versie. Dat is een verschil van 48 procent. De cores van de 2080 Ti zijn wel iets lager geklokt, maar toch.

[Reactie gewijzigd door Xtuv op 14 september 2018 15:47]

De cores van de 2080 Ti zijn wel iets lager geklokt, maar toch.
Daarom juist. De Ti versies zijn doorgaans lager geklockt.

Ik weet niet hoe het met de geheugen bandbreedte is bij de 20.. serie, maar daar had de 1080Ti zijn grootste winst vandaan t.o.v. de non-Ti. Dus als daar nu niet heel veel verschil in zit, zou het zo maar kunnen..
De RTX 2080 Ti heeft 11GB vram, de kaarten hier in de benchmark beiden 8GB. Het zijn hoe dan ook 2080's :)
Ja, dat is zo. Goed punt. We zullen nog even geduld moeten hebben dan maar.
kom maar met de -1...

Nvidia denkt, wat Apple kan, kunnen wij ook.
Hoppa, ¤200,-er boven op, zonder dat er écht wat veranderd is. :+
Hoppa, ¤200,-er boven op, zonder dat er écht wat veranderd is. :+
Er is wel wat veranderd.

Maar price/performance in huidige games helaas niet. :(
De startprijs van de 1080ti was ook higer dan de prijzen nu. De prijzen zijn na introductie gestaag wat gedaald. En de normale prijs ligt toch echt boven de 700 euro. De 650 is een aanbieding van Alternate en alleen vandaag 650 euro.

Dus je roept maar iets.
Hij schetst het idd wat dramatischer af dan het in werkelijkheid is, maar hij heeft wel een punt. Feit is dat je op dit moment gewoon dezelfde prestaties krijgt voor ongeveer hetzelfde geld. Het is natuurlijk afwachten wat de prijzen gaan doen, maar als dat is wat ze na 2 jaar bieden...mwah.
Lees wel even goed.

De 1 is een oudere TI dit is een "gewone" 2080.

We kunnen pas bepalen wat het echte verschil is als de 2080-TI versie uitkomt.
Als deze ook 40 % sneller is dan de gewone...dan is het beeld heel anders.

De 1080TI had ook 40% meer prestaties dan de gewone 1080.
Daar ben ik mij van bewust en dat heb ik goed gelezen ;)

Die nieuwe Ti gaat zeer zeker ook een heel stuk meer kosten dan de nieuwe 2080. Dus leuk dat ie dan 40% sneller is, maar als ie dan evenredig duurder is dan de 2080 schiet je er niets mee op.
Je schiet er natuurlijk wel wat mee op... 40% hogere fps (of minder maar met veel hogere settings)

Maar ga er maar niet van uit dat 40% duurder ook 40% sneller is, om het snelste te hebben betaal je meestal een dikke premium.
Ik bedoelde natuurlijk in relatie met de prijs. 40% sneller en tegelijkertijd 40% duurder(waarschijnlijk nog meer zoals jij schetst) vind ik geen verbetering. Puur technisch gezien wel natuurlijk, maar consumenten hebben er niets aan op die manier.
Nou ja als je probeert te raytracen op de 1080TI kom je een heel end, maar dan is een 2080 ineens meerdere keren sneller, dus het is maar net waar je het mee vergelijkt.

Natuurlijk is het zo dat je nog niet veel ray tracing zult zien in games, maar dat is het kip/ei probleem met nieuwe technieken.
Nee, je krijgt meer voor ongeveer dezelfde prijs, je krijgt in iedergeval minstens zoveel meer wat het prijsverschil vandaag is (80 euro of minder).
Raytracing is gewoon een marketing kreet om te proberen om deze videokaarten beter te laten blijken dan dat ze eigenlijk zijn, de prestatiewinst is minimaal. Hoeveel games ondersteunen raytracing nou eigenlijk?
Het gaat niet om prestatiewinst betreffende RT. Er is wel degelijk een grote prestatiewinst t.o.v. zijn directe tegenhanger, de GTX1080 (zie artikel).

RT is ook geen marketingkreet, maar gewoon een nieuwe techniek welke veel efficiënter uitgevoerd kan worden op deze nieuwe kaarten (las ergens tot 10x snellere prestaties, t.o.v. de GTX1080 wanneer conventionele methodes worden gebruikt).
Oke, en als dat betekend dat we van 10 naar 30 fps gaan ofzo, nou wow. Lekker vloeiend spelen, de eerste framedrop met teveel schaduwen en je spel hangt al op 5 FPS :')

Daarom dit is weer iets voor de toekomst, de techniek is geweldig en heb de resultaten gezien. Maar het heeft nu gewoon qua performance te weinig zin om dat te gebruiken.

Het enige wat je dan nog verder koopt is een kaart die sneller is, maar ook duurder.
Dus betaal jij 10x voor iets wat nog niet eens in 0.05% van de games zit, om te zeggen dat je het hebt.. Of koop je het omdat je het daadwerkelijk gaat gebruiken?

Voor RTX hoef je die kaart neit te kopen, niet als je fatsoenlijke perfomance wilt bij z'n techniek. Dan kun je beter nog een tweedehands 1080 op de kop tikken en SLI pakken.
Of ik dat zou doen? Nee. Betreft videokaarten ben ik geen early adopter meer. Maar dat zegt niets over de prestaties of RT.

Zoals bij (vrijwel) iedere nieuwe techniek die beschikbaar wordt gesteld voor 'het normale' publiek, is in het begin van die ontwikkeling geld en tijd nodig voor ontwikkeling, zodat efficiëntie en standaardisering voorop komen te staan. Het moet ergens beginnen en dat begint meestal in het dure high end deel.

Los van RT(x) zijn deze 2080 kaarten ook 'gewoon' een stuk sneller..
Er is helemaal geen prestatiewinst... Raytracing is een techniek die het beeld mooier maakt, niet een techniek die hetzelfde beeld sneller uitrekent.
Sterker nog, eerste tekenen zijn dat het een flinke performance hit gaat betekenen als je het aanzet en gamers die van hoge framerates houden helemaal niks te zoeken hebben op deze gpu generatie.
De meeste nieuwe games die vanaf de herfst uitkomen zullen dat gewoon ondersteunen.. Is in feite niets meer dan een switch aanzetten mits je al je modelling/materials nu al gewoon fatsoenlijk gebruikt.
Niemand beweert dat het om een echte volledige raytracing gaat, maar het is dus in werkelijkheid bij de grote engines wel een kwestie van een switch omzetten. En weer zeg ik het maar, indien je wel al je modellen/materials fatsoenlijk hebt gecreerd, zodat de engine weet wat 'shiny' moet zijn en wat niet, maar DAT moet je al jaren.
Ik vind dit wel een beetje stemmingmakerij van Tweakers. Zoals meerdere reacties hier laten zien is er 1 variant van de 1080Ti bij 1 winkel 650euro. De rest zit allemaal tussen de 720 en 850euro.

Neemt niet weg dat je dezelfde prestaties voor meer of hetzelfde geld krijgt. Links laten liggen op dit moment dus. Het is afwachten wat raytracing in de toekomst gaat doen.
Neemt niet weg dat je dezelfde prestaties voor meer of hetzelfde geld krijgt.
Erm... 14% sneller zou ik niet 'dezelfde prestaties' willen noemen. De vraag is echter of dit straks ook in het wild zo is, wat uiteindelijk beide prijzen zullen zijn en wat de daadwerkelijk ingame resultaten zullen zijn. Op basis van bovenstaande resultaten een beslissing maken zou ik bijzonder kortzichtig noemen.

Echter als je op het punt staat om een 1080Ti te kopen en er zit geen bloedspoed achter (zoals bv. defecte videokaart of nodig voor een specifiek, tijdgebonden project), dan zou ik even wachten op die RTX 2080 en een berg reviews lezen van verschillende bronnen die je vast zal tegenkomen op release.
Die 14% is het verschil tussen de 2080 van Gigabyte en de 2080 van "een onbekend merk". Met andere woorden: een 2080 van "een onbekend merk" heeft 9319 punten. Volgens de review van Tweakers haalt de 1080Ti(Founders edition) een score van 9405 in dezelfde benchmark. Dus de 2080 "van een onbekend merk" haalt wel degelijk praktisch dezelfde score als de 1080TI.

Ik maak helemaal geen beslissing op basis van deze resultaten. Dat staat namelijk gewoon in mijn reactie, direct na het stuk dat jij geciteerd hebt. Daar zeg ik namelijk "op dit moment" en "Het is afwachten wat raytracing in de toekomst gaat doen."
in de pricewatch zijn de meeste 1080Ti kaarten nog altijd tussen de 700 en de 850 euro voor zover ik kan zien. er is wel geteld 1 1080Ti die 650 is en das alleen het geval bij 1 winkel. lijkt me daarom niet een compleet zuivere vergelijking...
Goed punt, het is een speciale aanbieding ook. Tekst wat aangepast :)
marketing was succesvol..... vele preorders tegen een prijs die zeker te duur is voor zo een kaart! want raytracing zal de fps laten verbleken :) Dus meestal speel je zonder die functie op de weinige spellen die de technologie hebben.
De demo's draaide zelfs in 30 FPS. De FPS met Ray Tracing aan is gewoon te laag om fatsoenlijk te kunnen gamen. Zie:
https://www.techpowerup.c...ages-30-60-fps-at-full-hd

Ray Tracing voor consumenten (want Ray Tracing bestaat al jaren in de profesionele markt) is een feature die te vroeg geimplamanteerd is. Pas als die kaarten 60 FPS aan kunnen tikken worden ze intresant. (Buiten het feit dat ik +/- 144 FPS wil) ik wacht nog een generatie tot de 3xxx series. Tegen die tijd is mijn 3770K ook aan vervanging toe.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone XS HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True