Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Modders solderen sneller geheugen op GeForce RTX 2080 Ti-videokaart

Modders van TecLab zijn erin geslaagd om een 'RTX 2080 Ti Super' te maken door 16Gbit/s-geheugen van een 2080 Super-videokaart over te zetten naar een 2080 Ti-videokaart. Laatstgenoemde wordt geleverd met 14Gbit/s-geheugen.

Nvidia's RTX 2080 Ti bevat 11GB aan 14Gbit/s-geheugen. De modders van TecLab nemen daar geen genoegen mee en besloten twee RTX 2080 Super-kaarten op te offeren om het snellere geheugen daarvan over te zetten naar de Ti-versie. De 2080 Super heeft 8GB aan 16Gbit/s-geheugen en omdat deze minder geheugenchips bevat dan een Ti-variant, waren er dus twee kaarten nodig.

Het overzetten van het gddr6-geheugen is geen eenvoudig klusje. Eerst moesten de geheugenchips van de 2080 Super-kaarten losgemaakt worden. Dat lukte door deze te verhitten en ze los te trekken van de printplaat. De geheugenchips zijn met een ball grid array op de printplaat bevestigd. Om de 16Gbit/s-chips op de 2080 Ti-kaart te bevestigen, moesten ze van nieuwe balletjes worden voorzien. TecLab heeft daarvoor een mal gebruikt.

De operatie is succesvol verlopen. TecLab slaagde erin om de 2080 Ti werkend te krijgen met het 16Gbit/s-geheugen van de 2080 Super-kaarten en dat over te klokken naar 2150MHz. De modders denken dat de overkloksnelheid door de geheugencontroller van de 2080 Ti werd beperkt.

Met waterkoeling en een gpu-overklok naar 2250MHz zet de 'RTX 2080 Ti Super' een score neer van 11.460 punten in de Superposition Extreme-benchmark. Op stocksnelheden haalt een 2080 Ti in die benchmark zo'n 9150 punten.

Vertaling is beschikbaar via de cc-optie van YouTube

Door Julian Huijbregts

Nieuwsredacteur

28-11-2019 • 09:36

111 Linkedin Google+

Reacties (111)

Wijzig sortering
Wat een gekken. Voor aanvang van dit project zou ik het nog geen 0.01% kans op slagen geven. Er moet maar 1 pinnetje niet/fout verbonden zijn en de boel werkt niet. Of 1 padje loskomen op het PCB. Of 1 component het begeven wegens veel te hoge temperatuur terwijl je heel zijn backside met soldeerbout bewerkt. Of .... nog wel een 100tal dingen die fout kunnen gaan
Doet me denken aan de kans dat je in 1969 met de toen beschikbare electronica op de maan kan landen en heel terug geraken. Maar dat is toen ook gelukt en dat vinden we ook geen gekken
Met het geschikte gereedschap, waaronder een heteluchtsoldeerstation en een reflow-oventje, is BGA's afsolderen, reballen en weer op een PCB monteren prima te doen hoor. Ongetwijfeld te hoog gegrepen voor de gemiddelde elektronica-hobbyist, maar ook weer geen raketwetenschap.
Ik vraag me dan af hoe je dit soort dingen kunt gaan uitsluiten/debuggen:
https://murraypercival.fi...14/12/solder-bridging.jpg
Met goede flux. Die geeft dat de balletjes perfect rond blijven door oppervlaktespanning en tegelijk ook niet oxideren door de warmte. Dat heb je toch zowieso nodig als je wil gaan reballen en dat tientje meer voor een premium merk flux ga je niet merken als je al 3GPU's op je boodschappenlijstje hebt.

Meer info over flux:
https://en.wikipedia.org/wiki/Flux_(metallurgy)
Bij zo'n projecten worden de materialen vaak gesponsord, omdat het nadien toch gratis reclame oplevert.
Ik vraag me dan af hoe je dit soort dingen kunt gaan uitsluiten/debuggen:
https://murraypercival.fi...14/12/solder-bridging.jpg
Dan zou je je ook moeten afvragen hoe Nvidia het om te beginnen voor elkaar krijgt om die kaarten te produceren :) In een kleine reflow-oven zoals deze: https://www.eurocircuits.com/ec-equipment-ec-reflow-mate/ die bedoeld is voor reparaties en prototypes, kun je de temperatuurprofielen net zo instellen als in een industriële reflow-oven met lopende band en meerdere temperatuurzones. Het soldeerproces is hetzelfde als in de fabriek, het verschil is dat je geen massaproductie kunt draaien.
Dan zou je je ook moeten afvragen hoe Nvidia het om te beginnen voor elkaar krijgt om die kaarten te produceren

Nee, ik bedoelde als hobbyist. Hoe ga je dit debuggen met een multimeter? Hoe weet je dat je niet teveel tin/tinpasta hebt gedoseerd, waardoor een balletje net iets afwijkt qua grootte en contact maakt met een naburig balletje? Daar helpt zo'n oventje niets bij.

[Reactie gewijzigd door Neophyte808 op 28 november 2019 15:15]

Hoe ga je dit debuggen met een multimeter?
Daar kom je niet ver mee. Als je geluk hebt kun je bijvoorbeeld een kortsluiting tussen twee pcb-sporen meten die niet met elkaar verbonden horen te zijn. Maar bij pcb's met bga's erop liggen vaak veel sporen tussen bga's op binnenlagen van de pcb, en komen ze behalve onder de bga nergens aan het oppervlak zodat je eraan kunt meten.
Ja, precies, continuïteit testen wordt dan lastig. Ik heb een heteluchtstation hobbymatig, maar om de redenen die jij noemt blijf ik liever bij QFP packages i.p.v. BGA, is nog net door te meten.

[Reactie gewijzigd door Neophyte808 op 28 november 2019 17:09]

Om het zeker te weten heb je röntgen nodig maar theoretisch is de kans nihil als je een reflow station gebruikt dat met die kromme substrates/pcb komt door in en uitzetten van substrate/pcb maar daarvoor is het dus van belang dat je een proces doorloopt met temperatuur regeling.

Maar goed als ze achterin een modshop met een warme luchtbout een ps4/xbox weten te reballen hoef je je echt geen zorgen te maken over dit soort spul 😂
Toch kan ik me voorstellen dat je wilt testen of je geen shorts hebt voor je weer prik zet op je dure videokaart.
Dat gebeurt alleen als de temperatuur bij het verhitten niet goed verdeeld is. Als je een heteluchtstation gebruikt moet je de omgeving ook verwarmen, of nog beter kan je een preheter onder de PCB gebruiken, die verwarmd de hele PCB naar rond de 70-100 graden waardoor het solderen allemaal veel makkelijker gaat.
Eerlijk gezegd is wat ze doen niet eens zo heel ingewikkeld als je een rework station hebt met infrarood en up en bottom heating.

Het enige waar ik bij begon te cringen was toen hij met die rare punt en litze over het soldeerbed ging daar heb je veel mooiere manieren voor.

Ik modde 20 jaar geleden ongeveer al xbox naar 128mb ipv 64 en in de tussentijd heb ik veel meer ervaring opgedaan en ik kan deze operatie zo dupliceren en durf er zelfs garantie op te geven dat het net zo goed is als fabriekswerk.

Hoop enkel dat ze de kaart nog in een ultrasoon badje gooien met fluxcleaner.

Voor de rest een echte tweaker waardige mod ben alleen bang dat je niks hebt aan eventuele strakkere timing waar dit geheugen gebruik van kan maken omdat je dit helaas niet meer kan aanpassen Door een bios te modden gezien dit allemaal encrypted is.
Eerlijk gezegd is wat ze doen niet eens zo heel ingewikkeld als je een rework station hebt met infrarood en up en bottom heating.
Warmte is toch altijd IR? Of zijn er desoldeer station die alleen IR-licht gebruiken en geen hete lucht? Up & bottom heating, is dat die "toeter" die aan het begin te zien is?

Het enige waar ik bij begon te cringen was toen hij met die rare punt en litze over het soldeerbed ging daar heb je veel mooiere manieren voor.
Zoals? Heb je het over 6:45?
Ja precies zoals 6.45 als je het op de "correcte" manier wilt doen pak je een soldeerstift die zeg maar 1 tot 2 cm breed is en gebruik je een klein stukje litze dezelfde breedte als de stift.

Voordeel hiervan is dat je geen ongelijke kracht kan zetten en hierdoor echt het litze het werk laat doen.

En die toeter zoals jij het noemt is inderdaad een IR verwarmings element dit zorgt ervoor dat je zeer lokaal een onderdeel kan verwarmen.

Wat ze wezenlijk doen is met heaters vanaf onder de print rond de 100 graden verwarmen. Dan lokaal met in dit geval vermoed ik de core richting de 180 verwarmen aangezien deze warmte doorvloeit in het bord en vervolgens hotblasten ze de chips met een luchtbout met 230+ graden zodat de solderballs loskomen.

Bij het terugplaatsen heb je ook hetzelfde principe daarnaast zijn er in de specsheets te vinden hoelang een onderdeel een bepaalde thermische belasting aan kan.

Daarom is een rework station dan ook zo duur het is niet simpelweg opwarmen maar een proces van stappen.

Oja IR is in dit geval stralings warmte die gericht is vanuit de "toeter" waarbij hete lucht dus een opgewarmde stroom is die er langs stroomt nadeel van warme lucht is dat het onderdeel ruim eromheen flink verwarmd denk dan vooral aan de condensatoren die zilverkleurige potjes op de kaart deze vinden dat niet leuk.
Dus dan is het lokaal opwarmen een beter idee.

[Reactie gewijzigd door TRAXION op 28 november 2019 16:11]

Selecteer je die 1 tot 2 cm op basis van de breedte van de geheugenchip die je schoon wilt maken? Nog nooit een soldeertip van breder dan 1cm gezien overigens. Ik denk dat ik hetzelfde gedaan zou hebben als in het filmpje, alleen dan wel met een chisel- of drag-solder tip.
https://www.hakko.com/eng...ion/type_smd-spatula.html FYI
https://www.hakko.com/eng...t12.html#type_smd-spatula

https://www.youtube.com/watch?v=s38vQxXv0GE hier nog een filmpje als voorbeeld.
Over je opmerking over elkaar rakende contacten onder de chip er zit nog best veel ruimte onder zolang jij de bga niet overdreven aanduwt maar gewoon een nudge geeft aan de zijkant om de soldeer overal te laten vloeien zal het echt niet fout gaan.

Goed solderen doe je door gebruik te maken van de oppervlakte spanning van de soldeer als je dit eenmaal onder die knie hebt zal je merken dat solderen eigenlijk niet veel voorstelt.

90% is kennis en materiaal 10% is daadwerkelijk skills

[Reactie gewijzigd door TRAXION op 28 november 2019 17:38]

Goed solderen doe je door gebruik te maken van de oppervlakte spanning van de soldeer als je dit eenmaal onder die knie hebt zal je merken dat solderen eigenlijk niet veel voorstelt.

Dat ben ik wel met je eens, maar voor mijn werk (voornamelijk tunen/matchen RF receive loops) heb ik nooit gesoldeerd met componenten kleiner dan 0805. Ben nu hobbymatig bezig met 0603 en QFP/SOT/TSSOP componenten. 4-laags PCBs en BGA is toch net een iets andere wereld en zie ik voorlopig hobbymatig niet zitten vanwege de prijs van het gereedschap. Desalniettemin toch wel interessant om te weten hoe ze dat doen, ik kende die spatel tip niet, wist wel dat er een scalpel tip was. Bedankt voor de info!
Voor de rest een echte tweaker waardige mod ben alleen bang dat je niks hebt aan eventuele strakkere timing waar dit geheugen gebruik van kan maken omdat je dit helaas niet meer kan aanpassen Door een bios te modden gezien dit allemaal encrypted is.
Zijn er al eens pogingen gedaan om zoiets te decrypten?
Dat zou je eens moeten Google maar al enige generaties zijn de biossen van gpus van nvidia encrypted vroeger kon je er alles aan modden.

Kijk maar naar de zogenaamde wish gtx1060 kaarten etc wat eigenlijk gts450 kaarten zijn.

Dit is met de huidige kaarten gelukkig niet meer mogelijk.
Wat een gekken. Voor aanvang van dit project zou ik het nog geen 0.01% kans op slagen geven. Er moet maar 1 pinnetje niet/fout verbonden zijn en de boel werkt niet. Of 1 padje loskomen op het PCB. Of 1 component het begeven wegens veel te hoge temperatuur terwijl je heel zijn backside met soldeerbout bewerkt. Of .... nog wel een 100tal dingen die fout kunnen gaan
Doet me denken aan de kans dat je in 1969 met de toen beschikbare electronica op de maan kan landen en heel terug geraken. Maar dat is toen ook gelukt en dat vinden we ook geen gekken
Vergeet niet dit zijn professionals, ze hebben ook professionele apparatuur, apparatuur wat VELE duizenden euro's kost, dit zijn geen hobbyisten, dus ja zou goed vertrouwen er in hebben dat het hun goed zou lukken.
"Vele duizenden" - en dat is precies waarom het zo verbazingwekkend is. Mijn vorige werkgever had daadwerkelijk professionale apparatuur om PCB's te solderen, en zulke apparatuur kost vele miljoenen. Je hebt een hele productiestraat nodig, met tunneloven, en dat is dan makkelijk 20 meter lang.
Om een paar kaarten te bewerken heb je natuurlijk geen complete productiestraat nodig.
Je hebt niet een hele productiestraat nodig om enkele chips te vervangen. Voor productie uiteraard wel, maar dit is waarschijnlijk gewoon een prototyping lab. Een relatief simpel reflow station en vaste handen zijn dan eigenlijk voldoende. Ik heb op mijn GTX 780 zelfs ooit een kapotte geheugenchip vervangen met mijn soldeerstation met hetelucht-functie van 500 euro.
zulke apparatuur kost vele miljoenen.
Vergeet niet dat de 'maker scene' de afgelopen ~10 jaar enorme sprongen heeft gemaakt voor zelf maken, modden en repareren. Wat vroeger rustig tienduizenden euro's koste kost nu een paar honderd euro in onderdelen en een zelfbouw projectje.

Daarnaast, wat anderen ook al aangeven, werk je anders met tools die gemaakt zijn voor 'one-offs' die met de hand worden gedaan en productie werk dat men zoveel mogelijk wil automatiseren.

Ik vond het in ieder geval prachtig om het filmpje te bekijken, ik kan het niet! ;-)
Dat is alleen als je PCB's from scratch bouwt in grote oplages. Voor een reparatie of mod heb je geen pastamachine, SMD Pick&Place, of selective soldering machine nodig. Immers: je vervangt als persoon al de functie van die laatste twee met een heteluchtstation en een soldeerbout.

Het enige dat overblijft is een reflow oven en die heb je ook in prototyping formaat: https://static.eleshop.nl...infrarood_reflow_oven.jpg
Dat niet alleen maar ze zullen heus wel het aankoop bedrag terug verdienen aan de views van een video :P
Vele duizenden euros is trouwens overdreven tuurlijk het is niet goedkoop maar ik heb zelf opensource hardware reflow bed gebouwd van minder dan 500 euro, vergelijkbaar spul wat je kant en klaar koopt kost je inderdaad 2500 euro.
Goede apparatuur werkt mee. Mijn thuislab kon ik met mijn soldeerbout (budget weller) nauwelijks SMD componenten solderen. Nu regelmatig bezig met het patchen en updaten van PCBA prototypes waaronder BGA modules, wel met gebruik van microscoop. JBC DMPVE e.d.. Even inkomen en dan lukt het een stuk beter, leren van je mentor voor leuke trucjes helpt ook.
Erg leuk dit, en dat het nog werkte ook, dan is de vraag waarom Nvidia niet die 16.000MHz geheugen gebruikte op de Geforce RTX 2080 Ti, of waren die geheugen chips nog niet uit toen de Geforce RTX 2080 Ti kaarten werden gemaakt?
De RTX 2080 Ti was een van de eerste videokaarten met gddr6. De snelste geheugenchips waren toen waarschijnlijk schaars en duur. Nvidia gebruikte toen wel al 16Gbit/s voor de Quadro-gpu's voor de zakelijke markt. Naar mate de productie op gang komt en doorontwikkelt verbeteren de geheugenselheden over het algemeen. Dat maakt sneller geheugen beter beschikbaar en goedkoper.
Ok bedankt dat je reageerde en antwoord gaf.
Cool. In hoeverre had de wisseling van geheugen impact op de snelheid? De 2 cijfers in het artikel zijn stock vs overclock-alles. Dat laat dus niet zien hoeveel impact het geheugen heeft - het kan net zo goed zijn dat enkel de waterkoeling en gpu overclock de impact maakt.

Met mijn eigen RTX2080TI FE kan je ook makkelijk een vrij forse overclock doen, zelfs met de stock cooler.
Er is natuurlijk een max wat je kan bereiken met een overclock.
Dit snellere geheugen kan natuurlijk ook geoverclocked worden.

Maar in de realiteit voor gaming, ik neem aan dat je gamed.
Zal je zeker voor de 2080ti super niet meer dan een paar % verbetering zien, dat zag je al met de 2080 vs 2080 super, het is niet waard om van de normale naar de super over te stappen.

Wat echt amazing zou zijn is als ze een full Turing die uitbrengen die de RT cores vervangt met normale CUDA cores, dan heb je in feite twee 2080ti's in 1 kaart qua performance.
Ja Raytracing neemt 50% van je kaart in, en zelfs dan daalt je FPS :(

However kan niet wachten op Next gen raytracing op de PS5 en Xbox, dan kunnen we zien wat AMD in gedachten heeft hoe Raytracing moet werken haha:)
However kan niet wachten op Next gen raytracing op de PS5 en Xbox, dan kunnen we zien wat AMD in gedachten heeft hoe Raytracing moet werken haha:)
Of gewoon de volgende generatie Nvidia en AMD kaarten? Overigens als ik geen 1080ti had had ik al een RTX kaart gehaald....
Klopt, alleen veel devs zijn aan het wachten met adopteren van Raytracing totdat de consoles uit komen.

Ik bedoel we zijn al een jaar verder en de games met Raytracing kan je met 2 handen tellen.
Nvidia wilde als eerste met Raytracing komen en heeft daarin de verkeerde afslag genomen.
Want we zien nu dat met de DXR van DirectX zelfs kaarten zonder RT cores het nog redelijk doen.

En wat het jammerste van Nvidia's manier van raytracen is dat de games die het supporten vaak maar gelimiteerd gebruik maken van de techniek en de Cores vrijwel idle niks staan te doen.
En daardoor merk je er visueel vrijwel niks van, maar de FPS maakt een duikvlucht.

Games zoals Control en Metro gebruiken meer functies van Raytracing, alleen vind ik Control er persoonlijk uitzien alsof de vloer een spiegel is haha :).

Ik denk dat Nvidia net iets te vroeg kwam en het verkeerde pad in sloeg.
Dat hebben we vaker gezien hoor! Nvidia is groot fan van dingen hardware matig doen, alleen vergeten dan vaak dat Developers goede software nodig hebben die ervoor zorgt dat devs niet al te veel tijd en moeite moeten steken in het developen van Raytracing voor hun games.

Dus voor vrijwel iedereen die een RTX kaart heeft voor gaming zit dus te gamen op een GPU waarin de helft van de GPU vrijwel altijd niks uitvoert.
Dat is waarom de chips zo groot zijn :)
Klopt, alleen veel devs zijn aan het wachten met adopteren van Raytracing totdat de consoles uit komen.
Eens, next-gen consoles gaan Raytracing gemeengoed maken.

Altijd veel gebash op consoles dat die de vooruitgang van graphics vertragen. Ik vraag me dat juist af, wellicht juist het tegenovergestelde. Voor PC worden dev's niet aangemoedigd om slim om te gaan met resources. Altijd volle bak, waardoor op de maximale instellingen GPU's van € 1.200 geen steady 60fps halen. Dev's op consoles hanteren slimme foefjes zoals checkerboarding en dynamic resolution om games goed speelbaar te krijgen op mooie kwaliteit. Natuurlijk uit noodzaak geboren door de beperkte rekenkracht van consoles, maar wel techniekjes die je later ook in pc land terug ziet. 4K resolutie afschalen naar 80%. Verschil met 4K is niet te zien, maar wel een enorme boost in FPS.

HDR is énorm gepusht en gemeengoed geworden in console land. Op de PC is dit allemaal veel lastiger doordat de ketens complexer zijn en alle schakels in die keten HDR moeten ondersteunen.

[Reactie gewijzigd door Hulleman op 28 november 2019 10:54]

Elke console heeft bij de release al een zware achterstand op de computing-performance per dollar die de markt voorschrijft, omdat tussen de laatste ontwerpfase en de start van de verkoop geen nieuwe technologie meer kan worden toegevoegd. Het is een eigenlijk een eenmalig volledig uitgeconfigureerde PC waarvoor updates zijn stopgezet. "Console-bashing" is het gevolg van mensen die niet weten waar ze het over hebben.

[Reactie gewijzigd door blorf op 28 november 2019 11:54]

Mwa... de huidige console generatie werd tegengehouden door slechte CPU selectie op dat moment waardoor die gelijk nogal tegenvallende prestaties had, maar ik vermoed dat het bij release van de PS5 en equivalente Xbox érg lastig tot onmogelijk wordt om een even dure PC samen te stellen met gelijke performance. Die consoles zijn ook qua productie zwaar geoptimaliseerd en vooral in het begin kan het dat de fabrikant er eigenlijk verlies op draait. Zo is het ook bij vroegere generaties geweest, de PC haalt de console met wat tijd wel weer in, maar op release was het vaak de console die de beste prijs/performance bood. Alleen bij PC kon je er gewoon nog veel meer geld tegenaan gooien en dan toch hogere performance halen.
Console "generaties" bestaan niet. Dat gaat over computers, waar console-lijnen periodiek van worden afgeleid.
Ach kom nou... Heb je geen ander antwoord dus ga je het op semantiek gooien?
Je snapt best dat ik het over de Xbox One en PS4 heb. De Xbox 360 en PS3 daarvoor waren relatief véél krachtiger bij release.
En je weet ook best dat er wél regelmatig over console generaties gesproken wordt. Zie bijvoorbeeld https://en.wikipedia.org/..._home_video_game_consoles of het gebruik van de term nextgen.
Altijd al zo geweest... Ok...
FLOPS rechtstreeks vergelijken is misschien niet ideaal, maar het geeft toch wel een idee, so here goes:

Xbox 360, november 2005, 240 GFLOPS, 400 dollar met HDD of 300 dollar zonder.
PS3, november 2006, 230 GFLOPS, 600 dollar (maar dit werd achteraf toegegeven als een fout en die prijs kwam snel naar beneden)
Voor een vergelijkbare videokaart kunnen we het beste kijken naar de 8800 GTS 640 MB, november 2006, 228 GFLOPS, 450 dollar.

Helaas zie ik zo snel geen GFLOPS cijfers voor de oudere videokaarten, maar de 8800 serie staat bekend om zijn sprong in power. In een review is nog te zien dat de GTS de vorige flagship kaart, de 7900 GTX, met groot gemak versloeg.

Dus, in ieder geval de 360 was al goedkoper met een krachtigere GPU dan alléén de videokaart als je een PC wou bouwen.

Bronnen:
https://www.gamespot.com/...tems-by-flop/2900-1334/9/
https://en.wikipedia.org/...graphics_processing_units
https://www.guru3d.com/ar...ts_amp_gtx_review,17.html
https://www.google.com/se...&sourceid=chrome&ie=UTF-8
https://www.google.com/se...&sourceid=chrome&ie=UTF-8

edit: En dan heb ik het nog maar over desktop componenten, het idee dat je voor de console launch een krachtigere laptop voor minder geld kon kopen is helemaal absurd.

edit: "Het ongewenste antwoord, dus ga je het met wazige schijn-kritiek proberen te lijmen?" die heb je later toegevoegd en had ik niet gezien... Nee, het is een antwoord wat helemaal niks met waar we het over hadden te maken had. Je wijzigt het onderwerp. Naar ik aanneem omdat je niet wist hoe je op het correcte onderwerp kon antwoorden.

[Reactie gewijzigd door Finraziel op 28 november 2019 14:36]

Dit ligt vooral aan de gebruikte game engine en hoe de game developers hiermee omgaan en niet zozeer de fout van de PC. De PC geeft gewoon mogelijkheden. Dat deze mogelijkheden meer zijn dan dat een console kan bieden heeft daar verder niet zoveel mee te maken.

Om even wat snel uit mijn geheugen te halen: Killzone 1, 2 en 3 draaide als een redelijk solide substantie door een smalle trechter op hun respectievelijke consoles. Ja het zag er mooi uit, maar gameplay technisch was het lastig om te spelen omdat de frames niet gehaald werden.

Aan de andere kant had je Half-Life 2 welke uitkwam rond dezelfde tijd als Killzone 1. En dit draaide als een zonnetje, ook op oudere hardware.

En een voorbeeld van een console game die niet goed draaide op console en PC: Medal of Honor Airborne.

Het ligt dus meer aan de intentie van de gamedeveloper (en de mogelijkheid om te finetunen) dan aan de console of de PC.

[Reactie gewijzigd door masterwillems op 28 november 2019 12:16]

KZ 2 haalde toch wel een solide 30fps op de PS3? De gameplay was enorm stroperig door de énorme lag. Vergelijkbaar met RDR2.

Bij consoles, vooral bij de PS3, was de unreal engine 3 een ramp. Laat dat nou net de meest populaire engine zijn die generatie.
Ik heb het nog even nagelezen, over het algemeen was er voor Killzone 2 idd een FPS van 30. Echter viel het met een aantal vuurgevechten naar beneden.

Bron: https://www.eurogamer.net...one-2-a-ps3-tech-showcase
PC heeft het probleem dat je miljoenen verschillende combinaties aan hardware kan hebben, waardoor je een game natuurlijk lastig goed optimaliseerd.

Consoles hebben maar een aantal varianten, die ook nog eens erg op elkaar lijken en is dus net even wat simpeler om alles te optimaliseren! :)

Dat is ook de reden waarom veel Nintendo games er erg goed uitzien terwijl de hardware vrij outdated is.
Nintendo steek veel tijd in het optimaliseren van haar games!
Hoewel er veel verschillende combinaties zijn in hardware voor de PC hoeft dit zeker geen probleem te zijn. Er zijn namelijk maar een handjevol API's op de PC en daar hoeft de gamedesigner zelf niet veel rekening mee te houden. Dat wordt namelijk gedaan door de hardware fabrikanten d.m.v. drivers, OpenGL/DirectX/Vulcan en de game-engine developers. Natuurlijk is dat meer dan de console, maar je houdt uiteindelijk AMD, Intel en Nvidia over.

De reden waarom Nintendo games er nog zo goed uit zien is omdat ze door de limitaties van de console een eigen stijl moeten creëren die niet realistisch is. En hierin is over het algemeen alleen Nintendo zelf die zich hieraan houd. Kijk maar eens hoe Call of Duty BlackOps 2 er op de Wii uit ziet. Niet echt om over naar huis te schrijven.
Klopt, Klopt en Klopt.

Maar wat wel impact heeft is het feit dat veel titels geport worden vanaf console naar pc, je ziet het snel genoeg aan de Interface, kijk maar naar Fallout 4 en Fallout 76(zelfde engine) Hebben een UI gemaakt voor controllers.

Maar de grootste performance problemen op de PC liggen ook vaak aan de drivers.
Daarom: AMD-Radeon-Fine-Wine-Technology.TM, als je de grap niet begrijpt:
AMD kaarten worden bijna altijd beter na 1-2 jaar, een beetje zoals goede wijn:D
Dev's op consoles hanteren slimme foefjes zoals checkerboarding en dynamic resolution om games goed speelbaar te krijgen op mooie kwaliteit. Natuurlijk uit noodzaak geboren door de beperkte rekenkracht van consoles, maar wel techniekjes die je later ook in pc land terug ziet. 4K resolutie afschalen naar 80%. Verschil met 4K is niet te zien, maar wel een enorme boost in FPS.
Resolutie schalen is niks nieuws; dit zit al zeker sinds 2012 of 13 in bepaalde PC games. Het heeft ook als bijkomend voordeel dat je de UI gewoon in de native resolutie kunt laten weergeven ongeacht de resolutie van de daadwerkelijke gamewereld.
Klopt, wordt natuurlijk erg veel toegepast op Xbox One en Playstation 4, omdat die eigenlijk niet krachtig genoeg zijn om AAA titles op 4k 30hz te draaien.
1080/900p 30fps wordt voor de base consoles al lastig op het moment.
Nu wel ja, maar ga het na, de Hardware komt uit 2013.
Dus het is nogal logish dat die na 6 jaar moeite gaan hebben in de nieuwste titels :)

In 2013 hadden we geen Ryzen of Navi :)
Eens. Next gen wordt weer echt next gen. Dat was current gen nooit. En we hebben echt mooie games gekregen
HDR op TVs is gewoon gepusht door de TV fabrikanten. Eerst om zich te onderscheiden en vervolgens om niet achter te blijven. De consoles hadden daar nauwelijks invloed op. Tegenwoordig "ondersteunt" haast elke TV HDR. Maar uiteindelijk heb je er op modellen onder de €1k nauwelijks wat aan omdat het maximale contrast gewoon niet voldoende is. Het is hoofdzakelijk een labeltje dat ze voor de marketing moeten hebben, vergelijkbaar met de "1000Hz" refresh rates die Tv-fabrikanten je voorliegen. Zonder FALD of OLED is HDR nauwelijks meer dan een stickertje op de TV.
Uiteraard, maar consoles pushte dit naar de huiskamer voor wat betreft gaming. Net zoals de PS3 blurays pushte.
Mee eens.
Consoles verleggen grenzen en houden de grenzen ook vast tegelijkertijd.
Je zit bijna altijd vast aan 7 jaar dezelfde hardware, wat 7 jaar geleden echt mid-high end was is nu budget.

Maar zodra er een nieuwe gen is dan zijn de mogelijkheden echt groot!
Gebash op consoles zal ook voorlopig zo blijven. De PC blijft voorop aangezien je de hardware kunt wijzigen. Daarnaast zijn de graphic settings te tweaken. Zowel in nvidia control panel/amd maar ook in de game zelf.

Dus net zolang dat niet mogelijk is op een console zul je altijd daar gebash over krijgen.
Sommige van die games voegen weinig toe met raytracing en is het nauwelijks meer dan een marketing gimmick.

Hij heeft gewoon een punt dat er onvoldoende games zijn om de extra prijs en te weinig zichtbare effecten zijn om de drop in frame rate te rechtvaardigen als je geen onbeperkt budget hebt.

Als geld geen rol speelt is een 2080Ti een logische keuze, met RTX uit is het de snelste kaart. Alles minder dan een 2080 (Super) slaat echter nergens op omdat de performance met raytracing niet voldoende is of als het voldoende is je een game hebt die nauwelijks iets met RTX doet en het visueel geen drol uitmaakt. Kan je een hoop sparen met een AMD kaart of een 16XX kaart en in betere CPU/Geheugen/SSD stoppen.
Die vloer is wel logisch, Ahti is toch aan het dweilen? :+
Nee wat nVidia gaat doen mag duidelijk zijn. Meer RT en Tensor cores waardoor je meer van hetzelfde hebt maar nog steeds dat crappy proprietary RTX.
AMD kan met iets anders gaan komen wat gebruik maakt van open standaarden.

Ik vermoed ook dat ze bepaalde effecten gaan doen en dat dan snel kunnen maar niet zo flexibel zijn in wat voor een effecten je allemaal kan doen. En dat is iets wat met RTX wel kan maar het is niet snel genoeg als je veel dingen tegelijk wil doen.

Ik ben in ieder geval heel erg benieuwd waar AMD en Intel mee gaan komen.
Gezien de hoeveel posts die je maakt in items over videokaarten, en bijzonder wanneer het over raytracing gaat, wist al lang dat games gebruik maken van DXR (DirectX Raytracing) voor raytracing. En AMD gaat daar ook gewoon gebruik van maken.

Maar lekker Nvidia bashen is natuurlijk wel verleidelijk.
De manier waarop nVidia RT doet is nVidia only ja ze gebruiken wel DXR als input.

Maat in mijn ogen is de manier waarop nVidia RTX doet (met losse RT en Tesor cores die 50% 22-30% van de die space in nemen) niet de juiste oplossing.

Daar hoef je het niet mee eens te zijn. Over een paar jaar zullen we zien wie er gelijk heeft.

[Reactie gewijzigd door Astennu op 28 november 2019 14:47]

Waar haal je die 50% die space vandaan? Toch niet van deze afbeelding hoop ik?

Iemand heeft hier al uitgerekend hoeveel ruimte de beide type cores innemen. Gezien de perf boost die RT cores geven lijkt me dit geen slechte keuze geweest. De Tensor cores daarentegen hebben imo een stuk minder rechtvaardiging aangezien ze alleen gebruikt worden voor DLSS.

Verder snap ik je probleem niet met hoe Nvidia RT/Tensor cores gebruikt voor DXR. Verschillende bedrijven hebben immers verschillende ideeën over hoe een architectuur eruit hoort te zien. RDNA en Turing zijn ook verschillend, maar gebruiken precies de zelfde API's.
Ik ben even in de war met eventuele opties voor Ampere.
Het is inderdaad veel minder.

Eerder 15-30% afhankelijk van wat nVidia gedaan heeft. Een GP102 is 471mm2 groot. De TU102 754mm2.
De TU102 heet 18% meer shaders.

Je mag niet zo rekenen maar als je 18% aan een GP102 zou plakken kom je op 555mm2 en dan tel je de memory controller ect ook mee. Architectuur verbeteringen weer niet. En eventuele die size reductie door het gebruik van de 12nm node (nieuwere versie van de 16nm node die ze voorheen gebruikte) tel je ook niet mee.

Maar dan is het nog steeds een behoorlijk blok. Het is de vraag of nVidia bij de TU116 wel alles voor RT was niet nodig was er af heeft kunnen slopen.
Je hebt in ieder geval wel een indicatie van wat de RT cores en Tensor cores innemen. Ik moet toegeven dat het me mee valt als die berekeningen van jou link kloppen. Maar het is nog steeds een behoorlijk groot stuk.

Mogelijk gaat het met Ampere meer worden maar dat zal de tijd leren. Als je dan goede framerates kan halen op 1440 en 4K valt er nog wat voor te zeggen.

[Reactie gewijzigd door Astennu op 28 november 2019 14:49]

Turing heeft ook veel meer cache, aparte int/fp pijplijn en nog spul voor mesh shaders. Daarnaast biedt 12nm FFN geen die size reductie tov. 16nm FF. Het zou mij niet verbazen als Tensor en RT cores minder dan 15% van de die gebruiken.

De Turing generatie zou zonder extra cores toch al erg groot uitvallen. Die extra mm² die je dan erbij gooit voor extra functies is dan een stuk meer behapbaar.

Verder is niet zeker of Ampere meer RT cores gaat krijgen. Ik weet niet eens zeker of daar wel de bottleneck ligt. Zou best kunnen dat de cuda cores de aangeleverde data van de RT cores niet snel genoeg kunnen verwerken. In dat geval heeft meer RT cores toevoegen ook weinig zin.

[Reactie gewijzigd door ColinZ op 28 november 2019 16:32]

Het zou kunnen dat de bottleneck ergens anders ligt aan de andere kant is veel Ray's berekenen natuurlijk niet echt simpel. Er is gewoon veel rekenkracht voor nodig.

Ik ben in ieder geval wel benieuwd wat de drie merken qua RT gaan brengen in 2020. De Next Gen consoles komen dan ook en ik gok dat er dan / daar na ook veel meer nieuwe games uit gaan komen die het gaan toepassen.
Voor games is DXR alles wat telt, wat nvidia doet om dat te versnellen is niet belangrijk. En hardware raytacing die AMD gaat maken gaat ook "AMD only" zijn. De drivers zijn alleen voor AMD, de chips zijn alleen voor AMD, en ze aan die combinatie een leuk naampje willen hangen is dat ook alleen voor AMD.

Jij beweerd dat raytracing icm Nvidia proprietary is, terwijl AMD met iets gaat komen wat van open standaarden gebruikt maakt. Hoeveel transistors er in de eerste implementatie door Nvidia gebruikt worden staat daar volledig los van. Over een paar jaar is alles vast en zeker anders, maar dat maakt niet dat je gelijk hebt met je nonsense over proprietary vs open standaarden.
Ik moet enige nuance aanbrengen. Want dit is niet helemaal wat ik bedoel.
Volgens mij is het niet zo dat als een Game dev DXR of Vulcan gebruikt voor RT dat automatisch de RT en Tensor cores van nVidia gebruikt / optimaal gebruikt kunnen worden. Daar is nog wat meer voor nodig.

Van wat ik begrepen heb is dat Quake RTX de n Tensor cores niet eens / niet altijd gebruikt voor de effecten. En dat er wel meer games zijn waar dat het geval is. (ja er zijn ook games die ze wel inzetten).
Volgens mij moet er dus wel wat specifieke optimalisaties gedaan worden om die extra cores goed aan het werk te zetten. Ik ben zelf geen Dev dus ik weet het niet exact ik moet het ook hebben van wat ik online kan lezen.

Hoe iedereen het gaat versnellen moeten ze zelf weten maar het lijkt mij voor de adoptie belangrijk dat je zo min mogelijk moet optimaliseren voor specifieke hardware. En tot dat GPU's snel genoeg zijn om alles met RT of een opvolger daarvan te kunnen doen is het belangrijk dat niet te veel die space gebruikt wordt voor RT hardware die niet benut kan worden als je oudere games speelt of games speelt waar nog geen RT gebruikt wordt. In het verleden hebben we ook wel dedicated hardware blocks gezien voor Transfor & Lightning en bv Trueform (later Tesselation) maar dat was lang geen 50% 22-30%.

Dus ik hoop dat AMD en Intel met een elegantere manier komen om RT reflecties te kunnen doen zonder dat het zo veel die space kost en ze dus meer kunnen inzetten voor betere rasterization performance.

Edit: Die space die gebruikt wordt is inderdaad aanzienlijk minder @ 22-30%.

[Reactie gewijzigd door Astennu op 28 november 2019 14:47]

Of gewoon losse videokaarten puur voor RTX, naast volledige normale videokaarten en die verbinden met een SLI bridge, je weet wel zoals 3DFX kaarten in het begin gewoon verbonden werden met de normale videokaarten. Huidige implementatie doet mij denken aan de voodoo rush kaarten. Geef de consument de keuze of ze hardware matige RTX willen toevoegen.
De FE hebben ook de beste cores, zou tof zijn moesten we in de toekomst aftermarket kaarten konden krijgen met die cores ipv dat ze die voor hun eigen kaarten houden.
Niets dat een soldeerbout niet kan fixen blijkbaar :+

[Reactie gewijzigd door Gamebuster op 28 november 2019 10:02]

Haha, heb nog geen artikel gezien waar ze de core versteken, zou cool zijn. FE core in een kingpin kaart bvb
Sterker nog de gpu omwisselen is een redelijk simpel werkje in vergelijking met deze mem chips.

Reballen is een standaard klusje geworden met alle defecte gpus en playstation/xbox
FE kaarten zijn super, daar kan je van alle fabrikanten redelijk geprijste waterblokken voor krijgen. Des te beter dat die goede cores hebben.
De power delivery en power limit mogelijkheden van 3rd party kaarten zijn vaak beter, waardoor je met 3rd party kaarten verder kan overclocken. Echter, de GPUs zelf op de FE kaarten zijn het best.

Zo kan je dus geen "alles het beste" kaart halen: Je moet kiezen tussen de beste GPU core, en de beste "rand-apparatuur". Tenminste, zover ik weet althans - ik laat me graag corrigeren.

Ik ben voor de FE gegaan omdat ik het een mooie kaart vind (behuizing) en-ie past in mijn compacte behuizing.
Met mijn 1080Ti ben ik voor een overclock kaart op basis van reference design gegaan. Wel betere powerdelivery, maar ook de goedkopere waterblokken. Daarnaast is er wel een en ander te modden aan FE kaarten als je toch geen garantie meer hebt. Met een full cover waterkoeling blok heb je genoeg speelruimte.
De goede cores is ook het enige wat ze beter hebben. Zoals gamebuster zei hieronder. Dat ze de FE kaarten afschaffen en aan 3rd party geven zodat je de echte performance kan krijgen ipv de beste core die je niet op volledige performance kan draaien of mindere cores die je wel op full performance kan draaien. Waarom is het goed als Nvidia de cores voor zichzelf behouden en waarom staan de FE kaarten achter oo power delivery en limit, vaak ook slechtere stock coolers. Waterkoelen veranderd niet veel aan het verhaal.
Het is net een sportwagen kopen waar je benzine pomp niet genoeg kan leveren om de motor optimaal te doen draaien.
Power limits kan je modden en met goede koeling kunnen alle onderdelen op de kaart dat aan, je moet met de loop alleen wel rekening houden met de extra hitte van de VRMs,
Power limits kan je modden en met goede koeling kunnen alle onderdelen op de kaart dat aan, je moet met de loop alleen wel rekening houden met de extra hitte van de VRMs,
Je kan de power limit modden ja maar je hebt minder powerphases in de kaart zitten waardoor hardwarematig een verschil is in power limit.

Het komt er op neer wil je de best mogelijke performance moet je een FE core in een 3rd party overclock kaart steken
Kortom, de Nvidia 2080Ti super OC komt eraan nadat ze dit hebben gezien. :)
Ik twijfel nog steeds of die echt komt, de geluiden zijn dat de Rtx 3000 lijn volgend jaar uit moet komen, en er zijn vrijwel nog geen detailed leaks. Dus een December launch lijkt mij vrij onwaarschijnlijk.

Wat ik verwacht is dat Nvidia de 2080ti Super in standby houd voor het geval AMD de show probeert te stelen met een Big Navi launch ergens volgend jaar.
Maar de geluiden vanuit AMD richten op een Navi launch in eind Q2 of ergens in Q3.
Dus ik verwacht eerder dat ze volgend jaar met een Rtx 3000 lijn komen en de 2080ti super laten zitten :)
Nvidia 2080Ti super OC
Hmmm... Bedoel je niet de "Nvidia RTX 2080Ti super Pro OC Gaming X Turbo Titan Founders Edition FX Black Edition Eco 8K Retina UHDX" ?

[Reactie gewijzigd door Silversatin op 28 november 2019 15:11]

Ik benieuwd hoe zich dit verhoudt tot een Titan...
Titan blijft altijd koning.

Voordelen Titan:
Volledige chip, oftewel alle cores.
16GB Vram en hogere clocks.

Voordelen 2080ti(mogelijk ooit super):
Kost geen arm en een been. Deze kaart kost alleen een Arm.
Meer dan genoeg performance voor een sterfelijke gamer. :D
Meer dan genoeg performance voor een sterfelijke gamer
Dat is dan weer afhankelijk van je eisen als gamer zijnde... Ga maar eens op 4K gamen met de wens om dat op ultra te doen met 144Hz (of hoger)... Veel succes!
4K ultra 144Hz (dus 144fps of meer is wat je wilt): CSGO/League; prima.
4K Ultra 144hz met een recente AAA game en AAA waardige graphics; niet te doen, en heel eerlijk ook niet realistisch op 1 kaart.
Nog niet nee :)
En CSGO is natuurlijk een game die je op een aardappel kan draaien haha :D
Ja maar dan kost de monitor ook nog je andere arm en been en dan hou je geen ledematen over om nog te gamen.. ;)

Het gaat nog wel 1 of 2 videokaart generaties duren voordat 4k 144hz gemeengoed wordt. Er zijn nog veel gamers die spelen nog op 1080p of 1440p 60hz, dus laat staan 4k en zulke hoge snelheden.
Kan ik ook met een been betalen? Mijn knie doet toch al pijn en mijn handen heb ik nodig om te kunnen gamen.
Een leuke vooruitgang en de benchmark score ziet er niet slecgt uit. Dat nVidia dit niet zelf heeft gedaan. Misschien komt nog de RTX 2080TI Super uit.

Ik heb zelf een MSI VENTUS OC RTX 2080 8GB kaart non-super, hoeveel Gbit/s is mijn kaart?

[Reactie gewijzigd door van der Berg op 28 november 2019 09:48]

Ik heb zelf een MSI VENTUS OC RTX 2080 8GB kaart non-super, hoeveel Gbit/s is mijn kaart?
14 Gb/s volgens de website

https://www.msi.com/Graph...TX-2080-VENTUS-8G-OC.html
Zelfde aantal als een RTX 2080TI
Doet me denken aan vroeger waarbij je nog geheugen chips op een videokaart kon duwen, of extra l2 cache op de 80486.

Ik zou het effect ook wel eens willen zien en dan niet stock tegenover een dikke overclock, gewoon alleen het geheugen wijzigen/correct instellen en de rest default laten.

[Reactie gewijzigd door mr_evil08 op 28 november 2019 11:02]

Nu realiseer ik me dat ik een beetje offtopic ga, maar inderdaad. Weet ook nog heel goed dat ik toen een 3dFX kaart wilde kopen, maar mijn oom, die in de handel zat raadde dat af, en adviseerde mij extra geheugen chipje te kopen voor mijn Permedia2 grafische kaart.

Destijds geloofde ik dat niet en had ik een brief gestuurd naar de PowerUnlimited en is ook nog behandeld in het blad. Was erg leuk.

Weet echter niet meer de uitkomst, anders dan dat het wel goed was om de 3dFX chip te kopen, nogal wiedes.
Waarom zou je dit doen?
Waarom zit jij op tweakers ?
Waarom niet? de quest naar de hoogste Benchmark score gaat heel ver haha
Cos you can.
Je zit hier op Tweakers niet op Clickx 8-)
Wel zeer knap van die mannen en durf gehalte is zeer hoog, stel je voor dat er iets mis gaat : bye bye +-1000€.
Langs de andere kant waarom heeft Nvidia dit niet direct gedaan in plaats van nu al die super varianten uit te brengen....een maat was zo blij dat hij eindelijk gespaard had voor een 2080, anderhalve maand later kwam de 2080 super uit. Beetje balen voor hem.
Ach... een beetje tweaker doet dit met gemak zelf... :+ :X

Erg knap dat ze dit met succes uitgevoerd hebben. Ik kan me niet voorstellen dat Nvidia intern dit soort samples NIET heeft! Een 2080Ti super ligt voor de hand, echter ziet Nvidia er waarschijnlijk om financiële redenen geen brood in. Zodra er een 2080Ti Super is, daalt de 2080Ti aardig in prijs, waardoor het weer invloed heeft op de verkopen van de 2080 Super.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Politiek en recht

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True