Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Foto's tonen vermoedelijk pcb van Nvidia GeForce GTX 1080-opvolger

Er zijn foto's verschenen van een Nvidia-pcb voor een nieuwe videokaart. Vermoedelijk gaat het om de printplaat die de basis zal vormen voor de GTX 1080-opvolger, die mogelijk GTX 1180 of GTX 2080 gaat heten.

De foto's die op het Chinese Baidu staan en werden opgemerkt door Videocardz laten de voor- en achterkant van het pcb zien. Het lijkt te gaan om een referentie-pcb van Nvidia, waarop fabrikanten hun videokaarten zullen baseren. Afgaande op de verschillende logo's en certificaten gaat het om een definitief pcb. Het modelnummer is PG180.

Te zien is dat fabrikanten een zespins- en achtpinsvoedingsconnector kunnen aansluiten. Dat is meer dan de GTX 1080, die enkel een achtpinsaansluiting heeft. Mogelijk is het toevoegen van de zespinsconnector optioneel. Verder heeft het pcb ruimte voor een energievoorziening bestaande uit tien fasen.

Er is plek voor acht geheugenchips, wat uitvoeringen met 8GB of 16GB gddr6-geheugen mogelijk zou maken. Aan de onderkant zit een pci-e-connector en linksboven zit een onbekende aansluiting, op de plek waar een sli-connector te verwachten is. De nieuwe connector is een stuk breder dan de sli-connector op de huidige GTX 1080 en 1070. De aansluiting was ook zichtbaar op het test-pcb waarvan eerder een foto online verscheen.

De plek waar de gpu gehuisvest zal worden is kleiner dan de ruimte die zichtbaar was op het eerder genoemde test-pcb. Daarmee lijkt het getoonde pcb niet bedoeld voor de allergrootste variant van de nieuwe gpu. Videocardz suggereert dat het pcb bedoeld is voor de GV104-gpu, dat zou de opvolger zijn van de GP104-gpu van de GTX 1080.

Afgaande op de bekende afmetingen van gddr6-geheugenchips en het pcb, lijkt de pinout voor de gpu-die afmetingen te hebben van ongeveer 19x19mm. Daarmee zou de chip een oppervlak hebben van zo'n 361mm2. Dat is meer dan de 314 mm² van de GTX 1080-gpu, maar minder dan de 471 mm² van de GP102-gpu die in de GTX 1080 Ti zit.

Videokaart Gpu Oppervlak
Titan V GV100 (Volta) 815 mm²
GTX 1080 Ti GP102 (Pascal) 471 mm² 
GTX 1180 / 2080? GV104? ~361mm²
GTX 1080 GP104 (Pascal) 314 mm²

Het verschijnen van het pcb versterkt de vermoedens dat Nvidia binnenkort een nieuwe GeForce-videokaart aankondigt. De fabrikant houdt op 20 augustus een evenement rondom de Gamescom en daar zal het bedrijf naar eigen zeggen 'verrassingen' tonen.

Door Julian Huijbregts

Nieuwsredacteur

02-08-2018 • 15:31

67 Linkedin Google+

Submitter: no_way_today

Reacties (67)

Wijzig sortering
Was het niet zo dat bij GDDR6 de chips 1/1,5/2GB konden bevatten? GDDR5 kon enkel 1 en 2 GB chips hebben. Chips van 1,5GB zouden dus een kaart met 12GB GDDR6 mogelijk kunnen maken.

Dit lijkt me een logische vooruitgang ten opzichte van de GTX 1080/1070 die 8GB hebben. 16GB is namelijk nog vrij veel voor games en duur, 12GB zou dan een mooie tussenstap zijn.

Edit; zie hier voor de specs en dus ook de 1,5 Gigabyte chips die mogelijk zijn met GDDR6.

[Reactie gewijzigd door hubhib op 2 augustus 2018 15:39]

Dat 16 gig vrij duur is kan best wezen maar ik heb al veel games de 8GB aan zien tikken en dus capped zijn door videogeheugen en dus minder fps halen door bufferen.
8GB is gewoon door de komst van 4k,HDR en nieuwe graphic effecten al outdated voordat het eindelijk op de videokaarten zat.
witcher 3 gebruikt op 1140p al 8 gig en dus op 8k zal 16GB al net aan zijn.

De tijd staat niet stil en 16GB is wat mij betreft de nieuwe standaard.
Ik heb nu een 8GB 1070 maar mijn volgende kaart moet toch echt wel 16GB hebben.
Tegenwoordig gooien games het geheugen zo vol mogelijk voor een soepelere ervaring. Dat ze dit alles ook daadwerkelijk gebruiken is nog maar de vraag. Volgens Guru3D gebruikt The Witcher 3 trouwens maar 1842MB op 4k.
Merk wel op dat die review vlak na de release is gemaakt. Met de later toegevoegde opties en DLC ga je al gauw daar ver voorbij. Als ik nu in Toussaint (in de Blood and Wine dlc) rondloop, zit ik meteen al op 2.5GB op 1440p en die loopt nog verder op richting de 3GB (omdat het spel zijn buffer nog iets uitbreidt tijdens het rondlopen).
Echter is The Witcher 3 een spel dat ook wel erg zuinig is met vram. De texturebuffer is bijvoorbeeld standaard maar maximaal 800MB. Het spel komt natuurlijk ook uit 2015, toen de GTX980ti met 6GB vram bij nvidia bijvoorbeeld de kaart met het meeste vram was. Verder was het vooral 4GB of minder. Hierdoor is het logisch dat The Witcher 3 dus weinig vram gebruikt, want te veel vram gebruiken levert natuurlijk een erg slecht lopend spel op. Het spel gebruikt dan ook pop-in en zo hier en daar ook niet het allermooiste texture.
Natuurlijk gooien games graag zo veel mogelijk in de buffer, maar verwacht zeker niet dat bijvoorbeeld Cyberpunk 2077 op maximale kwaliteit op 4K met minder dan 4GB vram overweg kan. Je ziet ook bij wat nieuwere spellen bij kaarten zoals de GTX780 dat ze het afleggen tegen AMD's tegenhangers uit dezelfde tijd, omdat die simpelweg iets meer vram hebben, waardoor het spel net wel voldoende ter beschikking heeft.

Het is dus wel zo fijn als moderne gpu's een mooie hoeveelheid videogeheugen hebben, want het zou toch wel erg vervelend zijn als je een spel niet op maximale kwaliteit kan spelen door een tekort aan vram. Dat geldt natuurlijk niet alleen bij de release, maar (zeker op het huidige release tempo) ook drie jaar later.
De zuinigheid van deze engine komt vooral omdat deze engine gedesigned werd met voornamelijk nvidia hardware. In die generatie hadden nvidia kaarten doorgaans veel minder vram dan hun amd equivalenten.
Heb vrijwel alle grote triple A titels gespeeld maar zie toch echt nooit het geheugen volgegooid worden met meer dan 4gb aan data op 1440p met een geforce 1070.
nou ik game op 1080p dus ik zou een nog lager vram gebruik moeten hebben maar me 980TI vliegt makelijk boven de 4gb uit bij onderandere fallout 4 and SSE (bijde wel heel modded maar zullen ook beide de reden zijn voor een snellere kaart met nog meer vram want zelfs 6GB begint te weinig te zijn) verder lopen forza horizon 3 en forza 7 makelijk de 5GB vram gebruik in al vermoed ik dat deze beide een of andere leak hebben of alles in vram vasthouden of zo

[Reactie gewijzigd door anub1s17 op 2 augustus 2018 19:19]

Wat jij doet met Fallout is ook véél zwaarder dan normaal. Door mods pomp je er veel meer details in dan waar de engine eigenlijk voor bedoeld en geoptimaliseerd is. Resultaat is dat het allemaal niet erg efficiënt is. Ja, het ziet er een stuk beter uit, maar je hebt er ook wel echt beestachtige hardware voor nodig. Hetzelfde gold voor GTA 4. Dat kon je er een stuk beter uit laten zien, maar dan had je ook direct een veel betere PC nodig.

Maar op dit moment is er volgens mij geen enkele game die, uitgaande van de gemiddelde gebruiker, die de 8GB of zelfs 6GB voorbij gaat.
Cities Skyline gebruikt mijn volle 11GB Geheugen van mn 1080TI kaart. No problemo.
https://imgur.com/a/yMzgS0g

[Reactie gewijzigd door Tmaster op 3 augustus 2018 08:08]

GTA 4 was dan ook wel heel erg slecht geoptimaliseerd. Toevallig zag ik laatst nog een review met echt overpowered hardware en dat was nog steeds niet helemaal wat je zou verwachten.
waar ik meer op richte is die comment van meer dan 4gb heb je op 1440P niet nodig nogal onzin is, zelfs in bone stock games op ultra word makelijk 5gb + gebruikt op onderandere assasins creed origins (die in griekeland zal dit ook kunnen garandeer ik je), the division geloof ik dat het ook nu en dan lukt, dankzij wat ik alleen maar kan zien als bugs lukt het forza 7 en horizon 3 ook bizar makelijk en deze 2 gaan dan ook de bekende your out of VRAM stutter doen als het op is.

en dat is vandaag... op 1080P nog niet eens 1440p of wat wel lekker uitziet maar nog unoptainium is voor ultra quality 60fps 2160p.

persoonlijk wil ik mijn pc zo min mogelijk moeten upgraden omdat hij me irriteert, een groote vram buffer heb je in de tijd van VR en 4k zou ik denken toch wel wat aan vraag me af hoe geweldig out of vram stutters zijn in VR, vast een unieke ervaring.
Witcher 3 is juist heel efficient qua geheugen, met alles aan op 1080p zat hij zo rond de 2GB, ik denk dat je het verkeerd afgelezen hebt.
De mogelijkheid is alleen het gebruik van 8Gb of 16Gb chips, simpelweg omdat er niet iets anders in productie is bij Samsung, Hynix of Micron en dat de enige drie opties.

Met dus 8 geheugenchips zoals zichtbaar is op de foto kom je uit op dus 8GB of 16GB totaal videogeheugen. Voor een opvolger van de GTX 1080 is echter 8GB meer dan prima, dus 8GB zal het dan ook wel zijn.
Elke dag word er wel iets gelekt over Nvidia. Allemaal op de marketing hypetrein. Uiteindelijk worden het toch 10 - 20 % meer prestaties voor iets meer geld.
Die stroom aansluiting is wel een beetje vreemd.
De linker aansluiting heeft solderpunten voor een 6-pin, maar de gaten voor de connector vast te houden op de PCB zijn voor een 8-pin, dat past dus niet.
De rechter aansluiting is heeft de mogelijkheid voor een 6-pin of een 8-pin.

Ik voorzie dus eigenlijk alleen een mogelijkheid tot 1x 6-pin of 1x8-pin. De linker aansluiting kun je helemaal niets mee.
Ik zie het niet zo snel gebeuren dat een fabrikant een 6-pin connector op de linker aansluiting soldeert zonder dat deze soldeerpunt ontlast worden door de gebruikelijk 2 push connectors die je ziet.

Deze plugs bedoel ik https://errebishop.com/29...rs-male-10-way-pcb-90.jpg
Ze zullen wel een connector met twee loze plaatsen gebruiken.

Een 6 pin stekker past ook in een 8 pin contact, dus misschien kun je zo vermijden dat iemand perse een 6 pin stekker nodig heeft? Ik weet niet of er al voedingen zijn die deze weglaten, maar ik heb van die 6+2 stekkers.
Ik had toch verwacht dat de opvolger van de GTX-1080, GTX-4K ging heten 8-)
Als deze de performance heeft van een 1080 Ti vindt ik de naam toepasselijk voor 4k gebruik

[Reactie gewijzigd door Tim Lamein op 2 augustus 2018 16:43]

De opvolger van de 1070 wordt verwacht dat deze al de 1080ti overtreft.
Geloof ik ook wel, de GTX 970 was sneller dan een GTX780TI de GTX 1070 sneller dan een GTX980TI. Het is alleen de vraag wat de prijs wordt nu de crypto gekte wat minder is.
Een stock 1080 was iets sneller dan een stock 980Ti, in de praktijk waren de eerste FE 1080's toch net ff wat minder dan een fabriekaf OC 980Ti
Dan ben ik wel benieuwd welke benchmarks je hebt gezien.
Klinkt goed #hypetrain
Is die SLI vervanger geen NV-link wat we al kennen van de Quadro serie?
Als het zo gaat als bij de "Titan V".... Linkje naar de buren
Ik wacht wel braaf totdat NVidia de specs vrijgeeft. Van al het gespeculaas wordt niemand wijzer. ;)
Ach ja, men kan dromen toch?
Zeker dromen mag :D , alleen zo jammer als iedereen hier zit te dromen en uiteindelijk behoorlijk teleurgesteld is.
Ik ben met name benieuwd waar de nieuwe aansluiting voor gaat dienen. Een uitbreiding die toepassingen voor AI, miners of VR spelers gaat helpen met extra uitbreidingsmogelijkheden?
Een vernieuwing van de SLI (wat niet heel logisch zou zijn sinds de komst van N-Link)

Het zou mij benieuwen, en ik kijk dan ook uit naar de presentatie van dit product.
ik vind een vernieuwing of iets nieuws namelijk veel interessanter dan weer de zoveelste snelheidswinst die te verwachten is met een nieuwe generatie videokaarten.
Ben wel benieuwd naar de specs van de Turing architectuur. Het wordt maar uigesteld en uitgesteld. Staat nu geplanned voor de herfst omdat Nvidia het productieschema heeft omgegooid voor de zoveelste keer. Gelukkig zijn de prijzen weer gestabiliseerd nu. Stomme miners haha.

Ergens eind oktober zal dan de GTX 1160 op de markt komen Dit is het segment waarin ik geintersseerd ben. Ben nog (steeds) niet over op 4K. Ik ben nog tevreden met mijn setup en ik heb geen leggende gelden helaas. Geduld is een schone zaak.
Ik hoop nog steeds op een volgende generatie AMD Vega die de nvidia top-of-the-line model onderuit veegt
Ben bang dat Nvidia met hun nieuwe kaarten niet het beste uitbrengt wat ze op de plank hebben liggen.
Puur zodat mocht AMD plotseling iets beters uitbrengen Nvidia kan reageren met iets nog beters.
Dit gebeurt in elke industrie. Dus daar kun je best vanuit gaan.
Ik denk dat je daar nog wel een aantal jaar op kan wachten, als het uberhaupt nog gaat gebeuren. AMD kan het momenteel al niet meer bijhouden in het hoogste segment en de toekomst van een nieuwe generatie is ongewis. AMD heeft haar aandacht gericht op de CPU markt en op het middensegment waar ze deze generatie een uitstekend alternatief voor de 1060 hebben.
AMD kon het niet meer bijbenen in het hoogste segment.

Met de huidige tech die AMD de afgelopen jaren ontwikkeld heeft, zit enorm veel speling voor de toekomst. Van een enorme achterstand is AMD in 1 generatie bijna weer bij. AMD heeft met infinity fabric echt een leuke troef in handen. AMD zal even tijd nodig hebben deze techniek meester te worden en het uiterste eruit kunnen halen.

In theorie kan AMD 5 van die Vega's aan elkaar plakken, ARM en X86 chipjes erop en de krachtigste GPU/SoC bouwen die we ooit gezien hebben waar Nvidia alles behalve een antwoord op heeft.

Nvidia en Intel zitten beide al erg dicht tegen de grens van hun mogelijkheden aan. AMD kietelt net tegen de eerste stapjes van hun tech aan. AMD heeft in dit opzicht voor de toekomst nu een enorm voorsprong.
Nouja de huidige Vega kaarten zijn rond 1070/1080 niveau, daarboven moeten ze het antwoord schuldig blijven en Navi komt niet voor tweede helft 2019 voor de consumentenkaarten, en dan is het nog maar de vraag hoe die gaan presteren. Vega zou ook een gigantische stap in performance zijn en dat is toch tegengevallen. Om van de power consumptie nog maar niet te spreken.
Dat is dus incorrect. De 7970 en daarna in mindere mate de RX290/390x waren kwa prestaties gelijk aan hun tegenhangers... Waarbij de 7970 zelfs gewoon de betere keus was ten opzichte van de Nvidia concurrentie. AMD is duidelijk bezig zich terug te vechten in de CPU markt, ze hebben niet de R&D capaciteit om tegelijkertijd ook mee te strijden op het GPU front.

[Reactie gewijzigd door FrankoNL op 2 augustus 2018 19:03]

shit, lang geleden zat naar de verkeerde cijfers te kijken.
Ik ken de ins & outs van AMD niet, maar ik denk serieus niet dat er een soort R&D slider is die links naar CPU wijst en rechts naar GPU, en dat ze dat schuifje heen en weer schuiven. Waarschijnlijk zijn de GPU en CPU afdelingen volledig onafhankelijk van elkaar en draaien ze allemaal op max vermogen.

Nvidia heeft gewoon een voorsprong omdat ze hun kaarten beter gespeeld hebben.

[Reactie gewijzigd door Gamebuster op 3 augustus 2018 14:10]

weldegelijk. Geld dat ze voor CPU R&D uitgeven kunnen ze gewoon niet meer gebruiken voor GPU R&D.

Wanneer jij een euro twee keer uit kan geven, laat het me alsjeblieft weten!
Niet ieder probleem los je op met meer geld...
zonder geld word het zeker niet beter
Het blijft een mooi kat (Nvidia) en muis (AMD) spel
Nou niet echt, lijkt er nog niet op dat AMD een antwoord heeft.. en ze lopen al achter.
Heb een vega 64, kan je beter niet aanzetten met dit weer :+

Ik verwacht nogmaals een pascal refresh met gddr6 hebben ze toch iets nieuws uitgebracht en kunnen ze nog een paar jaar afromen. Komen ze daarna met een volta of interconnectie-achtige (threadripper idee) chip.
Dan zou je impliceren dat NVIDIA achter AMD loopt terwijl het tegendeel waar is.
nou met de huidige prijzen die amd voor zijn top vega vraagt zie ik daar niet veel soeps in. ze worden dan gewoon even duur of duurder als de 1080ti.
Dan ga je nog een tijdje mogen wachten, zo rond 2020.
Doet het pijn om iedere keer ontgoocheld te worden door AMD?
Volgens VideoCardz is dit waarschijnlijk de GA104-400 chip. Dus niet Volta, Turing of Pascal refresh, maar Ampère.
Over een kleine maand zullen we het hopelijk weten.
Ik Ben het daar meer eens dan wat tweakers hier zegt. Ket de reden date hier een NV-link connector op zit. Het you erg vreemd zijn van Nvidia om NV-link naar consumenten te bregen, also ze al de SLI connector hebben. :?

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True