Jedec specificeert hbm-stacks van 24GB voor videokaarten

De Jedec-organisatie heeft de JESD235-standaard voor hbm-dram een update gegeven waarmee nu tot aan 24GB per stack wordt ondersteund. Het maximum van hbm2 lag tot nu toe op 8GB per stack.

De JESD235B-standaard beschrijft nu high bandwidth memory met twee, vier, acht en twaalf gestapelde dram-lagen, verbonden via through silicon via-interconnects. Dit zijn de minuscule verticale tunneltjes die door de die-lagen zitten. De update van de specificatie maakt hbm-stapels van 1 tot en met 24GB mogelijk waar dat maximum tot nu toe op 8GB lag. Er zijn natuurlijk videokaarten met meer hbm2, zoals de Radeon Pro 340v met 32GB hbm2, maar die maken gebruik van meer packages.

Daarnaast vergroot de bijwerking de bandbreedte per pin tot 2,4GT/s. Dat was 1GT/s per pin voor hbm en 2GT/s per pin voor hbm2. De geheugeninterface is nog steeds 1024bit breed en er zijn nog steeds acht kanalen. De totale bandbreedte komt daarmee uit op 307GB/s tegenover 256GB/s voor hbm2 tot nu toe. Verder is er een nieuwe footprint-optie om de stapels van twaalf 16Gbit-lagen te kunnen accommoderen.

Fabrikanten hebben nog geen producten aangekondigd die gebruikmaken van de nieuwe standaard. Meer details zijn er ook nog niet over de bijgewerkte specificatie; die is alleen tegen betaling voor fabrikanten beschikbaar via de site van de Jedec.

AMD hbm2

Door Olaf van Miltenburg

Nieuwscoördinator

18-12-2018 • 11:03

47

Reacties (47)

Sorteer op:

Weergave:

Het zal door de periode van het jaar komen.. dat ik met weemoed uit het raam kijk.. naar de grijze luchten.. en denk: ...24GB op een Videokaart.. ...... het is nog zo kort geleden dat ik met trillende vingertjes mijn Riva TNT2 videokaart uit de verpakking peuterde. Ik kon het glimmende stervormige stickertje op de doos bijna niet geloven, want daar stond het toch echt.. 32mb.. 32 MEGABYTE aan videogeheugen. Ik kon gewoon niet indenken wat een geweldige avonturen ik met die videokaart zou beleven. En dan nu.. voor mijn gevoel een paar jaar later... 24GB, 32GB.. op een kaart. *pinkt traantje weg*
Het feit dat je tegenwoordig 8.294.400 pixels of meer aanspreekt in plaats van 307.200 destijds zorgt er ook voor dat je een stuk meer geheugen nodig hebt per frame. Ook de hoeveelheid filters, diepte in open werelden en effecten die tegenwoordig verwerkt zijn kosten gewoon meer geheugen.

Natuurlijk wordt er door het tempo minder tijd besteed door de gameontwikkelaars aan optimalisatie, maar ik heb het idee dat het allemaal best efficient en innovatief is wat men tegenwoordig maakt vooral omdat het maken van een game-engine tegenwoordig vrijwel helemaal is los gekoppeld van de ontwikkeling van de games. Het maken van games wordt steeds duurder juist doordat er zoveel meer technologie bij komt kijken om een fotorealistische game te maken. Als je een game van mid jaren 90 er nu bij pakt is het verschil dag en nacht.

Daarnaast is de hoeveelheid geheugen in een videokaart handig als je bijvoorbeeld met machine learning bezig gaat, ik gok ook dat het doel van deze technologie daar meer op toegespitst is dan op games.

Met betrekking tot de demoscene, die bestaat nog steeds en die toveren inderdaad erg mooie graphics uit gedateerde hardware. Maar het maken van een demo is toch daadwerkelijk iets anders dan het maken van een generieke game engine.

Uiteindelijk moet je ook gewoon kijken naar kosten-baten plaatje. Als je een game nu tot de laatste resource gaat optimaliseren, hoeveel kost dat en hoeveel groter wordt daarmee het publiek dat je bereikt? Volgens mij kan dat gewoon niet uit.

[Reactie gewijzigd door mkooiman op 22 juli 2024 20:42]

Het maken van games wordt steeds duurder juist doordat er zoveel meer technologie bij komt kijken om een fotorealistische game te maken.

Dat geloof ik best, nou heb ik hier weinig tot geen verstand van maar er is natuurlijk nog een geld slurpende factor bij het maken van games genaamd "aandeelhouders" die een behoorlijke hap uit de koek nemen...
Marketing ? ook zo'n dingetje tegenwoordig.

Ik weet nog dat een game als SOF2 alleen een Demo nodig had met 1 map en deze game enorm aangeslagen is destijds vooral vanwege die ene goeie Demo, die Demo is helemaal kapot gespeeld voordat de game uit kwam.

Duurzaamheid en kwaliteit is verruild voor consumptie (kwantiteit) en greed.
Ik vind het er in ieder geval niet beter op geworden.

Hoe de game-industrie een multi-miljardenbusiness werd: https://nos.nl/op3/artike...ljardenbusiness-werd.html

Okee ik dwaal een beetje af maar wat ik dus zeggen wil is dat er meer dan genoeg verdiend word om games te kunnen optimaliseren.
Games zijn ook geoptimaliseerd. Leg de prestaties van de huidige console GPUs maar eens naast die in een PC. Het is in veel gevallen vrijwel gelijke FPS.

Dat wás inderdaad anders maar brakke console ports worden langzaamaan echt verleden tijd. Wat wel blijft is gewoon brakke releases, maar die waren er vroeger ook. Minder talrijk, maar ook het aantal games in totaal was een stuk minder talrijk. Waarom sloeg SOF2 zo aan? Er was verder weinig te krijgen en het deed wat nieuws. Tegenwoordig is het meeste wel een keertje gedaan. Daarom zijn oudere games nu ook weer aan het terugkomen, en daarom is GoG wat het is.
Is er nog een demoscene in Nederland? Vroeger had je demo / crack en hack scène waarbij o.a. demoscene/codes scène periodiek evenement hielden. De laatste keer dat ik er een bezocht was in TU Eindhoven eind vorige eeuw.

Daarna is mijn interesse verschoven.

Met betrekking engine/modulair programmeren begrijp ik dat er catch all oplossing bestaan. Om te beginnen met DirectX. Maar dat wil niet zeggen dat je daardoor niet in eigen engine hoeft te investeren.

O.a. Crytek bewijst dat men dat zelf kan ontwikkelen met beperkte middelen zoals geld en tijd.

Dat resolutie en kleuren is toegenomen klopt echter zou dat bij gebruik van vector graphics niets uitmaken.
> Met betrekking engine/modulair programmeren begrijp ik dat er catch all oplossing bestaan.
DirectX is geen catch all oplossing. Het is een rauwe API die toestaat om met bepaalde hardware (Gamepad's, keyboards, audio interfaces en meest noemenswaardig GPU's) te praten. Maar het is de verantwoordelijkheid van de engine om effectief texturen, modellen en andere data te gaan uploaden naar de GPU(s), ze te verwerken en ze te presenteren op beeld. Direct3D is geen rendering engine.

> O.a. Crytek bewijst dat men dat zelf kan ontwikkelen met beperkte middelen zoals geld en tijd.
CRYENGINE is een juist een zeer slecht voorbeeld. Waar ze bij de eerste Cyrsis inderdaad een technisch hoogtepuntje hebben gepresenteerd, is de laatste versie van hun engine merkbaar slechter. Neem gerust een kijkje in hun source code. Met name het gedeelte D3D12 is een verzameling van slechte design patterns (D3D11 op D3D12).
Een beter voorbeeld zou dan Unreal zijn. Die hebben het natuurlijk financieel een stukje beter, maar timmeren ook een stuk harder weg aan hun engine. Ook daarvan is de source gewoon beschikbaar (ook al leest die iets minder makkelijk).

> Dat resolutie en kleuren is toegenomen klopt echter zou dat bij gebruik van vector graphics niets uitmaken.
Hoe zou een vector formaat plots in staat zijn om meer kleuren op te slaan zonder ook in bestandsgrootte te veranderen? Ook zouden we in vectorafbeeldingen meer details verwachten in 2018 dan 20 jaar geleden. Verder is er een reden dat vector graphics niet of weinig gebruikt worden in games: de meeste texturen hebben juist heel grillige albedo en normal textures, die zeer slecht weergegeven worden door vector afbeeldingen. Daarnaast projecteren we deze vectorafbeeldingen nog altijd op een raster (=ons scherm), dus als die resoluties en kleurendieptes (bvb HDR) toenemen hebben we ook voor de backbuffers meer memory nodig.

(uit een aantal van je andere reply's)
> Maar goed gameengines die niet door ontwikkeld worden hebben er ook mee te maken.
CryEngine heeft gisteren 6 commits ontvangen.
Unreal 32 commits.
Ook Unity krijg zeer regelmatig updates. Zelf de source engine heeft met CSGO vandaag een update gekregen. Welke zijn de engines die niet worden doorontwikkeld juist?

> Ze gebruiken een van de standaard game engines en tools die allen verre van efficiënt zijn.
Als iedere developer (zeker de kleinere studio's) hun eigen engine zouden moeten schrijven, dan zien we volgens mij nog veel minder efficiënte games (en met minder content). Don't reinvent the wheel. Volgens mij onderschat je hoeveel werk er komt kijken bij het schrijven en onderhouden van een moderne game engine. (Unreal Engine heeft 31214 (!!!) source files, bijvoorbeeld)

> Alleen opslag (BF5 50GB) is belachelijk geworden en je moet het wel op SSD zetten ivm laadtijden.
Je "moet" helemaal niets. BF5 speelt perfect van een HDD en dat is nog steeds het opslagmedium waarvan ik vermoed dat de meeste BF5 spelers hun game op installeren. Op consoles komt een deel van de content zelfs van optische media. Een SSD zal inderdaad een stuk sneller zijn, maar dat is altijd zo geweest. Een auto met zwaardere motor trekt ook sneller op.

> In mijn optiek lijken (voelen) veel games met zelfde engine op elkaar en qua graphics is het de laatste 6 jaar amper beter geworden.
Het klopt dat de evolutie afremt. Diminishing returns. Dat had @Caayn ook al gepost, en deze afbeelding geeft het mooi weer.
Maar ik stel ook voor dat je er even een filmpje van Forza Horizon 1 en 4 bijneemt. Deze games zijn 6 jaar uit elkaar. Maar ik zie toch een verschil tussen die twee. Betere schaduwen, minder popping, meer dynamische objecten, diepere vergezichten, etc.

Ik kan je aanraden om de boeken Game Engine Architecture (3rd edition) en Real Time Rendering (4th edition) eens door te nemen. Vooral die laatste heeft een bibliografie van meer dan 100 pagina's, en toont heel mooi de evolutie van rendering technieken en optimalisaties doorheen de jaren. Neem er ook gerust eens de source bij van de grotere engines. Je kan die trouwens ook altijd eens vergelijken met de source van pakweg Quake.
Laat weten als je dan nog altijd overtuigt bent dat er minder optimalisatie gebeurt dan vroeger, of we beter vectorformaten voor afbeeldingen kunnen gebruiken, en als je mogelijks een ideetje hebt voor realistischere games met minder data gebruik :+
Ik kijk weleens in de keuken bij PLC of wearables en vergelijk dan het grofstoffelijke geweld van de PC markt. Onbeperkt geheugen, onbeperkte RAM, dat nodigt uit tot slordige algoritmen. Daar kom je in een wereld van beperkingen in de kleine chips niet mee weg. Ik geloof daarom inderdaad wel dat er vanuit een luxesituatie weleens lui wordt geprogrammeerd. :*)
Je kan er wel snelheid uit halen. Soms moet je de keuze maken tussen geheugenoptimalisatie en performance-optimalisatie. Als je een hele berg geheugen hebt, kun je vaker kiezen voor performance-optimalisatie. :*)
Ik noem het funtioneel gericht programmeren, als het maar doet wat klant wenst.

Zie je vaak bij PHP programmeurs, kijk maar naar een WordPress die 128MB per instance (bezoeker) nodig heeft, omdat e.a. ontwikkelaar bij WP een fotogalerij wilde maken voor zichzelf en dat kennelijk niet effectienter kon of wilde programmeren.

Leuk als je eigen dedicated server hebt met tiental bezoekers per dag. Een hel als shared hosting provider.
Als PHP programmeur zonder C achtergrond (of Arduino ervaaring) heb je ook gewoon geen besef van CPU cycles, registers, caches en geheugen allocatie. Je gooit gewoon je memory limit omhoog en gaat verder. (Geld tegenwoordig eigenlijk voor de meeste talen met een garbage collector)

Elke app die wat groter word krijgt vanzelf de optimalisatie liefde, ik maak met regelmaat een 10x sneller/efficienter optimalisatie in grote PHP platformen, dat is ook weer een leuke sport ;)
"Programmeurs" zijn zo lui geworden dat concept van programmeren en innoveren ondergeschikt is geworden aan omzet en winst.
Ik geloof niet dat dat aan de programmeurs ligt. Een game moet zsm klaar met zoveel mogelijk features, ik kan me voorstellen dat er op een gegeven moment gewoon geen tijd is om een mooie oplossing te verzinnen die soepel werkt op mindere hardware.
Ze gebruiken een van de standaard game engines en tools die allen verre van efficiënt zijn.

In mijn optiek lijken (voelen) veel games met zelfde engine op elkaar en qua graphics is het de laatste 6 jaar amper beter geworden.

Alleen opslag (BF5 50GB) is belachelijk geworden en je moet het wel op SSD zetten ivm laadtijden.

Stel je voor dat we nog met cassette bandjes werkten.... een dag nodig + taperobot om nieuwe level te laden.
Je zou dan kunnen zeggen "Programmeurs zijn lui gemaakt".
"Lui" programmeren daar gelaten. Dat je (bijv.) 2x zoveel rekenkracht en/of geheugen tot je beschikken hebt betekent niet dat het eind resultaat er ook 2x zo mooi ziet. Diminishing returns is wat dat betreft een akelig monster waar je niet omheen kan.
Schrijf ik dat dan ?

Het is belachelijk dat wat je terug krijgt voor de hoeveelheid opslag, RAM, VRAM en GPU en CPU computing power qua kosten tov een paar generaties terug.

Voor de een derde van een 2080 koop je tweedehands een compleet systeem inclusief SSD en grafische kaart die t/m FHD niet onder doet.

Meer is niet altijd beter en als men echt hun best zouden doen hadden we nu veel realistische games gehad.

Maar goed gameengines die niet door ontwikkeld worden hebben er ook mee te maken.
Meer is idd niet altijd beter. Maar om nu de high end van tegenwoordig, terwijl GPU zo'n beetje de moeilijkste tijd ooit doormaakt qua concurrentie en aanbod, te vergelijken met een opkomende markt van weleer is niet realistisch.

Net zomin overigens als je claim dat je voor een 300 euro klaar bent met een FHD capable game bakje. Tweedehands. Misschien voor een beetje Minecraft of Skyrim wel, maar dan heb je 't wel hoor. En dan nog daag ik je uit om er nu eentje op de V&A te vinden. Vergeet vooral die SSD niet ;)

[Reactie gewijzigd door Vayra op 22 juli 2024 20:42]

Op low, ja. Met dips naar 20-30 fps.
Dat is misschien waar voor een hoop software disciplines, waar correctheid en ontwikkelefficientie belangrijker is dan runtime performance, maar game engines zijn een van de weinige stukken software waar een enorm engineering budget naar performance en optimalisatie gaat.

Die gigabytes aan videogeheugen hebben niets met inefficiënties te maken; je hebt gewoon gigabytes nodig om de gedetailleerde werelden van moderne spellen in op te slaan. Natuurlijk zal niet elk spel 24GB nodig hebben (gelukkig, zou ik zeggen..).

Ik vermoed dat de hoge capaciteiten ook voornamelijk voor wetenschappelijke doeleinden gebruikt zullen worden.
Nou, kijk eens wat er gebeurt als er anno 2018 een wazige texture tussen zit. Dan is de wereld te klein en is het maar beter dat er gisteren nog een (U)HD texture pack wordt aangeboden. En wel gratis graag.

Vergelijk dat voor de gein 's met oude games ;) Ik probeer nu Diablo 2 op een 1080p paneel te spelen. Eind van de avond pijn aan m'n ogen van de lage framerate en het kleurenpalet + de resolutie. Nog altijd de moeite daar niet van... maar ik bedoel maar.

Verschil mag er zijn, de markt is volwassen geworden, en innovatie is allang het niveau van de zolderkamer ontstegen. De complexiteit ligt een tikkeltje hoger en het laaghangend fruit is ondertussen wel geplukt. Het is net als muziek. Op een gegeven moment heb je 't allemaal wel gehoord en is het slechts de uitvoering die het verschil maakt. Is dat lui? Of ben je zelf verzadigd geraakt?

Maar goed, het is allemaal weinig relevant want je post is hier eigenlijk niet op de juiste plek. 24GB HBM stacks op gaming kaarten... ik vraag me sterk af of die er gaan komen. In elk geval niet binnenkort. Dit is voor een hoger marktsegment.

[Reactie gewijzigd door Vayra op 22 juli 2024 20:42]

Gast... lui.... spellen van vroeger waren inmens klein vergeleken met wat nu gemaakt wordt. Daarmee was het juist om het meeste uit de console / pc te halen ondanks de limiaties, maar nu zijn spellen zo inmens groot dat ondanks dat er zeker vanuit regels gewerkt moet worden (hoeveel poly's een model maximaal mag hebben bv) dat optimalisaties idd minder nodig zijn, plus de hardware is nu veel beter voor de spelconcepten die gemiddeld bedacht worden dat niet alle performance gebruikt wordt en dus minder optimalisaties nodig zijn.

Maar lui? No-way...

En een demoscene is een schaalmodel vergelijken met een dorp...

[Reactie gewijzigd door Mic2000 op 22 juli 2024 20:42]

gamedevs zijn zelf zo lui dat ze maar 80 uur per week werken, schandalig.
Laten we het erop houden dat jij en ik geen idéé hebben hoe het werkelijk zit.

Ik dacht persoonlijk een goede koop te doen met 11gig op 1080ti maar begreep later dat dit waarschijnlijk toch nooit gebruikt zal worden en 8gig meer als voldoende nu is en nog een tijdje.
Heb je al eens 50 GB aan data met je hand uitgeschreven?
In een middag typen kom je niet veel verder dan een paar kilobyte.
Jij werkt meer dan 16 uur per dag :?
ik denk dat als je zoveel werkt, het niet beperkt is tot 5 dagen per week ;)
Oef! Dat klinkt niet heel gezond. Of je werk is niet heel intensief, of je kunt jezelf over een paar maanden oprapen lijkt me.
Nou zijn sociale skills beginnen er al onder te lijden :X :9
lees per stack. vorige variant was 8GB per stack. En als je de Volta erbij pakt (de HBM2 variant). die had 16GB RAM en de laatste versie(s) zelfs 32GB RAM.

Dit vertaald dan zich in 48 tot 96GB RAM!
stukje heftiger dan je 24GB.
Precies. En een bandbreedte van 1,2 TB per seconde bij toepassing van 4 stacks.
Heh, ik heb ooit voor 100 gulden 1MB extra geheugen gekocht voor een S3 Virge kaart :+
dat was zelfs toen niet slim...de Intel 740 videokaart was al uit...die had veel betere 3d capaciteiten destijds!
Ik neem geen verantwoordelijkheid voor aankopen die ik 23 jaar geleden heb gedaan :)

Ik denk trouwens dat dit voor de i740 was, de laatste kwam in '97 op de markt en de S3 in 1995. Daarna ben ik overgestapt op een Voodoo kaart.
Ik nog Fl 1400,- voor 16mb werkgeheugen ;) (voor mijn 486DX2-66Mhz BEEST :Y )
Ja en net daarvoor de Voodoo 2 kaarten met welgeteld 12 MB per kaart in SLI dat was monsterachtig :+
Dat waren nog eens tijden, die voodoo 2 kaarten waren best goed en vooral voorop in zijn tijd.
Unreal tournament 99 draait er met gemak op.Maar effen ontopic als ze de geheugen cellen gaan stapelen kunnen ze inderdaad meer geheugen kwijt op hetzelfde stukje oppervlakte, waardoor er dus meer geheugen op de kaart zelf aanwezig kan zijn.En wij dus meer geheugen gebruiken voor bijvoorbeeld games te draaien.

[Reactie gewijzigd door rjmno1 op 22 juli 2024 20:42]

mooi geschreven, ik herkende het gevoel ;(
Tegenwoordig doet het mij niks meer als ze met hogere getallen komen, want merk het niet meer moet ik eerlijk toegeven.
euuh, dat is een soort cpu / mem gemaakt in de game factorio. Hij heeft een 'schermpje' gemaakt binnen die game van 170x120 pixels (je smartwatch heeft meer pixels) en geeft aan dat in zijn 'geheugen' dit filmpje 34mb gebruikt. Ingame draait het met 1FPS. Dat YT filmpje is 'misleidend' aangezien dat prerendered is en daarna flink versneld, in werkelijkheid draait het met minder dan 1FPS.

Hele leuke demo en leuk bedacht en gemaakt, maar ik zie niet wat dit te maken heeft met 'wat je allemaal kan met 32mb'. Dit is a) geen VRAM en b) de memory die factorio gebruikt word niet meegeteld, en dat zal heel wat meer zijn die 32MB voor zijn filmpje.
Ik weet nog goed hoe lang het duurde om een PC op te starten die 64MB RAM had, en kijk nu: 64GB RAM en het is alleen maar sneller geworden. Mooi spul.
Ik wil dit. VRAM is echt iets waar ik nooit genoeg van kan hebben. Hoop dat het snel naar nvidia kaarten komt.
32gb ram op een videokaart
Ik herinner me nog de voodoo 3
64 MB !! Soldier of Fortune op zn best kunnen spelen jesus wat is er veel veranderd zeg
256GT/s is niet de snelheid van 1 stack HBM2, dit is 128GT/s.

Op dit item kan niet meer gereageerd worden.