Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 69 reacties

Samsung is de massaproductie van 4GB-dram met hbm2-interface gestart. Ten opzichte van de dram-modules op basis van de eerste generatie high bandwidth memory, is de bandbreedte verdubbeld naar 256GB/s.

De 4GB-dram-packages op basis van hbm2 bestaan uit vier 8Gbit-plakken, die gestapeld zijn en elk over vijfduizend through silicon via-kanalen beschikken, en daarmee verticaal met elkaar verbonden zijn. Nog dit jaar wil Samsung ook de eerste 8GB-hbm2-modules produceren. De Jedec-organisatie heeft hbm2 vorige week tot standaard verklaard. De standaard verhoogt de breedte van de interface tot 1024bit, verdeeld over acht onafhankelijke kanalen per dram-stack.

De bandbreedte van JESD235A, zoals de hbm2-standaard officieel heet, bedraagt maximaal 256GB/s en dit is dan ook de bandbreedte van Samsungs nieuwe packages. De fabrikant benadrukt dat de bandbreedte hiermee verdubbeld is ten opzichte van hbm1 en zeven keer zo hoog is als die van 4Gbit-ddr5-chips. Daarnaast verdubbelt hbm2 de bandbreedte per watt ten opzichte van gddr5, claimt Samsung.

Hbm2 is onder andere bedoeld voor videokaartgeheugen; AMD hanteert hbm1 bij zijn Fury- en Nano-videokaarten. De verwachting is dat zowel AMD als Nvidia van hbm2 gebruik gaat maken. Daarnaast is het geheugen in te zetten voor high performance computing, workstations en servers. Ten opzichte van gddr5 biedt hbm niet alleen een hogere bandbreedte, maar ook voordelen op het gebied van de ruimte die het op een videokaart inneemt.

4GB hbm2 dram Samsung

Moderatie-faq Wijzig weergave

Reacties (69)

Niet onbelangrijk in deze is dat dit geheugen al standaard error-correcting code (ECC) ondersteuning biedt. Dat is misschien niet interessant voor consumer grade videokaarten maar wel voor de genoemde "... high performance computing, workstations en servers."

Bronnen:

[Reactie gewijzigd door Ravefiend op 19 januari 2016 11:18]

Is 4GB (of later 8GB) niet een beetje weinig voor die andere doeleinden? Neemt niet weg dat het ook leuk werkgeheugen kan zijn voor de consumentenmarkt, mits betaalbaar. Kwestie van tijd weer denk ik.
Edit: typo's

[Reactie gewijzigd door i7 930 op 19 januari 2016 11:48]

Dit is maar 1 stapel HBM. Er kunnen 4 stapels op een die, dus een maximaal totaal van 32 GB (met stapels van 8 GB).
Ik raak altijd op het verkeerde been met die definitie van dat HBM geheugen. Vooral ook omdat die ene stapel op het bovenstaande plaatje niet het hele verhaal vertelt, en ik mijzelf laat afleiden door de 8Gb aanduiding. Van die 8Gb in het plaatje dacht ik eerst dat het terugsloeg op de bandbreedte, maar dat klopt niet, want die zou per stapel (als ik het tenminste goed begrijp 2Gb/s moeten zijn. Met HBM1 was die nog 1Gb/s.

De 8Gb aanduiding slaat meer terug op de informatiedichtheid van de "die". Naar ik tenminste begrijp uit kitguru. Vanuit de communicatie gedacht zou ik die 8Gb uit het plaatje weglaten, het heeft weinig met een gebruiksspecificatie te maken en veroorzaakt voor veel lezers alleen maar ruis. De kitguru bron is trouwens informatief, en laat de vier stapels ook mooi zien. Al blijft het een mooie oefening voor technisch begrijpend lezen :) .

[Reactie gewijzigd door teacup op 19 januari 2016 12:35]

Haal je niet Gb en GB door elkaar?

De ene is Gigabit ~ 128 MB en de andere is GigaByte ~ 1024 MB.

Dus de 8 Gb core die waarvan in het plaatje er vier op elkaar liggen zijn 8 gigaBIT, oftewel 1 gigaBYTE per stuk, en daar 4 van geeft 4 gigabyte.

[Reactie gewijzigd door SpiceWorm op 19 januari 2016 14:17]

Het verschil tussen GB en Gb lukt mij nog wel O-). Om de term Gb in de context van geheugengrootte te zien, daar had ik wat meer moeite mee. Bij mij is Gb zo'n ingesleten bandbreedte-eenheid dat ik het moest nazoeken waar het nu op terugsloeg. De term geheugendichtheid, zoals kitguru de term mooi omschreef zette mij wat dat betreft op het spoor.

Maar je reactie voegt zeker wat toe.

Als ik het nu dus goed begrijp zal het bij die toekomstige 8GB memorygrootte gaan over vier dies van 2GB ieder, met ieder een dichtheid van 16 Gbit. Edit Nee, niet goed. Dat kitguru artikel nog eens lezende gaat die 16 Gbit dichtheid nog even niet bereikt en moet de 8GB worden bereikt door een stack van 8 dies in plaats van 4 dies.

[Reactie gewijzigd door teacup op 19 januari 2016 18:01]

Voor CAD tekening workstations is het prima. En voor servers e.d. is het natuurlijk ook de vraag hoe het geheugen schaalt met de berekeningen.
Ik verbaas me altijd over geheugens: voor videogeheugen is het al tijden zo, dat die veel sneller is dan normaal RAM.
Ook hier wordt weer een geweldige sprong aangekondigd (7x de bandbreedte van GDDR5, dat al veel sneller is dan normaal RAM?). En dan kijk ik toch met een schuin oogje naar mijn nieuwe DDR4 geheugen en vraag me af waarom de technieken zo enorm verschillend zijn dat dit mooie, snelle geheugen niet als gewoon RAM ingezet kan worden...
Zo simpel is het natuurlijk niet, de GPU en CPU hebben niet voor niks compleet andere taken en dus ook een compleet andere manier van hoe ze hun geheugen gebruiken en nodig hebben...

http://www.techspot.com/c...-and-gddr5-memory.186408/
The memory is also fundamentally set up specifically for the application it uses:
System memory (DDR3) benefits from low latency (tight timings) at the expense of bandwidth, GDDR5's case is the opposite. Timings for GDDR5 would seems unbelieveably slow in relation to DDR3, but the speed of VRAM is blazing fast in comparison with desktop RAM- this has resulted from the relative workloads that a CPU and GPU undertake. Latency isn't much of an issue with GPU's since their parallel nature allows them to move to other calculation when latency cycles cause a stall in the current workload/thread. The performance of a graphics card for instance is greatly affected (as a percentage) by altering the internal bandwidth, yet altering the external bandwidth (the PCI-Express bus, say lowering from x16 to x8 or x4 lanes) has a minimal effect. This is because there is a great deal of I/O (textures for examples) that get swapped in and out of VRAM continuously- the nature of a GPU is many parallel computations, whereas a CPU computes in a basically linear way.
Beide zijn dus heel goed in hun eigen doel!

Dat is ook de rede waarom je een 20MB/s schrijvende/lezende flashdrive kan gebruiken om je OS met een HDD die wel 200MB/s kan schrijven/lezen toch te versnellen, de ene (HDD) is heel snel in veel data te verplaatsen door de hoge bandbreedte wat ideaal is voor grote bestanden, en de andere (usb stick) reageert heel snel door de lage accesstime, wat voor kleine files weer belangrijker is.

[Reactie gewijzigd door watercoolertje op 19 januari 2016 12:06]

Voornamelijk latency-problemen: Normaal RAM-geheugen zit fysiek veel verder van de geheugencontroller verwijderd op het moederbord dan GDDR/HBM van de GPU. Als je spreekt over miljoenen of zelfs miljarden klokpulsen per seconde, dan veroorzaakt zelfs 1 extra centimeter over een koperen baantje plots een gigantische extra latency tegenover de snelheid waarmee die klokpulsen gestuurd worden.

Daarom zag je bv. bij recente GDDR5-kaarten met veel geheugen (4+Gb) vreemde constructies qua PCB lay-out, om de chips toch maar allemaal even dicht bij de GPU te kunnen plaatsen. Dit speelt bij HBM veel minder, doordat ze gestapeld zijn kunnen de chips veel dichter (zelfs op dezelfde "chip", of interposer zoals AMD die noemt) geplaatst worden.
Latency? Electrische signalen gaan met zeg 60% van lichtscnelheid door koper op FR4 materiaal. Met de huidige klokfrequenties doet een centimeter dus nog niet veel.

Bij 2GHz legt het signaal 9,3cm af voordat de volgende kloktik komt.

Er zit een veel groter probleem in signaal integriteit, en dan vooral door twee connector overgangen (CPU socket en DIMM slot) die je op een videokaart niet hebt gooien hier roet in het eten.

@Belgar - Ik zou ook niet zeggen dat er geen enkele relatie is, maar op de klokfrequenties van DDR3/4 is signaal integriteit de grotere drijfveer. PCI Express 4.0 wat binnenkort wel in producten zal verschijnen draait op 16GT/s, signaal integriteit is daar een heel lastig probleem, en propagatie gaat dan ook nog eens meespelen.

@darkjeric, dat klopt niet wat je zegt, het stapelen en fysiek dicht bij de GPU zitten is bij HBM totaal niet gedaan voor de frequentie of latency, maar om de breedte van de geheugenbus flink op te schroeven. De interposer waar de GPU en het HBM op zitten kan namelijk veel preciezer en beter gemaakt worden dan PCB's, hier wordt gewoon een oud lithografisch procédé voor ingezet. Doordat er aanzienlijk emer spoortjes getrokken kunnen worden op de interposer kunnen met gemak een 4096 bit brede geheugenbus maken (HBM1). Met HBM2 gaat dit zelfs omhoog naar 8192 bit. Deze brede bus gekoppeld met een zeer lage frequentie van 500MHz geeft uiteindelijk toch een veel hogere bandbreedte.

Daarnaast wil ik ook niet zeggen dat propagatie geen rol speelt, alleen dat het op moederborden een minder grote rol speelt dan de SI. Op videokaarten is het een ander verhaal, je blijft op één PCB, wat signaal integriteit al stukken makkelijker maakt, daarnaast draait GDDR5 wel op veel hogere datarates (28Gbps voor de nieuwste chips) als DDR3 en DDR4 (2Gbps), signaal propagatie gaat bij die frequenties wel een grotere rol spelen.

[Reactie gewijzigd door knirfie244 op 19 januari 2016 13:22]

Vanaf snelheden boven de 2Ghz begint dat wel degelijk verschil te maken, zeker bij gebruik van meerdere CPU-cores en verschillende geheugenchips die allemaal 'synchroon' gehouden moeten worden.

Als nieuwe berekeningen afhankelijk zijn van resultaten uit eerdere berekeningen, en die nieuwe berekening gebeurt voor het eerdere resultaat in een verder afgelegen geheugenchip is weggeschreven, krijg je simpelweg rekenfouten.

Als het niets zou uitmaken zouden GPU-ontwerpers echt niet zoveel moeite doen om chips koste wat het kost zo dicht bij de GPU te plaatsen en zou het bv. ook veel gemakkelijker (lees: goedkoper) zijn om RAM-geheugen standaard quadchannel of nog meer aan te sturen, in plaats van dat alleen maar op heel dure server-grade (Intel Socket 2011) borden te plaatsen.

Het is juist het feit dat HBM gestapeld kan worden, en dus meer chips fysiek dichter bij de CPU/GPU geplaatst kunnen worden, die de grootste voordelen geeft.
En als ze nu nog met geïntegreerde optische communicatie combineren maak de afstand ook weer niet uit.
nieuws: Onderzoekers ontwikkelen chip met geïntegreerde optische communicatie

Er zijn nu wel een hoop nieuwe ontwikkelingen gekomen in de computer wereld. Ben echt benieuwd hoe het aan het einde van het jaar de computer er dan uit komt te zien. Vooral met deze ontwikkelingen en 3D XPoint.
Ik denk dat je daar van op zou kunnen kijken: 10 cm afstand (redelijk normaal op een moederbord) door koper geeft een transmissiedelay van 0,48 ns met 70% VF. In het geval dat je slechts 1 puls per kanaal wil houden zit je gecapped op een effectieve rate van 2,1 GHz puur door de afstand (iets hoger met VF75).

Nu is latency veroorzaakt door afstand misschien niet een hoofddrijver, maar dat data rates en afstanden geen enkele relatie hebben bij deze clocksnelheden gaat wel een tikkeltje te ver
Het kan wel als gewoon RAM ingezet worden, maar dan moet je een processor gaan kopen met de hoeveelheid geheugen die je wil hebben, zonder dat je nog de mogelijkheid hebt om later meer bij te plaatsen. De snelheid van dit geheugen komt met name omdat er meer verbindingen tussen het geheugen en de GPU lopen (1024, daar waar een high-end kaart van nu op 256 of 384 blijft steken), en omdat het geheugen vlak op de processor zit. Er zijn dus geen ingewikkelde printplaten met veel banen meer nodig, en ook de latency is stuken lager vanwege de kleine afstand. De opties blijven verder echter wel beperkt: 4GB geheugen is voor een modern systeem toch wel wat weinig.
valt wel mee, de meeste Ossen zijn tegenwoordig NUMA aware, wat inhoud dat het OS rekening kan houden met de afstand van geheugen.
dus je kunt een CPU kopen met 8GB ram level 4 geheugen wanneer ik de caches lvl1 tm 3 mag noemen, en het traditionele ddr4 ram word dan lvl 5 en je hdd/ssd is dan lvl 6 geheugen.
je ddr4 ram word dan een zeer snelle/grote buffer tussen het HBM en je ssd/hdd
Snel ddr4 geheugen kan al 50 GB er seconde verwerken.
Er is alleen niet veel wat dit nodig heeft of kan benutten dus waarom zou het nog sneller moeten.

Mijn huidige pc uit 2011/2012 kan al 34 GB per seconde verwerken maar zal dat volgens mij nooit gebruiken.
Gister toevallig een iets wat test vergelijking gedaan tussen DDR4-4000 & DDR3-2400
De read en write van DDR3 is nog niet zo slecht.
Er is helemaal geen sprong qua snelheid. HBM1 chips draaien op 1-2Ghz, terwijl GDDR5 in high end kaarten makkelijk 7GHz haalt. Maar in combinatie met een brede bus is de bandbreedte van HBM geheugen wel enorm natuurlijk.
Intel heeft antwoord op HBM al klaar liggen :) Kijk maar naar het volgende filmpje 3D XPoint

Helaas gaat het wel even duren totdat we echt 3D XPoint geheugen gaan zien. Ik zelf verwacht CPU's met 3D XPoint geheugen naast het die :) In 2 jaar misschien iets als dit zou mooi zijn CPU+3D XPoint
Kunnen we hieruit afleiden dat nieuwe grafische kaarten dit jaar op de markt zullen komen?
En recenter nieuws over de introductie van AMD's Polaris chips vóór de back-to-school periode (zomer 2016): http://arstechnica.com/ga...-in-development-for-2016/

Niets te lezen over problemen bij AMD zoals hiervoor gesuggereerd wordt. Het zou mij, ondanks Nvidia's marktaandeel, ook sterk lijken dat zij eerder over HBM2 zouden beschikken dan AMD. AMD en Hynix zijn de initiatiefnemers geweest voor het ontwikkelen van de technologie.

Eigenlijk gek dat AMD maar blijft "geven" aan de markt met het beschikbaar maken van technologiën als Mantle, FreeSync en nu HBM. De concurrent mag er zo van mee profiteren, terwijl die technieken maar al te graag gesloten/voor zichzelf houdt (PhysX, GSync). Ik hoop dat AMD er toch zijn voordeel mee kan doen.

Edit, zie ook: http://wccftech.com/amd-c...l-feature-hbm2-and-gddr5/

[Reactie gewijzigd door thomas_24_7 op 19 januari 2016 12:20]

Niets te lezen over problemen bij AMD zoals hiervoor gesuggereerd wordt.
Er word ook over HBM met geen woord gerept, behalve dat ze HBM gaan gebruiken, ze zeggen zelfs niet eens welke versie in het nieuws artikel waar jij naar wijst.

De beide berichten zouden waar kunnen zijn, juist omdat ze beide een andere invalshoek hebben.

[Reactie gewijzigd door Madrox op 19 januari 2016 12:15]

Sorry daarvoor moet ik even de andere bron die ik had gelezen noemen: http://wccftech.com/amd-c...l-feature-hbm2-and-gddr5/

De artikelen die je noemde zijn 9 maanden en 4 maanden oud (en aangemerkt als gerucht).

[Reactie gewijzigd door thomas_24_7 op 19 januari 2016 16:18]

Eigenlijk gek dat AMD maar blijft "geven" aan de markt met het beschikbaar maken van technologiën als Mantle, FreeSync en nu HBM. De concurrent mag er zo van mee profiteren, terwijl die technieken maar al te graag gesloten/voor zichzelf houdt (PhysX, GSync). Ik hoop dat AMD er toch zijn voordeel mee kan doen.

Edit, zie ook: http://wccftech.com/amd-c...l-feature-hbm2-and-gddr5/
Zo vreemd is dat niet. Als jij met een techniek komt die alleen op jou producten werkt dan heb je eerst wat macht in de markt nodig. Met 24% marktaandeel moet een techniek wel heel baanbrekend zijn wil deze door alle ontwikkelaars omarmd worden.

Verder zal het in het geval van HBM ook pure noodzaak zijn. AMD kan dit niet zelf ontwikkelen, daar missen ze de cash voor (en waarschijnlijk ook een sloot patenten). Hynix moet het vervogens van schaal grootte hebben. Dus ook daar komt dezelfde logica weer om de hoek kijken. Als de hele industrie HBM omarmt dan kan er een leuke winst worden gedraaid. Als ze dit exlcusief gaan produceren voor AMD dan zijn de oplages veel beperkter en dus vliegen de kosten per chip omhoog met honderden procenten. Dat Samsung het vervolgens ook kan produceren nemen ze op de koop toe. Als dit te abstract is dan kun je ook denken aan de CD (uitvinding Phips).
Misschien zien we de nieuwe generatie van Nvidia wel verschijnen.
Bij de overstap van Maxwell naar Pascal willen ze HBM2 gaan gebruiken.

http://wccftech.com/nvidia-pascal-gpu-gtc-2015/
Er komen elk jaar nieuwe kaarten uit, dit bericht staat daar los van. Wel kan je nieuwe kaarten verwachten die van deze techniek gebruik maken.

Amd heeft dat trouwens al aangekondigd:
http://wccftech.com/amd-greenland-gpu-hbm2-14nm-2016/
En het gaat schijnbaar niet over rozen:
http://wccftech.com/amd-a...stream-lineup-stick-hbm1/
Waarin je leest dat Nvidia er ook al mee bezig is.

[Reactie gewijzigd door Madrox op 19 januari 2016 11:24]

Er staat dat het 7x sneller is als gddr5 maar in hoeverre is het geheugen van invloed op de overall prestatie?

Mooi om te zien dat er elke keer weer ergens een enorme verbetering plaats kan vinden.
Niet heel veel. Het verhogen van de GDDR5 frequentie op de huidige videokaarten heeft zeer weinig effect op de prestaties.
Dat komt grotendeels omdat GDDR5 al op behoorlijk hoge frequenties werkt (bv. 7Ghz bij high-end nVidia kaarten) en het procentueel dus weinig uitmaakt als je daar 500Mhz bij doet. Bij HBM wordt echter de bandbreedte (fors) verhoogd, wat in één keer een verdubbeling of zelfs nog meer van de throughput teweegbrengt. Hoewel HBM1 op een veel lagere klokfrequentie werkte dan GDDR5, was de bandbreedte zodanig veel groter dat er in totaal toch veel sneller data tussen GPU en geheugen kon worden uitgewisseld. Dit wordt bij HBM2 dus alleen nog maar meer!

Dat dat wel verschil kan maken zie je bv. bij AMD-kaarten heel goed: Tot HBM hadden ze grote problemen om alle shaders van de GPU met data en rekentaken te bezetten, getuige het feit dat hun GPU's veel meer compute-kracht bevatten dan vergelijkbare nVidia's en toch "maar" dezelfde performance halen. Dit zou bij HBM2 geen probleem meer mogen zijn, waardoor we misschien wel nog grotere monster-GPU's (2-3-4x zoveel shaders als nu) zouden kunnen krijgen. We kunnen maar dromen ;)
Dat dat wel verschil kan maken zie je bv. bij AMD-kaarten heel goed: Tot HBM hadden ze grote problemen om alle shaders van de GPU met data en rekentaken te bezetten, getuige het feit dat hun GPU's veel meer compute-kracht bevatten dan vergelijkbare nVidia's en toch "maar" dezelfde performance halen. Dit zou bij HBM2 geen probleem meer mogen zijn, waardoor we misschien wel nog grotere monster-GPU's (2-3-4x zoveel shaders als nu) zouden kunnen krijgen. We kunnen maar dromen ;)
Betekent dat dan de nvidia kaarten met dit geheugen dan dus enorm veel sneller worden t.o.v. de huidige generatie en de ati kaarten met HBM1?
Ja dat kan, maar hetzelfde gaat natuurlijk op voor toekomstige AMD-kaarten die van HBM2 gebruik maken. Met als bijkomend voordeel voor AMD dat ze ondertussen al heel wat ervaring hebben met het daadwerkelijk produceren van HBM-kaarten, terwijl nVidia deze voor het eerst moet ontwerpen.

Daarbij moet ook wel gezegd worden dat nVidia hun shaders altijd al goed volgestouwd kreeg met de GDDR-interfaces. De GTX980Ti heeft bv. theoretisch gezien een pak minder rekenkracht dan de Fury X (5,6 vs. 8,6TFlops) maar haalt bij de meeste toepassingen (vooral games) ruwweg dezelfde performance. Ietwat simplistisch gesteld lijkt het er dus op dat AMD moeite heeft om al hun shaders bezet te houden met data, terwijl nVidia alle rekenkracht ook goed inzet.

Dit kan grotendeels opgelost worden door betere drivers, zie bv. het grote verschil bij gebruik van Dx12 vs. Dx11 bij AMD-kaarten, maar sowieso is meer bandbreedte ALTIJD welkom. Bij GPU's is het namelijk vrij eenvoudig gewoon meer shaders op de kaart te ploffen, het moeilijkste is die ook allemaal daadwerkelijk aan het werk te houden.

[Reactie gewijzigd door darkjeric op 19 januari 2016 14:44]

Vergeet niet dat HBM de latency ook omlaag brengt, dat is misschien nog wel belangrijker.
Is de manier van chips direct op elkaar stapelen niet groter nieuws dan de gebruikte interface?
Of was dat al eerder gedaan?

[Reactie gewijzigd door Jaco69 op 19 januari 2016 11:15]

AMD gebruikt al HBM1 zoals je kunt lezen, dat is ook al gestapeld geheugen.
Dit is HBM 2 en dat volgt HBM 1 op, het is dus niks nieuws inderdaad om te stapelen hoewel nog weinig toegepast in de industrie. waarschijnlijk door het limiet van 4GB bij gebruik van HBM1.
Als Samsung nu al massaproductie start van HBM2, kunnen we misschien wel al stellen dat de komende generatie NVidia kaarten voorzien zullen worden van HBM2.
Ik laat ook veel mensen die artikel lezen :)
Hier nog wat overzicht plaatjes.
Amd heeft ook net de amd polaris bevestigt
Amd heeft ook net de amd polaris bevestigt
Die hadden al een werkende versie nvidia nog niet. Heb wel gehoord over problemen met tsmc over het 16nm proces dat nog niet helemaal lukt en daarom nvidia iets heel anders liet zien dan pascal maar wel deden lijken alsof het pascal was. Maar het word technologisch op pc gebied weer een leuke tijd met veel nieuwe dingen om naar uit te kijken.
Mooi, ik hoop dat de nieuwe "pascal" serie van Nvidia hier al van gebruik gaat maken.
HBM biedt nog meer aan. Doordat het stacked is, zijn de baantjes veel korter. Ook is hierdoor de capaciteit van elk baantje lager.

Dus niet alleen PCB ruimte is kleiner, een hogere bandbreedte (door bredere bus).

Wat er niemand hier bij zegt:
- I/O snelheid kan nog hoger (dus nog hogere bandbreedte, huidige frequentie is vrij laag)
- verbruik ligt lager (door lagere capaciteit)

Trouwens... was HBM niet van SK Hynix i.p.v. Samsung?

[Reactie gewijzigd door bjp op 19 januari 2016 16:32]

Kan iemand een ELI5 geven? Wat zal de consument hier van merken? Zorgt dit voor minder input latency oid?
Ten eerste zuiniger, en sneller zoals het artikel al aangeeft, daarnaast is het PCB kleiner te maken omdat er eerst bij wijze van spreken 16 chips op een board moesten worden gezet en nu nog maar 1 of 2. Hierdoor kan je kaarten maken die in hele kleine kasten passen (R9 Fury Nano).

Theoretisch kan het produceren van een videokaart ook goedkoper maarja of de consument dat merkt betwijfel ik :D
Thanks!

Ik kan mij voorstellen dat laptops/tablets/hybrids hier het meeste profijt van gaan hebben op de manier dat er (zoals op de iPad Pro) grafisch zware applicaties kunnen draaien. Mits tablets natuurlijk van hetzelfde type geheugen gebruik maken.
De beperking in dat soort systemen zit maar voor een klein deel in de ruimte; het grootste nadeel van HBM modules is dat hitte afvoer lastiger wordt; iets wat voor laptops, tablets en hybrids een groot probleem zal zijn.
Zouden de fabrikanten niet over kunnen stappen op kleiner geheugen (met bijbehorende koeling) om de extra ruimte voor iets anders te benutten? Of is de extra benodigde koeling dusdanig hoog dat er geen extra ruimte zal zijn?
Die interposer maakt het vooralsnog een stuk duurder
Voor mensen die niet weten wat ELI5 betekent: het is een term van Reddit en betekent Explain it like I am 5, oftewel, leg het uit alsof ik 5 jaar oud ben.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True