'Nvidia keurt Samsung-HBM's voorlopig af vanwege hitteproblemen'

Nvidia heeft de nieuwste HBM-chips van Samsung voorlopig afgekeurd, schrijft Reuters op basis van interne bronnen. De fabrikant wil de chips gebruiken voor zijn AI-gpu's, maar er zouden problemen zijn met oververhitting en stroomverbruik.

Het gaat volgens Reuters om de HBM3-chips en om de HBM3E-chips, die dit jaar op de markt moeten verschijnen en in de eerste helft van 2024 in productie zijn gegaan. De redenen dat de chips niet goed uit de test zijn gekomen zijn niet door de bedrijven zelf gedeeld, maar drie bronnen zeggen dat chips te veel stroom gebruiken en snel oververhitten.

Samsung probeert sinds vorig jaar de tests van Nvidia te doorstaan, aldus de bronnen. Volgens twee bronnen kwamen afgelopen april de resultaten binnen van een recente mislukte test voor de 8-laagse en 12-laagse HBM3E-chips. Het is niet duidelijk of de problemen gemakkelijk kunnen worden aangepakt. De bronnen zeggen dat investeerders bezorgd zijn dat Samsung kan worden ingehaald door SK hynix en Micron, die ook begonnen zijn met de productie van HBM3E-chips. Zowel Samsung als Nvidia willen geen antwoord geven op de vragen van Reuters.

Door Loïs Franx

Redacteur

24-05-2024 • 18:15

60

Reacties (60)

60
59
26
3
0
23
Wijzig sortering
Zowel Samsung als Nvidia willen geen antwoord geven op de vragen van Reuters.
echter
In separate statements after Reuters first published this report, Samsung said that "claims of failing due to heat and power consumption are not true," and that testing was "proceeding smoothly and as planned."
Nvidia declined to comment.
Bron https://www.reuters.com/t...-woes-sources-2024-05-23/ update van nu 9 uur geleden!!
Wat zijn HBM chips? En wat is er zo bijzonder aan HBM3E?
Bij HBM-geheugen zijn de chips op elkaar gestapeld, dus meer hittebronnen die hun warmte in minder richtingen kwijt kunnen. Dit was altijd het grootste risico met dit idee, en Samsung heeft dit blijkbaar tot dusver nog niet verslagen, als het gerucht klopt (Samsung spreekt het tegen). Ben benieuwd of de andere bedrijven die werken aan deze techniek het er beter vanaf brengen, en dat zou vrij snel moeten blijken.
HBM-chips voor in de GPU's, datacenters AI, cache in CPU's

High Bandwidth Memory (HBM)

AMD waren trouwens de eerste die deze HBM chips in hun GPU's gebruikten

[Reactie gewijzigd door MPIU8686 op 23 juli 2024 16:59]

Heb nog ergens een Fury X liggen; was een beest van een GPU maar had (vooral) te weinig geheugen om nog mee te kunnen.
Dat is vooral een totaalplaatje, helaas heb je gelijk maar het had zomaar de andere kant op kunnen slaan een paar jaar geleden.
Als “Direct storage” er destijds was geweest en game ontwikkelaars hadden hierop ingespeeld, dan was de beperkte hoeveelheid geheugen een kleiner issue geweest.
Meer bandbreedte zorgt er uiteindelijk voor dat assets sneller ingeladen kunnen worden, waardoor er minder “alvast” ingeladen moet worden omdat de game dit misschien nodig gaat hebben.
En als je er nu 3 van die FURY's in CrossFire opstelling had geplaatst ..
8-)

Ikzelf heb even de Sapphire Radeon NITRO R9 FURY 4G HBM in gebruik gehad in 2017,
eerst als een voorlopige upgrade voor mijn PC build die toen al van 2013 was

Daarna heb ik rond die FURY een geheel nieuwe midrange build gebouwd.
Toen die nieuwe midrange build vervolgens af was,
de FURY in 2018 vervangen door een CrossFire opstelling met 3 stuks
Sapphire NITRO+ Radeon RX Vega64 8G
Dit was meer als test ..
want één RX Vega64 had ik enkele maanden later alweer verkocht

Later heb ik die CrossFire opstelling wel moeten ontmantelen door systeemproblemen.
Werkte nochtans perfect op Windows 8,
maar helemaal niet meer op Windows 10
en die ene Vega64 heeft eigenlijk altijd wel problemen blijven geven met Windows 10 en nog steeds ...

Eind 2018 een nieuwe high end build gebouwd met een RTX2080 Ti 11G :)
Zelf 2 jaar gebruikt en daarna overgenomen door mijn dochter.
Nog steeds in gebruik door mijn dochter nu.

Ikzelf zit sindsdien met die RX Vega64 build om op PC te gamen
en gebruik mijn 2013 build voor de dagelijkse klusjes :D
offtopic:
Heb zelf ook nog een Vega 64. Dat ding houd zich nog aardig kranig moet ik zeggen. Ja er zijn zeker betere (en vooral energiezuinigere) opties.
Met welke OS gebruik jij die RX Vega64 en is dit in combinatie met een Intel CPU ?

Blijft bij mij regelmatig tot het uiterste gaan om dan weer rustiger te worden.
Af en toe krijg ik dan blackscreens als dit x aantal keer gebeurt en blijft de PC wel gewoon draaien,
maar scherm blijft zwart. Kabels of mijn 4K scherm wisselen met een FullHD scherm geeft geen oplossing. Heb zelfs al eens met die andere Vega64 gewisseld die ik nog liggen heb, net hetzelfde probleem. Met de Vega64 is zeker niets mis. Heb ook al eens met een 1500watt voeding geprobeerd die ik nog liggen heb, zelfde probleem. psu is dus ook in orde.

Als dit gebeurt is het gewoon koud afsluiten en heropstarten en werkt alles weer.

SYS:
AMD – Sapphire Radeon NITRO+ RX VEGA64 8GB HBM2
Ik namelijk op Windows10 met een Intel – Core i5 7500 3,4Ghz
mobo : – Z270-SLI Plus LGA1151 PCI3.0 DDR4
psu : HX1000i (ATX 80 Plus Platinum)

Had deze problemen helemaal niet toen ze in CrossFire opstelling stonden met Windows8

Enig idee of soortgelijke ervaring ?
Heeft sinids januari 2019 gedraaid met een AMD Threadripper 2950X op het TR4 platform, en daarmee vrijwel nooit echt problemen mee ervaren. Wel heel occasioneel een screen crash, dus dat de AMD GPU tool aangeeft dat ie de drivers heeft herstart, maar daar bleef het altijd bij.

Sinds ergens einde 2023 vervangen door een 7950X op het AM5 platform, en een paar maanden later heb ik die 7950X vervangen door een 7600X, aangezien ik de power van de 7950X toch niet gebruikte en ik ook benieuwd was hoe een 7600X zou presteren in games (op 1440p) t.o.v. de 7950X.
Ik zie wel duidelijk verschil, dat de 7600X in games (veel) makkelijker 100% belast kan worden, en dat was bij de 7950X niet het geval, maar dat komt door de aantal cores natuurlijk.

Ik heb zelf de uitvoering: ASUS ROG Strix RX VEGA64 OC edition 8GB
Wat ik gebruik is: inventaris: MSI MEG PC

In de loop der tijd heb ik zowel Windows 10 en Windows 11 gebruikt, en ook op het AM5 platform heel sporadisch een screen crash gehad, maar minder dan op het TR4 platform.
Over de algehele linie geen problemen, echter vind ik het leuk om Forza racespellen te spelen, en het lukt mij momenteel niet (i.i.g. met de laatste AMD drivers) om Forza Motorsport (8 uit 2023) te spelen. Loopt na het laden van de shaders continu vast. Andere Forza spellen (Horizon 4, Horizon 5, Motorsport 7) werken prima.

Probeer trouwens de sneltoets 'Win + Ctrl + Shift + B' te gebruiken zodra je zo'n zwart schem issue tegen komt. Dan reset je je drivers in Windows en wordt het herladen van de drivers geforceerd.

[Reactie gewijzigd door Dijkertje op 23 juli 2024 16:59]

Bedankt voor je antwoord,
de screencrashes met die RX Vega64 blijken dus wel echt een issue te zijn.

Zo denk ik ook soms, kan dit aan steam of EPIC liggen ?
Want ..
Een raar iets, als ik Rome Total War of Age of Empires I & II, Empire Earth
speel blijft ie gewoon verder doen zonder problemen.
En deze zijn niet via steam, maar dit zijn gewoon fresh installs geweest via CD-ROM en starten op via een NoCD patch. Nog nooit een issue gehad als ik deze games speel, zelfs al staat ie 3 dagen aan een stuk te draaien. Geen crash, geen black screen.

Maar start ik bijvoorbeeld Total War: Attila op via steam dan begint de ellende na 1 uur of enkele uren alweer. Continu saven is dan de boodschap natuurlijk. :X
Ingame heb ik screen crashes nooit ervaren, het was/is bij mij sporadisch op het desktop.
Jaren geleden heb ik allerlei zaken geprobeerd, zelfs OS meerdere keren opnieuw geïnstalleerd en alles wat ik vernoemd heb. Zelfs een nieuwe SATA SSD gestoken en van 0 begonnen, vanaf die Windows 10 zijn de problemen begonnen. Zijn ook andere mensen eens naar komen kijken om mogelijk dit probleem op te lossen, maar zonder resultaat. Je kunt niet zeggen dat ik het niet geprobeerd heb om het op te lossen, maar op een bepaald moment gewoon opgegeven.

Was trouwens ook de reden dat m'n volgende build met RTX2080 Ti zo vlug is samengesteld geweest en heb daar nooit geen enkel probleem met ervaren. (overgenomen door mijn dochter, stond ik dus terug bij af bij m'n RX Vega64 build). 8)7

Volgende build, volgend jaar gaat dus een groot vraagteken worden wat er in komt ..
Opnieuw het risico deze issues te ervaren met een AMD GPU
Of toch gewoon voor Nvidia te gaan
Alles gaat afhangen van de prijzen en benchmarks tussen die 2 ...
De Nvidia RTX5000 series of AMD RX8000 series ??
Hier hetzelfde met een 6900XT. Het hoofd scherm dat compleet zwart wordt terwijl de rest reageert, cursor corruptie etc.

Ik heb vroeger ATI's gehad zonder issues en ben daarna overgestapt naar nvidia 1xxx en 2xxx serie. Noooit problemen gehad tot ik deze AMD kreeg.

Undervolten, overvolten, underclocken, overclocken, tests, ddu etc etc, niks lost het op.
Ik heb het al lang opgegeven met die RX Vega64 8)7

Wat ik nog wil doen als mijn nieuwe build af is,
is die vorige set-up met die RX Vega64 terug naar Windows8 brengen
zoals toen ie nog zonder problemen was.
Die SATA SSD heb ik gewoon liggen, is gewoon verwisselen met diegene die er nu in zit.
Puur nog voor gamen en als reserve .. uitblusperiode :D

Volgend jaar een nieuwe build in PCIe5.0 met Windows12 dan ..

Of er een Nvidia of AMD inkomt valt nog te bezien.
Naar het schijnt gaat de RTX5080 GDDR7 PCIe5.0 ondersteunen
en de prijs rond de €1000 tot €1200 liggen. :)
Radeon VII en VEGA 56 waren echt een beast van een GPU.
helaas nu wel erg energie slurpend en niet efficiënt.
Mijn GTX1060 6G tot 120W
April 2017

1 jaar tussen

Mijn RX Vega64 tot 240W (50% sneller dan de GTX1060 6G)
April 2018

6 maanden tussen

Mijn RTX2080 Ti tot 260W (80% sneller dan de RX Vega64)
Eind 2018

5 jaar tussen

De RTX4080 super van m'n maat tot 320W !! (90% sneller dan mijn RTX2080 Ti)
Eind 2023
HBM = High-Bandwidth Memory, zie Wikipedia: High Bandwidth Memory

Is dus vooral bedoeld voor gebruik op GPU's, waar het meestal 'hoe meer bandbreedte, hoe beter' is.
Wat is High Bandwitdh Memory (HBM): geheugen dat een veel hogere bandbreedte heeft waardoor je meer data kun verplaatsen tussen je geheugen en processor (GPU, NPU, CPU, etc). Meer data kunnen verplaatsen is steeds belangrijker doordat bij AI toepassingen geheugen nu de bottleneck is geworden ipv. de processor zelf.

Det grote verschillen tussen 'traditioneel' geheugen zoals GDRR6 en HBM is dat bij HBM de DRAM geheugen chips gestapeld worden en het geheugen direct op de processor of ernaast op de interposer geplaatst kan worden. Naast de hoger bandbreedte heeft dit het voordeel dat het ruimte bespaard en minder energie verbruikt.

Het verschil tussen de standaarden zit voornamelijk in het aantal geheugen chips dat ze kunnen stapelen, waardoor het totale beschikbare geheugen verhoogd, en de doorvoersnelheid per pin die hoger ligt waardoor de bandbreedte verhoogd wordt. Samsung, SK Hynix en Micron zetten zelf met JEDEC de standaard waardoor de implementatie van die standaard niet altijd per producent hetzelfde betekend. Grofweg is de standaard zo:
HBM: max. 4GB, 4 chips, 128GB/s, transfer rate 1 Gbps/pin
HBM2: max. 8GB, 8 chips, 256GB/s, transfer rate 3,2 Gbps/pin
HBM3: max. 16~24GB, 8~12 chips, 819GB/s, transfer rate 6,4 Gbps/pin
HBM3E: max. 24~36GB, 8~12 chips, 1TB/s, transfer rate 8 Gbps/pin

nVidia heeft een AI-versneller, de H200, en die GPU heeft 141GB HBM3e geheugen die gebruikt maakt van 24GB modules geproduceerd door Micron. (Hoe je dan uitkomt op een oneven getal als 141GB weet ik zelf ook niet)
De afkorting is al uitgelegd.
Memory niet op Gkaart PCB maar in de GPU package.
* De highbandwide wordt dus gerealiseerd door enorme bit breedte van bus.
Gestapeld. Chips.
Dat kan dus omdat de mem chips heel dicht bij de gpu DIE zijn.
Houd in kortere traces die per trace stuk minder verbruiken en daarbij dus flink meer de bit breedte kunnen gaan.
* dat dichterbij brengt ook de latency omlaag.
* die enorme bus breedte brengt ook ander voordeel mee dat memory acces door veel meer task parallel kunnen. Ideaal voor prof toepassingen.
* gestapelde chip dus grote memory heaps mogelijk
* Nadeel dat HBM duurder is. Dus voor top model GPU voor consumenten te doen. Maar als top model flink tegen valt lagere MSRP dan vreet het de marge compleet weg. Wat probleem van de VEGA consumenten GPU reeks was . Wordt dus uitsluitend voor pro toepassing gebruikt.
Hmm vandaar dat we nog niet op HBM zitten voor de Nvidia kaarten. Ik ben benieuwd wat er gaat gebeuren bij de rtx 5000 serie
HBM is voor consumentenkaarten niet zinnig. Om te gamen heb je geen hoge bandbreedte nodig, je hebt meer geheugen nodig.

Weet je nog de Fury series van AMD? Terwijl nVidia 8GB GDDR er in zette, koos AMD voor 4GB HBM. Het eindresultaat was dat nVidia beter presteerde in nagenoeg ieder spel.

HBM is een leuke technologie maar voor de afzienbare tijd veel te duur om in consumentensystemen te gebruiken.
HBM is voor consumentenkaarten niet zinnig. Om te gamen heb je geen hoge bandbreedte nodig, je hebt meer geheugen nodig.
Deze bewering klopt niet. Geheugen bandbreedte is nog altijd zeer belangrijk. Echter door gebruik te maken van technieken als delta color compression kun je tegenwoordig 'meer' uit 'minder' halen. Daarnaast is Nvidia begonnen met het plaatsen van enorme L2 caches van 64MB in hun videokaarten. Die L2 cache zorgt ervoor dat er minder snel data nodig is vanuit het vram wat de benodigde bandbreedte verder verlaagd. Alsnog is de bandbreedte enorm gestegen, daar waar een 1080 officieel 320 GB/s had heeft een 4080 716 GB/s.

De hoeveelheid geheugen doet eigenlijk niets voor je performance, zo lang er maar voldoende is. Als een game 6GB vram nodig heeft dan is die exact even snel op 12 of 24 GB.

[Reactie gewijzigd door sdk1985 op 23 juli 2024 16:59]

De hoeveelheid geheugen doet eigenlijk niets voor je performance, zo lang er maar voldoende is. Als een game 6GB vram nodig heeft dan is die exact even snel op 12 of 24 GB.
En dat is nou juist het probleem; hoe sneller de GPUs worden, hoe groter de hoeveelheid data die nodig is om de details op het scherm mooi te krijgen.
En zoals gezegd; the proof of the pudding is in de Fury series van AMD die duidelijk geheugen tekort kwam met als gevolg dat de geheugen bandbreedte plotseling die van het PCI-e slot is in plaats van het on-card memory. Daarmee was HBM zinloos geworden.

In theorie klopt je verhaal. In de praktijk bleek dat geheugen op de kaart belangrijker was dan de bandbreedte van dat geheugen. Dat betekend niet dat die bandbreedte níet belangrijk is, het betekend wel dat zodra je te weinig geheugen op je kaart hebt, je geheugen nog zo snel kan zijn, het gaat niet snel genoeg zijn.
Maar HBM kan nog steeds wel zinnig zijn voor consumenten kaarten, want bij HBM kan er ook meer geheugen geplaatst worden. HBM is vooral duur en wordt daarom niet toegepast op consumenten kaarten.

De Fury had idd te weinig geheugen. De hoge bandbreedte van HBM komt voornamelijk van de busbreedte, dat betekend ook dat die breedere bus overal ondersteund moet worden, dus PCB wordt duurder, chip wordt duurder etc. GDDR bleek ook heel goed in hogere clocksnelheden halen waardoor er na de Fury ook geen HBM meer geplaatst werd op consumenten kaarten.

De HBM3e stacks van samsung gaan nu to 36GB. Dus 4 van deze stacks op een kaart zou 144GB geheugen opleveren op een videokaart (vergelijkbaar met de AI kaart die nVidia nu aan het maken is). De chips hebben ongeveer 1.2TB/s aan bandbreedte per chip bij een busbreedte van 1024. De chip heeft dus een busbreedte van 4096 en 4.8TB aan bandbreedte als de hitteproblemen kunnen oplossen.

Als een consumenten videokaart zou dit veel te duur worden en er zijn (nog) geen games die dit kunnen benutten. Zou wel benieuwd zijn naar gaming benchmark van zo'n kaart, helaas zijn de kaarten die door nVidia gemaakt worden gericht op AI en niet geschikt voor gaming. En ze kosten ook nog eens 30 tot 40 keer zo veel als een 4090.
[...]

En dat is nou juist het probleem; hoe sneller de GPUs worden, hoe groter de hoeveelheid data die nodig is om de details op het scherm mooi te krijgen.
En zoals gezegd; the proof of the pudding is in de Fury series van AMD die duidelijk geheugen tekort kwam met als gevolg dat de geheugen bandbreedte plotseling die van het PCI-e slot is in plaats van het on-card memory. Daarmee was HBM zinloos geworden.

In theorie klopt je verhaal. In de praktijk bleek dat geheugen op de kaart belangrijker was dan de bandbreedte van dat geheugen. Dat betekend niet dat die bandbreedte níet belangrijk is, het betekend wel dat zodra je te weinig geheugen op je kaart hebt, je geheugen nog zo snel kan zijn, het gaat niet snel genoeg zijn.
Maar zo werkt het dus niet. Geheugen verbruik tegenwoordig wordt primair bepaald door de texture details. Daarin worden games steeds veeleisender. Het enige effect van te weinig geheugen zit hem niet in de bandbreedte maar het feit dat bij een tekort de GPU moet gaan swappen met het systeem geheugen wat resulteert in frame drops.

Indien je game settings laag genoeg staan, of de game simpelweg dat VRAM niet nodig heeft, dan is er geen effect. Zie bijvoorbeeld de RTX 4060 Ti 8GB die 119.5 fps haalt vs de 16GB variant die 119.9 FPS haalt bij techpowerup. Twee keer meer geheugen doet letterlijk niets voor de performance.

[Reactie gewijzigd door sdk1985 op 23 juli 2024 16:59]

Het enige effect van te weinig geheugen zit hem niet in de bandbreedte maar het feit dat bij een tekort de GPU moet gaan swappen met het systeem geheugen wat resulteert in frame drops.
Dat is precies wat ik zeg; als je te weinig geheugen op je grafische kaart hebt zal het systeem geheugen gebruikt moeten worden wat betekend dat de GPU geheugen bandbreedte plots de bandbreedte van het PCI-e slot is....
Indien je game settings laag genoeg staan, of de game simpelweg dat VRAM niet nodig heeft, dan is er geen effect. Zie bijvoorbeeld de RTX 4060 Ti 8GB die 119.5 fps haalt vs de 16GB variant die 119.9 FPS haalt bij techpowerup. Twee keer meer geheugen doet letterlijk niets voor de performance.
Als je game settings laag genoeg staan dan heeft HBM dus ook geen zin meer.... Als je game settings laag genoeg staan zit je bottleneck in je CPU, niet in je GPU, onafhankelijk van hoe snel het geheugen van die GPU is.
Niet persé je kunt prima een game als Rainbox Six siege met 300 fps gaan draaien en dus toch hoge gpu load en bandbreedte nodig hebben om 300 frames per seconde te generen met beperkte hoeveelheid geheugen door er simpelweg voor te kiezen om de texture details niet op ultra te zetten. Pc heeft als voordeel dat je zelf de inviduele settings kunt bepalen. Je hoeft niet alles op low te zetten.
Dat was de eerste generatie van de techniek Dst is niet te vergelijken met de huidige staat.
HBM is nu vooral veel te duurt in vergelijking met Gddr geheugen waardoor het voor gaming kaarten niet interessant is. Als de prijzen gelijk waren en er genoeg was voor en gaming en Ai kaarten hadden ze zeker HBM gebruikt voor de gaming kaarten echter is het en veel duurder en er is niet genoef beschikbaar.
HBM is voor consumentenkaarten niet zinnig. Om te gamen heb je geen hoge bandbreedte nodig, je hebt meer geheugen nodig.
Kwestie van tijd. Het is nu al interessant qua performance een low-power CPU te laten decoden vanuit gecomprimeerd geheugen.

Apple's M series laten ook zien dat lange lijntjes een bottleneck vormen voor performance. Hoe dat verder bij AMD en Nvidia zat weet ik niet, maar game prestaties hangen van veel meer dingen af zoals implementatie, memory controller en snelheid geheugenchips. Als ik bijvoorbeeld segmenteer tussen 2x4Gb sneller geheugen dan HBM kan ik netto meer performance krijgen.

Als Samsung de warmte-ontwikkeling op orde krijgt zal de snelheid waarschijnlijk competitief worden, anders zouden ze wel investeren in soorten caches.
HBM is voor consumentenkaarten niet zinnig. Om te gamen heb je geen hoge bandbreedte nodig, je hebt meer geheugen nodig.
Ik ben ook een consument en ik heb een kaart met HBM die ik voor AI inferentie gebruik :) De gebruiksdoeleinden veranderen steeds. En ik denk ook dat AI modellen in games ingebouwd gaan worden en het op die manier belangrijk wordt.
Er zijn ook andere problemen met de designs van AMD, ik herinner me dat AMD op een bepaald moment meer geheugen voor minder geld maar op half de busbreedte (128-bit vs 192 en 256-bit voor nVIDIA). Het chiplet design voor hun CPUs hebben gelijkaardige problemen tov Intel - bandbreedte tussen de cores was vooral in Zen bagger, benchmarks zijn goed, maar in praktijk werkt het minder goed omdat ‘echt’ multi-core werk meestal in IPC zit.

[Reactie gewijzigd door Guru Evi op 23 juli 2024 16:59]

Hbm is peperduur tegenwoordig, ik zou die dingen niet verwachten op kaarten onder de 5000 euro tegenwoordig.
Niet de eerste keer dat we horen over Samsung chips en (te) lage energie efficientie.
En terecht! dat Nvidia dit afgekeurd in plaats van gewoon slikken.
Samsung 990 SSD is ook niet te koelen, verschrikkelijk trend.
Eindelijk iemand die terug duwt.
Hoe bedoel je met "niet te koelen" ?

Hier is mijn temperatuur van de SSD 990 Pro tussen de 26 graden idle en 48 graden bij zwaar gebruik met enkele casefans.
Misschien moet je eens je aandacht verleggen naar betere koeling in je kast.
Ik weet niet hoe je het zoveel koeler houdt dan zelfs in tweakers review. Maar het is simpele natuurkunde: 990 verbruikt 20x zoveel energie in idle dan 980 (0,6W bij niks doen) . Dit is een kleine verwarmingselement.
20 keer bijna niks is nog steeds vrij weinig. 0.6W is prima te koelen.

Dat het (ogenschijnlijk) onredelijk en onnodig veel is staat daar los van.
Economy of scale. Stel dat er 10.000 van die SSDs in een datacenter. Dan ben je 6000W kwijt en moet je ook 6 kW aan hitte dissiperen. In plaats van 300W. En dat zijn de SSD alleen.
Economy of scale is iets compleet anders, maar goed.

Ja, inderdaad, een miljoen ssds verbruiken veel stroom. Maar dat heeft niets te maken met je bewering dat 0.6 Watt in een PC moeilijk te koelen zouden zijn.
Blijkbaar Nvidia is ook van mening dat Samsung geheugen te veel stroom gebruiken. En ik denk dat Nvidia miljoen stukken koopt.
Mijn reacties was op je verhaal dat 0.6 Watt een berg hitte veroorzaken en dat dat niet te koelen is. Hou alsjeblieft op er duizend andere dingen bij te halen.

Dat nV met Samsung-HBM niet tevreden is heeft werkelijk helemaal niets te maken met het gebruiken van een Samsung-SSD in een PC.
Ik probeer juist on topic te blijven. Dat Samsung 20x meer stroom verbruikt dan hun eigen oudere model, dat is een zeggend voorbeeld. Het zou mij niet verbazen als Samsung HBM chips 20x meer stroom nodig dan Micron. En het feit dat de afdeling hoofd van Samsung is vervangen (als je leest de gelinkde article) is ook zeggend. (Misschien was hij ook een type die dacht “ah, het is maar 0,6W” ;) ) Blijkbaar er zijn wel mensen die iets meer verstand van efficiëntie hebben.
De reacties op jouw bewering "Samsung 990 SSD is ook niet te koelen, verschrikkelijk trend" gaan over het koelen van een 990.

Die is gewoon wel te koelen. Hij is niet erg efficiënt gemaakt, maar hij is prima te koelen.

Als je over HBM wilt praten, dan praat over HBM.
Jij praat over de 990, maakt daar beweringen over, krijgt daar reacties op, en dan blijf je maar teruggaan naar "ja maar Samsung dit ja maar Samsung dat".
HBM is echt wel toffe techniek. Ik heb een Radeon videokaart voor AI met HBM2 en die is even snel in geheugenbandbreedte als mijn 4090 hoewel hij veel minder kostte. Daardoor is de kaart bijna even snel as die 4090 met LLM's en dat is best indrukwekkend voor de prijs.

Nvidia gebruikt nog wel GDDRx in hun consumentenkaarten omdat dat gewoon veel goedkoper is.

[Reactie gewijzigd door Llopigat op 23 juli 2024 16:59]

Maar Nvidia vraagt wel dubbel zoveel en meer :)

Ik heb deze nog gehad, was voor de eerste keer dat AMD het High Bandwidth Memory (HBM) gebruikte op GPU's dacht ik :

Sapphire Radeon NITRO R9 FURY 4G HBM with Back Plate (1050Mhz)
Ja klopt, daarom heb ik dus die Radeon. Nvidia is gewoon reteduur.

In mijn gamePC heb ik nog wel een Nvidia (4090) met name omdat ik veel VR en RTX doe en daar is het nog niet 100% mee op Radeon.
Zelfde verhaal hier,
mijn laatste build die ik nu nog steeds in gebruik heb sinds 2018
(momenteel in beslag genomen door mijn dochter)
is met een RTX2080 Ti .. was toen nieuwe tech waar ik wel verhaal in zag + dat ik ook naar 4K overstapte. Maar toen waren de prijzen van Nvidia nog betaalbaar,
nu ligt dat anders voor hetzelfde type van GPU.

Nieuwe games in 4K draaien nu wel op het randje met die RTX2080 Ti heb ik gemerkt.
Al heb ik niet veel kans om hier nog eens op te gamen :D

Heb voorlopig voor mezelf mijn vorige build terug in gebruik genomen met 2 GPU's
Sapphire NITRO+ Radeon RX Vega64
in CrossFire opstelling. Was een geweldige build indertijd.

Volgend jaar mijn nieuwe build,
Of een van de Nvidia RTX5000 serie of van de AMD RX8000 serie ?

Gaat sowieso een MSI voor Nvidia worden of een Sapphire voor AMD

Voor mijn dochter koop ik een PS5 PRO, dan blijft ze van mijn nieuwe build :)
Voor mijn dochter koop ik een PS5 PRO, dan blijft ze van mijn nieuwe build :)
Aannames aannames. Pc gamer naar Playstation gamer is niet zo veelzijdig toch, maar ik duim wel voor je, is veel energiezuiniger ook nog eens! Ik ken zo een thuissituatie een beetje als ik zo goed hoor. Die kan ook zomaar nog eindigen met jij die 2080Ti en zij die nieuwe build }>
:D Best mogelijk ..

maar ze heeft wel degelijk heel wat op mijn oude PS3 gegamed en daarna even in bruikleen op een PS4 van iemand tot 2020. Pas vanaf het nieuwe schooljaar toen moest ze af en toe op mijn PC werken voor een CAD programma en dan ook later voor Cyberpunk 2077 te spelen omdat dit op die PS4 helemaal niet deftig werkte.

In februari 2021 had ik dan onze eigen PS4PRO gekocht en dacht hiermee dat ze wel terug op console ging gamen, maar ze bleef aan Cyberpunk 2077 en enkele AC games op PC plakken.

Ik heb dan Cyberpunk 2077, Ghost of Tsushima en Hellblade uitgespeeld op die PS4PRO 8)7
Op mijn oude build heb ik bijna altijd Rome Total War en TW: Attila zitten spelen, verveelt nooit :)

Maar sinds dit jaar begint ze terug meer en meer op de PS4PRO te gamen en de PC wordt enkel nog voor school gebruikt. Had al iets opgevangen dat ze wel een PS5 wilt,
maar die koop ik nu niet meer met de aankomende PS5PRO die blijkbaar 3x krachtiger gaat worden dan de PS5
Dus afwachten tot de PS5PRO uitkomt en daarna aankopen tijdens de koopjesperiode.

Console is echt niets voor mij .. die nieuwe build blijft ditmaal in mijn gameroom ;)

[Reactie gewijzigd door MPIU8686 op 23 juli 2024 16:59]

Haha, veilig opbergen die nieuwe build dan inderdaad! Nou ja, ook weer mooi om te zien dat de kids de hobby en interesses delen. Kan zo bekeken eigenlijk nooit misgaan. En inderdaad als je dan een console haalt, dan best meteen de snelste van het moment, doe je er ook het langste mee. Vergeleken met high-end pc gaming is het toch allemaal heel betaalbaar stiekem die consoles nog altijd, zo lang je een paar spellen per jaar helemaal platspeelt dan. Wil je elke week een nieuwe game, dan wordt het ook daar een dure hobby
Wel ja :D Qua gaming dan toch, de tech en hardware van een PC dan weer niet.

Rond de €500 is goedkoop vergeleken voor wat je krijgt met een console, terwijl een nieuwe gamebuild al snel rond de €3700 ligt zonder de tussendoorse upgrades dan nog meegerekend en de extra random hardware. Natuurlijk met die PC kan je ook andere zaken die je niet kan met die console. .
Dat is de afweging die ieder voor zich moet maken.

Mijn dochter is een beetje zoals ik vroeger was qua gaming, enkel minder extreem, is nogal gehecht aan bepaalde games en kan als het een goed game is dit een jaar of langer blijven spelen. Zoals AC: Odyssey, Cyberpunk 2077 en GTA5 heeft ze sinds eind 2020 zitten spelen tot begin dit jaar ... na min of meer verkennend de verhaallijn gevolgd te hebben en de games zo te hebben uitgespeeld, startte ze deze gewoon opnieuw op om ze ditmaal met enkel de verhaallijn eens in een rush tempo uit te spelen. Daarna worden ze weer opnieuw opgestart om zoveel mogelijk van de wereld te verkennen tot in het kleinste hoekje, misschien net iets unieks te vinden, ontdekken, easter egg of dergelijke zaken, een andere verhaallijn volgend en een karakter tot in een extreem high level opwerken. Zulke zaken deed ik vroeger ook toen ik haar leeftijd was.

Het enige verschil met mij is de interesse in bepaalde genres, ik speel die handel hierboven ook wel eens een keer en tegenwoordig meestal heel verkennend, zeker niet in een rush en meestal nooit de verhaallijn volgend :X

Rome Total War en TW: Attila voor mij en die vervelen nooit, heb elke factie wel al 20 keer gespeeld en bepaalde facties misschien wel 100 keer of meer. Ook tal van mods voor deze games met gigantisch grote maps of geheel andere maps, vooral voor RTW dus. Daarnaast durf ik met regelmaat ook nog eens Disciples II, Age of Empires I of II en Empire Earth opstarten. En van de stealth/action games blijft de Hitman series mijn favoriet. 22 jaar geleden op school zelfs mijn hoofd een periode kaalgeschoren gehad omdat ik me volledig zat in te leven in Hitman 2: Silent Assassin :D Trouwens nog steeds 1 van de beste games ooit gemaakt.
Ach... De fans van Nvidia praten de gevraagde prijs wel weer goed. En binnen de kortste keren is het normaal om een GPU van €5000 aan te schaffen voor wat games. Net zoals het normaal is geworden om een kleine €2000 te betalen voor een RTX 4090.

Populaire kreten:
"Ik vind de prijs prima. Ik betaal graag het dubbele:
... want G-sync. Freesync sucks!"
... want Raytracing en DLSS. FSR sucks!"
... want Hbm. It's Nvidia, huh? Need I say more? Gnarff, gnarff, gnarff..."

[Reactie gewijzigd door Obfzk8R op 23 juli 2024 16:59]

niet per se een fan van Nvidia hier maar een 4090 heb je alleen nodig als je 4k ultra wilt gamen lijkt me? Zoals je het nu stelt klinkt het vooral als jaloezie.

Beetje als roepen dat het niet normaal is dat een Lambo hetzelfde kost als 10 volkswagens, who cares, hebben beide hun eigen markt. Als je niet in het volkswagen segment wilt blijven, harder gaan werken.

Pik gewoon een tweedehands 3090 op als je graag het "top" model wilt draaien. Doet het ook prima voor de meeste mensen.
Op 4k heb je die eigenlijk ook totaal niet nodig. Doe het al 10+ jaar met een scala aan andere kaarten ;)
Waar heb je het over? Klinkt als jaloezie? Typische voorspelbare reactie, gespeend van realiteitszin. Mijn persoonlijke mening is dat Nvidia kaarten v/d 4000 reeks zwaar overpriced zijn. En dat mensen er het geld voor over hebben is prima. Maar laten we nou niet een RTX 4090 in de GPU-markt gaan vergelijken met een Lamborghini Coeniggsegg of zoiets t.ov. een Volkswagen. Dat zijn wagens die niet als massaproduct worden gemaakt en verkocht, ten eerste. En niet dat het jou iets aan gaat, maar ik hoef niet harder te werken om een kaart van €2000 te halen voor games. Ik kan van mijn netto maandsalaris er 2 van halen en geld overhouden voor de rest. Ik vind het alleen te zot voor woorden om €2000 normaal vinden voor een GPU die 10% tot 40% beter presteert dan een RX 7900 XTX, welke eigenlijk ook al overpriced is. En dan tegelijkertijd massaal klagen over belastingen, eigen risico, terugleververgoeding en e.d.
Ik ben geen fan van een bepaald merk, meestal roepen fanboys dat juist. Zelf heb ik een RTX 4090 en dat is puur omdat ik de kaart voor 4k gebruik. Mensen geven ook €2000 uit voor een paar weken reizen, dan vind ik €2000 voor een videokaart, die een paar jaar meegaat, het geld meer waard. Mensen die meer geld uitgeven aan een Nvidia-kaart doen dat niet omdat AMD volgens hen slecht is, dat is iets wat jij ervan maakt.
Zoals ik in mijn reactie heb aangegeven:
Mijn persoonlijke mening is dat Nvidia kaarten v/d 4000 reeks zwaar overpriced zijn. En dat mensen er het geld voor over hebben is prima.
Daarnaast heb ik gesteld:
Ik vind het alleen te zot voor woorden om €2000 normaal te vinden voor een GPU die 10% tot 40% beter presteert dan een RX 7900 XTX, welke eigenlijk ook al overpriced is
Ik heb sinds de jaren '90 PC's in elkaar gezet. Voor mijzelf en voor anderen. Nog steeds doe ik dat sporadisch. Het is een soort dure hobby geweest. Mijn eerste 3D kaart was een Diamond Voodoo en sindsdien heb ik kaarten van Nvidia én ATI gehad. (Eender kaart die kwa prijs en prestaties een goede en enigzins gezonde verhouding had). Ik heb de prijzen van componenten 'tig keer zien rijzen en dalen a.g.v. vraag, aanbod en populariteit, maar wat Nvidia heeft gedaan en doet vind ik wel extreem. Gelukkig bestaat er nog een AMD en een Intel, waardoor er een uitstekende keus is voor mensen die niet die extreme hoofdprijs kunnen of willen betalen. Niet dat ik geen kaart van Nvidia zou kopen, sterker nog: in onze huiskamer-PC zit een RTX 4060, omdat die kwa uiterlijk en performance het beste was op het moment van aanschaf voor datgene wat wij met de PC in de huiskamer wilden doen. Maar ik zal nooit het geld uitgeven aan een RTX 4090 of iets wat zo geprijsd is. (Relatief t.o.v. alternatieven)
Niemand hoeft wat mij betreft hun aankoop te verdedigen bij mij. Dat wil niet zeggen dat ik alle aankopen - van mij of anderen - hun prijs waard vind.
Lees dit artikel maar eens, als je dat wil. Voor de rest: ieder zijn ding.

[Reactie gewijzigd door Obfzk8R op 23 juli 2024 16:59]

Op dit item kan niet meer gereageerd worden.