The Elec: Samsung start eind 2025 met massaproductie van HBM4-geheugen

Samsung start eind 2025 met de massaproductie van HBM4-geheugen, meldt The Elec op basis van bronnen. De Zuid-Koreaanse techgigant zou eind dit jaar de tape-out bereiken. Dit betekent dat het ontwerp en de productiemethoden dan zijn afgerond.

Voor de productie gebruikt Samsung zijn eigen 4nm-procedé voor de logicdies, gecombineerd met 10nm-zesdegeneratie-1c-dram voor de geheugendies. Deze combinatie is bedoeld om de prestaties van het geheugen verder te optimaliseren. De eerste testproducten worden begin volgend jaar verwacht, zegt The Elec, waarna verdere verbeteringen zullen worden aangebracht voordat het product op grote schaal wordt geproduceerd.

HBM4 wordt verwacht een cruciale rol te spelen in toekomstige AI-producten, waaronder Nvidia's Rubin-architectuur en AMD's MI400-serie. Concurrent SK hynix werkt naar verluidt ook aan HBM4 en overweegt eveneens de inzet van 1c-dramtechnologie. De tape-out voor SK hynix' HBM4 wordt verwacht in de tweede helft van volgend jaar. Het bedrijf zou TSMC's 5nm- en 12nm-procedé inzetten voor de logicdies.

Door Andrei Stiru

Redacteur

20-08-2024 • 11:16

7

Reacties (7)

Sorteer op:

Weergave:

Nieuwe vorm van geheugen. Interessant, dacht ik. Maar daar komt wéér dat woord: AI. Zucht... Het wordt wel een keertje tijd dat er wat kritischer wordt gekeken naar de hype. Taalmodellen hebben weinig met AI te maken. AI (KI in het Nederlands) is al sinds de jaren '90 een serieus onderzoeksveld. Alleen zijn de grote tech-jongens het label de laatste paar jaar op allerlei zaken gaan plakken die in de basis weinig tot niets met kunstmatige intelligentie te maken hebben. ChatGPT bijv is helemaal geen intelligent systeem. Dat is een kunstmatige papegaai. Een hele goeie weliswaar maar een papegaai die ook een boel onzin uitkraamt. Alleen door trucjes komt het vaak heel menselijk over. En net als wat vaak bij dieren voorkomt worden er dan allerlei menselijke eigenschappen aan toegedicht die er niet zijn. Het label AI verkoopt goed. Dat wel.
ChatGPT gebruikt AI om taalmodellen te leren begrijpen. Dat is absoluut AI zoals dat in de jaren 90 al onderzocht werd. Destijds hadden computers simpelweg niet de rekenkracht om tot dit niveau te komen, maar nu wel. In tegenstelling tot een encyclopedie kan ChatGPT zelf documenten lezen en vragen van gebruikers interpreteren en beantwoorden. Dat gaat natuurlijk ook wel eens mis, waardoor je soms antwoorden krijgt die niet helemaal kloppen of zelfs volledig onjuist zijn. Dat wordt wel steeds beter.

Als je zegt dat het net een papegaai is, bedoel je dan dat het informatie uit andere bronnen herhaalt? Want dat ben jij in feite ook, je hebt in het verleden dingen uit boeken geleerd en daar baseer je nu je verhaal op. Je hebt niet exact geleerd wat je geschreven hebt, maar op basis van alles wat je geleerd hebt kun je wel zelf die conclusie trekken. Dat is exact wat ChatGPT ook doet, de informatie die eruit komt is niet 1 op 1 op een andere plek te vinden.
Machine learning heeft niks met AI te maken. Alleen hebben ze de boel herlabeld want echte intelligentie in een computer noemen ze nu AGI. AGI is nog lang niet in zicht. We kunnen niet eens een termijn plakken op wanneer AGI komt want we snappen nog niet eens goed hoe onze eigen intelligentie tot stand komt.

Dat een mens alleen maar als een papegaai herhaalt wat ie gelezen en gehoord heeft, is natuurlijk flauwekul. Dat haalt zo ongeveer de complete wetenschap onderuit om maar iets te noemen. Of meen je serieus dat een papegaai ook obv de kennis rond 1900 tot een relativiteitstheorie en quantum mechanica kan komen? Lijkt me niet toch? En denk je dat wel dan vraag eens aan ChatGPT of die even deze theorieën samenvoegt. Dan hoeven al die slimme natuurkundigen daar het hoofd niet meer over te breken.

Als mens ben je in staat om met heel weinig informatie iets heel nieuws te leren en creëren. We leren namelijk niet alleen obv informatie maar ook logisch denkvermogen en creativiteit. Als ik als programmeur een stuk code schrijf dan doe ik dat in een zekere context die een LLM niet kan begrijpen. Dat heeft alles met abstract denkvermogen te maken. Een LLM voed je met miljoenen stukken code en dan kan die nav wat input een output geven. Maar dat is vrijwel altijd onzin als je de LLM niet ook de context voorkauwt en de voorwaarden die daaruit volgen.

Een LLM is net zo min intelligent als een schaakcomputer dat is. Overigens had ChatGPT 10 jaar geleden ook prima mogelijk geweest. Natuurlijk is processor kracht toegenomen. Maar voor échte intelligentie hebben we zeer waarschijnlijk technologie van een hele nieuwe orde nodig. Iets waar de huidige elektronica niet aan kan tippen.
"interpreteren" is precies niet wat llms doen.
ChatGPT is meer dan alleen een LLM.
So Altman says... We weten het niet, want ChatCPT is van GeslotenAI.
HBM geheugens worden gebruikt in GPUs bedoeld voor servers of workstations. Servers zijn nodig voor AI, niet voor reguliere consumenten bedoelt. Het gaat dus niet om gaming videokaarten.

Op dit item kan niet meer gereageerd worden.