Samsung stapt in AI-infrastructuur met eerste HBM4-leveringen
In dit artikel:
Samsung Electronics uit Zuid-Korea is begonnen met de uitlevering van zijn nieuwste generatie high bandwidth memory, HBM4, meldt Reuters. Met deze stap wil het bedrijf weer marktaandeel winnen in de snelgroeiende AI-infrastructuurmarkt, waar het tot voor kort achterliep op concurrenten.
HBM4 levert volgens Samsung een flinke prestatiewinst: een constante datasnelheid van 11,7 gigabit per seconde en pieken tot 13 gigabit per seconde. Dit type DRAM is ontworpen voor extreem hoge doorvoersnelheden en is daardoor cruciaal voor datacenters die generatieve AI en high‑performance computing draaien, waar traditionele geheugenoplossingen tekortschieten.
Samsung benadrukt dat HBM4 knelpunten bij dataverwerking moet verminderen die optreden bij zware AI‑workloads. Het concern, algemeen bekend als marktleider in geheugen, moest in het segment van geavanceerd AI‑geheugen eerder terrein prijsgeven — onder meer bij leveringen aan grote AI‑acceleratorproducenten zoals Nvidia.
Het bedrijf ontwikkelt al een vervolg: in de tweede helft van dit jaar wil Samsung proefexemplaren van een verbeterde HBM4‑variant (HBM4E) aan klanten aanbieden, met nog hogere prestaties en efficiëntie. Tegelijk neemt de concurrentiedruk toe: SK Hynix produceert HBM4 op grote schaal en ook Micron is gestart met volumeproductie en leveringen.
De markt reageerde positief: het aandeel Samsung steeg duidelijk na de aankondiging, wat aangeeft dat beleggers vertrouwen hebben in de hernieuwde focus op AI‑geheugen. De introductie van HBM4 laat zien hoe centraal geheugeninnovatie is geworden in de race om AI‑infrastructuur.