La chiamano “RAMageddon”. La crisi delle memorie RAM, fagocitate dall’industria dell’Intelligenza Artificiale in rapida ascesa. Così come per i processori – la cui stragrande maggioranza della produzione mondiale risiede tra Taiwan e Cina – anche questi componenti accusano un’elevata concentrazione nelle mani di poche realtà.
Tre società coprono oltre il 90% della produzione mondiale di memorie. Secondo i dati di Counterpoint Research e TrendForce, Samsung, SK Hynix e Micron, sebbene con quote singole variabili, dominano e controllano l’offerta. La concentrazione si fa ancor più problematica quando ci si limita alle memorie HBM, quelle ideali per server e data center dedicati all’Ia: SK Hynix, in questo campo, fornisce da sola oltre il 60% dei banchi di memoria. Ecco perché queste memorie sono tanto fondamentali e come Corea del Sud e Giappone – sostanzialmente passive nel campo dei processori rispetto a Paesi come Taiwan – acquisiscono una nuova centralità.
Perché l’Ia ha bisogno di RAM
La RAM è fondamentale per lo sviluppo dell’Intelligenza Artificiale ad alte prestazioni. La ragione è tecnica e non di immediata comprensione per gli utenti finali. Quando utilizziamo modelli LLM come ChatGPT o Claude, l’elaborazione della nostra richiesta e la generazione della risposta non avvengono attraverso i processori e la memoria del nostro dispositivo, ma da remoto, nei server delle aziende che sviluppano tali modelli.
Per comprenderne la portata, basti pensare che Microsoft ha stimato come l’utilizzo in “locale” di Copilot (quindi attraverso le risorse dei propri dispositivi) richiederebbe almeno 16 gigabyte di RAM e 256 GB di memoria SSD. Nulla di trascendentale per gli standard attuali dei dispositivi, ma moltiplicando queste richieste per centinaia di milioni di utenti globali dei modelli LLM si spiega rapidamente la fame di memoria e di risorse fisiche.
Attenzione però: la RAM impiegata nei centri di calcolo non è quella che viene installata nei PC o negli smartphone. Se nel dispositivo che tenete tra le mani è presente della DDR5 – RAM di ultima generazione per i consumatori finali – quella richiesta dai centri di calcolo è la HBM, High Bandwidth Memory.
La sua particolarità non è tanto la velocità (6,2 gigabit per secondo rispetto agli 8,8 della DDR5 degli smartphone), quanto la larghezza di banda, centinaia di volte superiore. Se infatti la DDR5 lavora a 64 bit, la HBM3 è in grado di operare a 1024 bit, gestendo oltre 800 gigabyte di informazioni al secondo, contro i circa 70 delle RAM per il mercato consumer.
In altre parole, è l’unica memoria in grado di tenere il passo della velocità di calcolo delle GPU (e qui si torna a Nvidia) e di gestire una mole elevatissima di informazioni contemporaneamente, rendendola perfetta per i modelli di Intelligenza Artificiale che incrociano, senza soluzione di continuità, milioni di variabili.
Si tratta inoltre di una tipologia di memoria estremamente complessa da fabbricare: in sostanza, una serie di banchi di RAM “commerciali” viene sovrapposta e saldata in una struttura tridimensionale. Questo consente il passaggio simultaneo di una quantità di informazioni decisamente superiore, ormai imprescindibile per soddisfare le esigenze dell’IA.
Data la complessità dello sforzo produttivo, le aziende stanno quindi canalizzando le risorse sulla produzione di memorie HBM a scapito delle RAM destinate alla clientela di massa, generando un aumento dei prezzi: Samsung ha annunciato tagli alla produzione, SK Hynix investirà maggiormente nei prodotti per il mercato dell’IA e Micron sta rimodulando le proprie linee produttive. Già oggi la domanda dei data center ha saturato l’intera offerta, con un impatto anche sulle scorte.
La geografia delle memorie HBM
Se la produzione di chip e processori continua a vedere Taiwan come fulcro degli equilibri mondiali, per le memorie RAM la situazione è diversa. Le due società leader nella produzione di memorie destinate ai server per l’IA si trovano in Corea del Sud: SK Hynix e Samsung, pur disponendo di fabbriche in Cina, hanno mantenuto negli stabilimenti coreani la produzione delle memorie a più alto tasso tecnologico e valore aggiunto (secondo Trendforce). Anche la statunitense Micron ha localizzato fuori dalla Cina l’assemblaggio di questa tipologia di RAM, mantenendolo a Taiwan (sebbene con una quota mondiale inferiore rispetto agli altri due giganti) e in Giappone, concentrando invece l’attività di ricerca negli Stati Uniti.
La Cina resta fondamentale per la “materia prima” delle memorie – la cosiddetta NAND – rappresentando tra il 30% e il 50% della fornitura di SK Hynix e Samsung. Da sottolineare, infine, il ruolo del Giappone, che detiene un dominio tecnologico quasi assoluto in una delle fasi chiave della filiera: i macchinari per la rettifica e l’assottigliamento delle schede, realizzati dall’azienda Disco, che copre circa il 90% del mercato globale. Sebbene la Corea del Sud stia compiendo progressi significativi, l’industria nipponica acquisisce così una rinnovata centralità in un mercato estremamente verticale, divenuto protagonista con l’esplosione dell’Intelligenza Artificiale.
Abbonati e diventa uno di noi
Se l'articolo che hai appena letto ti è piaciuto, domandati: se non l'avessi letto qui, avrei potuto leggerlo altrove? Se pensi che valga la pena di incoraggiarci e sostenerci, fallo ora.

