There is no anti-Wonwon division

Memory Supercycle : Mini-Resumen para entender por qué las acciones de semiconductores coreanas están volando

TLDR: El boom de IA no solo necesita capacidad de procesamiento (GPUs), sino también memoria que permita entrenar a los modelos y almacenar el caché de las conversaciones del usuario. Esta demanda creó una escasez global de chips de memoria, cuya manufactura está concentrada en muy pocas empresas, en su mayoría coreanas.

1. Contexto : Crecimiento exponencial de cómputo

sama_tweet

Durante los primeros años de disponibilidad masiva de LLMs (2022-2024), el principal problema estaba en el entrenamiento de los modelos y en el procesamiento de los prompts. La demanda en velocidad y capacidad de cómputo creció exponencialmente, llevando a $NVDA a subir de forma vertical. Sin embargo, a medida que los datasets para entrenar crecieron de forma masiva, los modelos necesitaban acceder a datos cada vez más grandes cada vez más rápido. Los GPUs de NVIDIA empezaban a no dar abasto para leer estos datos por problemas de memoria.

¿Por qué la memoria se volvió un bottleneck?

A medida que las LLMs son más usadas y se crean más sets de datos para entrenarlas, se crea un ciclo virtuoso (o vicioso, según cómo se mire) de consumo de procesamiento y memoria.

2. Guía minimalista de los tipos de memoria actuales

2.1 DRAM Convencional (DDR5)

DRAM (Dynamic Random-Access Memory) es la memoria RAM clásica que usamos en cualquier computadora, sean nuestras shitbox Lenovo Thinkpads laborales o un servidor en un datacenter. Es una memoria volátil: si cortamos la energía, se borra la información. Su estructura es simple: un capacitor y un transistor por celda, modificados por un controlador de memoria que cambia el estado de cada celda. Se comunica con el mother por un bus en el PCB, es decir, mediante pistas de cobre de hasta centímetros de longitud. A frecuencias altas, esto trae bastantes problemas electromagnéticos, por lo que se limita el ancho del bus de datos. Los forros de Micron $MU anunciaron que iban a dejar de vender este segmento a retail, aunque sí van a seguir proveyéndolo a third parties para que fabriquen DRAM para el público minorista.

2.2 HBM (High Bandwidth Memory): Shiny better toy

Si bien la capacidad de cómputo creció exponencialmente en los últimos años, la velocidad de las memorias no aumentó al mismo nivel. Esta brecha, conocida como Memory Wall, hace que los GPUs estén cada vez más tiempo esperando datos en vez de procesarlos. Para intentar solucionar este problema se crearon las memorias HBM.

En vez de colocar chips de memoria uno al lado del otro como en un PCB, se comenzaron a stackear verticalmente. Actualmente se apilan entre 8 y 12 capas, buscando llegar a 16+ dentro de poco (cada capa mide μm). Las capas se comunican verticalmente mediante conexiones TSV (Through Silicon Via) que son perforaciones microscópicas en el silicio rellenas de cobre. Las comunicaciones TSV permiten intercomunicar las distintas capas de memoria. Un stack de HBM tiene miles de conexiones TSV permitiendo aumentar el tamaño de bus de datos, de 64 bits en DDR, a 1024 bits en HBM3 y 2048 bits en HBM4.

Además, los stacks de memoria se colocan al lado del GPU mediante un sustrato de silicio llamado Interposer, que hace que los datos viajen muchísima menor distancia hacia el procesador comparado con DDR.

HBM4 : El salto generacional

HBM4 fue el salto más grande entre generaciones de memoria apilada. No solo es más rápida sino que cambió la arquitectura:

2.3 LPDDR6 : Low power para cosas móviles

LPDDR (Low-Power DDR) es una variante de DRAM optimizada para minimizar el consumo de energía, sobre todo para celulares y tablets en donde la batería es un limitante crítico. Mediante optimizaciones en los semiconductores, permite un consumo bastante más bajo aunque resignando performance. Si bien es un mercado más de nicho, son esenciales para cualquier dispositivo que requiera correr algún modelo de IA de forma local.

2.4 NAND Flash : No volátil, víctima?

Las NAND son memorias NO VOLÁTILES que usan los discos SSDs para almacenar datos de forma permanente. Las memorias NAND utilizan otro tipo de transistores para sus celdas de almacenamiento, conocidos como floating-gate transistors. Sin entrar en detalle de la estructura de semiconductores, este tipo de memoria permite tener más capacidad por chip (lo que baja el costo) pero con peor velocidad y durabilidad. Al igual que las memorias HBM, las NAND mejoraron su performance apilando chips.

El problema principal con las memorias NAND es medio tautológico:

2.5 Esquema de Jerarquía: Cómo Trabajan Juntas

En un data center de IA moderno, los cuatro tipos de memoria trabajan en cascada, cada uno con un rol específico:

┌─────────────────────────────────────────────────────────┐
│  GPU                                                    │
│  ┌─────────────────┐                                    │
│  │   HBM4          │  ← Pesos del modelo + KV cache     │
│  │   288 GB        │    "hot" (los más accedidos)       │
│  │   22 TB/s       │    Ancho de banda: máximo          │
│  └─────────────────┘                                    │
│           ↕ overflow                                    │
│  ┌─────────────────┐                                    │
│  │   DRAM (DDR5)   │  ← KV cache "warm" + buffers       │
│  │   1-2 TB        │    de datos en tránsito            │
│  │   ~200 GB/s     │    10-50x más lento que HBM        │
│  └─────────────────┘                                    │
│           ↕ overflow                                    │
│  ┌─────────────────┐                                    │
│  │   NVMe SSD      │  ← KV cache "cold" + datasets      │
│  │   (NAND Flash)  │    + checkpoints + datos           │
│  │   10-100 TB     │    generados por IA                │
│  │   ~14 GB/s      │    100-1000x más lento que HBM     │
│  └─────────────────┘                                    │
│                                                         │
│  LPDDR6 → Usado en nodos edge / inferencia eficiente    │
│           donde el consumo de energía es prioritario    │
└─────────────────────────────────────────────────────────┘

Esta cascada explica por qué la demanda de IA impacta TODA la cadena de memoria simultáneamente: más usuarios → más KV cache → más HBM necesaria → overflow a DRAM → overflow a SSDs (NAND). La escasez en cualquier nivel crea un cuello de botella que frena todo el sistema.

3. Los jugadores: Quién hace qué y cómo invertir

Mi suposición es que no escuchamos tanto de este superciclo en esta parte del mundo porque no son empresas que se puedan comprar fácilmente ($NVDA tenía CEDEAR desde hace mil millones de años). Por eso voy a pasar un mini resumen de cuál es el rol de cada empresa y cómo poder comprarla.

3.1. El Big Three de las memorias

La industria de las memorias está principalmente concentrada en 3 empresas.

big_three_memory

SK HYNIX (🇰🇷): El rey

sk_hynix_chart

Samsung Electronics (🇰🇷): Sí, ese Samsung!

samsung_chart

Micron Technology (🇺🇸) : $MU (sí, un ticker!)

Única empresa americana en el top 3. El primer indicio de este ciclo de memorias fue cuando Micron anunció que iba a dejar de enfocarse en el mercado retail de memorias para ser proveedor íntegramente de empresas de IA.

micron_chart

3.2. Otros jugadores

Existen otras empresas ampliamente beneficiadas por este ciclo que, si bien no son productores directos de memorias HBM, tienen un rol protagónico en otros segmentos:

3.3 : $EWY como proxy?

Si bien SK Hynix y Samsung no están listadas en mercados americanos, sí tenemos disponibles ETFs de Korea!

korean_meme_buddy

En un año en el que el KOSPI está +130% Y/Y, el $EWY trackeo ese comportamiento casi idénticamente, salvo por alguna diferencia de composición:

EWY_chart

Lo interesante es ver la composición del $EWY:

EWY_composition

Es decir, un 47.27% del índice es Samsung + SK Hynix! Es un excelente proxy si lo que nos interesa es invertir en este sector.

4. Conclusión

Seguro que cuando empecé a escribir la lista de empresas y viste el Market Cap de cada una, todos pensamos que llegamos tarde a este boom. Pero, supongamos un mundo en el que la "burbuja" de la IA no explota y la demanda de memoria sigue creciendo, estas empresas ya están al máximo de su capacidad y aún así les siguen demandando extra! Pensemos también que son empresas que llegaron a estas valuaciones en su mayoría sin tener un ADR en los mercados americanos. No es el punto de este artículo ponerse a analizar ratios de valuación, eso queda de tarea para el lector, pero quedaría pensar en si no pudiese haber un arbitraje entre valuaciones de empresas de oriente y occidente.

Dicho esto, este artículo es un resumen extremadamente breve. La lista de empresas beneficiadas por este superciclo es muchísimo más extensa de lo que cubrimos acá: desde proveedores de equipos de fabricación (DISCO, Hanmi Semiconductor, Tokyo Electron) hasta fabricantes de materiales críticos (NAMICS, Sumitomo Electric) y empresas de fotónica e infraestructura de data centers. Todas estas empresas van a tener sus ventajas y riesgos. Este artículo es simplemente para dar un pantallazo del mundo de las memorias.

Entonces, DYOR blablabla, la idea es simplemente acercar los mercados orientales con un primer puntazo.

5. PD: Trade Idea

SK Hynix y Samsung tradean en el mercado coreano, pero $EWY en el americano. Técnicamente se debería poder predecir en la sesión europea cuánto se debería mover el índice y tradearlo acorde.