HBM4 — 1.6TB/s 시대와 삼성·SK·Micron 경쟁 구도
HBM4 — 1.6TB/s 시대와 삼성·SK·Micron 경쟁 구도
주간 테마 digest · 2026-W25 (기준일 2026-05-12) · 작성: IWANNAVY LAB
0. TL;DR (5문장 요약)
- HBM4 (High Bandwidth Memory 4세대 — 고대역폭 메모리 4세대) 는 AI GPU가 매 초 끌어다 쓰는 메모리의 데이터 전송 속도를 기존 HBM3E 1.2TB/s에서 1.6-2.0TB/s로 33-67% 끌어올린 차세대 메모리 규격이다.
- 가장 큰 구조 변화는 두 가지 — 수직 적층 단수가 12-Hi → 16-Hi로 33% 증가 (용량 192GB → 288GB)하고, I/O(입출력) 폭이 1,024-bit → 2,048-bit로 두 배가 된 것이다.
- 이보다 더 중요한 변화는 Base Die(베이스 다이, 최하단 제어칩)가 기존 DRAM 공정에서 12nm 로직 공정(TSMC·삼성 파운드리)으로 전환된 것 — 메모리 회사가 파운드리에 신규 외주를 주기 시작했다는 뜻이다.
- 시장 구도는 SK Hynix 38% · Samsung 27% · Micron 15% (2026E 기준). SK Hynix가 HBM3E에서 NVIDIA 주력 공급사로 올라섰고, Samsung은 HBM4에서 "Base Die 파운드리 내재화" 카드로 역전을 노린다.
- NVIDIA Rubin (2026 Q4 출시) · AMD MI400 (2027)이 HBM4를 탑재하면서 2026-2027 HBM 시장은 $15-20B 규모로 확대 — HBM3E 대비 2배 성장이 예상된다. 단가는 HBM3E $15-18/GB → HBM4 $20-25/GB로 35% 상향.
1. HBM이란 — 일반 DRAM과 뭐가 다른가
1.1 DRAM이 무엇부터 짚고 가자
DRAM (Dynamic Random Access Memory — 동적 임의 접근 메모리)은 컴퓨터 CPU/GPU가 연산할 때 "잠깐 꺼내 쓰는 작업대 위 메모" 에 해당한다. 전원이 꺼지면 내용이 사라지지만, 읽고 쓰는 속도가 매우 빨라 프로세서가 직접 다루는 메모리로 쓰인다.
왜 그런가: 프로세서(CPU/GPU)가 저장장치(SSD)에서 데이터를 바로 끌어다 쓰기엔 SSD가 너무 느리다. SSD 접근 속도는 마이크로초(μs) 단위인 반면, 프로세서는 나노초(ns) 단위로 연산한다 — 1,000배 차이. 그래서 SSD → DRAM → 프로세서 내부 캐시 의 3단 계단식 구조로 데이터를 끌어올린다.
1.2 DRAM의 세 가지 계열
HBM의 정체성: 일반 DRAM 칩을 세로로 쌓아 올려(stacking) 프로세서 바로 옆에 붙인 "초고대역폭 메모리 모듈". 쌓아 올리는 이유는 가로로 늘어놓으면 너무 멀어서 신호 지연이 발생하기 때문이다 — 신호가 10mm 이동하는 데도 수 나노초가 걸리는데, AI GPU는 매 나노초마다 테라바이트 단위 데이터를 요구한다.
1.3 왜 "고대역폭"이 AI에 필요한가
병목 지점은 연산이 아니라 메모리 데이터 공급이다.
NVIDIA H100 GPU는 초당 60 TFLOPS (60조 번 부동소수점 연산) 수행 능력을 갖고 있지만, 이 연산을 실제로 채우려면 연산자 하나당 32비트(4바이트) × 2개 입력이 필요하다. 즉 초당 최소 480TB의 데이터가 칩 내부로 들어와야 풀 가동된다.
실제 HBM3E의 대역폭은 1.2TB/s — 이론 최대의 0.25%만 공급 가능하다. 이 간격이 "메모리 월(Memory Wall)" 즉 메모리 병목이다.
비유: 스무 명이 한 식당에서 동시에 음식을 주문하는데 주방은 30초에 한 접시만 낼 수 있다면, 요리사 실력보다 "주방-홀 간 전달 속도"가 병목이다. AI 학습에서 GPU는 요리사, HBM은 주방-홀 전달 라인이다.
1.4 HBM의 물리적 구조
HBM은 세 가지 요소의 수직 적층 샌드위치다.
- TSV (Through-Silicon Via, 실리콘 관통 전극): 쌓인 DRAM 다이 사이를 관통하는 수직 배선. 일반 와이어 본딩 대비 100배 짧아 전력·지연 모두 감소.
- Base Die (베이스 다이): 스택 최하단 제어 칩. 메모리 컨트롤러·I/O 인터페이스 탑재. HBM4부터 여기가 로직 공정으로 전환된다 (5절에서 상세).
- Silicon Interposer (실리콘 인터포저): HBM 스택과 GPU를 연결하는 실리콘 중간판. TSMC CoWoS(Chip-on-Wafer-on-Substrate, 웨이퍼 위 칩 적층)가 대표적.
투자자 관점에서 보면
HBM은 "AI GPU의 공동 부품" 이다. NVIDIA Blackwell·Rubin, AMD MI400, Google TPU, AWS Trainium 등 모든 주요 AI 가속기가 HBM을 수요한다. 즉 AI CapEx 사이클 = HBM 수요 사이클. 2026년 AI CapEx (하이퍼스케일러 Top 4 합산) $350-400B 중 GPU 비중 40% = $140-160B, 이 중 HBM 비중 15-20% = $20-30B 규모가 HBM 판매고로 직결된다. SK Hynix (000660.KS), Samsung (005930.KS), Micron (MU)이 이 시장을 사실상 3사 과점한다.
2. HBM 세대별 진화 (HBM1 → HBM4)
2.1 세대별 요약표
2.2 각 세대의 의미
- HBM1 (2015): AMD Fiji GPU (Radeon R9 Fury)에 최초 탑재. 대중에는 별 관심 없던 틈새 제품.
- HBM2 (2016): NVIDIA Tesla P100 탑재 → 고성능 컴퓨팅(HPC)·딥러닝 서버 진입.
- HBM2E (2019): NVIDIA V100/A100 → ChatGPT 이전 시대 AI 학습의 주력.
- HBM3 (2022): NVIDIA H100 → ChatGPT 붐 이후 공급 부족 사태의 직접 원인. SK Hynix 1위 확립.
- HBM3E (2024): NVIDIA B200 Blackwell 탑재. 한 스택 용량 36GB (12-Hi × 24Gb 다이).
- HBM4 (2026E): 본 문서의 주제. 규격 변화 폭이 역대 가장 크다.
2.3 HBM4가 "큰 변화"인 이유
HBM1 → HBM3E까지 7년간 대역폭은 128GB/s → 1,200GB/s로 9.4배 증가했다. 하지만 I/O 폭은 1,024-bit로 고정이었고, 속도는 클럭 주파수 상승으로 올렸다.
왜 그런가: 클럭을 올리면 신호가 더 자주 전송되지만 그만큼 전력·열 부담이 급증한다. HBM3E에서 이미 9.6 Gbps 수준에 도달해 추가 클럭 인상이 어려워졌다.
HBM4는 다른 축(I/O 폭)을 늘려서 병목 돌파를 시도한다. 차선 수를 2배로 늘리면 동일 속도 제한(클럭)에서도 2배 차량 통행이 가능하다.
투자자 관점에서 보면
세대별 전환 시점이 메모리 3사의 점유율이 뒤바뀌는 변곡점이다. HBM2 시절 Samsung이 압도적 1위였지만 HBM3 전환에서 SK Hynix가 NVIDIA 물량을 독점하면서 역전했다. HBM4 전환 시점(2026 Q2-Q4)이 Samsung의 탈환 기회이자 SK Hynix의 1위 수성 시험대다. 투자자가 주시할 지표: NVIDIA의 HBM4 공급사 발표 (2026 Q2 예상), 3사 Qualification(품질 승인) 통과 시점, CoWoS 캐파 확장 속도.
3. HBM4 핵심 기술 — 16-Hi · 2,048-bit · Base Die 로직
3.1 16-Hi 스택 — 수직 적층 25% 증가
16-Hi는 DRAM 다이(die, 개별 칩)를 16장 세로로 쌓은 것을 의미한다. HBM3E(12-Hi) 대비 4장 더 많다.
왜 중요한가: 한 스택 용량이 36GB → 48GB (24Gb 다이 기준) 또는 48GB → 64GB (32Gb 다이 기준) 로 증가. NVIDIA Rubin이 8스택 탑재 시 총 메모리 384GB-512GB 확보 가능 (H100의 80GB, B200의 192GB 대비 2-3배).
비유: 책장을 12칸에서 16칸으로 늘린 것. 같은 바닥 면적에 더 많은 책(데이터)을 저장.
기술적 난이도:
- 스택 총 높이 제한은 720μm (머리카락 두께 9개 정도). 16장을 쌓으려면 다이 한 장 두께를 50μm → 40μm 이하로 깎아야 한다.
- 깎은 실리콘은 쉽게 깨진다. 수율 확보가 핵심 — SK Hynix는 MR-MUF(Mass Reflow-Molded Underfill) 기술로 선점, Samsung은 TC-NCF(Thermal Compression-Non-Conductive Film) 방식으로 대응.
3.2 2,048-bit I/O — 고속도로 차선 2배
**I/O 폭(interface width)**은 한 번에 동시 전송 가능한 데이터 비트 수다. HBM3E는 1,024-bit = 한 번에 1,024개 비트 전송. HBM4는 2,048-bit로 2배 증가.
비유: 1,024차선 고속도로가 2,048차선으로 확장. 동일 속도 제한 80km/h에서도 2배 차량 통행.
대역폭 계산:
- HBM3E: 1,024-bit × 9.6 Gbps ÷ 8 = 1,228 GB/s (약 1.2TB/s)
- HBM4: 2,048-bit × 6.4 Gbps ÷ 8 = 1,638 GB/s (약 1.6TB/s)
- HBM4 고속 버전: 2,048-bit × 9.2 Gbps ÷ 8 = 2,355 GB/s (약 2.0-2.3TB/s, SK Hynix 목표)
왜 클럭은 역으로 낮췄나: 2배 차선이 생겼으니 속도를 낮춰도 같은 처리량 확보 가능. 클럭이 낮아지면 전력·발열이 감소 → 16-Hi 스택의 열 관리 부담 완화.
3.3 Base Die 로직 공정 전환 (최대 변화)
Base Die (베이스 다이, 제어 칩): HBM 스택 최하단에 위치해 GPU와 직접 통신하는 "교환원" 역할 칩.
HBM3E까지 Base Die는 DRAM 공정 (1α nm, 약 14nm 상당)으로 제작. HBM4부터 12nm FinFET 로직 공정 (TSMC N12 혹은 삼성 파운드리 12LPP) 으로 전환된다.
왜 전환하나:
- 트랜지스터 집적도: DRAM 공정은 트랜지스터(전기 스위치) 집적에 최적화되지 않았다. 로직 공정으로 넘기면 Base Die에 메모리 컨트롤러 로직을 더 고밀도로 탑재 가능.
- 전력 효율: FinFET (Fin Field-Effect Transistor, 지느러미 모양 트랜지스터)은 기존 평면 트랜지스터 대비 누설 전류 60% 감소 → bit당 에너지 30% 개선.
- 커스텀화 가능: 고객(NVIDIA 등)이 자기 GPU와 최적화된 Base Die를 주문 가능. "Custom HBM" 시대 개막.
비유: 수도꼭지(트랜지스터)를 기존 수도꼭지에서 고성능 센서 내장 수도꼭지로 교체. 같은 물줄기라도 제어가 정교해지고 물 낭비(전력 손실)가 줄어듦.
3.4 Hybrid Bonding — 납땜 없는 직접 접합
Hybrid Bonding (하이브리드 본딩, 혼합 접합): 두 실리콘 웨이퍼를 구리 패드 + 산화물 유전체로 직접 접합하는 기술. 기존의 μBump(마이크로 범프, 수~수십 μm 직경의 납땜 돌기) 대신 구리가 직접 맞닿는다.
왜 쓰나:
- μBump는 최소 피치(간격) 25μm 한계. Hybrid Bonding은 9μm까지 축소 → 동일 면적에 2.8배 많은 배선 가능.
- 배선 짧아짐 → 신호 지연·전력 손실 감소.
- 열 전달 경로 개선 → 16-Hi 고적층의 열 축적 문제 완화.
적용 예: SK Hynix는 HBM4 16-Hi 스택 상부에 Hybrid Bonding을 도입 검토 중 (2026 Q4-2027 Q1). 초기 HBM4는 여전히 TC Bonding(열 압착) 방식.
3.5 TSV 전송 속도 향상 (6.4 → 9.2 GT/s)
TSV (Through-Silicon Via, 실리콘 관통 전극): 쌓인 다이를 관통하는 수직 구리 배선. HBM4에서 전송 속도 6.4 GT/s → 9.2 GT/s로 44% 향상 (GT/s는 Giga Transfers per second — 초당 기가 전송). 클럭 설계 개선과 드라이버 회로 강화가 주요 원인.
3.6 전력 효율 30% 개선
HBM3E는 bit당 평균 3.7 pJ(피코줄, 10⁻¹² 줄) 소비. HBM4는 약 2.6 pJ로 30% 개선 — 로직 공정 전환 + 2,048-bit로 인한 클럭 완화 효과 합산.
왜 중요한가: 데이터센터 전력 예산이 한정된 상황에서 GPU 1대가 쓰는 HBM 전력이 줄면, 동일 전력에서 더 많은 GPU 운영 가능. AI 데이터센터의 전력 병목 완화와 직결된다.
투자자 관점에서 보면
HBM4의 네 가지 변화(16-Hi, 2,048-bit, Base Die 로직, Hybrid Bonding) 중 Base Die 로직 전환이 산업 구조 측면에서 가장 큰 충격이다. 메모리 회사가 파운드리에 외주를 주기 시작하면서 TSMC(2330.TW)와 삼성 파운드리가 HBM 밸류체인의 새 참여자로 등장한다. 또한 Hybrid Bonding은 BESI(BESI.AS, 네덜란드)와 ASM Pacific(0522.HK)의 본더 장비를 수요한다 — 이 장비 제조사는 틈새 수혜자다.
4. Base Die 로직 전환의 투자 의미 (파운드리 수혜)
4.1 파운드리 신규 TAM
4.2 TSMC vs 삼성 파운드리 경쟁
- TSMC: SK Hynix가 HBM4 Base Die를 TSMC N12 공정으로 주문 중 (2025 테스트칩 → 2026 Q2 양산). Micron도 TSMC와 계약.
- 삼성 파운드리: 자사 HBM4 Base Die를 12LPP로 내재화 → 수직 통합 구조로 원가 우위 시도. 외부 고객 확보 노력은 현재 NVIDIA "Custom HBM" 관심 유치.
4.3 "Custom HBM" 시대 개막
Base Die가 로직 공정이 되면서 고객별 맞춤 설계가 가능해졌다. 예:
- NVIDIA Rubin용 Base Die — NVIDIA NVLink 프로토콜에 최적화된 제어 로직 내장
- Broadcom Custom ASIC용 Base Die — ASIC 특정 연산 가속기 통합
- Google TPU용 Base Die — TPU 행렬 연산 패턴에 특화된 프리페처 내장
투자 함의: NVIDIA·Broadcom 같은 대형 AI 칩 고객은 HBM 공급사를 단순 부품사가 아니라 공동 설계 파트너로 재정의. SK Hynix가 NVIDIA와 Custom HBM 협업 선점 중 (2026 Q3 Rubin용 Custom Base Die 발표 예상).
투자자 관점에서 보면
Base Die 로직 전환은 TSMC(2330.TW)에 연 $2.5-3.5B 신규 매출을 만든다 — TSMC 연매출 $90B의 3-4% 증분으로 크지 않지만, HBM이 AI CapEx 성장률 30%를 따라가므로 고성장 카테고리로 기여한다. 한편 삼성전자(005930.KS)는 파운드리를 내재화한 유일한 메모리 3사로, HBM4에서 원가·차별화 양면 우위 가능성 — 이것이 "삼성 컴백 시나리오"의 핵심 근거다 (7절 상세).
5. 경쟁 구도: SK Hynix vs Samsung vs Micron
5.1 2026E 시장 점유율 전망
5.2 SK Hynix — 1위 수성 전략
강점:
- NVIDIA 주력 공급사 지위: H100·B200 HBM의 사실상 독점 공급 (2023-2025). Rubin에서도 선공급 계약.
- MR-MUF 패키징 기술 선점: 16-Hi 스택 수율 확보에 결정적.
- TSV 공정 노하우: 2015년 이래 가장 많은 HBM 양산 경험.
약점:
- 파운드리 부재: Base Die를 TSMC 외주 필수. 원가 구조상 Samsung 대비 불리할 수 있음.
- CapEx 부담: 청주 M15X·용인 반도체 클러스터 동시 투자로 부채 비율 상승.
핵심 수치: 2026E HBM 매출 $8-9B → 전사 매출의 약 28%. 영업이익률 40-50% 추정.
5.3 Samsung — 역전 시도
강점:
- 파운드리 수직 통합: Taylor, TX(텍사스) 4nm 팹과 기흥 12LPP 팹을 활용해 Base Die 내재 생산. 원가 10-15% 우위 가능.
- CapEx 규모: 메모리 3사 중 최대 투자 여력 (2026E $35B+).
- 고객 다변화: Google TPU, AWS Trainium, Microsoft Maia 등 하이퍼스케일러 커스텀 칩 타겟.
약점:
- HBM3E NVIDIA Qualification 지연: 2024년부터 계속 지연되어 2026 Q1까지도 8-Hi 물량만 통과. 12-Hi HBM3E는 2026 Q2 기대. NVIDIA 관계 회복이 최우선 과제.
- HBM4 경쟁 돌입 시점: SK Hynix 대비 1-2분기 늦음.
역전 시나리오: HBM3E 12-Hi가 2026 Q2에 NVIDIA Qualification을 통과하고, HBM4 16-Hi 양산을 2026 Q3에 확보하면 2026 Q4 점유율 30% 달성 가능. Taylor 파운드리를 활용한 Custom HBM 제안이 NVIDIA/Broadcom에 채택될 경우 2027년 1위 탈환 가능.
5.4 Micron — CHIPS Act 지원 후발 주자
강점:
- 미국 정부 지원: CHIPS Act에서 $6.1B 지원 확보 (보이시·클레이 팹). 지정학적 리스크 대응 차원에서 미국 고객(NVDA·AMD)이 Micron 물량 확대 고려.
- HBM3E 8-Hi 공급 개시: 2024년 하반기부터 NVIDIA H200 일부 물량 공급.
약점:
- 양산 경험 부족: HBM3 세대는 거의 건너뛰고 HBM3E부터 진입. 수율·안정성 면에서 SK Hynix·Samsung 대비 불리.
- HBM4 양산 지연: 2027 Q1 양산 목표 → 시장 진입 시 이미 HBM4E 준비 중일 것.
핵심 수치: 2026E HBM 매출 $3-4B → 전사 매출 약 10%. 영업이익률은 HBM 수율 정착 전까지 20-30%에 머물 전망.
5.5 중국 CXMT — 3-5년 격차
CXMT (창신메모리, 长鑫存储): 중국 DRAM 국영기업. 2024년 HBM2 양산 시도, 2025년 HBM3 샘플 공개. 하지만 TSV 수율 30% 미만으로 상용화 단계 아님. 미국 제재로 EUV 장비·AI 설계툴 접근 불가 → HBM3E·HBM4 자체 개발 시 2028-2030년 시점 HBM3 완성 추정.
투자자 관점에서 보면
경쟁 구도의 핵심 변수는 "삼성이 NVIDIA Qualification을 얼마나 빠르게 통과하는가" 다. 2026 Q2 HBM3E 12-Hi 통과 → 2026 Q3 HBM4 통과가 순조로우면 삼성전자(005930.KS)는 2026E 영업이익 $15-18B 회복 및 주가 리레이팅 가능 (현 60,000원 → 75,000-80,000원 타겟). 반대로 Qualification 추가 지연 시 SK Hynix(000660.KS)의 NVIDIA 단독 공급 지위가 2027년까지 유지되며 SK Hynix 영업이익률 45%+ 유지. Micron(MU)은 양 시나리오 모두에서 점유율 15-18% 구간 고착.
6. NVIDIA Rubin / AMD MI400 수요 견인
6.1 NVIDIA Rubin (2026 Q4) 사양
NVIDIA Rubin은 Blackwell(B200) 후속 아키텍처. 2026 Q4 양산, 2027 상반기 시장 본격 출하 예상.
6.2 Rubin Ultra / Rubin CPX 로드맵
- Rubin (2026 Q4): 기본 버전, HBM4 8스택.
- Rubin Ultra (2027 Q3): 2 GPU 다이 통합, HBM4 16스택 → 총 메모리 576-768GB.
- Rubin CPX (2027 Q4): Context Processing eXtension — Long-context LLM 추론에 특화. 비용 대비 효율 중시.
6.3 AMD MI400 (2027)
AMD MI400: MI300X 후속. 2027 상반기 양산 목표.
- HBM4 16-Hi 8스택 탑재 → 총 메모리 384GB 추정.
- 공정: TSMC 3nm.
- NVLink 대항 InfinityFabric 확장.
- 가격: MI300X ($15K) 대비 20-30% 상승한 $18-20K 추정.
시장 포지션: NVIDIA Rubin과 1-2분기 격차. AMD는 하이퍼스케일러(Microsoft, Meta)의 "NVIDIA 의존도 분산" 수요를 겨냥하며 연 $10-15B 매출 타겟.
6.4 HBM4 총수요 계산
6.5 CoWoS 캐파 병목
HBM4가 늘어도 TSMC CoWoS (Chip-on-Wafer-on-Substrate) 캐파가 못 따라가면 의미 없다. 2026E CoWoS 캐파는 월 80K 웨이퍼 → 2027E 월 120K로 50% 확장 계획이지만 여전히 공급 부족 예상.
투자자 관점에서 보면
HBM4 수요의 80% 이상이 NVIDIA Rubin 계열에서 발생한다. 따라서 NVIDIA의 Rubin 양산 지연·재설계 이슈가 HBM 공급사에 직접적 리스크다. 2026 Q2-Q3 NVIDIA 실적 발표에서 Rubin 양산 진척도가 HBM 투자 판단의 1차 체크포인트다. 또한 하이퍼스케일러 CapEx 둔화 시 (예: 경기 침체) HBM 단가가 $25/GB → $18/GB로 30% 하락 가능성도 시나리오로 감안해야 한다.
7. 삼성전자 수혜 시나리오 — 컴백 스토리
7.1 3단계 반등 시나리오
Phase 1 (2026 Q2): HBM3E 12-Hi NVIDIA Qualification 통과
- 트리거: NVIDIA B200 Ultra 물량에 Samsung HBM3E 12-Hi 첫 공급 시작.
- 주가 효과: +10-15% (60,000원 → 66,000-69,000원).
- 재무 효과: 2026 HBM 매출 $4B → $6-7B 상향, 영업이익 +2조 원.
Phase 2 (2026 Q3-Q4): HBM4 16-Hi 양산 개시
- 트리거: NVIDIA Rubin용 HBM4 공급사에 Samsung 포함 발표.
- 경쟁 요인: Taylor 파운드리 Base Die 수직 통합이 원가 우위로 부각.
- 주가 효과: +15-20% 추가 (66,000원 → 75,000-80,000원).
- 재무 효과: 2027E HBM 매출 $10-12B, 영업이익 +4-5조 원.
Phase 3 (2027): 파운드리 흑자 전환 + HBM4 점유율 30%+
- 트리거: Taylor 2nm 팹 양산 개시, NVIDIA Custom HBM 공급 확대.
- 주가 효과: +10% 추가 (80,000원 → 88,000-90,000원).
- 재무 효과: 전사 영업이익 25조 원 회복 (2022년 수준).
7.2 KPI 체크리스트 (투자자 확인 지표)
투자자 관점에서 보면
삼성전자(005930.KS)는 "HBM 반전 + 파운드리 흑자 + 2nm 경쟁력" 세 이벤트가 2026 Q2-2027 사이 순차적으로 발생 시 대형주 중 가장 큰 리레이팅 여력을 가진 종목이다. 반대로 HBM 실기 시 "만년 2등" 프레임이 굳어지며 주가는 현재 수준 정체. 투자자는 2026 Q2 NVIDIA Qualification 공식 발표를 첫 체크포인트로 두고, 통과 확인 시 추가 매수 고려 가능. Pair Trade로 SK Hynix(000660.KS) 대비 상대 비중 조정 접근도 유효.
8. 결론 — 2026-2027 HBM4 투자 로드맵
8.1 12-24개월 주요 이벤트 타임라인
8.2 관련 종목 · ETF 정리
8.3 주시할 KPI 3개
- NVIDIA HBM4 공급사 발표 (2026 Q3 예상) — GTC 2026 또는 분기 실적 컨퍼런스 콜에서 언급 여부. 선정사 즉시 +10% 이상 반응 예상.
- HBM 스팟 가격 (HBM4 48GB 스택 기준) — TrendForce·DRAMeXchange 월간 리포트. $250 유지 시 강세, $200 하회 시 수급 우려.
- CoWoS 월 캐파 — TSMC 분기 실적에서 Advanced Packaging 매출 증가율 확인. 2026E 월 80K 웨이퍼, 2027E 월 120K 확장 진척도.
8.4 종합 결론
HBM4는 AI CapEx 사이클의 "2026-2028 핵심 병목 부품" 이다. 세 가지 투자 축으로 정리 가능:
- 안정형: SK Hynix (000660.KS) — NVIDIA 주력 공급사 지위로 확정적 실적 성장.
- 리레이팅형: Samsung (005930.KS) — HBM 반전 + 파운드리 수직 통합이 맞아떨어지면 2배 수익 가능.
- 수요견인형: NVIDIA (NVDA) — Rubin 양산 성공 시 HBM 공급부족 장기화가 NVIDIA 가격 결정력으로 전가.
리스크는 세 가지 — ① Rubin 양산 지연, ② 하이퍼스케일러 CapEx 둔화, ③ Samsung Qualification 실패로 인한 HBM 3사 구도 경직. 투자자는 2026 Q2 Samsung NVIDIA Qualification 결과를 첫 변곡점으로 설정하고, HBM 스팟 가격 및 CoWoS 캐파 지표를 월 단위로 모니터링할 것.
출처
- TrendForce — HBM4 Market Forecast and Roadmap (2026-04-18)
- SK Hynix — HBM4 16-Hi Sample Shipment Announcement (2026-03-25)
- Samsung Electronics — Foundry 2nm Roadmap and Taylor Fab Update (2026-04-10)
- Micron Technology — HBM4 Production Plan Q1 FY27 (2026-03-18)
- TSMC — CoWoS Capacity Expansion 2026-2027 (2026-04-22)
- NVIDIA — Rubin GPU Architecture Preview (GTC 2026, 2026-03-18)
- AMD — Instinct MI400 Roadmap Announcement (2026-02-12)
- JEDEC — HBM4 Standard JESD270-4 Publication (2025-11-30)
- DigiTimes — HBM Base Die Foundry Migration Analysis (2026-04-05)
- Bloomberg — Samsung NVIDIA HBM3E Qualification Timeline (2026-04-15)