Context Window Next Wave 섹터 (Context Window Next Wave Sector)
핵심 요약 및 Action Plan
한줄 결론: 비중확대(메모리 계층 중심)
컨텍스트 윈도가 커질수록 시장이 사야 하는 것은 단순한 FLOPS가 아니라 **bytes/sec와 bytes/$**다. 긴 컨텍스트는 프리필(prefill) 비용과 KV cache working set을 동시에 키우며, 이 수요는 HBM -> memory wall/CXL -> context cache/storage -> scale-out networking 순서로 번진다. 따라서 이번 테마의 진짜 수혜 레이어는 "GPU 그 자체"보다 메모리 계층이다.
핵심 요약 3줄
- OpenAI
GPT-4.1, Anthropic Claude, Google Gemini, Meta Llama 4까지 모두 긴 컨텍스트를 제품 차별화 포인트로 밀고 있다. long context 경쟁은 이미 공급자 공통 전략이 되었다. - NVIDIA와 OpenAI의 최신 문서를 보면 긴 컨텍스트의 핵심 병목은 계산량보다 KV cache와 메모리 이동이다. 즉, 수요는 HBM과 CXL/광 인터커넥트, 그리고 context caching 계층으로 이동한다.
- 가장 좋은 투자 조합은
MU를 코어로,MRVL을 알파 픽으로,ALAB을 고순도 옵션으로 두고,AVGO와ANET을 대형 품질주 보완축으로 가져가는 것이다.
Action Plan
*시장 스냅샷: 2026-03-13 terminal snapshot
왜 이게 지금 중요한가
모델 공급자들이 긴 컨텍스트를 경쟁 포인트로 올리고 있다는 점이 가장 중요하다. OpenAI는 GPT-4.1을 최대 100만 토큰 컨텍스트로 제시했고, Anthropic은 Claude Code/Claude API 문서에서 긴 컨텍스트 운용 가이드와 100만 토큰 베타를 별도로 운영 중이다. Google은 Gemini 라인업에서 100만~200만 토큰급 문맥 처리 전략을 유지하고 있고, Meta는 Llama 4 Scout를 1000만 토큰급으로 제시했다.
이 경쟁이 의미하는 것은 명확하다. 긴 컨텍스트는 더 이상 데모 기능이 아니라 인프라 요구사항이다.
하지만 긴 컨텍스트는 단순히 GPU를 더 많이 사면 끝나는 문제가 아니다. 긴 프롬프트를 읽는 prefill과, 생성 중 이전 토큰을 계속 참조하는 KV cache가 동시에 커지기 때문이다. NVIDIA는 KV cache를 CPU-GPU 메모리 계층으로 공유하는 오프로드 구조를 제시했고, OpenAI도 prompt caching 문서에서 반복 prefix를 캐시하고 key/value 텐서를 GPU-local storage로 이동시키는 구조를 설명한다. 즉, 업계는 이미 이 문제를 메모리 계층 문제로 다루고 있다.
수요가 폭증할 분야
1. HBM / high-bandwidth memory
가장 직접적 수혜다. 긴 컨텍스트가 커질수록 KV cache working set이 커지고, 결국 가장 먼저 필요한 것은 더 큰 메모리 용량과 더 높은 메모리 대역폭이다. Micron은 2026년 HBM 수요를 사실상 매진 상태로 언급했고, long-context 경쟁이 지속될수록 HBM3E/HBM4 증설의 정당성이 강화된다.
2. memory wall / CXL / coherent attach
HBM이 충분해도, 그 메모리를 효율적으로 붙이고 공유하지 못하면 긴 컨텍스트의 성능은 급격히 떨어진다. 이 레이어가 MRVL, ALAB의 수혜 구간이다. MRVL은 Celestial AI와 XConn 자산을 통해 memory wall을 광학/scale-up interconnect로 풀려고 하고, Astera는 CXL 기반 메모리 확장과 fabric switch로 병목을 해소한다.
3. scale-out networking / Ethernet
긴 컨텍스트 서빙은 단일 GPU 문제가 아니라 클러스터 문제다. 더 긴 입력, 더 많은 cache, 더 큰 batch는 결국 더 많은 east-west 트래픽을 만든다. 따라서 AVGO, ANET은 second-order winner다.
4. context caching / data locality / AI-ready storage
이 레이어는 아직 주가에 덜 반영되어 있다. prompt caching과 KV offload는 단기적으로 HBM 부족을 보완하지만, 동시에 AI inference에서 데이터 로컬리티와 캐시 계층의 중요성을 높인다. NTAP 같은 스토리지/데이터 인프라 업체는 이 관점의 옵션 플레이로 볼 수 있다.
관련 기업 유니버스
Top Picks
1. MU -- Core Top Pick
이번 테마에서 가장 직접적인 종목이다. 긴 컨텍스트 경쟁이 지속될수록 HBM 수요는 줄어들기보다 더 앞당겨진다. 게다가 MU는 long-context 테마의 직접성 대비 밸류에이션 부담이 상대적으로 덜하다.
2. MRVL -- Alpha Top Pick
MRVL은 "AI 반도체"라는 큰 분류보다 memory wall 해소 솔루션이라는 좁은 분류로 볼 때 더 매력적이다. Celestial AI, XConn, DSP, custom silicon이 모두 긴 컨텍스트의 다음 병목을 겨냥한다. 이번 테마의 알파는 MU보다 MRVL이 크다.
3. ALAB -- 고순도 고베타 픽
긴 컨텍스트가 커질수록 CXL 기반 메모리 확장과 fabric의 필요성은 높아진다. 다만 가장 좋은 스토리인 만큼 멀티플도 가장 높다. 신규 편입은 분할이 맞다.
4. AVGO -- 대형 품질주
긴 컨텍스트는 custom XPU와 scale-up connectivity를 동시에 강화한다. AVGO는 이 둘을 같이 가진 드문 메가캡이다.
5. ANET -- 보완형 품질주
긴 컨텍스트가 클러스터 전체의 east-west traffic을 늘린다면, 결국 이더넷 스위칭의 비중이 올라간다. 다만 본 테제의 직접성은 MU/MRVL/ALAB보다 낮다.
펀더멘털과 밸류에이션
해석은 단순하다. MU가 가장 직접적이면서 멀티플이 가장 편하고, MRVL이 가장 좋은 알파/스토리 균형을 제공한다. ALAB은 논리는 가장 깨끗하지만 기대가 가장 많이 반영돼 있다.
센티먼트와 촉매
현재 센티먼트
- 시장은 여전히 GPU와 전력, 광학에 더 익숙하다.
- 반면
memory wall,context cache,CXL expansion은 중요도 대비 덜 crowded하다.
향후 6-12개월 촉매
- OpenAI/Anthropic/Google/Meta의 long-context 모델 경쟁 지속
- Micron의 HBM 수주와 HBM4 ramp
- Marvell의 Celestial AI/XConn 통합 진전
- Astera의 scale-up switch와 CXL design win 확대
- NVIDIA의 Rubin/Blackwell 계열에서 context-heavy inference use case 구체화
리스크
중요한 점은 효율화가 long-context 테제를 깨는 것이 아니라, 수요 위치를 HBM 단독에서 memory hierarchy 전체로 옮긴다는 것이다. 그래서 MU만이 아니라 MRVL, ALAB, NTAP까지 같이 봐야 한다.
IWANNAVY LAB 적정 가치 결정
이번 테마의 핵심은 "GPU를 더 사라"가 아니다.
핵심은 긴 컨텍스트 시대의 병목은 메모리 계층에 있다는 점이다.
- 가장 직접적인 Top Pick:
MU - 가장 좋은 Alpha Top Pick:
MRVL - 가장 순도 높은 공격형 픽:
ALAB - 대형 품질주 보완:
AVGO
정리하면, 컨텍스트 윈도 확대가 LLM 성능의 핵심이라면 향후 수요가 가장 크게 폭증할 곳은 HBM과 memory wall/CXL 레이어다.
출처
- OpenAI GPT-4.1 소개
- Anthropic Model Overview
- Anthropic Long Context Tips
- Google Gemini API Models
- Meta Llama 4 소개
- NVIDIA Blackwell Platform
- NVIDIA KV Cache Offload / CPU-GPU Memory Sharing
- Micron Q1 FY2026 Results
- Marvell Q4/FY2026 Results
- Astera Labs Q4/FY2025 Results
- Broadcom Q1 FY2025 Results
- Arista Q4/Year End 2025 Results
- NetApp Q3 FY2026 Results
면책사항 · 본 IC 메모는 IWANNAVY LAB의 내부 투자 리서치 자료이며, 공개된 정보와 에이전트 기반 분석을 종합한 교육·연구 목적 문서입니다. 투자 권유·매수/매도 추천이 아니며, 모든 투자 판단과 책임은 투자자 본인에게 있습니다. 가격 데이터는 yfinance + Finviz Elite 교차검증으로 2026-03-13 기준이며, 시장 동향에 따라 실시간 변동할 수 있습니다.
Comments are public. Posting is limited to paid members.
Posting is available on LAB Pro
Sign in, then upgrade to join the discussion.
Loading comments...