AI 데이터센터 네트워크 병목 개론
왜 '반도체 다음 병목'은 네트워크인가 — GPU 10만 장을 연결하는 구리·광 케이블의 구조적 한계
AI 데이터센터 네트워크 병목 개론
왜 "반도체 다음 병목"은 네트워크인가 — GPU 10만 장을 연결하는 구리·광 케이블의 구조적 한계
들어가며 — 세 개의 질문으로 시작하는 lesson
투자자라면 한 번쯤 다음 세 가지 뉴스를 봤을 것이다. 각각은 따로 보면 이해가 어렵지만, 하나로 꿰면 "AI 병목이 반도체에서 네트워크로 이동하고 있다" 는 거대한 구조 변화를 드러낸다.
질문 1. 왜 NVIDIA Rubin GPU 10만 장을 갖추어도 학습 속도가 기대만큼 안 나오는가?
2026년 기준 최신 GPU인 Blackwell Ultra·Rubin 한 장의 연산 능력은 이전 세대 Hopper 대비 2~3배. 그렇다면 10만 장을 묶으면 단순 계산으로 10만 배의 성능이 나와야 한다. 하지만 실제 현장에서는 "유효 활용률(GPU Utilization)" 이 60%에서 40%대로 뚝 떨어지는 현상이 보고된다. 나머지 60%는 무엇을 하고 있는가? 답은 "다른 GPU에서 데이터가 도착하기를 기다리고 있다" 이다.
질문 2. 왜 Meta는 Corning과 최대 60억 달러 규모 광섬유 장기 계약을 맺었는가?
2026년 1월 27일, Meta와 Corning은 2030년까지 최대 $6B 규모의 광섬유·커넥터 장기 공급 계약을 발표했다. 이는 반도체가 아니라 "유리 섬유" 에 거는 거대한 베팅이다. Corning은 이 계약의 앵커 고객인 Meta를 위해 North Carolina Hickory 공장을 "세계 최대 광섬유 공장"으로 확장한다. 왜 Meta는 반도체 대신 유리에 돈을 썼을까?
질문 3. 왜 NVIDIA는 2019년 Mellanox를 69억 달러에 인수했는가?
NVIDIA는 AI 칩 회사로 알려졌지만, 2019년 Mellanox(InfiniBand 네트워킹 전문 업체)를 $6.9B에 인수했다. 당시에는 "왜 GPU 회사가 네트워크 장비 업체를?"이라는 의문이 있었다. 2026년 지금, Mellanox 기반 NVLink·ConnectX·Spectrum-X가 NVIDIA 데이터센터 매출의 15% 이상을 차지한다. 단순 칩이 아니라 "칩을 연결하는 배선" 이 새로운 수익원이 된 것이다.
이 lesson의 목표: 이 세 가지 질문에 스스로 답할 수 있게 된다. 그리고 "AI 광통신 인프라"라는 7주짜리 커리큘럼의 첫 문을 연다.
0절. Quick Glossary — 이 lesson에 등장하는 용어 미리 보기
AI 네트워크는 약어의 밀림이다. 본문을 읽기 전 이 표를 한 번 훑어두면 길을 잃지 않는다.
1절. 왜 네트워크가 "반도체 다음 병목"인가
1.1 AI 학습의 본질 — "하나의 뇌"가 아니라 "10만 명의 합창"
AI 학습은 흔히 "거대한 뇌에 데이터를 넣는다"고 표현하지만, 실상은 정반대다. 수만~수십만 개의 GPU가 모델의 서로 다른 조각을 나누어 맡고, 한 스텝마다 결과를 공유·합산해야 한다. 즉, 한 명의 천재가 아니라 10만 명의 합창단이 실시간으로 박자를 맞추는 구조다.
일상 비유: 요리사 100명이 하나의 요리를 함께 만든다고 상상해보자. 각자 재료를 잘라 중앙 테이블에 놓고, 중앙에서 조합한 결과를 다시 각자에게 분배한다. 한 명이 아무리 빨라도, 재료를 운반하는 통로(네트워크)가 느리면 전체 속도는 느려진다. GPU 개별 속도 = 요리사의 칼솜씨, 네트워크 대역폭 = 주방 통로 폭이다.
왜 이런 구조인가? 현대 LLM(Large Language Model, 거대 언어 모델)은 파라미터 수가 수천억~조 단위다. 이는 GPU 한 장의 메모리(80~192GB)에 절대 들어가지 않는다. 따라서 모델을 여러 조각으로 쪼개 분산시키고(=모델 병렬화), 각 GPU가 담당 조각만 계산한 뒤 결과를 교환해야 한다. 통신 없이는 학습 자체가 불가능한 것이다.
1.2 GPU Utilization — 병목의 결정적 지표
GPU Utilization(GPU 활용률) 은 한 GPU가 실제 연산하는 시간 / 전체 시간의 비율이다. 100%는 불가능에 가깝지만, AI 학습에서는 60~70%가 우수, 40% 이하는 심각한 병목으로 간주된다.
왜 중요한가? Rubin GPU 1장이 약 $40,000이라면, 10만 장 클러스터 = $4B. 유틸 70%에서 40%로 떨어지면, $1.2B의 자본 지출이 "놀고 있다" 는 뜻이다. 데이터센터 운영자 입장에서 네트워크는 단순 "배선 비용"이 아니라 수조 원대 자본의 생산성을 좌우하는 레버리지다.
1.3 숫자로 보는 병목 — 왜 800Gbps가 "겨우 최소한"인가
8-GPU 노드(DGX급 서버) 하나의 내부 대역폭 요구량은 이제 노드당 ~800Gbps다. 대형 클러스터는 다음 스케일을 요구한다.
Tbps? Pbps? Gbps(기가비피에스, 초당 10억 비트) → Tbps(테라비피에스, 1조 비트) → Pbps(페타비피에스, 1000조 비트)로 1000배씩 올라간다. 문자 기준으로 1Pbps는 1초에 소설 1조 권 전송 수준이다.
투자자 관점에서 보면
병목 이동은 자본 흐름을 따라간다. 2023~2024년은 "GPU 부족" 시대였고 TSMC·NVDA·AVGO CoWoS 패키징이 병목이었다. 2025~2027년은 "네트워크 부족" 시대로 이동 중이다. 이미 데이터포인트가 나왔다: Meta–Corning $6B 광섬유 계약(2026-01), Broadcom Tomahawk 6 CPO 스위치 출시(2025 OFC), NVDA Spectrum-X·ConnectX-8 공격적 출시. 투자자가 주시해야 할 핵심 정량 지표는 (1) 하이퍼스케일러 CapEx 중 네트워크 비중 (과거 5~8% → 2026 추정 12~15%), (2) 트랜시버 출하량 CAGR 40%+ (LightCounting), (3) GPU:NIC 비율(과거 8:1 → 1:1 수렴) 이다.
2절. AI 데이터센터 네트워크의 3계층 구조
AI 데이터센터 네트워크는 "크기의 층"으로 나뉜다. 층이 달라질 때마다 쓰이는 프로토콜·물리 매체·거리·비용이 모두 달라진다.
2.1 Scale-Up — 노드 내부, NVLink의 왕국
Scale-Up(스케일업, 수직 확장) 은 하나의 서버 박스 안에서 GPU 수 개~수십 개를 단단히 결합하는 단이다. 예: NVIDIA HGX H100 = 8개 GPU 한 박스, GB200 NVL72 = 랙 한 개 = 72개 GPU.
- 프로토콜: NVLink (NVIDIA Link, 엔비디아 전용 링크)
- 5세대 NVLink 성능 (Blackwell, 2024~): GPU당 1.8TB/s 양방향 대역폭 — 기존 4세대(Hopper, 900GB/s) 대비 2배. 이는 18개 링크 × 100GB/s씩으로 구성된다.
- NVSwitch: 여러 GPU를 한 "메시"로 묶는 크로스바 스위치. NVL72는 72개 GPU를 단일 거대 GPU처럼 행동하게 만든다 (집합 대역폭 130TB/s).
- 물리 매체: 구리(Copper) — 거리가 짧아(≤1m) 구리 케이블로 충분하고, 광학 변환 비용 절감.
- 독점 구도: NVIDIA 100% 독점. AMD는 Infinity Fabric로, Intel은 Xe Link로 각자 대안을 내지만 생태계 규모가 다르다.
일상 비유: Scale-Up = 한 가족이 같은 집 안에서 대화하는 것. 말소리만으로 충분히 빠르고, 외부 우편(광 케이블) 필요 없다. NVLink는 그 집의 "실내 확성기"다.
왜 구리가 여기선 충분한가? 거리가 1m 이내면 전기 신호의 감쇠가 작아 구리로 기가bps급 전송이 가능하다. 그러나 거리가 3~5m만 넘어가면 "SerDes(Serializer/Deserializer, 직렬화기)" 전력 소모가 지수적으로 증가하여 광학 변환이 필수다. NVLink가 구리에 머무는 이유가 이것이다.
2.2 Scale-Out — 노드 간, InfiniBand vs Ethernet의 전쟁
Scale-Out(스케일아웃, 수평 확장) 은 여러 서버 박스·랙을 묶어 수천~수십만 GPU 규모의 클러스터를 만든다. 거리는 수 m~100m+이므로 광(Optical) 전송이 필수다.
- InfiniBand XDR: IBTA(InfiniBand Trade Association)가 2023년 10월 발표, 포트당 800Gbps. NVIDIA Quantum-X800 스위치는 144포트 × 800G = 115Tbps/장비. Stargate(64K GB200), Oracle(131K GPU zetta-cluster)이 이 기술을 채택.
- Ultra Ethernet: Broadcom + Meta + Microsoft + Oracle 등 하이퍼스케일러 연합이 만든 개방형 대안. Tomahawk 6 스위치 실리콘(102.4Tbps) + Thor Ultra 800G NIC가 주력. UEC(Ultra Ethernet Consortium) 사양 준수로 100,000+ XPU 클러스터를 타겟팅.
일상 비유: Scale-Out = 도시 간 고속도로 네트워크. InfiniBand는 "전용 유료 고속도로"(NVDA가 통행료 관리), Ultra Ethernet은 "일반 고속도로 네트워크를 확장 개량한 버전"(여러 회사가 공동 운영).
왜 두 프로토콜이 싸우는가? InfiniBand는 성능(특히 지연)에서 우위지만 NVDA 락인(lock-in) 리스크가 크다. 하이퍼스케일러는 공급자 다변화와 단가 협상력 확보를 위해 Ultra Ethernet을 밀고 있다. 2026년 현재 InfiniBand ~70% : Ethernet ~30% 수준이지만, Meta·Microsoft 신규 클러스터는 Ethernet 채택 비중이 빠르게 증가 중이다.
2.3 North-South — 데이터센터 외부, 장거리 광 백본
North-South(남북, 상하 방향 트래픽) 은 데이터센터 ↔ 외부 인터넷, 데이터센터 ↔ 데이터센터 트래픽. 거리가 수 km~수천 km에 달해 장거리 광전송(long-haul optical) 이 쓰인다.
- 주요 기술: Coherent Optics(400ZR, 800ZR), DWDM(고밀도 파장분할 다중화)
- 주요 플레이어: Ciena(CIEN), Cisco, Infinera(현재 Nokia 산하), Marvell(MRVL, DSP)
- 시장 규모: LightCounting 추산 2026 장거리 코히어런트 광통신 시장 ~$8B
왜 중요한가? AI 학습 자체는 동일 데이터센터 내부(East-West)에서 일어나지만, 학습된 모델·데이터가 여러 데이터센터에 분산되어야 하고, 사용자 추론 요청(North-South)이 글로벌 규모로 들어온다. 즉, AI 워크로드는 3계층 네트워크 전체를 동시에 압박한다.
2.4 East-West vs North-South — 트래픽 패턴의 역전
전통 데이터센터는 North-South 위주(사용자 요청/응답) 였다. 그러나 AI 데이터센터는 반대로 East-West(서버 간 통신)가 90%+ 를 차지한다. 이는 AI 학습이 내부 통신 집약적이기 때문이다.
왜 이 역전이 투자 주제인가? East-West 집약형 아키텍처는 기존 Cisco 장비로 못 돌린다. Spine-Leaf 토폴로지 + 800G 광학 + RDMA(Remote Direct Memory Access, 원격 직접 메모리 접근) 지원 NIC가 모두 필요하다. 이는 AVGO·ANET·COHR·CIEN의 TAM(Total Addressable Market, 총 목표 시장)을 구조적으로 확장시킨다.
투자자 관점에서 보면
3계층 모두에서 수혜 기업이 다르다. Scale-Up은 NVDA 독점(NVLink·NVSwitch) — 경쟁 진입 어려움. Scale-Out은 NVDA(InfiniBand) vs AVGO(Ethernet) 양강 구도 — AVGO가 하이퍼스케일러 연합으로 점유율 확장 중. North-South는 CIEN·LITE·MRVL이 코히어런트 광학 DSP로 분할. 투자 매트릭스를 구성할 때는 "세 계층에 각각 한 개씩 포지션" 이 자연스러운 분산 전략이 된다.
3절. GPU 학습의 통신 패턴 — AllReduce의 비밀
네트워크 병목의 본질은 "얼마나 빠른 케이블인가"가 아니라 "AI가 어떤 패턴으로 통신하는가" 에 있다. AI 학습에 등장하는 핵심 집단통신 패턴을 이해하지 못하면 왜 특정 토폴로지가 중요한지 알 수 없다.
3.1 집단통신(Collective Communication) 3대 패턴
AI 학습은 몇 가지 정해진 "합창 패턴"을 반복한다.
- AllReduce: 모든 GPU가 보유한 값(예: gradient, 학습 중간 결과)을 합산하고 결과를 모두에게 재분배. 데이터 병렬(Data Parallelism)의 핵심.
- AllGather: 각 GPU가 자신의 조각을 내놓고 모든 GPU가 전체 조각을 얻음. 모델 병렬(Model Parallelism) 단계에서 사용.
- Broadcast: 한 GPU에서 모든 GPU로 동일 데이터 배포 (e.g., 초기 가중치).
일상 비유: AllReduce = 학급 시험 평균 계산. 각 학생이 자기 점수를 제출하고, 담임이 합산·평균한 뒤 모든 학생에게 결과를 돌려준다. 학생이 100명이면 제출 100회 + 분배 100회 = 200회의 통신이 발생. 이것이 GPU 10만 장이라면 10만 × 2 = 20만 회의 동시 통신이 매 step마다 일어난다.
3.2 병렬화 3단 조합 — Data · Tensor · Pipeline Parallelism
LLM 학습에서는 세 가지 병렬화 기법이 조합된다.
왜 Tensor Parallelism이 가장 중요한가? 텐서 병렬은 한 레이어를 여러 GPU에 쪼개어 분산시킨다. 행렬 곱셈 도중에 부분 결과를 서로 교환해야 하므로 매 micro-step마다 통신이 발생한다. 이는 레이턴시에 극도로 민감하여, 같은 노드 내부(NVLink)에서만 효율적이다. 반대로 Pipeline Parallelism은 레이어 간 경계에서만 통신하므로 장거리 네트워크(Scale-Out)로도 감당 가능하다.
3.3 숫자로 본 통신 폭주 — GPT-4급 학습 한 step
GPT-4급 모델(추정 1.7T 파라미터) 의 학습 한 step을 시뮬레이션해 보자.
무엇이 보이는가? 통신이 전체 학습 시간의 30~50%, 즉 GPU가 절반 가량 "대기"한다는 의미다. 이 때문에 대역폭 1TB/s가 2TB/s로 2배 빨라지면, 학습 시간이 15~25% 단축된다. 이는 $4B 데이터센터에서 연간 수억 달러의 전기·감가상각 절감을 의미한다.
투자자 관점에서 보면
통신 병목 수치는 "네트워킹 CapEx의 ROI"를 설명한다. 하이퍼스케일러가 800G → 1.6T 트랜시버로 업그레이드할 때 학습 비용이 15~25% 절감된다면, 당연한 투자다. 이는 COHR·LITE·CIEN의 트랜시버 매출이 계단형(step-change)으로 증가하는 구조적 배경이다. 단, 주의점: 통신이 병목인 구간은 "학습 워크로드"이며, 추론(inference) 워크로드는 통신 집약도가 낮다. 따라서 AI가 학습→추론 중심으로 이동하면 네트워크 CAGR이 둔화될 수 있는 long-term risk가 존재한다.
4절. 3대 네트워킹 프로토콜 경쟁 구도
지금까지 언급된 프로토콜을 한 표로 정리해 누가 시장을 지배하는지 보자.
4.1 NVLink — "완전 독점" 왜 깨지지 않는가
NVLink는 NVIDIA 독자 규격으로, AMD·Intel GPU는 원천적으로 사용 불가다. NVLink를 쓰려면 NVIDIA GPU + NVIDIA NVSwitch + NVIDIA DGX/HGX/NVL72 서버가 필요하다.
왜 깨지지 않는가?
- 밀도 이점: GPU당 1.8TB/s는 Ethernet/InfiniBand(800Gbps = 0.1TB/s) 대비 18배 빠름
- 지연 이점: Nanosecond(ns, 10억분의 1초) 수준. Scale-Out 프로토콜은 마이크로초(μs) 수준
- CUDA 생태계: NVLink는 CUDA·NCCL(NVIDIA Collective Communications Library)에 깊이 통합. 다른 규격으로 갈아타면 소프트웨어 스택 재작성 필요
투자 함의: NVLink 독점은 NVDA의 가격 결정력의 핵심 원천. GPU 단가의 상당 부분이 "NVLink 인터커넥트 값"으로 정당화된다. 이 해자는 최소 2027~2028년까지 공고.
4.2 InfiniBand — NVDA의 "Scale-Out 진지"
NVIDIA는 2019년 Mellanox 인수($6.9B)로 InfiniBand를 장악했다. 2026 현재 InfiniBand XDR(800Gbps)이 Stargate(OpenAI+Oracle+SoftBank, 64K GB200), Oracle 131K GPU 클러스터 등 메가급 프로젝트의 백본이다.
왜 투자자가 이 사실에 주목해야 하는가? NVIDIA는 이제 단순 GPU 벤더가 아니라 "데이터센터 네트워크 풀스택" 을 공급한다. 매출 기여도는 다음과 같이 증가 중이다 (NVDA IR 추정):
- FY2024: Networking 매출 ~$13B (전체 매출 22% 비중)
- FY2025: Networking 매출 ~$20B+ (추정)
- FY2026: $30B 돌파 전망
4.3 Ultra Ethernet — 하이퍼스케일러의 반란
2023년 출범한 UEC(Ultra Ethernet Consortium) 는 Broadcom·AMD·Intel·Meta·Microsoft·Oracle 등이 주도하는 InfiniBand 대항 연합이다. 2025 OCP Global Summit 기준 55+ 회원사를 보유.
핵심 제품군:
- Tomahawk 6 (AVGO): 102.4Tbps 스위칭 실리콘 (업계 최고)
- Tomahawk Ultra (AVGO): Scale-Up용 변종 (NVLink 대항)
- Thor Ultra (AVGO): 800G AI Ethernet NIC, UEC 완전 준수, 100,000+ XPU 지원
왜 하이퍼스케일러가 Ultra Ethernet을 미는가?
- 공급자 다변화: NVDA 단일 공급 리스크 분산
- 단가 협상력: 개방형 → 여러 벤더 경쟁 → 가격 하락
- 기존 Ethernet 생태계 활용: 운영 노하우·툴링 재사용
2026 시장 전망 (650 Group 추정): AI Ethernet 스위치 매출은 InfiniBand 매출 성장률을 앞지를 전망. 2028년경 교차 가능성.
투자자 관점에서 보면
NVDA vs AVGO는 "폐쇄형 vs 개방형" 프레임으로 대립한다. NVDA는 NVLink+InfiniBand 폐쇄 생태계로 AI 풀스택 수익을 독점, AVGO는 Ethernet 개방 생태계로 Scale-Out 시장을 재편성. 두 회사 모두 승자가 될 가능성이 높은 이유: AI CapEx 총량이 빠르게 성장 중이라 시장 자체가 나눠 가질 만큼 크다. 투자 포트폴리오에서 NVDA(Scale-Up + InfiniBand)와 AVGO(Ethernet + 스위치 실리콘) 동시 보유가 서로 보완 관계를 형성한다. 본 포트폴리오 portfolio_iwannavy_aggressive_12m-2026-04-21에서도 NVDA 6.89% + AVGO 5.96%로 **합산 12.85%**가 이 2각 구도를 반영한다.
5절. Pluggable Optics → CPO 전환의 구조적 이유
Scale-Out·North-South에서 필수 요소가 트랜시버(Transceiver, 송수신기) — 전기 신호를 빛으로, 빛을 전기로 변환하는 부품이다. 현재 업계 표준은 Pluggable Optics(꽂는 광학 모듈)이지만, 800G → 1.6T 전환 지점에서 CPO(Co-Packaged Optics, 공동 패키지 광학) 로의 구조 전환이 시작됐다.
5.1 Pluggable Optics — 현재의 주인공
[스위치 ASIC] ─────[PCB, 전기]───── [트랜시버 모듈(QSFP-DD800 등)] ──[광섬유]──▶
↑
핫 플러그 (착탈 가능)
- 구조: 스위치 장비의 포트에 트랜시버 모듈을 "꽂았다 뺐다" 할 수 있음
- 장점: 교체·업그레이드 용이, 서로 다른 거리·종류 모듈 혼용 가능
- 한계: 트랜시버 ↔ 스위치 ASIC 사이 수십 cm 전기 배선이 존재 → 대역폭 상승 시 전력 손실 급증
5.2 전력 문제 — 왜 Pluggable이 한계에 도달했나
트랜시버 전력은 대역폭 상승에 따라 지수적 증가한다:
왜 이렇게 올라가는가? 고속 SerDes(직렬화/역직렬화) + DSP(Digital Signal Processor, 디지털 신호 처리기) + 레이저 구동이 모두 전력을 태운다. 특히 ASIC ↔ 모듈 사이 수십 cm 구리 배선이 SerDes 전력의 절반 이상을 먹는다. 1.6T 이상에서 Pluggable은 전력 벽(power wall) 에 부딪친다.
5.3 CPO — 해법의 등장
CPO(Co-Packaged Optics, 공동 패키지 광학) 는 트랜시버 대신 광 엔진(optical engine)을 ASIC과 같은 패키지 내부에 배치한다. 이는 전기 배선 거리를 수십 cm → 수 mm로 단축시켜 전력 30~50% 절감 가능.
[스위치 ASIC + 광 엔진 (한 패키지)]──[광섬유 직결]──▶
↑
CPO 모듈
일상 비유: Pluggable = "컴퓨터 본체 + 외장 하드" 연결 방식, CPO = "SSD를 CPU 옆에 납땜" 한 방식. 후자가 더 빠르고 전력 효율적이지만, 고장 시 전체 교체가 필요하다는 단점이 있다.
5.4 2026 CPO 전환 신호 — Broadcom Tomahawk 6 CPO
2025 OFC Conference에서 Broadcom Tomahawk 6-Davisson (CPO 통합 스위치) 공개. 2026 양산 시작 예정으로, 51.2Tbps급 CPO 스위치가 업계 첫 상용화가 관건이다.
NVIDIA·Cisco·Marvell도 각자 CPO 로드맵 보유. 2026~2028 본격 전환기로 예상되며, 이 전환 과정에서 Pluggable 트랜시버 매출은 유지되지만 성장률 둔화, CPO 수혜 기업이 새로운 성장 곡선을 형성한다.
투자자 관점에서 보면
CPO는 "밸류체인 재편" 이벤트다. Pluggable 시대에는 COHR·LITE 같은 모듈 벤더가 승자였다. CPO 시대에는 광엔진 구성 요소인 InP(인화인듐) 레이저 칩·실리콘 포토닉스·패키징 기술이 핵심 — 여기서 수혜는 COHR·LITE·Marvell(DSP)·TSMC(패키징). 단, CPO 본격 채택은 2027~2028년이므로 단기 투자 관점에선 Pluggable 800G/1.6T 사이클이 여전히 유효. 이 전환은 본 커리큘럼 L3에서 심화 다룬다.
6절. 투자자 관점 종합 — AI 병목이 GPU에서 네트워크로 이동하는 의미
6.1 CapEx 흐름의 재편
하이퍼스케일러(Meta·Microsoft·Google·AWS·Oracle) AI CapEx 구성 비중 추정:
네트워크 비중이 3~4%p 상승은 절대 금액으로는 연 $30B+ 증가를 의미한다 (2026 하이퍼스케일러 합산 CapEx ~$400B 기준).
6.2 밸류체인별 수혜 구도
6.3 포트폴리오 함의
본 포트폴리오 portfolio_iwannavy_aggressive_12m-2026-04-21에서 광통신·네트워크 관련 포지션:
함의 해석:
- NVDA·AVGO 양강(12.85%) 은 Scale-Up·Scale-Out 생태계 전체에 노출
- COHR·GLW(3.40%) 는 트랜시버·광섬유 밸류체인 업스트림
- 밸류체인 헤지 효과: NVDA 독점이 약화되면 AVGO 수혜, AVGO 침투가 지연되면 NVDA 수혜 — 어느 시나리오에서도 광섬유(GLW)·트랜시버(COHR)는 공통 수혜
- 빠진 것: 순수 Ethernet 시스템 벤더(ANET, Arista Networks), 롱홀 광통신(CIEN, MRVL) — 다음 lesson에서 추가 검토
6.4 위험 요인
- AI CapEx 사이클 둔화: 하이퍼스케일러 CapEx 가이던스 하향 시 네트워크 장비 주가 민감도 높음
- 추론 중심 전환: 학습 대비 추론은 통신 집약도 낮아 네트워크 TAM 성장 둔화 가능
- CPO 전환 속도: 본격 채택이 2028로 지연되면 기존 Pluggable 벤더 수혜, CPO 선투자 기업 단기 부담
- 밸류에이션: COHR·LITE 등 일부 종목 EV/EBITDA 40~250배 — 펀더멘털 성장이 밸류에이션을 따라잡지 못하면 급락 리스크. 이 커리큘럼 L7에서 Scorecard로 재평가 예정
투자자 관점에서 보면
이 lesson의 핵심 메시지는 "네트워크를 단일 테마로 보지 말고, 3계층+3프로토콜+2매체(구리/광) 매트릭스로 보라" 는 것이다. 단순히 "광통신주 사자"가 아니라, 어느 계층·어느 프로토콜·어느 밸류체인 단에 자본이 흐르는지를 구조적으로 이해한 뒤 포지션을 배치해야 한다. 다음 lesson들은 이 매트릭스의 각 셀을 하나씩 심화 탐구한다.
7절. 다음 lesson 로드맵 — "AI 광통신 인프라" 커리큘럼 7부작
본 lesson은 7주 커리큘럼의 첫 번째 문이다. 이어지는 lesson들은 각 밸류체인 단계를 심화하며 최종 Scorecard로 수렴한다.
각 lesson은 독립 완결형이지만, 순서대로 읽으면 AI 광통신 인프라의 전체 투자 지도가 완성된다.
출처
- NVIDIA NVLink & NVLink Switch Official — 2026-04 확인
- NVIDIA Blackwell Platform Newsroom — 2024 (기초자료)
- IBTA Unveils XDR InfiniBand Specification — 2023-10
- Corning–Meta $6B Agreement — 2026-01-27
- Meta-Corning fiber deal signals a new bottleneck — Network World — 2026-01
- Broadcom 800G AI Ethernet NIC (Thor Ultra) — 2025
- Broadcom at OFC 2026 — Tomahawk 6 CPO — 2026-03
- Broadcom Tomahawk Ultra for HPC/AI Scale-up — 2025
- 800Gbps XDR Transceivers/Cables List — NVIDIA Docs — 2026 확인
- The Complete Guide to Upgrading AI Data Centers from 400G to 800G — Vitex — 2026
본 문서는 교육 목적의 기술 해설 자료로, 투자 추천이 아닙니다. 모든 투자 판단은 독자의 책임입니다.
작성: IWANNAVY LAB 발행: 2026-04-21 카테고리: AI 광통신 인프라 커리큘럼 L1/7