AVGO Custom Silicon 비즈니스 — $100B LT 딜과 2027 매출 궤적
왜 Broadcom이 NVDA의 가장 위협적 대항마인가 — Google·Meta·OpenAI 수주 구조
AVGO Custom Silicon 비즈니스 — $100B LT 딜과 2027 매출 궤적
도입 — 세 가지 질문
질문 1. NVIDIA는 AI 반도체 절대 강자. 그런데 왜 월가는 **"Broadcom이 NVIDIA의 가장 위협적 대항마"**라고 말하는가? TSMC도 아니고 AMD도 아닌 왜 Broadcom인가?
질문 2. Broadcom 2024 AI 매출 약 $122억. 2027-2028년 $250-400억으로 2-3배. 한 회사가 3년 만에 AI 매출 3배를 어떻게?
질문 3. 2025-09 OpenAI-Broadcom 10GW 규모 맞춤형 AI 칩 공급 계약 ("$100B long-term deal"). 이 딜 하나가 왜 Broadcom 리레이팅 트리거?
답의 핵심: Broadcom은 단순 반도체 회사가 아니라 "AI 인프라 숨은 설계 공장".
Quick Glossary
1절. Broadcom Custom Silicon 비즈니스 구조
1-1. Broadcom은 무엇을 파는가
Broadcom은 직접 칩 제조 안 함. 공장(fab)은 전량 TSMC. 그럼 뭘 파는가?
"칩 설계 서비스 + 핵심 IP 라이선스 + 물리 구현 노하우" 묶음.
비유: Broadcom은 "건축 설계사무소 + 인테리어 시공사". 건축주(Google·Meta·OpenAI)가 "AI 워크로드 최적화 칩" 의뢰하면 Broadcom이:
- 아키텍처 설계 — 워크로드 분석 → 칩 내부 구조
- IP 블록 제공 — SerDes, PCIe, 메모리 컨트롤러
- Physical Design — 수백억 트랜지스터 실리콘 배치
- TSMC 제조 발주 + 테스트 + 양산 관리
왜 직접 안 하고 맡기나: 최신 공정 NRE $3-10억 (IBS/Reuters 2024-12). Google도 TPU 세대마다 수백 명 physical design 엔지니어 유지보다 Broadcom 맡기는 게 저렴·빠름.
1-2. 왜 Broadcom이 이 역할 — IP 축적
30년 축적 IP. Broadcom 전신 Avago(2005 HP 스핀오프) + 구 Broadcom(2016 합병). 이 두 회사가 30년간 이더넷 스위치(Tomahawk), 광통신 SerDes, 와이파이, HDD 컨트롤러 제조. AI ASIC 핵심인 "칩 간 초고속 통신(224G SerDes)"에서 세계 최선.
80+ M&A로 설계 팀 축적. LSI(2014), Avago-Broadcom(2016), Brocade(2017). 2025 기준 반도체 설계 엔지니어 약 1만 5천 명 추산.
1-3. AI 매출 구성 (FY2025 $17B 추정)
① Custom AI Accelerators (XPU ASIC) ~70%
Google TPU v5p/v6, Meta MTIA v2, ByteDance ASIC, OpenAI XPU(2027~)
② AI Networking (Tomahawk, Jericho) ~25%
이더넷 스위치, 라우터, DCI
③ Optical/Co-packaged ~5%
Optical DSP, CPO 실리콘
ASIC 하나 팔리면 주변 네트워킹 칩·광 트랜시버 DSP 함께 팔림 → "AI 데이터센터 통째 납품" 구조.
투자자 관점에서 보면
핵심: "Broadcom은 TSMC처럼 공장도 안 돌리고 NVIDIA처럼 자기 브랜드 칩도 안 팔지만, AI 데이터센터의 '설계 도면'을 독점적으로 제공하는 회사". 고객 전환 비용 극단적으로 높아 한 번 시작한 고객 이탈 어려움. 매출 예측 가시성이 반도체 업종 내 이례적으로 높음.
2절. 핵심 고객 3축 — Google·Meta·OpenAI $100B 스택
2-1. Google (TPU, 2016~)
가장 오래된 ASIC 대형 고객. TPU v1(2016)부터 TPU v7(Ironwood, 2025-2026 양산)까지 모든 세대 physical design + SerDes IP를 Broadcom 공급. Alphabet 내부가 아키텍처, Broadcom이 실제 실리콘 구현.
TPU는 Google Cloud Gemini 학습·추론 전용, 일부 Anthropic 등 외부 제공. Broadcom 매출 중 Google TPU 비중 연 $8-10B 추정 (Morgan Stanley 2025-10).
2-2. Meta (MTIA, 2023~)
2023 MTIA v1 발표로 ASIC 합류. MTIA는 Meta 광고 추천·콘텐츠 추천 (Reels, Feed ranking)에 특화.
2024 MTIA v2는 Broadcom physical design 파트너 확정. 2025 말 Meta "1GW 규모 MTIA 배치" Broadcom 추가 발주. 1GW = 약 20-30만 개 ASIC. 단일 딜만으로 Broadcom 2026-2027 매출 $5B+ 증분 확보.
2-3. OpenAI — $100B LT 딜
2025-10 OpenAI-Broadcom "10GW 규모 맞춤형 AI 칩 공급 다년 계약" 공식 발표 (Reuters 2025-10-13):
게임 체인저 3가지 이유:
- OpenAI는 NVIDIA + MS Azure(NVIDIA 기반)에만 의존 → NVIDIA 의존도 구조적 하락 첫 신호
- $100B는 Broadcom 현 AI 매출 연 $15B의 6-7배. 단일 고객이 회사 AI 사업 규모 통째로 한 번 더 복제
- 10GW는 2025년 말 전세계 AI DC 총 용량(약 50GW)의 20%. 단일 딜 전례 없는 규모
2-4. 고객 포트폴리오 — 82% 집중
Broadcom AI ASIC 고객 (2026 추정)
├─ Google (TPU) ~50%
├─ Meta (MTIA) ~25%
├─ ByteDance ~7%
├─ Apple/기타 ~8%
└─ OpenAI (2027~) 0% → 10%+
Google + Meta만 75-82%
긍정적: 세 고객 모두 CapEx 공격 확대 (2026 Google $95B, Meta $105B). 부정적: 하나라도 자체 설계 팀 확장으로 "탈거" 시 매출 타격.
투자자 관점에서 보면
OpenAI 딜 중요성: 매출뿐 아니라 "Google·Meta 외 대형 고객이 Broadcom 선택했다는 사실" 자체가 ASIC 경쟁력 시장 검증. 2025-10 발표 후 한 달간 주가 +35%, 12개월 컨센 2027 EPS +22% 상향. 추적: 2026 중 4번째·5번째 대형 고객 확보 (Apple·MS·Oracle ASIC 발주 가능성).
3절. Broadcom 기술적 해자
3-1. SerDes IP — 세계 1위
SerDes는 "고속도로 인터체인지". 칩 내부 병렬 신호를 바깥으로 나갈 때 한 줄로 압축 → 다시 받는 쪽에서 병렬 풀어냄.
2026 현재 최첨단 224G SerDes. Broadcom 2024 업계 최초 양산. Marvell·Alphawave 대비 12-18개월 선도 (Broadcom 2024-03).
왜 SerDes 중요: AI ASIC 성능 병목은 칩 연산 속도 아니라 "칩 간 데이터 이동". 224G SerDes 16채널 = 초당 3.6TB (4K 영화 900편). 이 속도 없으면 수천 ASIC 묶어도 "차 막히는 AI 클러스터".
3-2. Physical Design — "3nm 공정 지도 제작자"
Physical Design = "수백억 트랜지스터를 실리콘 2D 면적에 어떻게 배치".
비유: 300만 명 도시의 도로·전력망·수도관 한꺼번에 설계.
왜 어려운가:
- 공정 규칙 복잡: TSMC 3nm 규칙 매뉴얼 수천 페이지
- 신호 무결성: 수십억 신호 간 간섭(crosstalk) — 전력·접지 배선이 설계 30-40%
- Thermal 관리: 발열 집중 시 트랜지스터 고장 → 연산 블록 위치 재배치
Broadcom 수천 명 전담 엔지니어 보유, TSMC와 3nm/N2 PDK 최적화 팀 공동 운영. 경쟁사(Marvell, Alchip, GUC) 단시간 복제 불가.
3-3. 패키징 — CoWoS 배정권
ASIC 마지막 단계 Advanced Packaging. ASIC 다이 + HBM 6-8개 → 2.5D 패키징 필요. TSMC는 CoWoS.
비유: 아파트 한 층 중앙 거실(ASIC) 하나 + 주변 방(HBM) 6-8개.
2026 CoWoS 생산 능력 수요의 70% 수준 타이트. Broadcom은 NVIDIA 다음 두 번째 큰 고객. 2026 TSMC CoWoS 총 능력의 약 **25-30%**가 Broadcom 고객(Google TPU + Meta MTIA)에 배정. 단기 이전 불가능 실질적 진입장벽.
3-4. IP 포트폴리오 — 30년 축적
고객이 자체 개발 또는 라이선스 시 IP당 수천만-수억 달러 + 2-4년. Broadcom 경유가 훨씬 저렴 → 이탈 막음.
투자자 관점에서 보면
해자 = "IP 포트폴리오 × Physical Design 인력 × CoWoS 배정권" 삼중 결합. 경쟁사가 하나 따라잡을 수 있지만 세 가지 동시 복제 3-5년 + $10B+ 자본. 2027-2028까지 해자 유지 확률 85%+ 컨센. 추적: 신규 224G SerDes 세대 발표 주기, CoWoS 배정 변동.
4절. Marvell과의 경쟁 구도
4-1. Marvell 포지션
Marvell(MRVL)은 Broadcom 유일한 경쟁적 대안.
4-2. AWS Trainium — Marvell 핵심
Amazon AWS 2018 Inferentia 1세대, 2022 Trainium 1세대, 2025 Trainium 2, 2026 Trainium 3 양산. AWS 자체 설계 + Marvell physical design + TSMC 5nm/3nm.
Anthropic(Claude)는 AWS와 파트너십으로 2025부터 Trainium 2 클러스터 주력 학습 인프라 (Anthropic 2024-11). Marvell 매출 $2B → $5B 최대 변수.
4-3. 고객 분할 — 왜 Meta는 Broadcom, AWS는 Marvell
구조적 이유 1 — 역사적 협업: AWS는 Annapurna Labs(2015 인수) 연장선. AWS 네트워킹·스토리지 ASIC을 Marvell에 계속 맡겨옴. Trainium은 관계 확장.
구조적 이유 2 — Google·Meta TPU/MTIA 더 복잡: TPU v6, MTIA v2는 HBM 8개 + 224G SerDes 16채널 + 3nm. Marvell 역량으로 동시 지원 어려움. AWS Trainium 2는 HBM3 + 112G SerDes + 5nm — Marvell 감당.
구조적 이유 3 — 다변화 욕구: "모든 ASIC을 Broadcom 한 곳"은 협상력 상실. AWS는 의도적으로 Marvell 키워 대안 유지.
4-4. 시장 점유율 (2026E)
AI Custom ASIC 설계 시장 (2026E)
├─ Broadcom ~55-60%
├─ Marvell ~15-20%
├─ Alchip(대만) ~7%
├─ GUC(대만) ~5%
└─ MediaTek/기타 ~10-15%
Marvell 성장률 더 가파름: AI 매출 2024 $1B → 2025 $2.5B → 2026E $4-5B로 연 +80% (Broadcom +35-40%).
투자자 관점에서 보면
"제로섬 경쟁 아니라 고객 세그먼트 분할" 상태:
- Broadcom: 대형 고객(Google, Meta, OpenAI) 절대 규모 경제, 안정적 가시성
- Marvell: 중간 규모(AWS, 중국 빅테크) 고성장, 밸류에이션 업사이드
두 회사 당분간 공존. 2027-2028 Marvell이 224G SerDes·3nm 역량 확보 시 경쟁 본격화. 현재는 Broadcom 크게, Marvell small-cap 위성으로 보유.
5절. 2026-2028 매출 궤적
5-1. 현재 (FY2025) 스냅샷
FY2025(2024-11 ~ 2025-10) 추정:
AI 성장률이 전체의 2배 초과.
5-2. FY2026-2028 매출 브릿지
FY2025 FY2026E FY2027E FY2028E
$17B → $25B → $35B → $42B
(+47%) (+40%) (+20%)
FY2026 ($17B → $25B, +$8B):
- Google TPU v6 (Trillium) 양산: +$2.5B
- Meta MTIA v2 1GW 초기: +$2.0B
- ByteDance ASIC 확대: +$0.8B
- AI 네트워킹 (Tomahawk 6): +$1.5B
- 기존 고객 세대 전환: +$1.2B
FY2027 ($25B → $35B, +$10B):
- OpenAI XPU 초기 (2027 하반기): +$3-5B
- Meta MTIA v2 1GW 완료: +$2-3B
- Google TPU v7 세대 전환: +$1.5B
- Apple/기타 초도: +$1B
- 800G/1.6T 네트워킹: +$1.5B
FY2028 ($35B → $42B, +$7B):
- OpenAI XPU 풀 램프: +$5-8B
- 기존 재발주 사이클: +$2B
- (상쇄) 일부 in-house 전환 리스크: -$2B
5-3. Bull/Base/Bear 시나리오
5-4. 왜 신뢰할 만한가
반도체 매출 전망은 통상 불확실성 크지만, Broadcom ASIC은 "수주잔고 기반 예측" 가능:
- Tape-out → 양산 12-18개월 lead time → 단기 매출 확정
- Multi-year take-or-pay 계약 (약속 물량 미인수 페널티)
- TSMC CoWoS 배정 12-24개월 전 확정 → 생산 능력 제약이 매출 상한 규정
FY2026 매출 이미 85-90% 발주. FY2027 60-70% 확정. NVIDIA($100B+ 중 수주잔고 공개 없음)보다 월등히 높은 가시성.
투자자 관점에서 보면
Broadcom 매출 가시성 반도체 업종 내 최고. 세 축(Google 2026, Meta 2026-2027, OpenAI 2028+) CapEx 피크 시점이 서로 달라 "계단식 성장 가속" 가능. 추적: 분기 AI 매출 증분 $1.5B+ 유지, CoWoS 배정 물량.
6절. 밸류에이션 — PEG 0.88이 정당화되는 이유
6-1. 현재 (2026-04-21)
참고 추정 (2026-04 시장 데이터):
6-2. PEG 0.88 의미
PEG = Fwd P/E ÷ EPS 성장률
- 1.0 = 공정
- 0.5 = 매우 저평가
- 1.5+ = 고평가
Broadcom PEG 0.88 = "성장률 46%가 주가에 완전 반영 안 됨". 비교:
6-3. AI 비중 증가 = 밸류에이션 확대
AI 매출 비중 높을수록 시장은 "더 높은 P/E" 부여:
- AI 매출 성장률(+40-50%) vs 비-AI(+5-10%) → 혼합 성장률 상승
- AI 매출 영업이익률 더 높음 (Broadcom AI GM 60%+ vs 비-AI 50%대)
- AI 수주 가시성 높음 → 할인율 낮음
AI 비중 변화와 적정 P/E:
FY2024: AI 24% → 적정 P/E ~28x (실제 22x)
FY2025: AI 28% → 적정 P/E ~35x (실제 32x)
FY2026E: AI 38% → 적정 P/E ~42x (현재 40x)
FY2027E: AI 48% → 적정 P/E ~48x (예상)
AI 비중 +1%p = 적정 P/E +0.8-1.0x 확대. 이 "믹스 시프트 효과"가 밸류에이션 업사이드 핵심 엔진.
6-4. DCF 역산
주가 $385 역산 DCF 내재 가정:
- WACC 8.5%
- 영구 성장률 4%
2026-2030 FCF CAGR 약 28% 필요. 실제 회사 가이던스 30%+ → 시장 기대 약간 보수적, 상향 여력.
투자자 관점에서 보면
"P/E 40배 비싸다"는 이유로 기피는 밸류에이션 원칙 오해. Primary 지표(EV/EBITDA 52x, EV/FCF 76x, FCF Yield 1.35%, PEG 0.88) 보면 성장률 대비 합리적. 특히 PEG 0.88은 Mag7 중 NVIDIA 다음 매력적. 기준: "AI 매출 비중 상승 지속 중 보유". 50% 돌파 후 정체 시점이 경계 신호.
7절. 리스크
7-1. 고객 집중도 (Google + Meta 82%)
둘 중 하나가 발주 20% 감축 → Broadcom AI 매출 -8~10%, EPS -5~7%.
역사 사례: 2019 Apple이 Intel 모뎀 → Apple Modem M1 전환 시 Intel 모뎀 사업부 매출 1년 만에 -60% 붕괴.
완화 요인:
- Google TPU는 공동 IP 소유 (완전 자체 설계 불가)
- Meta MTIA도 Broadcom physical design 없이 3nm 양산 어려움
- 둘 다 3-5년 multi-year 계약
경계 신호:
- Google Alphabet 내부 physical design 팀 공격 확대
- Meta second-source로 Marvell 채택 검토 (2025 말 소문)
7-2. NVIDIA 기술적 반격
NVIDIA "Open ASIC" 프로그램 — CUDA 호환 Custom 칩 설계 서비스 2026 발표 가능 (업계 소문 2025 Q4).
실현 시: 고객은 "NVIDIA 긴밀 협업 + CUDA 유지 + 맞춤형 ASIC". Broadcom 최대 차별화(CUDA 독립) 흐려짐.
다만 NVIDIA가 이 방향 = 자사 GPU 매출 자기잠식 → 실행 가능성 제한. 시장 평가: 낮은 확률(15-20%), 중간 임팩트.
7-3. 중국 수출 규제
Broadcom 중국 매출 반도체의 ~15%. ByteDance, Alibaba 핵심 고객.
미국이 224G SerDes, 3nm ASIC 설계 서비스 수출 제한 추가 시 Broadcom AI 매출 -$2B~3B 직격. 2025 말 상무부 검토 중 보도. 모니터링 필수.
7-4. TSMC CoWoS 공급 제약
Broadcom ASIC 전량 TSMC CoWoS. TSMC:
- CoWoS 증설 지연 (현 월 3.5만 장 → 2026 5만 장 계획)
- 지정학 (대만 해협)
- 주요 고객 NVIDIA에 더 많은 물량
발생 시 매출 성장 둔화. 구조적, Broadcom 통제 불가.
7-5. 리스크 우선순위
투자자 관점에서 보면
가장 경계 = "고객 집중도 이탈 신호". 구체적: Google I/O, Meta Connect에서 "자체 ASIC 설계팀 확장" 발표 시 경계. 현재 시그널은 오히려 Broadcom 의존 심화 (Meta 1GW 추가). 리스크 인지하되 2-3년 내 실현 가능성 낮음.
8절. 투자자 관점 — +1.5%p 확대 근거
8-1. 요약 논거
- OpenAI $100B LT 딜로 매출 가시성 6-7년 연장 — 2027-2032 궤적 명확
- 세 고객 CapEx 피크 시점 분산 → 계단식 성장
- SerDes·Physical Design·CoWoS 삼중 해자 → 복제 3-5년
- PEG 0.88 + EV/FCF 76x → 성장률 46% 대비 합리적
- AI 비중 28% → 48% (FY2027E) 믹스 시프트 P/E 확대
8-2. 포트폴리오 권고
- 현재 비중: 5.96%
- 권고 비중: 7.5% (+1.5%p)
- 근거: AI ASIC 1등 + NVIDIA 대비 고객 집중 리스크 상쇄 가시성 프리미엄
- 경계: Google/Meta 자체 ASIC 팀 확장 공식 발표 시 재검토
- Target: FY2027E EPS $14 × P/E 38x = $530 (12M)
8-3. 3대 KPI
8-4. 비전공 투자자 기억 포인트
- Broadcom = "AI 데이터센터의 숨은 설계 공장"
- 세 고객(Google·Meta·OpenAI) CapEx 유지 시 매출 계단식 성장
- PEG 0.88 = "성장률 46%가 주가에 완전 반영 안 됨"
- 가장 큰 리스크 = "Google/Meta 자체 설계 전환" — 2-3년 가능성 낮음
- OpenAI $100B 딜 = 단순 매출이 아닌 기술 독립적 경쟁력 시장 검증
출처
- Reuters - OpenAI Broadcom 10GW Deal — 2025-10-13
- Broadcom 224G SerDes — 2024-03
- Morgan Stanley Broadcom AI Revenue — 2025-10
- Reuters - Chip Design Costs $10B — 2024-12-10
- Anthropic AWS Trainium Partnership — 2024-11
- TSMC CoWoS Technology — 2025-09
- Meta MTIA v2 Blog — 2024-04
- Broadcom FY2024 Annual Report — 2024-12
- SemiAnalysis Custom ASIC — 2025-Q4
- Google Cloud TPU v6 Trillium — 2024-05
작성: IWANNAVY LAB | 발행: 2026-05-04 | 카테고리: Custom ASIC 경제학 Primer 3/3