Forwarded from 그로쓰리서치(Growth Research) [독립리서치]
✅ 빅테크 26년 CapEX 추정치
아마존: ~$200B(약 294조원)
구글: ~$180B(약 265조원)
메타: ~$125B(185조원)
마이크로소프트: ~$99B(145조원)
✅그로쓰리서치 텔레그램
https://xn--r1a.website/growthresearch
아마존: ~$200B(약 294조원)
구글: ~$180B(약 265조원)
메타: ~$125B(185조원)
마이크로소프트: ~$99B(145조원)
✅그로쓰리서치 텔레그램
https://xn--r1a.website/growthresearch
❤4
Forwarded from 프리라이프
[NVIDIA, ‘베라 루빈’ AI 시스템에 삼성·SK하이닉스 HBM4 채택…마이크론은 제외](https://www.techpowerup.com/346044/nvidia-to-use-sk-hynix-and-samsung-hbm4-for-vera-rubin-without-micron)
◦ NVIDIA ‘Vera Rubin’ AI 시스템, HBM4 공급사 2곳으로 압축
• NVIDIA의 차세대 AI 시스템 VR200 NVL72(베라 루빈)는 2026년 여름 출하 예정.
• HBM4 메모리 공급사는 삼성전자와 SK하이닉스만 채택.
• 마이크론은 HBM4 공급에서 완전히 제외 → 설계 수주(design win) 실패.
◦ HBM4 공급 비중: SK하이닉스 압도적 우위
• SemiAnalysis 유출 기관 노트에 따르면
- SK하이닉스: 약 70%
- 삼성전자: 약 30%
• 마이크론: HBM4 공급 물량 0%.
◦ 마이크론, HBM4는 제외됐지만 시스템 메모리 공급은 유지
• 마이크론은 HBM4 대신
- ‘Vera’ CPU용 LPDDR5X 메모리를 공급.
• Vera CPU는 최대 1.5TB LPDDR5X 탑재 가능.
• SOCAMM2 기반 LPDDR5X 분야에서
→ 마이크론이 최대 또는 사실상 단독 공급사일 가능성.
◦ HBM4 탈락 배경: 공격적인 대역폭 상향 요구
• VR200 NVL72 시스템 목표 대역폭:
- 2025년 3월: 13TB/s
- 2025년 9월: 20.5TB/s
- CES 2026 기준: 22TB/s
• 약 70%에 달하는 대역폭 상향은
→ 메모리 업체에 매우 높은 기술 요구 조건.
• 마이크론이 이 사양을 충족하지 못했을 가능성 제기.
◦ 산업적 의미
• NVIDIA의 AI 시스템은
- HBM4 → 삼성·SK하이닉스
- LPDDR5X → 마이크론
으로 역할 분담 구조 형성.
• HBM4는 극소수 업체만 대응 가능한 초고난도 메모리 시장임이 재확인.
• AI 인프라 경쟁에서 메모리 성능 요구치가 급격히 상향되고 있음을 보여주는 사례.
원문 발췌:
- "SK Hynix will represent about 70% of the HBM4 supply for VR200 NVL72 systems, with Samsung getting the remaining 30% of the supply."
#hbm #삼성전자 #하이닉스 #MU #엔비디아
◦ NVIDIA ‘Vera Rubin’ AI 시스템, HBM4 공급사 2곳으로 압축
• NVIDIA의 차세대 AI 시스템 VR200 NVL72(베라 루빈)는 2026년 여름 출하 예정.
• HBM4 메모리 공급사는 삼성전자와 SK하이닉스만 채택.
• 마이크론은 HBM4 공급에서 완전히 제외 → 설계 수주(design win) 실패.
◦ HBM4 공급 비중: SK하이닉스 압도적 우위
• SemiAnalysis 유출 기관 노트에 따르면
- SK하이닉스: 약 70%
- 삼성전자: 약 30%
• 마이크론: HBM4 공급 물량 0%.
◦ 마이크론, HBM4는 제외됐지만 시스템 메모리 공급은 유지
• 마이크론은 HBM4 대신
- ‘Vera’ CPU용 LPDDR5X 메모리를 공급.
• Vera CPU는 최대 1.5TB LPDDR5X 탑재 가능.
• SOCAMM2 기반 LPDDR5X 분야에서
→ 마이크론이 최대 또는 사실상 단독 공급사일 가능성.
◦ HBM4 탈락 배경: 공격적인 대역폭 상향 요구
• VR200 NVL72 시스템 목표 대역폭:
- 2025년 3월: 13TB/s
- 2025년 9월: 20.5TB/s
- CES 2026 기준: 22TB/s
• 약 70%에 달하는 대역폭 상향은
→ 메모리 업체에 매우 높은 기술 요구 조건.
• 마이크론이 이 사양을 충족하지 못했을 가능성 제기.
◦ 산업적 의미
• NVIDIA의 AI 시스템은
- HBM4 → 삼성·SK하이닉스
- LPDDR5X → 마이크론
으로 역할 분담 구조 형성.
• HBM4는 극소수 업체만 대응 가능한 초고난도 메모리 시장임이 재확인.
• AI 인프라 경쟁에서 메모리 성능 요구치가 급격히 상향되고 있음을 보여주는 사례.
원문 발췌:
- "SK Hynix will represent about 70% of the HBM4 supply for VR200 NVL72 systems, with Samsung getting the remaining 30% of the supply."
#hbm #삼성전자 #하이닉스 #MU #엔비디아
TechPowerUp
NVIDIA to Use SK hynix and Samsung HBM4 for "Vera Rubin" Without Micron
NVIDIA's upcoming "Vera Rubin" AI systems are scheduled for late summer shipping in the form of VR200 NVL72 rack-scale solutions that will power the next generation of AI models. However, not every memory maker of HBM4 qualified for a design win, as Micron…
❤5