삼성과 하이닉스는 HBM으로 떼돈을 벌게 됨
이미 백악관은 HBM을 국가전략자산으로 인식
A100: 2020년 5월 출시
/HBM2e 40GB(16Gb Die*4개 스택*칩 5개)
H100: 2022년 11월 출시
HBM3 80GB(16Gb Die*8개 스택*칩 5개)
GH200: 2024년 5월 출시(Grace CPU+H100 GPU)
HBM3e 144GB(24Gb Die*8개 스택*칩 6개)
B100: 2024년 말 출시
HBM3e 192GB(24Gb Die*8개 스택*칩 8개)
차차세대 GPU: 2026년 말 출시
HBM4 432GB(24Gb Die*12개 스택*칩 12개)
AMD의 최신 AI GPU인 MI300
올해
4분기 출시되고 이미 MS에서 도입 계획을 밝혔음. 가격도 엔비디아 H100 대비 1/3 수준에 삼전 HBM3이 본격 탑재되고,
HBM3 용량도 H100이 80GB인데 비해 MI300은 128GB까지 증가해서 내부적으로 많은 기대 중임. H100 1개 살
돈이면 MI300을 3개를 살 수 있고, 그러면 HBM 매출은 거의 4.5배 증가함.
AI서버쪽뿐만 아니라 내년 도입되는 테슬라 자율주행3부터 HBM 엄청 때려 박음 자율주행4는? ㄷㄷㄷ
AI로봇, AI스마트가전 등등에도 박히게됨
수요가 대폭발