HBM3e는 Die당 용량이 24Gb로서 8층 Stack 제품(8Hi)은 HBM 칩당 용량이 24GB로 증가한다. 이것은 2025년에 출시될 예정인 엔비디아의 최신형 AI GPU인 GB100에 탑재될 것으로 예상된다. 따라서 주요 제조사들은 2024년 하반기에 HBM3e 샘플을 출시하고, 연말까지 본격 양산을 목표로 할 것으로 예상된다.
PS1. 추가로 HBM4부터는 Die당 용량이 24Gb에 12 Stack(12Hi) 제품이 메인이 될 텐데, 이렇게 되면 HBM 칩당 용량이 36GB로 더 증가함. 26년 말 출시되는 엔비디아 차차세대 GPU에는 이런 대용량 HBM 칩이 무려 12개나 탑재됨.
CSP는 엔비디아, AMD AI GPU에 대한 의존도를 낮추기 위해 자체 AI 반도체를 개발하고 있다.
엔비디아는 AI 반도체 시장에서 최고 점유율을 계속 유지하고 있다. 그러나 GPU 당 2만∼2.5만 불이나 되는 데다가, AI 서버 하나당 GPU 8개씩이나 탑재되는 엔비디아의 H100/H800 GPU의 높은 서버 구축 비용은 CSP 업체들에 큰 부담이 되고 있다. 따라서 CSP는 엔비디아나 AMD로부터 AI GPU를 계속 구매하는 한편, 자체 AI 반도체 개발을 병행할 계획이다.
빅테크 기업인 구글과 아마존 웹 서비스(AWS)는 이미 구글 텐서(Tensor) TPU, 그리고 AWS 트레인니엄(Trainium)과 인퍼런티아(Inferentia) 칩을 개발함으로서 이 분야에서 상당한 발전을 이루었다. 나아가 이들 두 업계 리더는 이미 HBM3나 HBM3e를 탑재하는 차세대 AI 반도체 개발을 위해 노력하고 있다. 나아가 미국와 중국의 다른 CSP들도 관련 기술을 개발하며 향후 AI 반도체 시장에서 경쟁이 급증할 가능성이 높다.
PS2. 앞으로는 AI GPU 뿐만 아니라 빅테크 ASIC에서도 HBM 수요가 크게 증가할 것으로 보임. 특히 ASIC은 GPU 구매 비용을 절약한 대신, 그 돈으로 AI 가속기에서 가장 중요한 하드웨어 스펙인 HBM 탑재량을 크게 늘릴 가능성이 매우 높음. ASIC이 GPU보다 평균 HBM 탑재량이 많이 높을 것으로 내부적으로 기대하는 중임.