AMD의 최신 AI 칩 MI325X가 엔비디아의 점유율을 뺏어올 수 있을까요?


엔비디아가 AI 칩 시장의 90% 넘게 차지하고 있다는 건 이제 누구나 아는 사실인데, AMD가 MI325X라는 새 칩으로 이 판을 뒤집을 수 있을지가 요즘 업계의 관심사입니다.

일단 스펙부터 보면 MI325X가 상당히 인상적이에요. 엔비디아의 H200이 HBM3E 메모리 141GB를 탑재한 반면, MI325X는 256GB를 넣었거든요. 1.8배 차이입니다. 메모리 대역폭도 MI325X가 6.0TB/s로 H200의 4.8TB/s보다 25% 높아요. 대규모 AI 모델을 돌릴 때 GPU 개수를 줄일 수 있다는 뜻이라 비용 면에서 꽤 매력적이죠.

성능 벤치마크도 나쁘지 않습니다. MLPerf Training v5.0 테스트에서 MI325X가 H200 대비 최대 8% 높은 학습 성능을 보여줬고, 추론 쪽에서는 Llama 3.1 기준으로 최대 40% 더 빠르다는 결과도 나왔어요. AMD가 자기 칩의 연산 속도가 H200보다 30% 빠르다고 주장하는 근거가 이 벤치마크입니다.

그러면 이걸로 엔비디아 점유율을 뺏어올 수 있느냐, 여기가 핵심인데요. 솔직히 쉽지 않다는 게 현실적인 평가예요. 하드웨어 스펙에서 우위를 보여줬다고 해서 바로 시장이 뒤집히지는 않거든요.

가장 큰 이유는 역시 CUDA 생태계입니다. 엔비디아의 소프트웨어 플랫폼에 이미 수백만 명의 개발자가 묶여 있어서, 하드웨어가 좋다고 갈아타는 게 현실적으로 어려워요. 기존 코드를 전부 수정해야 하고, 엔지니어 재교육 비용도 만만치 않으니까요.

그래도 AMD에 유리한 흐름이 있긴 합니다. 빅테크들이 공급망 다변화를 위해 엔비디아 외의 선택지를 적극적으로 찾고 있거든요. Meta, OpenAI, 마이크로소프트가 이미 AMD 가속기를 도입했고, 25% AI 칩 관세 이슈도 가격 경쟁력이 있는 AMD한테 기회가 될 수 있습니다.

AMD의 로드맵을 보면 2026년에 MI400 시리즈가 나올 예정인데, HBM4 메모리 432GB에 대역폭 19.6TB/s를 목표로 하고 있어요. 이게 실현되면 MI325X와는 차원이 다른 수준이 됩니다.

결론적으로, MI325X로 엔비디아를 당장 뒤집기는 어렵지만 점유율을 조금씩 깎아나가는 데는 충분한 무기가 될 것 같습니다. AMD가 연간 35% 성장을 목표로 데이터센터 매출 1000억 달러를 겨냥하고 있으니, 장기전으로 볼 필요가 있어요.


댓글 남기기