
AMD 라데온 RX 9080 XT 스펙 유출: 32GB GDDR7에 4GHz 클록, NVIDIA를 위협하는 RDNA 4 괴물
10월 13, 2025
Rode PodMic USB 리뷰: USB와 XLR을 동시에 품은 방송급 마이크의 진짜 실력
10월 14, 2025NVIDIA GPU 하나 사려면 7천만 원이 넘고, 그마저도 2026년 중반까지 물량이 없습니다. AI 칩 비교 2025년 10월, 반도체 시장은 그야말로 전쟁터입니다. 80%가 넘는 시장을 한 회사가 쥐고 있는 상황에서, AMD는 역대급 반격을 시작했고, 인텔은 존재감이 사라지고 있으며, 구글·아마존·메타·애플은 아예 자체 칩을 만들기 시작했습니다. 이 판도가 여러분의 AI 프로젝트 비용과 성능에 직접적인 영향을 미칩니다.

NVIDIA: 블랙웰 B200으로 독주 체제 굳히다
2025년 10월 현재, NVIDIA는 AI 가속기 시장의 80~90%를 장악하고 있습니다. 이 수치만으로도 압도적이지만, 최신 블랙웰(Blackwell) B200 아키텍처의 스펙을 보면 이 독주가 쉽게 깨지지 않을 것임을 알 수 있습니다.
B200은 2,080억 개의 트랜지스터와 192GB HBM3e 메모리를 탑재했습니다. 전작 H100 대비 학습 성능은 3.7~4배 향상되었고, 추론 성능은 그 이상입니다. 문제는 가격과 공급입니다. GPU 한 장에 6만~7만 달러(약 7,800만~9,100만 원)이며, 이미 2026년 중반까지 전량 매진된 상태입니다. 마이크로소프트, 오라클, 메타 등 하이퍼스케일러들이 수십만 장 단위로 선주문을 걸어놓았기 때문입니다.
물론 H100과 H200도 여전히 현역입니다. 대부분의 클라우드 데이터센터에서 이 칩들이 AI 워크로드의 핵심을 담당하고 있으며, 중고 시장에서도 H100 한 장에 2만 달러 이상에 거래되고 있습니다. NVIDIA의 CUDA 생태계와 소프트웨어 스택은 여전히 경쟁사들이 넘기 어려운 해자(moat)입니다.
AI 칩 비교 2025: AMD MI355X, 진짜 대항마가 되다
AMD가 드디어 NVIDIA의 독주에 의미 있는 균열을 내기 시작했습니다. MI355X가 2025년 10월 정식 출시(GA)되면서, AMD의 AI 칩 전략이 본격적으로 결실을 맺고 있습니다.
MI355X의 핵심 스펙은 주목할 만합니다. 288GB HBM3E 메모리와 8TB/s 메모리 대역폭은 B200의 192GB를 크게 앞서는 수치입니다. 더 중요한 것은 MLPerf 벤치마크에서 NVIDIA와 거의 동등한 성능을 보여주고 있다는 점입니다. 특히 대규모 언어모델(LLM) 추론에서 MI355X는 메모리 용량의 이점을 최대한 활용합니다.
소프트웨어 측면에서도 AMD는 공격적입니다. ROCm 7이 2025년 9월 출시되면서 MI350/MI325X 네이티브 지원, FP4/FP8 포맷 지원, ROCm 6 대비 추론 3.5배·학습 3배 성능 향상을 달성했습니다. PyTorch와 vLLM 첫날 통합도 이루어져, CUDA 의존도를 줄이려는 개발자들에게 실질적인 대안이 되고 있습니다.
AMD의 데이터센터 매출은 2025년 3분기 43억 달러를 기록했으며, OpenAI와의 파트너십도 확보했습니다. 가격 대비 성능에서 NVIDIA보다 유리한 포지션을 잡고 있어, 비용에 민감한 기업들의 관심이 높아지고 있습니다.
인텔 가우디 3: 기대를 저버린 고전
인텔의 AI 칩 사업은 솔직히 말해 위기입니다. 가우디 3(Gaudi 3)의 2025년 출하 목표가 30% 삭감되어 30만~35만 장에서 20만~25만 장으로 줄었습니다. 더 심각한 것은 5억 달러 매출 목표까지 철회한 것입니다.
내부 상황은 더 암울합니다. AI 칩 사업의 핵심이었던 하바나 랩스(Habana Labs)의 공동 창업자들이 2025년 9월 인텔을 떠났고, 차세대 칩으로 기대를 모았던 팔콘 쇼어스(Falcon Shores)는 완전히 폐기되었습니다. AI 가속기 시장에서 인텔의 점유율은 약 8.7%에 불과합니다.
그나마 희망은 엣지 AI 영역입니다. 루나 레이크(Lunar Lake) NPU가 48 TOPS를 달성하며, 데이터센터가 아닌 온디바이스 AI에서 인텔이 살길을 찾고 있습니다. 클라우드 AI 칩 경쟁에서는 사실상 탈락했지만, 수십억 대의 PC에 들어가는 NPU 시장은 여전히 인텔의 강점입니다.
커스텀 실리콘: 빅테크가 직접 만든다
NVIDIA 의존도를 줄이기 위해 구글, 아마존, 메타, 애플, 마이크로소프트가 각자의 AI 칩을 개발하고 있습니다. 2025년 10월 현재, 이 움직임은 단순한 실험이 아니라 대규모 실전 배치 단계에 진입했습니다.
구글 TPU v5p: 9,000개 칩 팟(Pod) 구성
구글은 자체 TPU(Tensor Processing Unit)를 10년 넘게 개발해온 선구자입니다. 최신 TPU v5p는 최대 9,000개 칩으로 구성된 슈퍼컴퓨팅 팟을 형성할 수 있으며, Gemini 모델 학습에 핵심적으로 사용되고 있습니다. 구글 클라우드를 통해 외부 고객에게도 제공되어, NVIDIA GPU 없이도 대규모 AI 워크로드를 처리할 수 있는 선택지를 제공합니다.
아마존 트레이니엄2: 프로젝트 레이니어 50만 칩 가동
아마존의 프로젝트 레이니어(Project Rainier)가 2025년 10월 가동을 시작했습니다. 인디애나주 데이터센터에 약 50만 개의 트레이니엄2(Trainium2) 칩이 설치되었으며, 이는 Anthropic의 Claude 모델 학습을 위한 것입니다. 각 칩은 FP8 기준 1.3 PFLOPS의 성능을 제공하며, 향후 100만 칩 이상으로 확대할 계획입니다. AWS가 NVIDIA 의존도를 줄이면서 동시에 클라우드 고객에게 더 저렴한 AI 컴퓨팅을 제공하려는 전략입니다.

마이크로소프트 마이아 100 & 메타 MTIA
마이크로소프트의 마이아(Maia) 100은 현재 내부 전용으로 운영 중이며, 차세대 마이아 200은 개발이 지연되고 있습니다. 아직 외부 고객에게 제공되지 않아 시장 영향력은 제한적입니다.
메타의 MTIA(Meta Training and Inference Accelerator)는 공격적인 로드맵을 공개했습니다. MTIA 300이 이미 추천 시스템에 실전 배치되었고, 400·450·500으로 이어지는 로드맵에서 Broadcom과 협력합니다. MTIA 300에서 500까지 HBM 대역폭은 4.5배, 연산 성능은 25배 증가할 예정입니다. 9월 메타 커넥트 2025에서 발표한 레이밴 메타 디스플레이($800)와 sEMG 손목 밴드 같은 웨어러블 AI 기기들도 결국 이런 칩 인프라 위에서 작동합니다.
애플 M5: 온디바이스 AI의 새 기준
10월 15일 발표된 애플 M5는 데이터센터 AI 칩과는 전혀 다른 접근입니다. 각 GPU 코어에 뉴럴 액셀러레이터(Neural Accelerator)를 내장하여, M4 대비 AI 연산 성능이 4배 향상되었습니다. 16코어 뉴럴 엔진과 153GB/s 통합 메모리 대역폭은 맥북과 아이패드에서의 온디바이스 AI를 완전히 새로운 수준으로 끌어올립니다.
이는 10월 28~30일 열리는 어도비 MAX 2025에서 발표될 Firefly 이미지 모델 5, AI 오디오/비디오 생성, 포토샵 AI 어시스턴트 등의 기능과 직결됩니다. 이런 크리에이티브 AI 기능들이 클라우드가 아닌 로컬에서 실행되려면 M5급 뉴럴 엔진이 필수적입니다.
2025년 AI 칩 시장 판도: 누가 이기고 있나
2025년 10월 기준으로 AI 칩 시장을 정리하면 명확한 구도가 보입니다.
데이터센터 학습(Training): NVIDIA가 여전히 압도적입니다. B200의 성능과 CUDA 생태계는 대체 불가능에 가깝습니다. 하지만 구글 TPU v5p와 아마존 트레이니엄2가 자사 워크로드에서는 충분한 대안이 되고 있습니다.
데이터센터 추론(Inference): AMD MI355X가 가장 빠르게 점유율을 늘리고 있는 영역입니다. 288GB 메모리와 ROCm 7의 조합은 대형 모델 서빙에서 진정한 가성비 대안입니다. 메타의 MTIA도 자사 추천 시스템에서 GPU를 빠르게 대체하고 있습니다.
엣지/온디바이스 AI: 애플 M5와 인텔 루나 레이크 NPU(48 TOPS)가 경쟁합니다. 클라우드 비용 없이 로컬에서 AI를 실행하려는 수요가 폭발적으로 증가하면서, 이 영역의 중요성은 계속 커지고 있습니다.
커스텀 실리콘: 2025년은 자체 칩이 ‘실험’에서 ‘실전’으로 전환된 해입니다. 아마존의 50만 칩 배치, 구글의 9,000칩 팟, 메타의 4세대 로드맵은 NVIDIA 독점에 대한 구조적 도전입니다. 다만 범용성에서는 여전히 NVIDIA/AMD가 앞서므로, 커스텀 칩은 자사 워크로드 최적화에 집중하는 양상입니다.
결론: AI 칩 전쟁은 이제 시작이다
2025년 10월의 AI 칩 시장은 복잡하지만 방향은 분명합니다. NVIDIA의 독주는 당분간 계속되겠지만, AMD의 기술적 추격과 빅테크의 커스텀 실리콘 전략이 시장 구조를 서서히 변화시키고 있습니다. 인텔은 데이터센터 AI에서는 사실상 탈락했지만, 엣지 AI에서 반전을 노리고 있습니다.
AI를 활용하는 기업이나 개발자라면, 이 칩 경쟁이 결국 여러분의 비용 구조와 기술 선택에 직접적인 영향을 미칩니다. NVIDIA만 바라보던 시대는 끝나가고 있습니다. AMD MI355X를 활용한 ROCm 기반 추론 파이프라인, AWS 트레이니엄2 기반의 비용 효율적 학습, 그리고 M5 기반 온디바이스 AI까지—선택지가 다양해지고 있다는 것은 결국 우리 모두에게 좋은 소식입니다.
매주 AI, 음악, 테크 트렌드를 이메일로 받아보세요.



