2026년 3월, 메타가 자체 설계한 AI 가속기 MTIA(Meta Training and Inference Accelerator) 4종을 새롭게 선보였습니다. 거대 기술 기업들이 엔비디아나 AMD의 고가 GPU 의존도를 낮추기 위해 직접 칩을 설계하는 흐름이 더욱 거세지는 모양새입니다.

왜 메타는 자체 칩 개발에 속도를 낼까
메타가 엔비디아와 AMD로부터 방대한 물량의 GPU를 공급받는 상황에서도 직접 실리콘 설계에 뛰어든 핵심 이유는 비용 효율성과 공급망 다변화입니다. 범용 GPU는 성능은 뛰어나지만, 특정 서비스에 최적화하기에는 비용 부담이 큽니다. 반면 자체 제작한 ASIC 칩은 메타의 핵심 기능에 필요한 연산만 집중적으로 처리함으로써 가격 대비 성능을 극대화할 수 있습니다.
MTIA 칩 패밀리의 구성과 전략은
메타의 MTIA 전략은 단순히 칩 하나를 개발하는 것이 아니라, 약 6개월 단위의 빠른 주기로 신제품을 내놓는 것입니다. 이를 통해 기술 변화가 극심한 AI 환경에서 항상 최첨단 사양을 유지하겠다는 전략입니다. 현재 배포 중인 칩과 향후 계획은 다음과 같습니다.
- MTIA 300: 수 주 전부터 도입되어 핵심 추천 알고리즘 학습 지원
- MTIA 400, 450, 500: 이미지 생성 및 영상 처리 등 생성형 AI 추론용
어떻게 AI 추론 성능을 끌어올릴 것인가
새롭게 도입되는 칩들은 이전 세대보다 더 많은 고대역폭 메모리(HBM)를 탑재하고 있습니다. 생성형 AI가 대량의 데이터를 실시간으로 처리하기 위해서는 메모리 대역폭이 필수적이기 때문입니다. 메타는 이 메모리 부족 사태에 대비해 전략적으로 공급망을 확보해 왔으며, 자체 칩을 통해 특정 벤더에 휘둘리지 않는 주도권을 쥐려 합니다.

메타의 내부 AI 칩 활용 범위는
구글이나 아마존 같은 경쟁사와 달리, 메타의 MTIA 칩은 외부 클라우드 고객에게 판매되지 않습니다. 철저히 페이스북, 인스타그램 등 메타의 자체 플랫폼 내에서 발생하는 광고 추천, 콘텐츠 순위 결정, 생성형 AI 추론 작업에만 사용됩니다. 내부에서 발생하는 거대한 데이터를 처리하는 데 최적화된 맞춤형 솔루션인 셈입니다.
6개월 주기 칩 출시가 갖는 의미는
보통 반도체 산업에서 신제품 출시 주기는 매우 길지만, 메타는 이 관행을 깨고 있습니다. AI 학습 모델의 발전 속도가 빠르기 때문에 범용 제품을 기다리기보다, 그때그때 최적화된 하드웨어를 직접 만들어 배치하는 것이 경제적이라고 판단한 것입니다. 이는 막대한 자본 지출(CapEx)을 감수하면서도 인프라 통제권을 확보하려는 대형 하이퍼스케일러들의 표준 모델이 되고 있습니다.

공급망 리스크를 해결할 수 있을까
최근 메타는 엔비디아 및 AMD와 수십억 달러 규모의 칩 구매 계약을 체결했습니다. 자체 칩을 개발하면서도 외부 GPU를 병행 사용하는 이유는 워크로드의 변동성이 크기 때문입니다. 특정 칩에만 의존하지 않는 ‘다변화’ 전략을 통해 시장 가격 변동성과 공급 부족 위험을 동시에 상쇄하려는 복합적인 대응 체계를 갖추고 있습니다.
마무리
메타는 이제 플랫폼 기업을 넘어 하드웨어 인프라 기업으로 진화하고 있습니다. 자체 칩 개발을 통해 성능과 비용이라는 두 마리 토끼를 잡으려는 시도가 데이터센터의 지형을 어떻게 바꿀지 주목됩니다. 급변하는 AI 인프라 환경에서 메타의 행보는 기술 주권을 확보하려는 글로벌 테크 기업들에게 하나의 이정표가 될 것입니다.

출처: https://www.cnbc.com/2026/03/11/meta-ai-mtia-chip-data-center.html
이어서 보면 좋은 글
#메타 #AI칩 #MTIA #데이터센터 #엔비디아 #인공지능 #반도체 #생성형AI #기술트렌드 #하이퍼스케일러