spoonai
TOPNexthop AIFundingInfrastructure

Nexthop AI, $500M 시리즈B로 $4.2B 유니콘 — AI 데이터센터 네트워킹의 새 강자

전 Arista COO가 만든 Nexthop AI가 $500M 시리즈B를 유치하며 $4.2B 밸류에이션에 도달했다. 신규 스위치 3종, 기술 분석, 경쟁 구도 총정리.

·7분 소요·
공유
Nexthop AI의 AI 데이터센터 네트워킹 스위치
Image: Nexthop AI

GPU만 있으면 AI가 될까? 아니, 그걸 연결하는 네트워크가 필수야

AI 모델 훈련에는 수천–수만 개의 GPU가 동시에 작동해야 해. 하지만 GPU를 아무리 많이 모아놔도 서로 데이터를 주고받지 못하면 아무런 의미가 없어. 분산 훈련에서 GPU 간 그래디언트 교환 속도가 곧 전체 학습 속도를 결정하거든. 이 "GPU를 연결하는" 물리적 인프라가 바로 데이터센터 네트워킹이야.

3월 10일, 전 Arista Networks COO Anshul Sadana가 2024년에 창업한 Nexthop AI가 시리즈B에서 $500M(약 7,000억 원)을 유치했어. 밸류에이션은 $4.2B(약 5.8조 원). Lightspeed Venture Partners가 리드 투자자로 참여했고, a16z와 Altimeter Capital이 공동으로 합류했어. 창업 2년 만에 달성한 유니콘 지위인데, 이 속도 자체가 AI 인프라 시장의 열기를 보여줘.

특히 이번 라운드는 초과 청약(oversubscribed) 상태였어. Yahoo Finance에 따르면 당초 목표액의 2배 이상의 투자 의향이 몰렸고, 최종적으로 $500M으로 확정됐어. 설립 후 총 누적 투자액은 약 $750M에 달해.

배경: 왜 지금 데이터센터 네트워킹인가?

데이터센터 네트워킹은 서버(GPU) 간 데이터를 전달하는 물리적 인프라를 말해. 핵심 장비가 네트워크 스위치인데, 이건 데이터 패킷을 올바른 목적지로 보내는 교통 경찰 같은 역할을 해. 전통적인 데이터센터에서는 웹 트래픽이나 스토리지 접근 같은 비교적 예측 가능한 패턴을 처리했지만, AI 워크로드는 완전히 다른 게임이야.

AI 트레이닝에서 발생하는 네트워크 트래픽 패턴은 기존과 근본적으로 달라:

AI 작업 트래픽 패턴 네트워킹 요구사항
분산 학습 (All-Reduce) 모든 GPU가 동시에 모든 GPU와 통신 초저지연 + 초고대역폭, 균등한 bisection bandwidth
MoE 추론 동적 라우팅, 어떤 Expert가 활성화될지 예측 불가 적응형 트래픽 관리, 마이크로초 단위 재라우팅
KV 캐시 공유 대규모 컨텍스트 윈도우 처리 시 메모리급 대역폭 100GB/s 이상의 지속적 대역폭
체크포인트 저장 수십 TB를 주기적으로 스토리지에 기록 버스트 대역폭, 네트워크 혼잡 제어

기존 네트워크 스위치(Arista, Cisco, Juniper)는 범용 데이터센터용으로 설계됐어. 웹 서버, 데이터베이스, CDN 같은 전통적 워크로드에 최적화돼 있지, AI 클러스터의 특수한 트래픽 패턴인 all-reduce나 all-to-all 통신에는 맞지 않아. Nexthop AI는 처음부터 AI 워크로드만을 위해 설계된 스위치를 만들어.

신규 스위치 3종 — 상세 스펙 비교

이번 시리즈B 발표와 함께 Nexthop AI는 3개의 신규 네트워크 스위치를 동시에 공개했어:

모델 처리 대역폭 포트 구성 설계 목적 칩셋
NH-4010 51.2 Tbps 400G x 128 또는 800G x 64 AI 클러스터 내부 (Leaf/Spine) Broadcom Memory AI
NH-4220 102.4 Tbps 800G x 128 대규모 AI 팹릭 (2x NH-4010 성능) Broadcom Tomahawk 6
NH-5010 가변 (모듈식) 모듈 기반 확장 멀티 데이터센터 연결 Broadcom (Disaggregated)

NH-4010: AI 클러스터의 기본 빌딩 블록

NH-4010은 51.2 Tbps 처리 대역폭을 제공하는 Leaf/Spine 스위치야. 단일 랙 또는 소규모 클러스터(GPU 256–1,024개) 내부의 GPU 간 통신을 담당해. 이건 현재 시장에 나와 있는 대부분의 AI 클러스터용 스위치와 비슷한 스펙인데, Nexthop의 차별점은 소프트웨어에 있어. AI 워크로드의 all-reduce 패턴을 인식해서 동적으로 트래픽을 밸런싱하는 자체 OS를 탑재했거든.

NH-4220: 대규모 AI 팹릭용 괴물

NH-4220은 NH-4010의 정확히 2배인 102.4 Tbps를 처리해. 이건 현재 상용화된 이더넷 스위치 중 최고 수준의 대역폭이야. 수천 개의 GPU를 하나의 논리적 클러스터로 연결할 때 사용하는데, GPT-5급 모델을 훈련하는 데 필요한 10,000+ GPU 클러스터의 백본 스위치로 적합해.

NH-5010: Disaggregated Spine — 가장 혁신적인 제품

NH-5010이 이번 발표의 진짜 주인공이야. 분리형 스파인(Disaggregated Spine) 아키텍처를 사용하는데, 기존의 단일 스위치 박스 형태를 벗어나서 스위치를 두 개의 기능 계층으로 분리했어:

  1. 내부 계층(Internal Tier): 데이터센터 내부 트래픽 처리. 같은 건물 안의 GPU들 사이 통신을 담당
  2. 외부 계층(External Tier): 데이터센터 간 패킷 오케스트레이션. 서로 다른 건물이나 지역에 있는 클러스터 연결

이 구조의 핵심 장점은 확장성이야. AI 클러스터가 커지면 전체 네트워크를 교체하지 않고 외부 계층만 추가하면 돼. 예를 들어, 1개 데이터센터에서 4개 데이터센터로 확장할 때 기존 네트워크 인프라를 그대로 유지하면서 NH-5010의 외부 모듈만 추가하는 거야. 이건 대규모 AI 인프라를 운영하는 하이퍼스케일러들에게 엄청난 비용 절감을 의미해.

시장 규모와 투자 맥락

2026년 빅테크 4사(Alphabet, Amazon, Meta, Microsoft)가 AI 데이터센터에 투자하는 금액이 약 $650B(약 900조 원)으로 예상돼. 이 인프라의 핵심 구성요소 중 하나가 바로 네트워킹 장비야. GPU를 사는 비용만 주목받지만, 실제로 데이터센터 구축 비용의 15–20%가 네트워킹에 들어가.

지표 수치 비고
빅테크 4사 AI 인프라 투자 (2026) 약 $650B Alphabet, Amazon, Meta, MS 합산
AI 데이터센터 네트워킹 시장 (2031 전망) 약 $100B CAGR 25%+
Nexthop AI 밸류에이션 $4.2B 시리즈B 기준
누적 투자액 약 $750M 시리즈A + 시리즈B
창업 후 유니콘 달성 기간 약 2년 2024년 설립

a16z는 X(구 트위터)에서 이번 투자에 대해 "AI is forcing a complete rebuild of data center infrastructure"라고 밝혔어. 네트워킹이 GPU 다음으로 가장 큰 병목이 되고 있다는 인식이 실리콘밸리 전반에 퍼져 있는 거야.

경쟁 구도: 4개 축의 전쟁

AI 데이터센터 네트워킹은 크게 4가지 진영이 경쟁하고 있어:

Nvidia의 NVLink은 GPU 간 인터커넥트의 사실상 표준이야. 최신 NVLink 5.0(Vera Rubin 세대)은 GPU당 1.8 TB/s의 대역폭을 제공해. 하지만 NVLink은 Nvidia GPU 전용이고, 랙 단위(DGX 한 대, 최대 72GPU)로만 작동해. 데이터센터 전체를 연결하려면 여전히 이더넷이나 InfiniBand가 필요해. Nexthop은 이 이더넷 계층을 AI에 최적화하는 거야.

2. Arista Networks — 창업자의 전 직장

시가총액 약 $120B의 클라우드 데이터센터 네트워킹 시장 리더야. Anshul Sadana가 COO로 있으면서 Arista를 연 $7B+ 매출 기업으로 키웠어. Arista도 AI 스위치(7060X6 시리즈)를 출시했지만, 범용 고성능 스위치에서 AI 전용으로의 전환은 느린 편이야. Nexthop이 전 직장의 빈틈을 정확히 파고드는 전략을 쓰고 있어.

3. Cisco/Juniper — 레거시 강자

전통적인 네트워킹 거인들이야. Cisco(시가총액 약 $240B)와 Juniper(HPE에 인수됨)는 엔터프라이즈 네트워킹에서 압도적인 점유율을 가지고 있지만, AI 특화 제품에서는 Arista에도 밀리는 상황이야. 이들의 강점은 기존 고객 기반과 글로벌 서비스 네트워크인데, AI 클러스터를 구축하는 하이퍼스케일러들은 이런 레거시 장점에 크게 끌리지 않아.

4. Ultra Ethernet Consortium (UEC)

AMD, Intel, Meta, Microsoft 등이 참여하는 업계 컨소시엄이야. AI 워크로드에 최적화된 차세대 이더넷 표준을 만들고 있어. Nexthop도 이 컨소시엄의 방향성과 궤를 같이하는데, 표준이 확정되면 Nexthop의 소프트웨어 최적화가 더 쉬워질 거야.

경쟁사 강점 약점 (AI 관점)
Nvidia NVLink GPU 간 최고 대역폭 Nvidia 전용, 랙 단위 한계
Arista 클라우드 네트워킹 시장 리더 AI 전용 최적화 부족
Cisco/Juniper 글로벌 고객 기반 AI 시장 진입 느림
UEC (표준) 업계 합의된 방향 상용화까지 시간 소요
Nexthop AI AI 전용 설계, 빠른 실행력 자체 ASIC 없음, Broadcom 의존

Broadcom 칩 의존의 양면성

세 제품 모두 Broadcom 칩(Tomahawk, Memory AI 시리즈) 기반이야. 이건 Nexthop이 자체 ASIC(주문형 반도체)을 개발하지 않는다는 뜻인데, 장단점이 명확해:

장점: 제품 출시 속도가 빨라. ASIC 개발에는 보통 2–3년이 걸리는데, Broadcom의 상용 칩을 쓰면 소프트웨어와 시스템 설계에 집중할 수 있어. 실제로 창업 2년 만에 3개 제품을 동시 출시한 건 이 전략 덕분이야.

단점: 칩 수준의 차별화가 어려워. Arista나 다른 경쟁사도 같은 Broadcom 칩을 쓸 수 있기 때문에, 소프트웨어(OS, 트래픽 관리 알고리즘)와 시스템 설계(Disaggregated Spine 같은 아키텍처)에서만 차별화해야 해. 장기적으로 자체 칩 개발 여부가 Nexthop의 경쟁 우위를 결정할 수 있어.

개발자에게 주는 의미

1. AI 인프라의 비용 구조가 바뀌고 있다: GPU 비용만 생각하면 안 돼. 대규모 AI 클러스터에서 네트워킹 비용이 전체의 15–20%를 차지하고, 전력 소비에서도 비중이 커지고 있어. Nexthop 스위치는 기존 대비 전력 효율이 약 20% 높아서, 10,000 GPU 클러스터에서 수 메가와트의 전력 절감이 가능해. 이건 연간 수백만 달러의 운영비 차이야.

2. "곡괭이와 삽" 전략이 여전히 유효하다: AI 골드러시에서 가장 확실한 수혜자는 모델 회사가 아니라 인프라 회사야. Nexthop이 2024년 설립 후 2년 만에 $4.2B 유니콘이 된 건 이 전략의 증거. 참고로 OpenAI가 같은 밸류에이션에 도달하는 데 약 5년이 걸렸어.

3. 이더넷이 AI 네트워킹의 표준이 되고 있다: 전통적으로 HPC(고성능 컴퓨팅)에서는 InfiniBand가 표준이었어. 하지만 AI 시대에는 이더넷 기반 솔루션이 비용(InfiniBand의 1/3–1/5)과 확장성(수만 노드 규모)에서 우위를 점하고 있어. Nexthop의 성공은 이 트렌드를 가속화할 거야.

4. 네트워크 인식 훈련 프레임워크가 뜬다: Nexthop 같은 AI 전용 스위치가 보급되면, PyTorch나 JAX 같은 프레임워크에서 네트워크 토폴로지를 인식해서 통신 패턴을 최적화하는 기능이 점점 중요해질 거야. 이미 Google의 Pathways나 Meta의 FSDP2가 이런 방향으로 가고 있어.

왜 중요한가

Nexthop AI의 $500M 시리즈B는 단순한 스타트업 펀딩 뉴스가 아니야. AI 인프라 스택에서 네트워킹이 "해결된 문제"가 아니라 "다시 해결해야 할 문제"로 재정의되고 있다는 신호야. GPU 전쟁(Nvidia vs AMD vs 자체칩)은 이미 잘 알려져 있지만, 그 GPU들을 연결하는 네트워크 전쟁은 이제 막 시작된 거야.

창업 2년 만에 $4.2B 유니콘, $500M 초과 청약, Lightspeed-a16z-Altimeter라는 드림팀 투자자 구성. 이 모든 게 "AI의 다음 병목은 네트워크"라는 시장의 확신을 반영해. GPU가 엔진이라면, 네트워크는 고속도로야. 엔진이 아무리 좋아도 2차선 도로에서는 속도를 낼 수 없거든.

참고 자료

출처

관련 기사

무료 뉴스레터

AI 트렌드를 앞서가세요

매일 아침, 엄선된 AI 뉴스를 받아보세요. 스팸 없음. 언제든 구독 취소.

매일 30개+ 소스 분석 · 한국어/영어 이중 언어광고 없음 · 1-클릭 해지