spoonai
TOPNexthop AIFundingInfrastructure

Nexthop AI, $500M 시리즈B로 $4.2B 유니콘 — AI 데이터센터 네트워킹의 새 강자

전 Arista COO가 만든 Nexthop AI가 $500M 시리즈B를 유치하며 $4.2B 밸류에이션에 도달했다. 신규 스위치 3종, 기술 분석, 경쟁 구도 총정리.

·3분 소요·SiliconANGLE
Nexthop AI의 AI 데이터센터 네트워킹 스위치
Image: Nexthop AI

GPU만 있으면 AI가 될까? 아니, 그걸 연결하는 네트워크가 필수야

AI 모델을 학습시키려면 수천~수만 개의 GPU가 필요해. 근데 그 GPU들이 서로 데이터를 주고받지 못하면 아무 소용없어. GPU 간 통신 속도가 곧 학습 속도를 결정하거든. 이 "GPU를 연결하는" 인프라가 바로 데이터센터 네트워킹이야.

3월 10일, 전 Arista Networks COO Anshul Sadana가 만든 Nexthop AI가 시리즈B에서 $500M(약 7,000억 원)을 유치했어. 밸류에이션은 $4.2B(약 5.8조 원). Lightspeed Venture Partners가 리드하고, a16z, Altimeter가 참여했어.

배경: 데이터센터 네트워킹이란?

데이터센터 네트워킹은 서버(GPU) 간 데이터를 전달하는 물리적 인프라야. 핵심 장비가 네트워크 스위치인데, 이건 데이터 패킷을 올바른 목적지로 보내는 교통 경찰 같은 역할을 해.

AI 워크로드에서 네트워킹이 특히 중요한 이유:

AI 작업 네트워킹 요구사항
분산 학습 GPU 간 그래디언트 교환 — 초저지연, 초고대역폭 필요
MoE 추론 전문가(Expert) 간 라우팅 — 예측 불가능한 트래픽 패턴
KV 캐시 공유 대규모 컨텍스트 윈도우 — 메모리급 대역폭 필요

기존 네트워크 스위치(Arista, Cisco, Juniper)는 범용 데이터센터용으로 설계됐어. AI 클러스터의 특수한 트래픽 패턴(all-reduce, all-to-all)에는 최적화되어 있지 않아. Nexthop AI는 처음부터 AI 워크로드에 맞게 설계된 스위치를 만들어.

신규 스위치 3종 — 스펙 비교

모델 처리 대역폭 설계 목적 칩셋
NH-4010 51.2 Tbps AI 클러스터 내부 (Leaf/Spine) Broadcom
NH-4220 102.4 Tbps 대규모 AI 팹릭 (2x NH-4010) Broadcom
NH-5010 멀티 데이터센터 연결 (Disaggregated Spine) Broadcom

NH-5010의 Disaggregated Spine 아키텍처

NH-5010이 가장 흥미로운 제품이야. 분리형 스파인(Disaggregated Spine) 아키텍처를 사용하는데, 스위치를 두 개의 기능 계층으로 분리해:

  1. 내부 계층: 데이터센터 내부 트래픽 처리
  2. 외부 계층: 데이터센터 간 패킷 오케스트레이션

이 구조의 장점은 데이터센터 규모를 확장할 때 전체 네트워크를 교체하지 않고 계층별로 업그레이드할 수 있다는 거야. AI 클러스터가 커지면 외부 계층만 추가하면 돼.

시장 규모와 투자 맥락

올해 빅테크(Alphabet, Amazon, Meta, Microsoft)가 AI 데이터센터에 투자하는 금액이 약 $650B(약 900조 원)으로 예상돼. 이 인프라의 핵심 구성요소가 네트워킹 장비야.

시장 2026년 예상 2031년 전망
AI 인프라 총 투자 ~$650B
AI 데이터센터 네트워킹 $100B
Nexthop AI 밸류에이션 $4.2B

a16z는 "AI는 데이터센터 인프라의 완전한 재구축을 강제하고 있고, 네트워킹이 가장 큰 병목 중 하나가 되고 있다"고 투자 이유를 설명했어.

경쟁 구도

Nvidia NVLink vs 이더넷

Nvidia의 NVLink은 GPU 간 인터커넥트의 표준이야. 하지만 NVLink은 Nvidia GPU 전용이고, 랙 단위로만 작동해. 데이터센터 전체를 연결하려면 여전히 이더넷이 필요해. Nexthop은 이 이더넷 계층을 AI에 최적화하는 거야.

Arista Networks

Nexthop AI 창업자 Anshul Sadana의 전 직장이야. Arista는 클라우드 데이터센터 네트워킹의 시장 리더(시가총액 ~$120B)인데, AI 특화 스위치보다는 범용 고성능 스위치에 강해. Nexthop이 AI에 특화된 니치를 공략하는 전략은 전 직장의 빈틈을 파고드는 거야.

Broadcom 칩 의존

세 제품 모두 Broadcom 칩 기반이야. Broadcom의 Memory AI(토모호크 시리즈) 네트워킹 칩은 업계 표준인데, 이건 Nexthop이 자체 ASIC(주문형 반도체)을 개발하지 않는다는 뜻이야. 장점은 빠른 제품 출시, 단점은 칩 수준의 차별화 한계.

개발자에게 주는 의미

  1. AI 인프라 비용 구조가 바뀐다: Nexthop 스위치는 기존 대비 전력 효율이 20% 높아서, 대규모 클러스터에서 수십 메가와트의 전력 절감이 가능해.
  2. "곡괭이와 삽" 전략의 유효성: AI 골드러시에서 가장 확실한 수혜자는 모델 회사가 아니라 인프라 회사야. 2024년 설립 후 2년 만에 $4.2B 유니콘이 된 건 이 전략의 증거.
  3. 이더넷이 AI 네트워킹의 표준이 되고 있다: InfiniBand가 전통적 HPC의 표준이었지만, AI 시대에는 이더넷 기반 솔루션이 비용과 확장성에서 우위를 점하고 있어.

참고 자료

관련 기사

무료 뉴스레터

AI 트렌드를 앞서가세요

매일 아침, 엄선된 AI 뉴스를 받아보세요. 스팸 없음. 언제든 구독 취소.