퓨리오사AI RNGD 4000대, 드디어 상업 운영 돌입
국내 AI 반도체 스타트업 퓨리오사AI가 2세대 NPU RNGD(레니게이드) 4000대 초도 물량으로 상업 서비스에 진입. 한국 NPU의 실전 데뷔 순간이야.

4,000대
퓨리오사AI가 2세대 NPU(Neural Processing Unit, 신경망 전용 연산 칩) 'RNGD(레니게이드)' 4,000대를 초도 물량으로 확보하고 상업 운영 단계에 진입했어. 국내 팹리스 스타트업이 만든 AI 칩이 파일럿이 아니라 실제 서빙 인프라로 돌아가는 건 사실상 처음이야.
이걸 이해하려면
퓨리오사AI는 2017년 서울에서 창업한 AI 반도체 스타트업이야. 창업자 백준호 대표는 삼성전자와 AMD 출신 반도체 아키텍트. 초기 제품 Warboy는 이미지/비전 추론용 NPU였고, 지난해 공개한 2세대 RNGD가 LLM 추론 타겟으로 방향을 전환한 제품이야.
이름이 'Renegade(반역자)'인 건 맥락이 있어. 엔비디아 CUDA 생태계에 정면으로 도전한다는 의미고, 사내에선 "The Renegade Bet"이라고 불렸다고 해. 2023년 시리즈 C로 $115M을 조달했고, DSC(DGIST 반도체 센터)와 삼성파운드리에서 4나노 공정으로 양산.
| 시점 | 이정표 |
|---|---|
| 2017 | 퓨리오사AI 창업 |
| 2021 | 1세대 Warboy 출시 (비전 추론) |
| 2023 | Series C $115M, RNGD 공개 |
| 2024 | RNGD 엔지니어링 샘플 외부 배포 |
| 2025 Q3 | LG AI연구원 Exaone 서빙 테스트 |
| 2025 Q4 | RNGD 양산 시작 |
| 2026 Q2 | 4,000대 초도 물량 상업 운영 |
한국 AI 반도체 스타트업은 십수 개가 있지만, "실제 배치" 단계에 들어간 건 손에 꼽아. 리벨리온이 KT·사우디 자본과 손잡고 데이터센터 배치를 준비 중이고, 퓨리오사가 RNGD로 먼저 상업 운영에 들어간 거야.
핵심 내용 해부
RNGD의 기술 포지션
RNGD는 학습용이 아닌 추론 전용 NPU야. 주요 타겟은 70B~120B 파라미터 규모의 LLM 서빙. 스펙은 이렇게 알려져 있어.
| 항목 | RNGD | 비교: H100 SXM |
|---|---|---|
| 공정 | TSMC 5nm (일부 보도에선 삼성 4nm) | TSMC 4nm |
| 피크 연산 | BF16 약 256 TFLOPS | BF16 약 989 TFLOPS |
| 메모리 | HBM3 48GB, ~1.5TB/s | HBM3 80GB, ~3.35TB/s |
| 전력 | 약 150W | 약 700W |
| 타겟 모델 | 70B LLM 단일 카드, 120B 2카드 | 70B 단일 카드 가능 |
피크 연산만 보면 H100에 크게 못 미쳐. 하지만 RNGD의 승부처는 와트당 성능이야. 150W에서 70B 모델을 서빙할 수 있다는 건 데이터센터 TCO(Total Cost of Ownership) 관점에서 매력적이야. 전력비가 GPU 인프라 운영비의 30~40%를 차지하는 환경에서, "속도는 절반인데 전력은 1/5"이라는 카드는 특정 워크로드에서 이기는 구조가 돼.
누가 살까
국내 대형 고객 후보는 명확해.
- 네이버클라우드 / NCP: HyperCLOVA X 서빙 최적화, 국산 스택 정책 이슈
- 카카오: Kanana 모델 + 톡 내 에이전트 기능
- LG AI연구원: Exaone 3·4 서빙, 파트너 관계 이미 존재
- 통신 3사: KT(믿:음), SKT(AIX), LG U+ 자체 LLM 프로젝트
해외에선 일본·중동·유럽의 "비엔비디아 옵션"을 찾는 고객들이 대안으로 볼 가능성이 있어. 특히 미국-중국 양극화가 심해지면서 "제3지대" 반도체 공급자에 대한 관심이 커지는 중이거든.
소프트웨어 스택 — 진짜 과제
하드웨어보다 어려운 게 소프트웨어야. 퓨리오사는 자체 SDK인 Furiosa SDK와 PyTorch/Hugging Face 모델 변환 툴체인을 함께 개발했어. vLLM·TensorRT-LLM을 대체하는 퓨리오사 서빙 엔진도 공개 중이야.
CUDA가 엔비디아 해자의 90%다.
이 말은 지난 5년 동안 모든 AI 칩 스타트업이 들어온 이야기야. 벤치마크 숫자가 좋아도, 개발자가 "PyTorch 코드 한 줄 바꿔서 돌아가는가"라는 질문에서 막히면 끝이거든. RNGD의 상업 운영 성공 여부는 칩 자체보다 이 소프트웨어 친숙도에 달려 있어.
더 넓은 그림
이 뉴스는 여러 흐름의 교차점에 있어.
첫째, 추론 전용 칩 경쟁의 가속화. 화웨이 950PR(관련 기사), 구글 Ironwood TPU, 메타 MTIA 450/500, 아마존 Inferentia가 모두 같은 시장을 노리고 있어. RNGD는 이 시장에서 "스타트업 사이즈"로 경쟁하는 몇 안 되는 대안이야.
둘째, 한국의 AI 반도체 국가 전략. 정부는 2023년 "K-반도체 전략"을 수정해 AI 반도체를 핵심 육성 분야로 지정했고, 2024-2026년에 걸쳐 NPU 클러스터 시범사업을 진행 중이야. 모빌린트·퓨리오사·리벨리온이 이 정책의 주요 수혜자고, 이번 RNGD 상업 운영은 "연구 단계 졸업"의 증거로 읽혀.
셋째, 엔비디아 의존 축소의 실제 사례. 지난달 메타가 700명을 정리해고하면서 AI 피벗을 선언했고(관련 기사), 그 배경에는 MTIA 칩을 통한 자체 인프라화가 있었어. 지금 전 세계 하이퍼스케일러가 "엔비디아 + 자체 칩" 하이브리드로 가고 있는데, 한국은 자체 칩을 만들 스타트업이 필요해. 그 자리를 퓨리오사가 제일 먼저 메꾸는 거야.
그래서 뭐가 달라지는데
단기적으로 국내 개발자가 RNGD를 직접 만질 일은 드물 거야. 대신 네이버클라우드·LG·통신사 클라우드에서 "LLM 추론 인스턴스" 옵션으로 등장할 가능성이 높아. 가격이 공격적으로 나온다면 HyperCLOVA X나 Exaone 4 API 비용이 내려갈 수 있어.
중장기적으로는 더 큰 변화가 있어. 국내 AI 스타트업이 "엔비디아 말고 RNGD에 맞춰 개발할 이유"가 생기면, 커뮤니티·문서·오픈소스 툴링이 쌓이기 시작해. 이게 진짜 전환점이야. 칩 하나가 팔리는 것보다, 그 칩 위에 생태계가 생기는 게 훨씬 더 어렵고 중요해.
퓨리오사 백준호 대표는 지난 인터뷰에서 이렇게 말한 적 있어.
한국에서 AI 칩을 만드는 건 엔비디아를 이기려는 게 아니다. 엔비디아 없이도 돌릴 수 있는 옵션을 하나 더 만드는 것이다.
4,000대는 그 "옵션"이 드디어 실체가 됐다는 의미야. 벤치마크 승부가 아니라, 실전 서빙 환경에서 검증될 다음 6개월이 진짜 시험대야.
참고 자료
관련 기사
AI 트렌드를 앞서가세요
매일 아침, 엄선된 AI 뉴스를 받아보세요. 스팸 없음. 언제든 구독 취소.


