spoonai
launchSereactCortex 2.0Robotics

먼저 시뮬레이션하고, 그다음 행동한다 -- Sereact Cortex 2.0 로봇 브레인

VLA + 월드 모델을 결합한 로봇 두뇌 v2. 후보 궤적을 먼저 시뮬레이션한 뒤 최적 경로를 선택해서 움직인다. PH 287 업보트.

·2분 소요·
공유
Sereact Cortex 2.0 로봇 브레인 시뮬레이션 화면
Sereact

"먼저 생각하고, 그다음 움직인다"

Product Hunt 287 업보트. Sereact의 로봇 두뇌가 v2로 업그레이드됐어. 최근 $110M Series B를 발표한 Sereact(Ralf Gulde)가 만든 제품이야.

기존 로봇 AI는 "상황을 보고 바로 행동"하는 방식이 대부분이었어. Cortex 2.0은 다르게 접근해. 행동하기 전에 후보 궤적(candidate trajectory)들을 먼저 시뮬레이션하고, 그중에서 가장 안전하고 효율적인 경로를 골라서 실행해.

사람이 물건을 집기 전에 머릿속으로 "이렇게 잡을까, 저렇게 잡을까" 상상하는 것과 비슷한 원리야.

뭘 하는 건데

Cortex 2.0 시뮬레이션 인터페이스 Cortex 2.0의 궤적 시뮬레이션 화면 -- 여러 후보 경로를 동시에 시뮬레이션한다

Cortex 2.0은 VLA(Vision-Language-Action) 모델과 월드 모델(World Model)을 결합한 로봇 브레인이야.

  • VLA: 카메라로 보는 시각 정보와 자연어 명령을 이해해서 로봇 동작으로 변환
  • 월드 모델: 물리 세계의 규칙을 학습해서 "이 동작을 하면 어떤 결과가 나올지" 예측

이 두 가지를 결합하면 로봇이 "행동의 결과를 예측하고, 가장 좋은 행동을 선택"할 수 있어.

첫인상

PH 페이지를 보면 데모 영상이 인상적이야. 물류 창고에서 다양한 형태의 물건을 피킹하는 장면인데, 각 피킹 전에 로봇이 2-3개의 후보 궤적을 시뮬레이션하고 최적 경로를 선택하는 과정이 시각화돼 있어.

v1 대비 개선점으로 실패율이 40% 이상 감소했다고 주장해.

핵심 기능 3가지

1. 궤적 시뮬레이션. 행동 전에 여러 후보 경로를 시뮬레이션해. 충돌 가능성, 성공 확률, 소요 시간을 각각 계산해서 최적 경로를 선택.

2. 제로샷 적응. 새로운 물건을 처음 봐도 별도 학습 없이 피킹 가능. VLA 모델이 시각-언어 이해를 통해 물건의 형태, 재질, 무게를 추론해.

3. 자연어 명령. "빨간 상자를 왼쪽 컨베이어로 옮겨"같은 자연어 명령을 직접 이해하고 실행.

가격

유료, 엔터프라이즈 대상. 정확한 가격은 비공개. $110M Series B를 막 유치한 만큼, 엔터프라이즈 세일즈에 집중하는 단계야.

누구에게 유용한가

물류, 제조, 창고 운영 분야에서 로봇 자동화를 도입하려는 기업. 특히 다품종 소량 피킹처럼 물건 종류가 자주 바뀌는 환경에서 강점이 있어. 기존 산업용 로봇은 새 물건이 추가될 때마다 재프로그래밍이 필요했는데, Cortex 2.0은 그럴 필요가 없어.

비슷한 도구

물류 창고에서의 Cortex 2.0 실제 적용 모습

  • NVIDIA Isaac Platform: 로봇 시뮬레이션 및 학습 플랫폼. 더 범용적이지만 설정이 복잡해.
  • Covariant Brain AI: 유사한 로봇 피킹 AI. Cortex 2.0과 직접 경쟁.
  • Google DeepMind RT-2: 연구 단계의 VLA 모델. 아직 상용화 전.

로봇이 "먼저 생각하고, 그다음 움직이는" 시대가 열렸어.


References

출처

관련 기사

무료 뉴스레터

AI 트렌드를 앞서가세요

매일 아침, 엄선된 AI 뉴스를 받아보세요. 스팸 없음. 언제든 구독 취소.

매일 30개+ 소스 분석 · 한국어/영어 이중 언어광고 없음 · 1-클릭 해지