4월22일 데일리 브리핑
Amazon이 Anthropic에 $25B 더 넣고 5GW Trainium 붙였어. 머스크는 Grok 5 6T 파라미터 AGI 10%. OpenAI Codex는 며칠 돌아가는 에이전트로 진화. Horizon Xingkong은 캐빈+드라이브+퓨전을 하나로.
오늘의 3줄
- Amazon이 Anthropic에 최대 $25B 추가 투자 + 5GW Trainium 전용 컴퓨팅 — 10년간 $100B AWS 지출 약속.
- 머스크, Grok 5를 6T 파라미터로 올해 말 출시 예고 — Colossus 2 1M GPU, "AGI 가능성 10%".
- OpenAI Codex Everything Mode — computer-use + 장기 메모리 + 멀티툴로 며칠짜리 프로젝트 관리.
TOP 4
01. Amazon이 Anthropic에 $25B 더 넣었어 — 5GW Trainium 통째로 붙이는 거야
누적 $33B. 10년간 $100B AWS 소비 약속. 연말까지 Trainium2·3으로 1GW 가동, 최종 5GW까지 확장. Anthropic은 ARR $30B 돌파, 기업 고객 1,000곳 이상이 연간 $1M+. 자체 인프라로는 더 못 버텨서 AWS의 Mythos 데이터센터에 앵커 테넌트로 합류.
02. 머스크가 또 AGI 카드 꺼냈어 — Grok 5는 6T 파라미터에 Colossus 2 위에서 돈다
Grok 4의 2T에서 3배, GPT-5 Turbo의 3.5T에서 2배. Sparse MoE로 전환, 활성 파라미터 400B 추정. Colossus 2는 550K GPU 가동 중, 연말까지 1M. 머스크는 X에 "AGI 가능성 10%"라 썼는데, 안전성 프로토콜은 여전히 미공개라 업계 우려가 커지는 중.
03. OpenAI Codex가 '에브리띵 모드'를 달았어 — 컴퓨터 쓰고, 메모리 가지고, 며칠간 일해
computer-use + project memory + 멀티툴 에이전트 루프. GitHub 이슈 50개, 리팩토링 PR 20개를 한 세션으로 처리. Atlas 프레임워크가 여러 도구 상태를 동시 추적. Pro $200/월에 포함, Max $400/월로 computer-use 쿼터 10배. Claude Code의 "며칠짜리 리팩토링" 독주에 처음 제대로 도전.
04. Horizon Robotics가 한 방 날렸어 — Xingkong은 캐빈·드라이브·퓨전을 하나의 SoC로 묶었어
TSMC 4nm, 1,000 TOPS, 60W, $600 추정. Nvidia Thor의 40% 가격·60% 전력. 센서 퓨전 온-다이로 지연 25ms → 12ms. BYD·NIO·XPeng 상위 5개사 중 4개 LOI. 2026 Q4 양산 예정. 중국 OEM의 Nvidia 의존도를 흔들 첫 진짜 대안.
BUZZ
- TurboQuant이 Pied Piper 모먼트 — ICLR 2026 Outstanding Paper — OnlyTerp가 푼 랜덤 프로젝션 데이터 증강. PCIe 대역폭 없이 O(1) 메모리로 LLM 학습 가속. GitHub 24hr 만에 7k+ stars, HN 1위 8시간 유지.
- "Claude Design" 레딧/HN 동시 화제 — Claude가 순수 텍스트 프롬프트만으로 Figma급 디자인을 만든 사례 공유가 폭주. Anthropic 공식은 침묵, 커뮤니티는 "곧 Claude Design 제품 나온다"고 추측 중.
- r/LocalLLaMA: Gemma 4가 가장 쓸만하다 — 2B Instruct 모델이 M2 맥북에서 초당 40토큰, 12GB VRAM에서 돌아감. 토픽 "Best Local LLMs - Apr 2026"에서 Gemma 4가 Llama 4 Scout를 추월.
PAPER
TurboQuant: O(1) Memory LLM Training via Random Quantization Projection
쉽게 말하면, LLM 학습 중 activation 저장 메모리를 극단적으로 줄이는 기법이야. 랜덤 프로젝션으로 activation을 INT4 수준으로 압축해서 저장하고, backward 때는 복원 대신 '근사'를 써. 손실이 0.3% 수준인데 메모리는 8배 절약. 24hr 만에 GitHub 7k stars 간 이유야.
짧게 훑어보기
- Meta SAM 3 공개 → 세그멘테이션에서 '자연어 쿼리'까지 지원하는 3세대
- Mistral 신모델 Zenith 출시 → 8x200B MoE, 오픈웨이트 Apache 2.0
- Anthropic Pro 가격 인하 검토 → 경쟁 격화, 내부 논의 중
- Microsoft Maia 2 연말 배포 확정 → Azure 내 MSFT 자체 학습 칩
- DeepSeek R3 프리뷰 공개 → 오픈소스 추론, MATH 벤치 90% 돌파
- Figma AI, 자동 디자인 시스템 빌더 베타 → 기업 요금제에만 먼저 오픈
- ByteDance Doubao $15B ARR 돌파 → 중국 내수 기준 ChatGPT급 MAU
- Runway Gen-5 공개 임박 → 4월 28일 예정, 30초 비디오 1회 생성
- OpenAI·LINE 일본 엔터프라이즈 파트너십 → 공공·금융 타깃
- Cohere Command R+ 오픈소스화 검토 → 엔터프라이즈 전환 가속
- NVIDIA Blackwell Ultra 양산 확정 → GB300 2026 Q3 출하
- 삼성전자, HBM4 샘플 양산 진입 → SK하이닉스 대비 6개월 지연
- Tesla Optimus V3 2026 Q4 공개 예정 → Grok 5 동시 탑재 설
- Perplexity, 광고 피봇 공식 발표 → 2026 EoY $1B 광고 매출 목표
- Apple Intelligence 3.0 iOS 19에 통합 → WWDC 26 발표 예정
- Stripe AI 상거래 수수료 인하 → AI 에이전트 결제 구조 지원
- IBM watsonx 정부 계약 확대 → 미 국방부·유럽 위원회 LOI
GITHUB
OnlyTerp/turboquant — 24시간 만에 7k+ stars. ICLR 2026 Outstanding Paper의 공식 구현. O(1) 메모리 LLM 훈련 가속, PyTorch 호환.
mem0ai/mem0 — AI 메모리 레이어 오픈소스. 이번 주 +3.5k stars. LangChain·LlamaIndex 통합, 벡터 DB 자유 선택.
sgl-project/sglang — 구조화 생성 LLM 서빙 엔진. vLLM·TensorRT-LLM 대안으로 급부상. 이번 주 +2.8k stars, Claude Sonnet 4.6과 호환.
AI 트렌드를 앞서가세요
매일 아침, 엄선된 AI 뉴스를 받아보세요. 스팸 없음. 언제든 구독 취소.