spoonai
GitHubMulti-AgentFrameworkRAG

PraisonAI — 5줄 코드로 24/7 AI 워크포스를 띄우는 멀티 에이전트 프레임워크

·9분 소요·GitHubGitHub
공유
PraisonAI 멀티 에이전트 프레임워크 GitHub
출처: GitHub

5줄이면 24/7 AI 워크포스가 뜬다

멀티 에이전트 프레임워크 시장이 춘추전국시대다. Microsoft의 AutoGen, joaomdmoura의 CrewAI, LangChain 팀의 LangGraph까지. 그런데 2026년 초, GitHub Trending 1위를 찍으며 급부상한 프로젝트가 있다. MervinPraison이 만든 PraisonAI다. 18,500 스타, 일일 스타 증가량 220개, 주간 1,500개. 숫자만 봐도 심상치 않다. 이 프레임워크의 핵심 주장은 단순하다. "5줄이면 에이전트 팀이 돌아간다." 그리고 그 주장이 과장이 아닌 이유를 지금부터 뜯어본다.

AutoGen을 써본 사람이라면 안다. 설정 파일만 수십 줄, 에이전트 간 메시지 라우팅 로직을 직접 짜야 하고, 메모리 관리는 별도 모듈을 붙여야 한다. CrewAI는 좀 더 직관적이지만, 복잡한 워크플로우에서 에이전트 간 의존성을 표현하기가 까다롭다. LangGraph는 강력하지만 진입 장벽이 높다. 그래프 개념을 이해해야 하고, 노드와 엣지를 직접 정의해야 한다. PraisonAI는 이 세 프레임워크의 패턴을 흡수하면서도, 개발자가 "생각하는 시간"을 최소화하는 방향으로 설계됐다.

배경 — AutoGen과 CrewAI의 한계를 흡수하다

멀티 에이전트 시스템이라는 개념 자체는 새롭지 않다. 2023년 말 Microsoft Research가 AutoGen을 공개하면서 "에이전트 간 대화(conversable agents)"라는 패러다임이 주목받았다. 에이전트끼리 채팅하듯 메시지를 주고받으며 문제를 풀어나가는 방식이었다. 이론적으로는 우아했지만, 실전에서는 문제가 많았다. 에이전트가 무한 루프에 빠지거나, 대화가 쓸데없이 길어지면서 토큰 비용이 폭증하는 일이 잦았다. 설정의 복잡성도 진입 장벽이었다.

CrewAI는 이 문제를 "역할 기반 에이전트(role-based agents)"로 풀려고 했다. 각 에이전트에 명확한 역할(researcher, writer, critic 등)을 부여하고, 태스크 단위로 실행 흐름을 관리하는 방식이다. 직관적이어서 빠르게 인기를 끌었지만, 에이전트 간 복잡한 상호작용이 필요한 시나리오에서는 표현력이 부족했다. 조건 분기나 병렬 실행 같은 고급 워크플로우를 구현하려면 결국 프레임워크 밖에서 로직을 짜야 했다.

LangGraph는 LangChain 생태계의 일부로 등장했다. 유향 비순환 그래프(DAG)와 순환 그래프를 모두 지원하면서 이론적으로 가장 유연한 에이전트 오케스트레이션이 가능하다. 하지만 그래프 정의 자체가 보일러플레이트 코드를 많이 요구하고, LangChain 전체 생태계에 대한 이해가 전제돼야 한다는 단점이 있다.

PraisonAI의 창시자 Mervin Praison은 이 세 프레임워크를 모두 프로덕션에서 사용해본 뒤, 공통적으로 느낀 불만을 하나의 SDK로 해결하겠다는 목표를 세웠다. 그가 반복적으로 강조하는 설계 원칙은 세 가지다. 첫째, "설정보다 관습(convention over configuration)." 둘째, "5줄 안에 작동하는 프로토타입." 셋째, "프로덕션 기능을 내장, 외장 아닌 내장으로." 이 원칙들이 PraisonAI의 모든 API 설계에 반영돼 있다.

Mervin Praison 본인도 흥미로운 인물이다. YouTube 채널 구독자가 수만 명에 달하고, 블로그와 영상을 통해 프레임워크의 설계 철학부터 실전 튜토리얼까지 꾸준히 공개한다. 이런 "크리에이터형 개발자" 브랜딩이 PraisonAI의 성장에 큰 역할을 했다. 문서만 던져놓고 끝나는 오픈소스가 아니라, 영상으로 맥락을 설명하고 커뮤니티와 직접 소통하는 방식이 GitHub 스타 증가에 직접적으로 기여하고 있다.

핵심 기능 — 3.77 마이크로초 인스턴스화, 메모리, RAG, MCP

PraisonAI가 내세우는 가장 인상적인 숫자는 에이전트 인스턴스화 시간 3.77 마이크로초(microsecond)다. 이건 현재 공개된 멀티 에이전트 프레임워크 중 가장 빠른 수치로 보고되고 있다. AutoGen이나 CrewAI는 에이전트 하나를 초기화하는 데 수 밀리초가 걸리는데, PraisonAI는 마이크로초 단위다. 1,000배 이상 빠르다는 뜻이다. 에이전트를 수십 개 동시에 띄워야 하는 프로덕션 환경에서 이 차이는 체감된다.

메모리 시스템도 내장이다. 단기 메모리(short-term), 장기 메모리(long-term), 그리고 에이전트 간 공유 메모리를 별도 설정 없이 사용할 수 있다. AutoGen에서 메모리를 쓰려면 Mem0나 별도 벡터DB를 연동해야 했고, CrewAI도 비슷한 상황이었다. PraisonAI는 프레임워크 레벨에서 메모리를 관리하기 때문에, 에이전트가 이전 대화 내용을 기억하고 참조하는 것이 기본 동작이다.

RAG(Retrieval-Augmented Generation) 역시 내장 기능이다. 외부 문서를 벡터화해서 에이전트가 참조할 수 있게 하는 파이프라인이 SDK 안에 들어 있다. 별도의 벡터DB 설정이나 임베딩 모델 연동 없이, 파일 경로만 지정하면 자동으로 인덱싱되고 에이전트가 검색해서 사용한다. 물론 고급 사용자를 위해 커스텀 벡터스토어 연결도 지원한다.

MCP(Model Context Protocol) 통합은 2026년 에이전트 프레임워크의 핵심 트렌드인데, PraisonAI는 이를 가장 적극적으로 수용한 프레임워크 중 하나다. MCP를 통해 에이전트가 외부 도구(웹 검색, 파일 시스템, 데이터베이스, API 등)에 표준화된 방식으로 접근할 수 있다. 이전에는 각 도구마다 별도의 통합 코드를 짜야 했지만, MCP 지원 덕분에 도구 연결이 플러그인 수준으로 간소화됐다.

셀프 리플렉션(self-reflection) 기능도 눈여겨볼 만하다. 에이전트가 자신의 출력을 스스로 평가하고, 기준에 미달하면 자동으로 재시도하는 루프가 내장돼 있다. 이건 프로덕션 환경에서 LLM 출력의 품질 편차를 줄이는 데 핵심적인 기능이다. AutoGen에서는 이런 루프를 직접 구현해야 했다.

기술 스택 + 아키텍처

PraisonAI는 Python과 JavaScript 두 가지 SDK를 병렬로 제공한다. Python SDK가 메인이고 기능이 더 풍부하지만, JavaScript SDK도 빠르게 기능 패리티를 맞춰가고 있다. 백엔드 개발자와 프론트엔드 개발자 모두를 포용하겠다는 전략이다.

LLM 지원 범위가 넓다. OpenAI, Anthropic, Google, Mistral, Ollama, LM Studio 등 100개 이상의 LLM을 OpenAI 호환 어댑터를 통해 지원한다. 즉, OpenAI API 포맷을 따르는 모든 모델을 그대로 연결할 수 있다. 로컬 LLM을 돌리든 클라우드 API를 쓰든, 코드를 바꿀 필요가 없다. 이런 유연성이 기업 환경에서 채택률을 높이는 핵심 요인이다.

아키텍처적으로는 에이전트, 태스크, 도구, 메모리, 워크플로우라는 다섯 가지 핵심 추상화를 중심으로 설계돼 있다. 에이전트는 역할과 목표를 가진 실행 단위다. 태스크는 에이전트가 수행할 구체적인 작업이다. 도구는 에이전트가 사용할 수 있는 외부 기능이다. 메모리는 에이전트의 상태를 저장하고 복원하는 시스템이다. 워크플로우는 에이전트와 태스크의 실행 순서와 의존성을 정의하는 그래프다. 이 다섯 가지가 일관된 API로 통합돼 있어서, 개별적으로 이해하면 전체 프레임워크를 파악할 수 있다.

프로세스 타입도 여러 가지를 지원한다. Sequential(순차 실행), Hierarchical(계층적 실행, 관리자 에이전트가 하위 에이전트에 작업 위임), Workflow(커스텀 그래프 기반 실행)를 선택할 수 있다. 간단한 파이프라인은 Sequential로, 복잡한 조직 구조는 Hierarchical로, 완전한 자유도가 필요하면 Workflow로 가면 된다.

경쟁 프레임워크 비교

항목 PraisonAI AutoGen CrewAI LangGraph
초기 설정 복잡도 5줄 퀵스타트 높음 (수십 줄 설정) 중간 높음 (그래프 정의 필요)
에이전트 인스턴스화 3.77 마이크로초 수 밀리초 수 밀리초 수 밀리초
메모리 내장 단기/장기/공유 내장 외부 연동 필요 외부 연동 필요 외부 연동 필요
RAG 내장 내장 외부 연동 외부 연동 LangChain 연동
MCP 지원 네이티브 통합 제한적 제한적 LangChain 경유
셀프 리플렉션 내장 직접 구현 직접 구현 직접 구현
LLM 지원 수 100개 이상 OpenAI 중심 OpenAI 중심 LangChain 전체
SDK 언어 Python + JS Python Python Python + JS
프로세스 타입 Sequential, Hierarchical, Workflow Conversable Sequential, Hierarchical 그래프 기반 자유 정의
라이선스 MIT MIT MIT MIT
GitHub 스타 18,500 40,000 이상 25,000 이상 10,000 이상

AutoGen은 스타 수에서 여전히 앞서지만, 최근 v0.4 대규모 리팩토링으로 API가 크게 바뀌면서 기존 사용자들의 불만이 많아졌다. CrewAI는 직관적인 API로 여전히 인기가 있지만, 프로덕션 기능(메모리, RAG, MCP)을 별도로 붙여야 하는 한계가 남아 있다. LangGraph는 이론적 유연성은 최고지만, 러닝 커브가 높아서 빠른 프로토타이핑에는 적합하지 않다.

PraisonAI의 차별점은 "배터리 포함(batteries included)" 접근법이다. 프로덕션에 필요한 기능들이 프레임워크 안에 이미 들어 있으니, 별도의 라이브러리를 조합할 필요가 없다. 이 전략이 특히 에이전트 프레임워크를 처음 도입하는 팀에게 강하게 어필하고 있다.

왜 지금 뜨는가 — MCP 통합과 에이전트 프레임워크 통합 트렌드

2026년 AI 에이전트 생태계에서 가장 뚜렷한 트렌드는 "통합"이다. 2024-2025년에는 수십 개의 에이전트 프레임워크가 난립했다. 각각 장점이 있었지만, 개발자들은 프레임워크 선택 자체가 피로해지기 시작했다. "어떤 프레임워크를 써야 하나"라는 질문이 레딧과 Hacker News에 매주 올라왔다. 이 피로감 속에서 "하나의 프레임워크로 다 하자"는 통합 움직임이 힘을 얻고 있다.

PraisonAI가 정확히 이 흐름을 타고 있다. AutoGen의 대화형 패턴, CrewAI의 역할 기반 패턴, LangGraph의 그래프 기반 패턴을 하나의 SDK에서 모두 지원한다. 개발자가 프레임워크를 갈아탈 필요 없이, 한 프로젝트 안에서 시나리오에 맞는 패턴을 골라 쓸 수 있다.

MCP의 급속한 확산도 타이밍이 좋다. Anthropic이 2024년 말 공개한 MCP는 2025년을 거치며 사실상 에이전트 도구 연결의 표준으로 자리잡았다. 2026년 초 기준으로 주요 에이전트 프레임워크들이 모두 MCP 지원을 추가하고 있는데, PraisonAI는 이 통합을 가장 매끄럽게 구현한 프레임워크 중 하나로 평가받고 있다. MCP 서버를 YAML 한 줄로 연결할 수 있고, 에이전트가 자동으로 사용 가능한 도구를 감지해서 활용한다.

Mervin Praison의 콘텐츠 마케팅 전략도 성장에 한몫하고 있다. 새로운 기능이 추가될 때마다 YouTube 영상과 블로그 포스트가 동시에 나온다. 이건 단순한 문서 업데이트와 차원이 다르다. 개발자가 영상으로 "이렇게 쓰면 된다"를 확인하고 바로 적용할 수 있다. 오픈소스 프로젝트에서 이런 수준의 콘텐츠를 꾸준히 생산하는 경우는 드물다.

GitHub Trending 1위를 기록한 시점도 중요하다. 2026년 초, 에이전트 프레임워크에 대한 관심이 최고조에 달했을 때 정확히 타이밍을 맞췄다. 물론 타이밍만으로 18,500 스타를 설명할 수는 없다. 실제로 써본 개발자들의 피드백이 긍정적이었기 때문에 성장이 지속되고 있다.

시작하기

설치는 pip 한 줄이면 끝난다.

pip install praisonai

가장 간단한 멀티 에이전트 예제는 정말 5줄이다.

from praisonaiagents import Agent, Task, PraisonAIAgents

researcher = Agent(name="Researcher", role="Research analyst", goal="Find latest AI trends")
writer = Agent(name="Writer", role="Content writer", goal="Write engaging articles")
task = Task(description="Research and write about AI agents", agents=[researcher, writer])
agents = PraisonAIAgents(agents=[researcher, writer], tasks=[task])
agents.start()

이 코드만으로 Researcher 에이전트가 정보를 수집하고, Writer 에이전트가 그 정보를 기반으로 글을 작성한다. 에이전트 간 메시지 라우팅, 메모리 관리, 에러 핸들링은 프레임워크가 알아서 처리한다.

MCP 도구를 연결하려면 YAML 설정을 추가하면 된다.

tools:
  - type: mcp
    name: web_search
    config:
      command: "npx"
      args: ["-y", "@anthropic/mcp-server-web-search"]

RAG를 사용하려면 에이전트에 knowledge 파라미터를 추가하면 된다.

researcher = Agent(
    name="Researcher",
    role="Research analyst",
    goal="Answer questions from documents",
    knowledge=["./documents/"]
)

이렇게 하면 documents 폴더 안의 파일들이 자동으로 벡터화되고, 에이전트가 질문에 답할 때 관련 문서를 검색해서 참조한다.

셀프 리플렉션을 활성화하려면 에이전트에 self_reflect 파라미터를 추가한다.

writer = Agent(
    name="Writer",
    role="Content writer",
    goal="Write high-quality articles",
    self_reflect=True,
    max_reflect=3
)

에이전트가 자신의 출력을 최대 3회까지 자체 평가하고, 기준에 도달하면 최종 결과를 반환한다.

한계와 전망

장점만 있는 프레임워크는 없다. PraisonAI에도 분명한 한계가 있다.

첫째, 생태계 규모다. AutoGen은 Microsoft Research의 지원을 받고 있고, LangGraph는 LangChain이라는 거대한 생태계의 일부다. PraisonAI는 기본적으로 개인 개발자 Mervin Praison이 주도하는 프로젝트다. 커뮤니티가 빠르게 성장하고 있지만, 기업 환경에서 장기적인 유지보수와 지원에 대한 우려가 있을 수 있다. 버스 팩터(bus factor, 핵심 기여자가 빠졌을 때의 프로젝트 지속 가능성)가 낮다는 지적이 나올 수 있다.

둘째, "배터리 포함" 접근법의 양면성이다. 프레임워크 안에 기능이 많이 들어 있다는 건, 각 기능의 깊이가 전문 도구보다 얕을 수 있다는 뜻이기도 하다. 예를 들어, 내장 RAG가 LlamaIndex나 LangChain의 RAG 파이프라인만큼 세밀한 튜닝이 가능한지는 검증이 더 필요하다. 간단한 사용 사례에서는 충분하지만, 대규모 프로덕션에서 내장 기능의 한계에 부딪힐 가능성이 있다.

셋째, 3.77 마이크로초라는 인스턴스화 시간이 인상적이지만, 실제 에이전트 실행 시간의 병목은 LLM API 호출 지연이다. 에이전트 초기화가 아무리 빨라도, GPT-4나 Claude 같은 대형 모델의 응답을 기다리는 시간이 수 초에 달하기 때문에, 체감 속도에서 큰 차이를 느끼기 어려운 시나리오도 있다. 물론 수십 개의 에이전트를 동시에 초기화하는 배치 작업에서는 의미 있는 차이가 된다.

전망은 밝다. 멀티 에이전트 프레임워크 시장은 아직 승자가 확정되지 않았다. AutoGen이 규모에서 앞서고, CrewAI가 사용성에서 앞서고, LangGraph가 유연성에서 앞서지만, PraisonAI는 이 모든 장점을 하나로 통합하겠다는 야심찬 포지셔닝을 취하고 있다. 2026년 하반기에도 에이전트 프레임워크 수요는 계속 늘어날 것이고, "빠르게 시작하고, 프로덕션까지 가는" 도구에 대한 수요는 점점 커질 것이다. PraisonAI가 이 틈새를 얼마나 잘 파고드느냐가 관건이다.

참고 자료

관련 기사

무료 뉴스레터

AI 트렌드를 앞서가세요

매일 아침, 엄선된 AI 뉴스를 받아보세요. 스팸 없음. 언제든 구독 취소.

매일 30개+ 소스 분석 · 한국어/영어 이중 언어광고 없음 · 1-클릭 해지