spoon aispoon ai
TOPMetaAI TrainingPrivacy

Meta, 직원 키보드·마우스 전부 추적해 AI 학습 — 'Model Capability Initiative'

Meta가 미국 정규직 컴퓨터에 추적 소프트웨어 설치, 키보드·마우스·화면 스냅샷 수집해 agentic AI 학습. 2026년 AI 인프라 $140B 투자 흐름과 맞물린 조치. 직원들은 '디스토피아'라 반응.

·6분 소요·Fortune
공유
Meta CEO Mark Zuckerberg — 직원 키보드·마우스 추적 AI 학습 발표 배경
출처: TechCrunch (Getty Images)

매 0.1초마다.

Meta의 미국 정규직 노트북에서 이제부터 기록되는 단위야. 4월 21일 유출된 사내 메모에 따르면 Meta는 "Model Capability Initiative(MCI)"라는 이름의 소프트웨어를 직원 컴퓨터에 설치해 키보드 입력, 마우스 움직임, 클릭, 그리고 주기적으로 화면 스냅샷을 수집하기 시작해.

이 데이터는 그대로 Meta의 AI 모델 학습에 쓰여.

이걸 이해하려면

AI 에이전트를 만드는 회사 입장에서 가장 부족한 게 "사람이 실제로 일할 때 뭘 하는지" 데이터야. LLM이 대화와 코드를 학습하는 건 이제 포화 상태지만, "드롭다운에서 옵션 고르기", "키보드 단축키 써서 앱 전환하기", "탭 2개 비교하며 하나는 보고 다른 하나는 편집하기" 같은 미세한 행동 패턴은 어디서도 대량으로 구할 수 없거든.

OpenAI와 Anthropic은 이걸 풀기 위해 인간 평가자에게 돈을 주고 사용 시연을 녹화시키는 방식을 써왔어. Meta는 훨씬 빠른 지름길을 택한 셈이야. 자기 회사 직원들이 매일 일하는 모습을 그대로 녹화하는 거지.

에이전트 학습 데이터 수집 방식 비교 방법 장점 단점
공개 튜토리얼 영상 학습 유튜브 등 크롤링 양 많음 실제 업무와 거리
외주 평가자 녹화 돈 주고 시연 정제됨 비용 높고 속도 느림
내부 직원 추적 (Meta 방식) 사내 모든 활동 녹화 무제한 데이터 프라이버시·사기 문제
고객 사용 데이터 수집 제품에 텔레메트리 실사용 반영 동의·규제 이슈

보도에 따르면 MCI 소프트웨어가 깔리는 범위는 꽤 명확해. 미국에 있는 정규직과 계약직(contingent worker)의 회사 지급 기기. 업무 관련 앱과 웹사이트에서만 동작하고, "승인된 목록"에 포함된 애플리케이션에 한해 화면 스냅샷을 찍어. 사외 개인 기기나 사생활 영역은 추적 대상이 아니라는 게 Meta의 공식 입장이야.

그래도 직원들이 내부 채널에서 올린 반응은 거의 같았어.

이건 굉장히 디스토피아적이에요.

Fortune과 TechCrunch가 인용한 익명 직원의 한마디가 이 뉴스의 분위기를 정확히 요약해.

핵심 내용 해부

뭘 어떻게 수집하는가

내부 FAQ에 따르면 MCI 도구는 아래 데이터를 수집해:

수집 항목 내용
키보드 입력 전체 키스트로크 (비밀번호 입력 필드는 마스킹 처리 주장)
마우스 이벤트 커서 위치, 클릭, 드래그, 스크롤
화면 스냅샷 지정된 앱/웹사이트에서 주기적 캡처 (텍스트 일부 블러링)
앱 컨텍스트 어떤 앱/윈도우에서 어떤 작업을 했는지 메타데이터
시간 정보 액션 간 간격, 총 소요 시간

Meta 측은 수집 대상 앱을 "approved list"로 제한한다고 강조했지만, Fortune은 그 리스트에 Meta 사내 도구뿐 아니라 Slack, Figma, Google Workspace 같은 범용 SaaS가 포함돼 있다고 보도했어. 사실상 직장에서 쓰는 거의 모든 앱이 해당돼.

왜 지금이냐

타이밍을 이해하려면 Meta의 AI 투자 규모를 봐야 해. 2026년 Meta의 AI 관련 자본 지출은 약 $140B. 전년 대비 거의 두 배야. 그 돈이 주로 데이터센터 건설, GPU 클러스터, 전력 인프라로 들어가고 있어. 근데 이 엄청난 인프라를 정당화하려면 Llama 4와 Muse Spark 같은 기초 모델이 "돈을 벌어주는 product"로 전환되어야 해.

Meta 내부 로드맵에 따르면 2026~2027년에 나올 에이전트 제품 라인업은 크게 세 가지야. WhatsApp 비즈니스 에이전트, Instagram 크리에이터 에이전트, 그리고 내부 업무용 "Horizon Work" 에이전트. 세 번째가 이번 키스트로크 데이터와 직결돼. 내부 직원들이 Slack, Figma, Google Docs에서 일하는 방식을 학습해서, 그 패턴을 엔터프라이즈 고객용 에이전트 제품으로 전환하겠다는 그림이야.

법적으로는 가능한가

미국 고용법상 회사 지급 기기에서 업무 시간 중 직원 활동을 모니터링하는 건 합법이야. 이미 JPMorgan, Amazon, 대부분의 금융사가 키보드/마우스 모니터링 소프트웨어를 쓰고 있어. 차이는 목적이야. 기존 모니터링은 "생산성 측정"이나 "내부 정보 유출 탐지"가 명분이었는데, Meta의 MCI는 명시적으로 "AI 학습 데이터 수집"이 목적이야. 이게 법적으로 회색 지대를 건드려.

유럽 GDPR(일반 데이터 보호 규정) 아래에서는 같은 프로그램이 사실상 불가능해. 그래서 Meta가 초기 롤아웃을 미국으로 한정한 것도 이 차이 때문이야. 노동 단체와 프라이버시 옹호 그룹은 "직원 개인의 업무 패턴이 사실상 AI 회사의 자산이 되는 선례"라며 강하게 반발하고 있어.

더 넓은 그림

Meta의 이번 움직임은 빅테크가 전반적으로 "AI가 직원 업무를 대체한다"는 방향으로 정렬되는 흐름의 가장 노골적인 버전이야. 같은 주에 Snap이 전체 16% 감원을 발표했고, 이유로 "AI가 신규 코드의 65%를 작성해서 같은 일을 더 적은 인원으로 할 수 있다"고 공식 발표했지. Salesforce의 Headless 360은 "모든 기능을 AI가 호출할 수 있는 API로" 공개했어.

2026년 4월 빅테크 AI 워크포스 이벤트 회사 내용
Snap 16% 감원 Snap 1,000명 감축, AI가 코드 65% 작성
Headless 360 Salesforce 모든 기능 MCP/CLI/API화, 에이전트 네이티브
EY Canvas 감사 에이전트 EY 전체 감사 생애주기에 AI 에이전트 투입
MCI (Model Capability Initiative) Meta 직원 활동을 AI 학습 데이터로
Codex Labs 엔터프라이즈 OpenAI 주당 개발자 4M명 사용, GSI 파트너 확장

Meta의 접근이 특히 노골적인 이유는 "직원을 학습 데이터로 쓰는 것"을 명시적으로 드러냈기 때문이야. Snap은 "AI가 일을 대체한다"고 말했지만 Meta는 "AI를 학습시키기 위해 너희 행동을 녹화한다"고 말한 거야. 이 둘은 미래 10년 AI–노동 관계의 서로 다른 축을 보여줘.

HN(Hacker News) 쓰레드에서 가장 많이 추천된 댓글은 이거야.

너희가 공짜로 주는 training data가 3년 뒤 너희 자리를 대체할 모델의 weight가 된다.

냉소적이지만, 동시에 Meta 내부 직원 일부가 같은 우려를 공유하고 있다는 게 외부로 드러났어.

그래서 뭐가 달라지는데

Meta 외부에 있는 우리한테도 이 뉴스는 두 가지 관점에서 중요해.

첫째, AI 에이전트 제품의 질이 한 단계 점프할 가능성이 커. 현재 GPT-5.4가 OSWorld-V 벤치에서 75% 찍는 수준인데, 이건 "전문가 튜토리얼" 수준의 데이터로 얻은 성적이야. Meta가 수천 명의 실제 업무 패턴을 넣으면 "현실의 지저분한 업무"에서 성능이 크게 올라갈 가능성이 있어. 그 모델이 Instagram, WhatsApp, Workplace를 통해 배포되면 엔터프라이즈 AI 경쟁 구도가 바뀌어.

둘째, "직원의 행동이 회사 자산"이라는 원칙이 확산될 거야. 2026년 이후 테크 회사에 입사하는 사람은 계약서에 "AI 학습 데이터 제공 동의" 항목이 들어있는 걸 기본으로 보게 될 거야. 기존 사내 코드, 문서, 슬랙 메시지가 AI 학습에 쓰이는 건 이미 당연시되고 있고, 이제 "행동 패턴" 레이어까지 열린 거야.

셋째, 개인 차원의 대응이 필요해. 업무용 기기와 개인용 기기를 명확히 분리하고, 업무용 기기에서는 어떤 수준의 모니터링이 있는지 인지한 상태로 일하는 게 2026년 기본값이야. 특히 Anthropic이 Project Glasswing으로 Apple·Google·AWS 등과 협력하는 것처럼 AI가 기업 핵심 인프라에 들어가는 속도를 보면, 업무 중 생성된 데이터가 어떤 경로로 모델에 반영되는지 점점 파악하기 어려워져.

Meta는 이번 프로그램을 두고 "옵트인(opt-in) 아니라 의무적이지만, 민감 정보는 마스킹한다"고 선을 그었어. 하지만 사내 활동의 상당 부분이 민감할 수밖에 없다는 점이 문제의 핵심이야. 다음 단계 주목할 것은 두 가지. 유럽 규제 당국의 반응, 그리고 Meta가 이 데이터로 학습한 모델을 언제 외부에 공개하느냐.

참고 자료

관련 기사

무료 뉴스레터

AI 트렌드를 앞서가세요

매일 아침, 엄선된 AI 뉴스를 받아보세요. 스팸 없음. 언제든 구독 취소.

매일 30개+ 소스 분석 · 한국어/영어 이중 언어광고 없음 · 1-클릭 해지