GitHub Copilot, 4월 24일부터 네 코드로 AI 학습한다 -- 옵트아웃 안 하면 동의한 거야
GitHub가 Copilot 사용자의 코드 데이터를 AI 모델 학습에 사용하겠다고 발표했어. 4월 24일부터 기본 설정이 ON. 프라이빗 레포 코드 스니펫도 포함돼. 옵트아웃 방법과 이게 왜 중요한지 정리했어.

4월 24일
GitHub가 조용히 폭탄을 하나 떨어뜨렸어. 3월 25일, GitHub는 개인정보 처리방침과 서비스 약관을 업데이트한다고 발표했어. 핵심은 이거야. 4월 24일부터 Copilot Free, Pro, Pro+ 사용자의 인터랙션 데이터를 AI 모델 학습에 사용한다는 거야.
기본 설정이 ON이야. 네가 직접 끄지 않으면, 동의한 것으로 간주돼.
이걸 이해하려면
GitHub와 AI 학습 데이터의 관계는 복잡한 역사가 있어.
2021년, GitHub Copilot이 처음 나왔을 때부터 논란이 있었어. Copilot은 GitHub에 올라온 공개 코드로 학습됐는데, GPL 라이선스 코드까지 포함됐다는 게 문제였지. 2022년에는 집단 소송까지 갔어.
이 논란 때문에 GitHub는 한동안 신중한 태도를 취했어. "사용자 코드를 학습에 쓰지 않겠다"는 게 Copilot의 핵심 약속이었어. Business와 Enterprise 플랜에서는 코드가 학습에 사용되지 않는다는 점을 마케팅 포인트로 내세웠지.
그런데 이번 정책 변경은 그 약속을 사실상 뒤집은 거야. 물론 Business와 Enterprise 사용자, 학생, 교사는 제외야. 하지만 개인 개발자와 Pro 사용자는 직접적으로 영향을 받아.
| 플랜 | 데이터 학습 대상? | 옵트아웃 가능? |
|---|---|---|
| Copilot Free | O (4/24부터) | O |
| Copilot Pro | O (4/24부터) | O |
| Copilot Pro+ | O (4/24부터) | O |
| Copilot Business | X | 해당 없음 |
| Copilot Enterprise | X | 해당 없음 |
| 학생/교사 | X | 해당 없음 |
핵심 내용 해부
수집되는 데이터의 범위
"인터랙션 데이터"라고 하면 채팅 로그 정도로 생각할 수 있어. 하지만 실제로 수집되는 범위는 더 넓어. 코드 스니펫, 수락된 제안(accepted suggestions), 네비게이션 패턴, 그리고 프라이빗 레포의 활성 세션 데이터까지 포함돼.
중요한 점 하나. GitHub는 "프라이빗 레포에 저장된 소스 코드 자체의 취급은 변경되지 않는다"고 했어. 즉, 레포에 있는 전체 코드가 학습에 들어가는 건 아니야. 하지만 Copilot을 사용하면서 발생하는 코드 스니펫과 컨텍스트는 수집 대상이야.
이건 미묘한 차이야. "네 코드 전체를 가져간다"는 건 아니지만, "네가 Copilot과 상호작용할 때 보여주는 코드 조각은 가져간다"는 거야.
Microsoft의 선례
GitHub의 최고 제품 책임자(CPO) 마리오 로드리게스는 흥미로운 근거를 제시했어. 지난 1년간 Microsoft 직원들의 인터랙션 데이터를 학습에 활용한 결과, 여러 프로그래밍 언어에서 코드 수락률이 의미 있게 향상됐다는 거야.
이건 "더 나은 제품을 만들기 위해서"라는 명분이지만, 핵심 질문은 여전히 남아있어. 사용자가 명시적으로 동의하지 않은 데이터를 기본값으로 수집하는 게 맞는 건가?
옵트아웃 방법
설정에서 끌 수 있어. GitHub 접속 후 Settings > Copilot > Features로 가서 "Allow GitHub to use my data for AI model training"을 비활성화하면 돼. Privacy 항목 아래에 있어.
4월 24일 전에 해야 해. 그 이후에도 끌 수 있지만, 그 전까지 수집된 데이터는 이미 학습에 들어갈 수 있어.
더 넓은 그림
이건 GitHub만의 문제가 아니야. AI 시대의 데이터 정책은 거대한 전환점에 서 있어.
2025년부터 주요 테크 기업들이 하나둘 데이터 수집 범위를 넓혀왔어. LinkedIn은 사용자 게시물을 AI 학습에 사용한다고 약관을 바꿨고, Reddit은 Google과 AI 학습 데이터 거래를 체결했어. 이제 GitHub도 같은 길을 가는 거야.
패턴이 보이지? "처음에는 사용자 데이터를 안 쓰겠다고 약속하고, 제품이 시장을 장악한 후에 약관을 바꾼다." 이건 GitHub만의 전략이 아니야. 플랫폼 비즈니스의 고전적인 전환 공식이야.
오픈소스 커뮤니티의 반응은 격렬해. "처음부터 이럴 거면 왜 약속했냐"는 비판이 쏟아지고 있어. 일부 개발자들은 GitLab이나 Codeberg 같은 대안으로의 이동을 논의하고 있어.
그래서 뭐가 달라지는데
당장 해야 할 건 명확해.
첫째, 4월 24일 전에 옵트아웃 설정을 확인해. 개인 프로젝트의 코드가 학습 데이터에 들어가는 게 불편하다면 지금 바로 끄는 게 좋아. 경로는 Settings > Copilot > Features > Privacy 항목이야.
둘째, 회사에서 Copilot을 쓰고 있다면 Business나 Enterprise 플랜인지 확인해. 이 플랜들은 영향을 받지 않아.
셋째, 장기적으로 생각해봐야 해. 코드 작성 도구가 동시에 학습 데이터 수집기가 되는 현실에서, 민감한 코드(보안, 금융, 의료 관련)를 다룰 때는 Copilot 사용 자체를 재고할 필요가 있을 수 있어.
마감일은 4월 24일이야. 한 달도 안 남았어.
참고 자료
출처
관련 기사
AI 트렌드를 앞서가세요
매일 아침, 엄선된 AI 뉴스를 받아보세요. 스팸 없음. 언제든 구독 취소.


