TEC. 기술 6 MIN READ UPDATED 2026. 04. 30.

ChatGPT에 입력한 내 데이터, 대체 어디로 가는 걸까?

ChatGPT, Claude, Gemini에 입력한 이력서, 회사 코드, 개인정보가 어떻게 처리되는지 서비스별 정책을 팩트 비교하고, 위험도별 대응법을 정리합니다.

BY LIBRETIP 편집 K.H. DIGITAL SECURITY DISPATCH
VERIFIED 이 글의 기술적 사실과 가격 정보는 기준으로 검증되었습니다.

“ChatGPT한테 이력서 검토 시켰는데, 내 이름이랑 전화번호가 거기 다 들어있었어.” “회사 코드 붙여넣고 디버깅 시켰는데, 이거 어디로 간 거야?”

이런 생각이 들었다면, 당신은 이미 데이터를 보낸 뒤다.

ChatGPT, Claude, Gemini — 지금 가장 많이 쓰는 AI 서비스 세 개에 입력한 데이터가 어디로 가는지, 기술적으로 하나씩 짚어보겠다.

입력한 순간, 데이터는 서버로 간다

AI 챗봇에 텍스트를 입력하면 그 내용은 서비스 운영사의 서버로 전송된다. 로컬(내 컴퓨터)에서 처리되는 게 아니다.

여기까지는 당연한 이야기다. 문제는 그 다음이다.

서버에 도착한 데이터는 크게 세 가지 경로를 탄다.

첫째, 응답 생성. 내 질문에 답하기 위해 사용된다. 이건 서비스의 본래 목적이니 문제 없다.

둘째, 서버 저장. 대화 기록이 일정 기간 서버에 보관된다. 기간은 서비스마다 다르다.

셋째, 모델 학습. 내 대화 내용이 다음 버전 AI의 학습 데이터로 들어갈 수 있다. 이게 핵심이다. 내가 입력한 이력서, 코드, 의료 기록이 AI 모델의 “기억” 속에 섞여 들어간다는 뜻이다.

ChatGPT, Claude, Gemini — 뭐가 다른가?

세 서비스의 데이터 처리 방식을 팩트 기준으로 비교한다. 2026년 4월 기준이다.

OpenAI (ChatGPT)

무료/Plus 플랜은 기본적으로 학습에 사용된다. Settings → Data Controls → “Improve the model for everyone” 토글을 꺼야 제외된다.

대화 기록 삭제 시 30일 이내에 서버에서 제거된다고 명시되어 있다. 다만 2026년 1월, 미국 법원이 저작권 소송 관련 2,000만 건의 대화 로그 보존을 명령한 사례가 있다. 법적 분쟁이 걸리면 삭제 일정이 밀릴 수 있다는 뜻이다.

Team/Enterprise/API 플랜은 학습에 사용하지 않는다. API는 기본 30일 보관 후 삭제다.

Anthropic (Claude)

2025년 9월 정책 변경 이전까지, Anthropic은 “사용자 대화를 학습에 사용하지 않는다”는 입장이었다. 하지만 2025년 9월 28일부터 무료/Pro/Max 플랜 사용자의 대화가 학습에 사용될 수 있게 바뀌었다.

형식상 옵트인(동의) 방식이지만, 팝업의 학습 동의 토글이 기본 켜짐 상태로 표시되고 “Accept” 버튼이 눈에 띄게 디자인되어 있어, 사실상 끄지 않으면 동의하는 구조다. 동의 시 데이터 보관 기간이 5년으로 늘어난다. 토글을 끄면 기존대로 30일 보관 후 삭제다.

API는 2025년 9월부터 보관 기간이 7일로 단축됐고, 학습에 사용되지 않는다. Team/Enterprise 플랜도 학습 제외다.

Google (Gemini)

무료 플랜은 대화 내용이 **학습에 사용되고, 사람이 직접 검토(human review)**할 수 있다. 검토된 대화는 Google 계정과 분리된 상태로 최대 3년간 보관된다.

Google 계정 설정(myaccount.google.com → 데이터 및 개인정보 → Gemini 앱 활동)에서 학습 및 검토를 끌 수 있다. “임시 채팅(Temporary Chat)” 기능을 쓰면 해당 대화는 저장·학습 대상에서 제외된다.

Workspace/Cloud 플랜은 학습에 사용하지 않고, 사람이 검토하지도 않는다.

2025년 말부터 Google은 미국 사용자에 한해 “Personal Intelligence”라는 기능을 무료로 제공하기 시작했다. Gmail, Google Calendar 등의 데이터를 Gemini가 읽을 수 있게 연결하는 기능인데, 기본은 꺼짐이고 사용자가 직접 켜야 한다. 다만 한번 켜면 내 메일과 일정 내용을 AI가 읽을 수 있게 되므로, 활성화 전에 범위를 확인할 필요가 있다.

실제로 유출된 적 있나?

이론이 아니라 실제 사고를 보자.

2023년 3월, 삼성전자. 반도체 부서 엔지니어 3명이 각각 소스코드, 설비 최적화 코드, 내부 회의록을 ChatGPT에 붙여넣었다. 사용 허용 20일 만에 3건의 기밀 유출이 발생했다. 해당 데이터는 OpenAI 서버로 넘어갔고, NDA(비밀유지계약)도 데이터 잔류 통제도 없는 상태였다. 삼성은 즉시 ChatGPT 사용을 전면 금지했다.

2023년 3월, ChatGPT Redis 버그. ChatGPT에 사용된 Redis 라이브러리의 버그로, 일부 사용자가 다른 사용자의 대화 제목과 첫 메시지를 볼 수 있었다. ChatGPT Plus 구독자 약 1.2%의 결제 정보 일부도 노출됐다.

2023년 11월, 학습 데이터 추출 연구. 연구팀이 특정 단어를 반복하라는 프롬프트를 넣어 ChatGPT의 학습 데이터를 추출하는 데 성공했다. 200달러 어치의 쿼리로 10,000건 이상의 원본 학습 데이터가 그대로 나왔다. 이 연구에서 추출된 건 웹에서 수집된 사전 학습 데이터였지만, 사용자 대화가 학습에 포함되는 구조에서는 동일한 방식의 역추출 위험이 이론적으로 존재한다.

위험도는 상황에 따라 다르다

모든 AI 사용이 똑같이 위험한 건 아니다. 입력하는 데이터의 종류에 따라 위험도가 완전히 달라진다.

🟢 일반 대화 — 신경 쓸 필요 거의 없음

“파이썬 문법 알려줘”, “이메일 문장 다듬어줘”, “여행 일정 짜줘” 같은 일반적인 질문은 개인 식별 정보가 포함되지 않는다.

학습에 들어가도 문제가 될 게 없다. 편하게 쓰면 된다.

🟡 개인정보 입력 — 옵트아웃 필수

이력서 검토, 자기소개서 첨삭, 건강 상담처럼 이름·연락처·증상 같은 개인정보가 포함되는 경우다.

학습 옵트아웃을 반드시 켜라. 그리고 실명 대신 가명, 실제 전화번호 대신 샘플 번호를 넣는 습관만 들이면 위험은 크게 줄어든다.

  • ChatGPT: Settings → Data Controls → “Improve the model for everyone” 끄기
  • Claude: Settings → Privacy → “Help improve Claude” 끄기
  • Gemini: myaccount.google.com → 데이터 및 개인정보 → Gemini 앱 활동 끄기

🔴 기업 기밀 / 민감 데이터 — 무료 플랜 사용 금지

소스코드, 내부 문서, 고객 데이터, 의료 기록, 재무 정보. 이런 건 무료/개인 플랜에 입력하면 안 된다.

삼성 사례가 정확히 이 케이스다. 기업 기밀이 학습 데이터로 편입되면, 되돌릴 방법이 없다.

기업 환경에서 AI를 써야 한다면:

  1. Enterprise/API 플랜 사용. 세 서비스 모두 기업용 플랜에서는 학습에 사용하지 않는다.
  2. 로컬 AI 실행. Ollama, LM Studio 같은 도구로 AI를 내 컴퓨터에서 돌리면 데이터가 외부로 나가지 않는다. 성능은 클라우드 모델보다 떨어지지만, 기밀 유지가 우선이라면 유일한 선택지다.
  3. 민감 정보 마스킹. 코드 리뷰를 시키더라도 변수명, 회사명, API 키는 가명으로 바꿔서 넣어라.

이미 입력했다면 어떻게 해야 하나?

이미 민감한 정보를 입력한 상태라면, 할 수 있는 건 다음 세 가지다.

1. 해당 대화 삭제. ChatGPT는 삭제 후 30일 이내 서버에서 제거된다. Claude는 옵트아웃 상태면 30일, Gemini는 활동 기록에서 직접 삭제할 수 있다.

2. 학습 옵트아웃 즉시 설정. 아직 안 했다면 지금 바로. 위의 서비스별 설정 경로를 참고해라.

3. 이미 학습에 반영된 데이터는 되돌릴 수 없다는 점 인지. 대화를 삭제해도, 그 데이터가 이미 모델 학습에 사용된 뒤라면 모델 안에 녹아든 상태다. 이건 어떤 서비스든 마찬가지다.

그래서 “사후 대응”보다 “사전 습관”이 훨씬 중요하다. 민감 정보는 애초에 넣지 않거나, 가명으로 바꿔서 넣는 게 유일한 근본 대책이다.

결론

AI 서비스에 입력하는 모든 텍스트는 서버로 전송된다. 무료/개인 플랜에서는 그 데이터가 모델 학습에 사용될 수 있고, 한번 학습에 들어간 데이터는 되돌릴 수 없다.

일반 대화는 걱정할 필요 없다. 개인정보가 포함된 작업은 옵트아웃 설정 하나면 충분하다. 회사 기밀이라면 무료 플랜을 쓰면 안 된다 — Enterprise 플랜이나 로컬 AI가 답이다.

지금 당장 할 일 하나: 쓰고 있는 AI 서비스의 학습 옵트아웃 설정을 확인해라.

자주 묻는 질문

ChatGPT에 입력한 내용이 다른 사람에게 노출될 수 있나요?
직접 노출될 가능성은 낮지만, 무료/Plus 플랜에서는 대화 내용이 모델 학습에 사용될 수 있습니다. 학습 데이터가 특정 프롬프트에 의해 추출된 사례가 2023년 실제로 보고된 바 있습니다. Settings → Data Controls에서 학습 옵트아웃을 끄면 학습 대상에서 제외됩니다.
AI에 회사 코드를 붙여넣으면 어떻게 되나요?
무료/개인 플랜 사용 시 해당 코드가 모델 학습 데이터로 편입될 수 있습니다. 2023년 삼성전자 엔지니어가 반도체 소스코드를 ChatGPT에 붙여넣은 사건이 대표적입니다. 기업 환경에서는 반드시 Enterprise 플랜이나 API를 사용해야 합니다.
Claude는 ChatGPT보다 프라이버시가 안전한가요?
2025년 9월 이전까지는 Anthropic이 사용자 대화를 학습에 사용하지 않았습니다. 하지만 2025년 9월 정책 변경으로 무료/Pro/Max 플랜 사용자의 대화가 학습에 사용될 수 있게 되었습니다. 팝업의 학습 동의 토글이 기본 켜짐 상태이므로, 직접 끄지 않으면 동의한 것으로 처리되며 데이터 보관 기간도 5년으로 늘어납니다. API는 7일 보관 후 삭제되며 학습에 사용되지 않습니다.
AI에 개인정보를 이미 입력했으면 어떻게 해야 하나요?
해당 대화를 즉시 삭제하고, 학습 옵트아웃 설정을 켜세요. ChatGPT는 삭제 후 30일 이내에 서버에서 제거됩니다. 다만 이미 학습에 반영된 데이터는 되돌릴 수 없으므로, 앞으로는 민감 정보를 가명이나 샘플 데이터로 대체해서 입력하는 습관이 필요합니다.

계속 읽기

댓글

댓글은 giscus를 통해 GitHub Discussions에 저장됩니다.