본문 바로가기
Today I Learned/Dev

[DEV] MCP(Model Context Protocol)

by dbs_ 2025. 5. 9.

 

최근 다양한 AI 모델들이 등장하면서, 단일 모델로는 해결할 수 없는 복합적인 작업이 늘어나고 있다. 예를 들어, 내가 원하는 작업이 아래와 같다고 할 때, 단순한 텍스트 생성만으로는 해결할 수 없다.

“이 구글 드라이브에 저장된 회의록을 요약해서 슬랙에 공유해 줘.”

외부 문서 접근, 내용 요약, 메시지 발송이라는 여러 도구와 데이터 출처가 함께 작동해야 가능한 일이기 때문.
이 복잡한 연결을 가능하게 만드는 기술이 바로 Model Context Protocol(MCP)이다.

이번 글은 MCP가 무엇인지, 왜 사용하는지 등에 대해 GPT에게 질문을 하고 이해하고 다시 질문을 하며 정리를 한 내용이다.

 

MCP란?

Model Context Protocol(MCP)은 AI 모델이 외부 시스템(API, 문서, 앱 등)과 연동하여 풍부한 컨텍스트(context)를 받아들이고 정확하고 실질적인 작업을 수행할 수 있게 해주는 표준 인터페이스이다.

기존에는 AI가 단순한 텍스트 입력에만 반응했다면, MCP를 통해 슬랙, 구글 드라이브, 유튜브 등 다양한 외부 정보를 참고해 더 정교하고 실제적인 응답을 생성할 수 있게 되었다.

 

어떤 기능을 제공할까?

  • 컨텍스트 제공 : 모델이 외부 데이터를 불러와 문맥을 이해하고, 더 풍부한 응답을 생성
  • 도구 연결 표준화 : 다양한 툴(API, DB, 문서 등)을 통합하는 방식을 표준화
  • 확장성 : 새로운 데이터 소스나 도구를 쉽게 연결 가능

 

실제 활용 사례

  • OpenAI – Agents SDK
    • MCP를 공식 지원하여, 구글 캘린더, 슬랙 등 외부 툴과 자연스럽게 연결
  • Anthropic – Claude
    • MCP를 통해 PDF, 위키 문서 등 다양한 소스에서 데이터를 불러와 보다 정밀한 응답 생성

 

보안은 어떻게?

AI가 외부 시스템과 연결되면 보안과 프라이버시 문제도 함께 고려해야 한다. MCP에서는 다음과 같은 장치가 필요하다.

  • 접근 권한 관리 : 접근 가능한 데이터와 도구를 명확히 제한
  • 암호화 처리 : 모든 데이터 교환은 암호화되어야 함
  • 로깅 기능 : 어떤 요청이 어떤 데이터에 접근했는지 추적 가능

 

MCP의 의미와 전망

이전까지는 모델의 성능 향상이 AI 발전의 핵심이었다면, 이제는 모델이 외부와 얼마나 잘 연결되고, 실제로 작업을 수행할 수 있느냐가 중요해졌다.

  • 개발자 입장 : 다양한 기능을 빠르게 구현할 수 있는 표준 도구
  • 사용자 입장 : 더 정확하고 풍부한 AI 응답을 경험 가능

MCP는 이런 전환의 중심에 있는 기술이다. 향후 다양한 플랫폼에서 채택될 가능성이 높고, AI가 “대화 상대”를 넘어 업무 도우미로 진화하는 데 핵심 역할을 할 것이다.

 

근데 Agent는 뭘까?

MCP를 이해할 때 꼭 짚고 넘어가야 할 개념이 바로 Agent다. 특정 목적을 가지고 스스로 판단하고, 외부 도구를 사용해 작업을 수행하는 AI 단위를 의미한다.

“이 구글 드라이브 문서를 요약해서 슬랙에 올려줘.”를 처리하려면 다음 작업이 필요하다.

  1. 구글 드라이브에서 문서 열기
  2. 내용 읽고 요약하기
  3. 슬랙에 메시지 전송하기

이 모든 과정을 사람이 아닌 AI가 대신하려면, AI는 스스로 해야 할 일을 판단하고, 적절한 도구를 선택해 실행해야 한다.
이 역할을 수행하는 것이 바로 Agent다. 

  • 어떤 도구(API)를 써야 할지 판단하고
  • 툴을 실행하고
  • 결과를 종합해
  • 사용자에게 최종 응답을 제공한다

즉, 일반적인 LLM이 말만 하는 AI라면, Agent는 직접 행동하는 AI다. 그리고 MCP는 바로 이 Agent들이 다양한 도구를 쓸 수 있도록 도와주는 통신 방식의 표준 프로토콜이라고 보면 된다.

 

MCP 사용 프로세스

AI가 외부 도구들과 협업하여 작업을 수행하는 전체 흐름을 표준화한 것.

MCP 사용 프로세스 요약 (5단계)

1. 사용자 요청 (User Request)

  • 사용자가 LLM에게 복합적인 요청을 보낸다.
    • 예: “이 구글 드라이브 문서를 요약해서 슬랙에 올려줘.”

2. 에이전트(Agent)의 작업 분해

  • MCP를 사용하는 에이전트(Agent)가 요청을 분석해서 필요한 하위 작업(task)으로 나눈다.
    • 문서 접근
    • 문서 요약
    • 슬랙 메시지 전송

3. 외부 도구 연결 (Tool Invocation)

  • 각 작업에 필요한 외부 도구(API)를 MCP를 통해 호출한다.
    • Google Drive API → 문서 가져오기
    • 요약 기능 → GPT 내부 함수 또는 외부 모델 호출
    • Slack API → 메시지 전송

4. 컨텍스트 수집 및 활용

  • 외부 도구들로부터 받은 데이터를 통합하여, AI가 응답을 만들기 위한 문맥(Context)을 구성한다.
    • 예 : 가져온 회의록 내용, 이전 대화, 사용자 프로필 등

5. 응답 생성 및 결과 처리

  • 에이전트가 최종 응답을 생성하고, 필요한 후속 작업(메시지 전송 등)을 완료한다. 

 

MCP 채택했다는 것은,

OpenAI가 MCP를 채택했다는 말은, 위 프로세스를 실제로 구현하고 공식적으로 지원하는 체계를 갖췄다는 의미! 더 구체적으로 보자면, 아래 3가지를 공식 지원하겠다는 것이다. 

1. 도구 연결의 표준화 (Tool Integration via Function/API Calling)

모델이 사용자의 말을 이해해서, 적절한 외부 도구(API나 함수)를 자동으로 골라서 호출하는 구조

사용자 : 오늘 서울 날씨 알려줘
모델 : 이건 get_weather() 함수를 호출해야 할 상황이야!

개발자가 get_weather()라는 함수를 JSON 형식으로 미리 알려주면, 모델이 요청 문장을 분석하고, 어떤 도구를 쓸지 스스로 판단한다. 예) OpenAI Function Calling, Agents SDK 등이 이걸 실현하는 기술.

2. 에이전트 구조 공식 지원 (Agent Structure Support)

단일 모델이 혼자 일하는 게 아니라, 작업을 계획하고 여러 도구를 연달아 사용하는 AI를 만드는 구조

사용자 : 회의록 요약해서 슬랙에 올려줘
이건 하나의 모델로 안돼서 아래처럼 쪼개야 함

1. 구글 드라이브에서 문서 열기
2.
내용 읽고 요약하기
3.
슬랙 API로 메시지 보내기

Agent는 이걸 이렇게 수행한다.

1. 1번 도구 호출 (구글 드라이브 API)
2. 결과 받아서 요약
3. 3번 도구 호출 (슬랙 API)

3. 컨텍스트 확장 (Context Expansion: Retrieval & Memory)

모델이 단순 텍스트 말고, 외부 데이터나 이전 대화 내용을 참고해서 더 똑똑하게 반응하는 기능

 

사용자 : 지난주에 내가 올린 보고서 다시 요약해 줘.
과거의 GPT : 과거 내용을 기억 못 하거나, 한 번에 주어진 텍스트만 기억함.
현재 MCP + Retrieval/Memory : “지난주 보고서”가 어디 있는지 검색 + 그 내용을 다시 불러와서 요약해 줌

즉, OpenAI가 MCP를 채택했다는 것은 단지 ‘기능이 생겼다’가 아니라, 이제부터 LLM이 외부 도구와 직접 연결되어 진짜 ‘일’을 하도록 만드는 기반을 공식적으로 마련했다는 뜻.

 

AI가 단순히 잘 대답하는 수준을 넘어 직접 무언가를 해주는 시대가 오고 있다. 내가 하는 일은 AI와 직접적인 관련은 없지만, 앞으로 어떤 언어를, 어떤 라이브러리를, 어떤 툴을 사용하던 AI는 계속해서 이해해나가야 할 것 같다. 

 

'Today I Learned > Dev' 카테고리의 다른 글

[DEV] DHCP  (1) 2025.07.27
[DEV] XSS  (2) 2025.06.12
[DEV] curl  (0) 2025.03.30
[DEV] SBOM에 대하여  (0) 2025.03.09
[DEV] SSO  (0) 2025.03.02