AI가 외부 세계와 '대화'하는 방식이 표준화되고 있다
최근 개발 커뮤니티에서 MCP(Model Context Protocol)라는 단어가 눈에 띄게 자주 등장하고 있다. Anthropic이 만든 오픈 표준이지만, 이미 Claude를 넘어 다양한 AI 클라이언트가 채택하기 시작했다. 한 마디로 정의하면 AI 모델이 외부 시스템과 구조화된 방식으로 소통하기 위한 공통 프로토콜이다. 그런데 흥미로운 건 이 프로토콜이 적용되는 맥락이 Figma 디자인 핸드오프, 개인 홈 데이터베이스, 로컬 파일 검색까지 동시다발적으로 퍼지고 있다는 점이다. 하나의 표준이 서로 다른 맥락을 한꺼번에 흡수하는 이 흐름은, 단순한 도구 유행이 아니라 AI 워크플로우의 지형 자체가 바뀌고 있다는 신호다.
MCP의 구조: 왕과 마법사가 비둘기로 대화한다
dev.to의 한 글에서 MCP 아키텍처를 설명하는 방식이 인상적이었다. AI 클라이언트(LLM)는 여왕이 사는 탑, MCP 서버는 마법사가 사는 탑, 그 사이를 오가는 건 JSON-RPC라는 전령 비둘기다. 두 탑의 주인은 서로 직접 만날 수 없고, 비둘기를 통해서만 소통한다. 이 비유가 좋은 이유는 MCP의 핵심 특성을 그대로 담고 있기 때문이다. 클라이언트와 서버는 철저히 분리되어 있고, 교환되는 메시지는 표준화된 형식을 따른다.
실제 프로토콜 흐름은 크게 세 단계다. 첫째, 초기화 단계에서 클라이언트와 서버가 서로의 존재를 확인하고 통신 채널을 수립한다. 둘째, 툴 디스커버리 단계에서 클라이언트가 서버에게 "뭘 할 수 있어?"라고 묻고 서버는 사용 가능한 툴 목록을 반환한다. 셋째, 실제 통신 단계에서 클라이언트가 필요한 툴을 호출하고 서버가 결과를 돌려준다. 단순해 보이지만, 이 구조 덕분에 AI는 자신이 어떤 외부 기능을 쓸 수 있는지 동적으로 파악하고 활용할 수 있다.
Figma MCP: 디자인-개발 협업의 틈을 AI가 메운다
개인적으로 가장 눈여겨본 건 Figma MCP다. 디자인과 개발 사이의 핸드오프는 오랫동안 마찰이 많은 구간이었다. 디자이너는 Figma에서 의도를 표현하고, 개발자는 그걸 코드로 번역하는 과정에서 정보 손실이 생긴다. Figma MCP는 이 간극에 AI를 집어넣는 시도다.
dev.to 기고자가 실제로 Figma MCP를 뜯어본 결과는 흥미로웠다. get_design_context 툴을 호출하면 단순한 JSON 데이터가 아니라 JSX + Tailwind 코드와 함께 추가 지시 프롬프트가 함께 반환된다. "이 코드를 프로젝트의 실제 기술 스택에 맞게 변환하라"는 메타 인스트럭션까지 포함해서. Figma가 React + Tailwind를 기본값으로 내보내는 건 현실적인 선택이지만, Vue나 Svelte, CSS Modules를 쓰는 팀에게는 추가 변환 레이어가 필요하다는 뜻이기도 하다.
더 중요한 발견은 툴 응답 자체가 LLM에게 추가 명령을 내릴 수 있다는 점이다. get_screenshot을 반드시 이어서 호출하라는 지시가 툴 응답에 포함되어 있었다. 이는 곧 MCP 서버가 AI의 행동을 간접적으로 조종할 수 있다는 의미이며, 프롬프트 인젝션 공격의 벡터가 될 수 있다는 경고이기도 하다. 편리함과 보안 리스크가 같은 구조에서 나온다는 점을 간과하면 안 된다.
그럼에도 불구하고 디자이너가 직접 LLM을 통해 컴포넌트를 편집하는 라운드트립 워크플로우는 분명히 흥미롭다. '코더만을 위한 도구'가 아니라 디자이너의 작업 방식 자체를 바꿀 수 있는 가능성이 열렸다.
로컬 DB에 말을 거는 AI: 수년간 쌓은 데이터의 인터페이스가 바뀐다
두 번째 사례는 결이 다르지만 MCP의 가능성을 더 선명하게 보여준다. 한 개발자는 집을 지을 때부터 배선, 배관, 가전제품, 나무까지 모든 것을 로컬 데이터베이스에 기록해왔다. 문제는 데이터를 추가하는 UI가 너무 번거로워서 기록할 가치가 있는 정보도 귀찮아서 넘기게 된다는 점이었다.
MCP로 이 병목이 사라졌다. 이제는 Claude에게 "세탁실에 Daikin Altherma 열펌프가 있어"라고 말하면 AI가 위치를 파악하고 카테고리를 정해 DB에 저장한다. 사진을 찍어 올리면 기기를 인식해 자동으로 항목을 만든다. 그리고 몇 년 뒤 "식기세척기 윗 선반이 고장났는데 수리할 가치가 있어?"라고 물으면, AI는 구매 시기와 모델 정보를 이미 알고 있어서 맥락 있는 판단을 내릴 수 있다.
Home Memory 프로젝트(오픈소스, GitHub 공개)가 보여주는 교훈은 명확하다. MCP는 단순히 데이터를 넣고 빼는 파이프가 아니라, 수년간 쌓인 구조화된 데이터에 자연어 인터페이스를 붙이는 레이어다. 그리고 이 프로젝트를 만들면서 얻은 가장 실용적인 통찰이 있다. 툴 설명(description)이 곧 UX라는 것. "필요하면 먼저 읽어라"는 조건부 지시는 AI가 합리적으로 우회했고, 기존 데이터를 덮어쓰는 버그가 발생했다. "항상 먼저 읽어라"로 바꾸자 문제가 해결됐다. MCP에서 툴 설명은 개발자가 쓰는 주석이 아니라 AI가 읽는 API 명세다.
15분에 로컬 MCP 서버 하나: 진입 장벽이 이 정도라면
세 번째 사례는 직접 MCP 서버를 구축하는 방법이다. dev.to에 공개된 가이드에 따르면 Python의 fastmcp 라이브러리를 사용하면 10줄 내외의 코드로 동작하는 MCP 서버를 만들 수 있다. 로컬 마크다운 파일을 검색하거나 JSON 데이터를 조회하는 툴을 Claude Desktop에 연결하는 데 배포도, 비용도, 외부 의존성도 필요 없다.
이 낮은 진입 장벽이 시사하는 바가 크다. 프리빌트 MCP 서버들이 GitHub, Slack, Google Drive 같은 범용 문제를 해결한다면, 직접 만드는 로컬 서버는 팀의 내부 API, 독자적인 문서 체계, 특수한 데이터 구조 같은 고유한 문제를 해결할 수 있다. 그리고 이건 프론트엔드 개발자에게도 해당되는 이야기다. 디자인 토큰 파일을 AI가 읽게 하거나, 컴포넌트 라이브러리 문서를 MCP로 연결하는 것은 이제 반나절짜리 프로젝트다.
MCP가 만드는 새로운 워크플로우 흐름
세 가지 사례를 관통하는 공통점이 있다. '반복적으로 복사-붙여넣기 하던 맥락'을 구조화해서 AI가 직접 접근하게 만든다는 것이다. Figma 디자인 스펙을 매번 슬랙에 캡처해 공유하는 대신, AI가 직접 Figma를 읽는다. 수년간 쌓은 홈 데이터를 앱 UI로 꺼내는 대신, 대화로 접근한다. 내부 문서를 ChatGPT에 붙여넣는 대신, 로컬 MCP 서버가 실시간으로 제공한다.
이 흐름을 프로토타이핑 관점에서 보면 더 선명해진다. 이제 AI 기반 도구를 실험하는 속도가 극적으로 빨라졌다. 아이디어를 검증하기 위해 외부 API를 거칠 필요 없이, 로컬에서 MCP 서버 하나를 띄우고 Claude에 연결하면 된다. 프로토타입 → 검증 → 고도화의 사이클이 짧아진다.
주의해야 할 지점: 편의와 보안 사이
낙관적인 전망과 함께 반드시 짚어야 할 지점이 있다. Figma MCP 분석에서 드러났듯, MCP 서버는 AI에게 추가 명령을 주입할 수 있다. 신뢰할 수 없는 MCP 서버를 연결하는 것은 신뢰할 수 없는 코드를 실행하는 것과 비슷한 리스크다. AI가 툴 응답을 그대로 명령으로 받아들이는 구조는, 악의적인 서버가 있다면 개인 데이터 탈취나 의도치 않은 동작으로 이어질 수 있다.
또 툴 설명의 품질이 AI 행동을 직접 결정한다는 점도 중요하다. Home Memory 개발자의 경험처럼, 애매한 설명은 데이터 손실로 이어졌다. MCP 서버를 만드는 것은 코드를 짜는 일인 동시에, AI가 읽을 명세를 설계하는 일이다. 이 두 가지를 동시에 잘해야 한다.
전망: MCP는 'AI 플러그인 생태계'의 공통 소켓이 된다
MCP가 흥미로운 이유는 기술 자체가 아니라 그것이 만드는 생태계 구조다. USB가 다양한 기기를 하나의 표준으로 연결했듯, MCP는 AI 클라이언트와 외부 시스템 사이의 표준 소켓이 되려 하고 있다. Figma가 공식 MCP를 제공하고, 개인 개발자가 홈 DB를 MCP로 연결하고, 팀이 내부 도구를 MCP 서버로 노출하는 이 흐름은 같은 방향을 가리킨다.
프론트엔드 개발자 입장에서 이 흐름의 의미는 구체적이다. 디자인 시스템, 컴포넌트 문서, 접근성 가이드라인, 성능 예산—이 모든 것이 MCP를 통해 AI의 작업 맥락이 될 수 있다. '코드를 짜는 AI'가 아니라 '프로젝트의 맥락을 이해하고 코드를 짜는 AI'로 가는 경로가 MCP를 통해 열리고 있다. 지금 당장 로컬 MCP 서버 하나를 만들어 연결해보는 것, 그게 이 변화를 몸으로 이해하는 가장 빠른 방법이다.