AI 에이전트는 이미 '팀메이트'를 자처하고 있다
지난달 OpenAI는 서울 강남에서 국내 CTO 120여 명을 모아놓고 한 가지 메시지를 반복했다. "AI는 더 이상 자동완성 도구가 아니다. 개발 업무를 위임받아 수행하는 팀원이다." 코덱스가 자연어 명령 하나로 코드 작성, 디버깅, 리팩토링, 테스트까지 처리한다는 시연은 분명 인상적이다. 출시 첫 주 100만 다운로드, 2026년 들어 주간 사용자 3배 증가라는 숫자도 이 흐름이 실재함을 보여준다.
문제는 '팀메이트'라는 은유가 위임의 범위를 흐릿하게 만든다는 점이다. 팀메이트에게는 책임과 권한이 함께 주어진다. 하지만 AI 에이전트에게 책임을 물을 수 없다면, 위임의 범위를 설계하는 건 온전히 테크 리드의 몫이다.
한 달 35개의 CVE: 위임이 만든 구조적 균열
바로 그 시점에, dev.to에 올라온 한 편의 사고 분석 리포트가 맥락을 뒤흔든다. 2026년 3월, AI 생성 코드 또는 AI 보조 코드가 직접 원인이 된 CVE가 한 달 만에 35개 등록됐다. 단순한 버그가 아니다. RCE(원격 코드 실행)까지 포함된 실제 익스플로잇 가능한 취약점들이다.
더 불편한 사실은 이것이 AI만의 새로운 문제가 아니라는 점이다. AI는 기존 소프트웨어 공급망의 취약성을 증폭시킨다. 코딩 어시스턴트는 "테스트 통과"를 기준으로 평가되지, "프로덕션 보안"을 기준으로 평가되지 않는다. Sonar의 4,000개 이상 Java 과제 분석에 따르면, 성능이 높은 모델일수록 더 장황하고 인지적으로 복잡한 코드를 생성하는 경향이 있다. 리뷰하기 어렵고, 취약점이 숨기 좋은 코드다. GitHub Copilot에서 발견된 CVE-2025-53773은 코드 주석에 심어진 적대적 프롬프트가 어시스턴트를 원격 셸로 전환한 사례다. 10만 대 이상의 개발 머신이 영향권이었다.
애플의 바이브 코딩 퇴출이 던지는 신호
같은 시기, 애플은 앱스토어에서 바이브 코딩 앱 '애니싱(Anything)'을 삭제했다. 표면적 이유는 가이드라인 2.5.2 위반—AI가 생성한 코드가 사전 검토 없이 앱 기능을 변경할 수 있다는 것이다. 레플릿과 비트리그 등 유사 앱들도 업데이트가 차단됐다.
애플의 대응을 단순한 생태계 보호로 읽으면 반쪽짜리 해석이다. 핵심은 "AI가 생성한 코드가 사전 검토 없이 실행된다"는 구조 자체에 대한 거부다. 기술 플랫폼 중 가장 통제 지향적인 애플조차 AI 생성 코드의 무심사 실행을 용납하지 않는다는 사실은, 기업 내부 코드베이스에서도 같은 논리가 적용돼야 함을 시사한다.
위임의 경계를 어디에 그을 것인가
세 기사를 겹쳐 읽으면 테크 리드가 실제로 결정해야 할 것이 선명해진다. AI 코딩 에이전트의 도입 여부가 아니라, 무엇을 위임하고 무엇을 통제할 것인가다.
현장에서 바로 적용 가능한 위임 경계의 기준을 세 가지로 압축하면 이렇다.
첫째, 의존성은 AI가 제안해도 인간이 검증한다. AI는 deprecated되거나 취약한 라이브러리를 아무 경고 없이 추천한다. Snyk, Dependabot, OWASP Dependency Check를 CI 게이트에 박아두고, AI가 추가한 패키지는 머지 전에 반드시 스캔한다. 자동화할 수 있는 가장 낮은 비용의 방어선이다.
둘째, 테스트 통과는 보안 통과가 아니다. AI 생성 코드를 리뷰할 때 "동작하는가"보다 "의도한 대로만 동작하는가"를 물어야 한다. 인지 복잡도와 보안 스멜을 잡는 정적 분석 도구를 LLM 출력에 맞게 튜닝하는 작업이 필요하다. 기존 SAST 룰셋을 그대로 들이대면 AI 특유의 장황한 코드 패턴에서 취약점을 놓친다.
셋째, 에이전트에게 주는 권한은 최소화한다. 특히 툴 호출 권한—파일 시스템 접근, 외부 API 호출, 셸 실행—은 필요 최소한으로 설계해야 한다. 에이전트가 "팀메이트"처럼 느껴질수록, 개발자는 권한 범위를 무심코 확장하는 경향이 있다. 이것이 프롬프트 인젝션이 실제 피해로 전환되는 구조다.
전망: 위임형 모델이 확산될수록 통제 설계가 경쟁력이 된다
OpenAI 코덱스 포럼에서 선언된 '위임형 모델'은 거스를 수 없는 방향이다. 에이전트가 더 많은 개발 업무를 직접 수행하게 될수록, 팀의 경쟁력은 "AI를 얼마나 잘 쓰는가"에서 "AI에게 무엇을 맡기고 무엇을 통제하는가"로 이동한다.
35개의 CVE는 경보다. 애플의 바이브 코딩 퇴출은 선례다. 그리고 120명의 CTO가 모인 포럼은 이 흐름이 이미 조직의 의사결정 테이블 위에 올라와 있음을 확인해준다. 테크 리드가 지금 해야 할 일은 도구 도입 결정이 아니라, 위임 경계의 명문화다. AI가 팀메이트인지 리스크인지는 그 경계를 얼마나 정밀하게 설계하느냐에 달려 있다.