요즘 CAC가 잘 안 내려가는 팀들의 공통점은 ‘광고 집행’이 아니라 ‘실험 처리량’에서 막힌다는 점이다. 크리에이티브 5종, 랜딩 2종, 온보딩 카피 3종을 한 번에 돌리려면 디자이너·프론트·PM의 병목이 먼저 터진다. 그런데 이제 AI가 그 병목을 직접 눌러버린다. 핵심은 “제작비 절감”이 아니라 “실험 속도↑ → 학습비용↓ → CAC↓”로 이어지는 운영체계의 변화다.
인공지능신문이 전한 앤트로픽의 ‘Claude Design’은 이 변화를 상징한다. 자연어로 요구사항을 말하면 디자인/프레젠테이션/원페이지/프로토타입까지 생성하고, 인라인 코멘트·슬라이더 조정으로 반복 수정이 가능하다. 더 중요한 포인트는 팀의 디자인 시스템을 AI가 자동 반영해 일관성을 유지한다는 점이다. 즉, “빠른데 어설픈 시안”이 아니라 “브랜드 규칙을 지키는 대량 생산”으로 실험 단위가 바뀐다.
여기에 dev.to의 실무 가이드가 강조한 ‘CLI 기반 코딩 에이전트’ 흐름(Claude Code, Gemini CLI)이 붙으면 속도는 한 단계 더 올라간다. 브라우저 채팅이 아니라 코드베이스 맥락을 읽고 여러 파일을 동시에 수정하는 에이전트가, 랜딩의 섹션 추가/폼 검증/이벤트 트래킹 같은 반복 작업을 “배포 가능한 변경”으로 만들어낸다. 성장팀 관점에서 이건 곧 ‘실험을 디자인에서 끝내지 않고 제품까지 밀어넣는 능력’이다.
하지만 속도만 올리면 전환이 오르긴커녕 망가진다. 빠르게 만든 랜딩이 로딩을 깨고, 온보딩이 예외 케이스에서 멈추고, 이벤트 네이밍이 뒤죽박죽이면 코호트가 오염된다. 그래서 세 번째 퍼즐이 필요하다: 에이전트 평가와 품질 통제. dev.to 글이 CodeRabbit 같은 AI 코드 리뷰를 “커밋 전에” 넣으라고 말하듯, Snowflake가 소개한 Agent GPA(Goal-Plan-Action) 기반 평가처럼 ‘에이전트의 실수’를 체계적으로 잡아내는 레이어가 있어야 한다(관련 내용은 dev.to의 All Data and AI Weekly에서 언급). 속도는 가속 페달이고, 평가는 브레이크다. 둘이 같이 있어야 CAC를 깎는 실험이 스케일한다.
성장팀이 바로 가져갈 시사점은 3가지다. 첫째, 크리에이티브/랜딩/온보딩을 “자산 제작”이 아니라 “실험 파이프라인”으로 재정의하라. AI로 시안 생성 → 기준 체크(브랜드/가독성/접근성) → 코드 반영 → 트래킹 검증까지를 한 번에 묶으면, 한 주에 2개 하던 실험이 10개가 된다. 둘째, ‘디자인 시스템+컴포넌트+카피 톤’을 프롬프트가 아니라 규칙으로 고정하라. Claude Design이 디자인 시스템을 반영하듯, 재사용 가능한 규격이 많을수록 변형 실험이 싸진다. 셋째, 품질 게이트를 지표로 만들라. Agent GPA처럼 목표/계획/행동 단위로 실패를 분류하면 “빨라서 망한 실험”을 줄이고, 전환율 학습이 누적된다.
전망은 명확하다. 퍼널 최적화의 경쟁력은 카피 감각이나 디자인 취향이 아니라 ‘실험 처리량(throughput) × 품질 일관성(consistency)’로 이동한다. AI가 제작과 구현 시간을 0에 가깝게 밀어내면, CAC를 좌우하는 건 더 많은 시도를 더 짧은 주기로 돌리는 팀의 운영 능력이다. 결국 승자는 “AI 도구를 쓰는 팀”이 아니라 “AI+평가+트래킹을 묶어 실험을 공장처럼 돌리는 팀”이 될 가능성이 높다.