CAC가 높아지는 진짜 이유는 광고 단가가 아니라 ‘사람이 퍼널을 수작업으로 돌리는 비용’입니다. 리드 찾고, 분류하고, 메시지 쓰고, 후속 팔로업 하는 동안 시간·인건비·기회비용이 쌓이죠. 여기서 AI는 장난감이 아니라, CAC를 깎는 직접 레버입니다.
이번에 눈이 번쩍 뜨인 포인트는 두 가지가 동시에 열렸다는 겁니다. 하나는 알리바바가 공개한 Qwen 3.5 중형 모델 라인업(허깅페이스 무료 공개 + 초저가 API)이고(디지털투데이 보도), 다른 하나는 n8n으로 마케팅 자동화 스택 15개 워크플로우를 프로덕션에 올린 사례입니다(dev.to). “이거 바이럴 될 것 같은데?”가 아니라, “이거 당장 CAC 줄이겠다” 쪽입니다.
맥락을 해석해보면, 핵심은 ‘LLM의 지능’이 아니라 LLM의 단가 하락 + 에이전트형 작업 수행 능력입니다. 디지털투데이에 따르면 Qwen 3.5는 에이전트 수행과 시각 이해에서 강점을 내세우고, 일부 중형 모델이 클로즈드 ‘미니’급과의 격차를 좁혔다고 합니다. 더 중요한 건 접근성입니다. 오픈소스 모델은 바로 가져다 붙일 수 있고, 상용 플래시 모델은 토큰 단가를 낮춰 “대량 실행”을 가능하게 만듭니다. 즉, ‘한 번 똑똑하게’가 아니라 ‘매일 수천 번 싸게’가 되는 순간이 왔어요.
여기에 dev.to의 n8n 사례를 접목하면 그림이 선명해집니다. 리드 스크래핑(레딧·깃허브·HN 등) → LLM 스코어링으로 ICP 적합도 필터링 → 개인화 콜드 이메일과 팔로업 → 콘텐츠 생성/퍼블리싱까지 자동으로 돌렸고, 인프라 비용은 월 20달러 수준이라고 주장합니다. 이게 의미하는 바는 하나: CAC는 ‘채널 최적화’만으로가 아니라 ‘퍼널 자동화’로도 30% 이상 떨어질 수 있다는 것.
실행 가이드는 단순합니다. “빨리 테스트해봐야 돼!” 2주 스프린트로 아래 순서로 가면 됩니다.
1) 획득 퍼널의 병목부터 계측: 리드→미팅→유료 전환까지 단계별 전환율(CTR, reply rate, meeting rate, close rate)을 먼저 트래킹하세요. CAC를 내리려면 ‘어디서 새는지’부터 보여야 합니다.
2) n8n을 허브로, 데이터는 가볍게: dev.to처럼 초기엔 구글시트/노션을 소스 오브 트루스로 두고, n8n이 읽고/쓰게 만들면 속도가 납니다. “DB 설계하다가 분기 지나가는” 걸 막아야 합니다.
3) Qwen 같은 저비용 LLM로 ‘선별(qualification)’ 자동화: 무작정 발송량을 늘리면 CAC가 아니라 도메인 신뢰도만 망가집니다. 핵심은 “안 맞는 리드에 쓰는 비용 제거”. LLM이 리드의 텍스트 시그널(게시글/이슈/채용글)을 읽고 1~10점으로 스코어링해 7점 이상만 아웃리치—이 한 줄이 CAC를 깎는 가장 큰 칼날입니다.
4) 개인화는 ‘한 문장’만 제대로: 긴 메일은 LLM이 더 잘 쓰지만, 전환은 보통 “당신의 이 포인트를 보고 연락했다” 한 문장에서 갈립니다. 트리거 콘텐츠 인용(레딧 글/깃허브 이슈)을 1문장으로 박고 CTA는 1개만. Conversion rate가 얼마나 오를까요? 업종마다 다르지만, 최소한 reply rate의 유의미한 상승이 나옵니다.
5) 워밍업/검증/중복 제거는 자동화에 포함: dev.to가 강조하듯 dedup과 이메일 검증, 워밍업은 필수입니다. 자동화는 ‘더 빨리 망하는 장치’가 될 수도 있으니까요.
시사점은 더 큽니다. ZDNet이 다룬 ‘사스포칼립스’ 논의처럼, AI는 SaaS를 무너뜨리기보다 경쟁 구도를 재편합니다. 이제 마케팅·세일즈 운영 능력은 “사람을 많이 뽑는 회사”가 아니라 “퍼널을 자동화한 회사”로 이동합니다. 특히 좌석당 과금(per-seat)이 흔들릴수록, 획득 단계에서의 효율(CAC)과 유지(LTV)가 더 잔인한 기준이 됩니다.
전망: 앞으로 CAC 절감의 승부처는 ‘광고 소재’가 아니라 워크플로우 자산이 될 확률이 높습니다. 오픈소스 LLM(Qwen)처럼 저렴한 두뇌가 늘어나고, n8n 같은 오케스트레이션이 표준화되면, 누구나 비슷한 자동화를 합니다. 그때의 차별점은 우리만의 데이터/시그널(산업 특화, 고객 행동 데이터)로 스코어링 품질을 올리는 것입니다. 즉, “AI로 자동화”는 입장권이고, “데이터로 정확도와 전환을 올리는 것”이 진짜 moat가 됩니다.
결론은 한 줄입니다. 오픈 LLM로 단가를 낮추고, n8n으로 반복 업무를 제거하면, CAC는 ‘개선’이 아니라 ‘구조적으로 하락’합니다. 이제 남은 건 하나: 오늘 1개 워크플로우부터 프로덕션에 올려서, 내 퍼널에서 실제로 30%가 나오는지 측정해보는 것뿐입니다.