LLM SEO로 CAC 낮추기: ‘검색’이 아니라 ‘언급’이 유입이 되는 시대

LLM SEO로 CAC 낮추기: ‘검색’이 아니라 ‘언급’이 유입이 되는 시대

llms.txt·Schema.org로 AI 어시스턴트 노출을 늘리고, RAG 평가 메트릭으로 ‘AI 유입 후 붕괴 지점’까지 실험 루프로 잠그는 방법.

LLM SEO llms.txt Schema.org AI 크롤러 CAC RAG 평가 Context Precision AARRR 퍼널
광고

AI 시대의 SEO는 더 이상 ‘구글에서 몇 등’의 게임이 아니다. 사용자는 검색창 대신 ChatGPT·Claude·Perplexity 같은 어시스턴트에 “어디가 좋아?”라고 묻고, 그 답변에 포함된 브랜드/링크/가격이 곧 클릭과 전환을 만든다. 즉 SEO는 ‘순위’가 아니라 언급(mention) 기반의 유저 획득 채널로 재편되고 있고, 잘만 설계하면 CAC를 광고 없이 구조적으로 깎을 수 있다.

dev.to의 사례(“Making My Website AI-Ready…”)가 재밌는 이유는 간단하다. 구글 검색 랭킹은 멀쩡한데도 LLM 답변에서는 비즈니스가 누락되거나, 학습 데이터 기반의 낡은 정보로 설명되었다. 여기서 핵심은 “모델이 멍청해서”가 아니라, 크롤러·인덱싱·요약 방식이 Googlebot과 다르다는 점이다. LLM은 구조화된 신호(스키마), 요약용 텍스트, 외부 인용을 통해 ‘이 사이트가 뭘 하는지’를 확률적으로 확정한다.

실전 처방은 기술적으로는 단순하지만, 성장 관점에서는 매우 큰 레버다. 첫째, Schema.org를 ‘맞게’ 넣는 것. 이 글의 경험상 임팩트 1순위였다. 서비스 비즈니스에 Product를 억지로 끼우면(이커머스 필드 요구) 오히려 신호가 깨진다. Organization/LocalBusiness/FAQPage/BreadcrumbList/도메인 타입(예: AutoRental)처럼 다중 스키마로 서로 교차검증되는 엔티티 신호를 쌓아야 LLM이 “확실히” 이해한다.

둘째, llms.txt는 15분짜리 ‘저비용 고정확도’ 신호다(소스 기사 기준). robots.txt가 크롤링 허용/차단을 다룬다면, llms.txt는 “누구이며 무엇을 제공하고 어떤 URL이 핵심인지”를 LLM 친화적으로 요약해준다. 이걸 넣는 순간, 어시스턴트가 답변을 만들 때 참조할 정규화된 사실 집합(single source of truth) 이 생긴다. CAC 관점에서는 광고 대신 “추천 답변에 포함되는 확률”을 올리는 작업이다.

셋째, robots.txt도 AI 크롤러를 명시적으로 다루는 게 안전하다. 어떤 AI 봇은 “규칙이 없으면 허용”이 아니라 “규칙이 없으면 보수적으로 제외”로 해석할 수 있다(소스 기사 언급). 즉, 의도치 않게 AI 채널 유입을 스스로 차단하는 사고를 예방하는 위생 작업이다.

하지만 여기서 끝내면 반쪽짜리다. 노출/언급이 늘어도, AI 유입은 전환·리텐션이 쉽게 무너진다. 사용자는 “답을 이미 들은 상태”로 들어오기 때문에, 랜딩에서 한 번이라도 정보 불일치/가격 혼선/정책 모순이 터지면 바로 이탈한다. 이때 필요한 게 dev.to의 다른 글(“RAG in Practice… Part 7”)이 말하는 평가 메트릭 기반 디버깅 루프다.

핵심은 하나: “AI가 틀렸다”가 아니라 어디서 틀렸는지를 나눠야 한다. RAG 시스템 기준으로는 Retrieval(찾기) vs Generation(쓰기)로 분리하고, 각각을 계측한다. 예를 들어 Context Precision(가져온 조각이 얼마나 관련 있나), Context Recall(필요한 조각을 빠뜨렸나), MRR(가장 중요한 조각이 상위에 있나)은 ‘AI 유입 후 랜딩/FAQ/헬프센터’ 같은 지식 영역에서 어떤 콘텐츠가 실제로 전환을 망치는지를 찾아낸다. 반대로 Faithfulness/Answer Relevance/Completeness는 “컨텍스트는 맞는데 답변이 새는지”를 잡아낸다.

이걸 성장 실험으로 번역하면 명확해진다. (1) llms.txt·Schema·외부 인용(리뷰/블로그/디렉토리)로 언급률과 정확도를 올리고 → (2) AI 유입 세션을 분리 추적(utm_source=chatgpt/perplexity 등)해 AARRR 퍼널에서 어디가 무너지는지 보고 → (3) RAG 메트릭으로 ‘콘텐츠 신선도/청킹/랭킹’ 문제를 찾아 온보딩·FAQ·가격/정책 페이지를 업데이트하는 루프를 만든다. 광고비를 태우는 대신, “AI가 나를 어떻게 설명하는가”를 제품처럼 운영해 CAC를 깎는 구조다.

전망은 간단하다. LLM은 앞으로 더 많은 ‘검색 트래픽’을 흡수하고, 브랜드는 SERP가 아니라 어시스턴트의 한 문단에서 경쟁하게 된다. 지금은 llms.txt 같은 표준이 과도기지만, 먼저 정리한 팀이 이긴다. 이유는 하나: AI 채널은 한번 엔티티 신뢰를 얻으면 복리로 굴러가고(인용/재인용), 반대로 신뢰를 잃으면 광고로도 복구가 어렵다. 지금 해야 할 일은 기술 구현 자체가 아니라, 언급 → 클릭 → 전환 → 재방문을 끝까지 계측하는 ‘AI SEO 운영 체계’를 팀의 성장 스택에 넣는 것이다.

출처

더 많은 AI 트렌드를 Seedora 앱에서 확인하세요