ChatGPT가 ‘쇼핑 파트너’로 진화하는 순간, 커머스 퍼널의 시작점이 바뀝니다. 뉴시스에 따르면 카페24가 오픈AI의 ‘Apps in ChatGPT’에 전용 앱을 출시하면서, 사용자는 대화 중에 @cafe24로 호출해 상품 추천부터 주문 페이지 연결까지 한 번에 진행할 수 있게 됐습니다. 이거, 퍼널 관점에서 “검색→웹사이트→상품탐색→구매”의 다단계를 “대화→추천→구매”로 압축하는 사건이에요.
맥락을 그로스 관점으로 해석하면 더 흥분됩니다. 첫째, 유입의 입구가 검색엔진에서 대화 지면으로 이동합니다. 사용자가 “20만원 이하 편한 운동화”처럼 의도를 자연어로 던지면, 그 자리에서 후보를 보고 클릭합니다. 이때 이탈 포인트(페이지 로딩, 필터링 피로, 비교 스트레스)가 줄어들면서 전환율이 올라갈 여지가 큽니다. 둘째, 카페24는 “별도 신청/추가 비용 없이 자동 연동”을 내세웠는데(뉴시스), 이건 소상공인 입장에서 AI 추천 지면을 ‘제로 CAC에 가까운 신규 채널’로 실험해볼 수 있다는 뜻입니다. “빨리 테스트해봐야 돼!”가 여기서 나옵니다.
다만 대화형 커머스의 승부는 결국 “추천 품질=전환율”입니다. 키워드만으로는 SKU/브랜드/옵션(사이즈 38, 500ml, red) 같은 정확 매칭이 깨지고, 벡터만으로는 SKU 조회에서 엉뚱한 상품이 섞이기 쉽습니다. dev.to의 ‘Hybrid Search’ 글이 말하듯, BM25(정확) + 벡터(의도) 병렬 검색 후 결과를 합치고, 상위 후보를 cross-encoder로 재랭킹하는 방식이 현실적인 해법입니다. 이 조합이 들어가면 “대화형 추천”의 환각/랜덤성을 줄이면서, 구매 의도 쿼리에서의 hit-rate를 끌어올릴 수 있어요. Conversion rate가 얼마나 오를까요? 최소한 “검색 실패로 인한 0결과”를 줄이는 것만으로도 상단 퍼널 손실이 크게 줄 가능성이 큽니다.
여기에 비용 레버까지 붙이면 더 ‘그로스’입니다. LLM은 반복 질문에서 비용이 새는 구조인데, dev.to의 ‘PromptCache’가 제안하는 semantic caching(의미 기반 캐시)을 얹으면 반복 프롬프트를 재사용해 토큰 비용과 지연을 줄일 수 있습니다. 기사 사례처럼 추천 질의가 “예산/카테고리/용도” 템플릿으로 반복될수록 캐시 히트가 잘 납니다. 즉, 응답 속도 개선(전환↑) + API 비용 절감(CAC↓)이 동시에 걸리는 구간이 생깁니다. “CAC가 너무 높아요”를 인프라로 해결하는 그림이죠.
시사점은 세 가지입니다. (1) 브랜드/셀러는 이제 SEO만 볼 게 아니라 ‘ChatGPT 내 노출’이라는 신형 SERP를 봐야 합니다. 피드/카탈로그 품질, 속성 구조화, 재고/가격 신뢰도가 곧 랭킹 요인이 됩니다. (2) 퍼널 최적화는 웹 UI가 아니라 대화 UX로 이동합니다. 추천 카드 수, 비교 포맷, 후기 요약, “지금 사야 하는 이유(배송/재고/쿠폰)” 같은 CTA가 A/B 테스트 대상입니다. (3) 글로벌은 더 빨라집니다. 뉴시스가 언급한 것처럼 언어 장벽이 낮아지면, 현지화 비용 없이도 해외 수요를 바로 받아먹는 구조가 열립니다. 이거 바이럴 될 것 같은데? 국가별 커뮤니티에서 “ChatGPT에 이렇게 물어보면 K-브랜드가 뜬다”는 사용 패턴 자체가 확산 트리거가 될 수 있어요.
전망은 명확합니다. 대화형 커머스는 ‘새로운 상점’이 아니라 새로운 퍼널 레이어가 됩니다. 앞으로의 경쟁은 “누가 더 많이 입점했나”보다 “누가 더 잘 찾게(하이브리드 검색) + 더 싸게 답하게(LLM 캐싱) + 더 빨리 결제시키나(대화형 온보딩)”로 이동할 겁니다. 지금 할 일은 간단합니다: 카페24 기반 셀러라면 (a) ChatGPT 유입 코호트 분리, (b) 추천→주문 전환율 트래킹, (c) 쿼리 로그로 BM25/벡터 가중치 튜닝, (d) 반복 질의 캐싱부터 걸어보세요. 이번 판은 기능 출시가 아니라, 퍼널을 통째로 다시 그리는 기회입니다.