아모레퍼시픽이 ChatGPT 안에 ‘아모레몰’ 앱을 출시했다는 소식(더케이뷰티사이언스 보도)은 기능 추가가 아니라 단위경제(Unit Economics) 재계산 신호다. 대화형 커머스는 (1) 새로운 유입 채널을 열고 (2) 온보딩/탐색 퍼널을 대화로 압축하며 (3) 그 대가로 LLM 비용이라는 변동 COGS를 붙인다. 이제 “전환율을 올릴까?”가 아니라 “CAC를 얼마나 깎고, 그 절감분이 토큰비를 덮고도 남는가”가 핵심 이슈다.
맥락을 보면 더 명확하다. ChatGPT 앱 생태계는 OpenAI가 2025년 도입한 ‘대화 도중 외부 서비스 연동’ 구조로, 거대한 검색/앱스토어 같은 분배 레이어를 만든다. 아모레몰은 이 레이어에서 사용자의 피부 타입·고민을 입력받아 추천/비교를 한 번에 처리한다. 즉 기존 자사몰의 “검색→카테고리→필터→상세→비교”를 대화 한 줄로 점프시키며, 활성화(Activation) 정의 자체를 바꾼다. 활성화가 ‘회원가입’이 아니라 ‘첫 추천 결과 확인’이 되는 순간, D1 리텐션도 같은 UI에서 따라올 여지가 생긴다.
여기서 단위경제의 분기점은 두 가지다. 첫째, CAC 하락. 사용자는 이미 ChatGPT 안에 있고, 질문은 자연스러운 의도 신호다. 검색광고처럼 “의도 추정 비용”을 광고비로 태울 필요가 줄어든다. 둘째, COGS 상승(혹은 구조 변경). 대화가 길어질수록 토큰이 돈이다. 그래서 대화형 커머스는 마케팅 퍼널이 아니라 LLM 비용 퍼널이기도 하다.
이 지점에서 로컬 AI 트렌드가 단위경제를 구해낸다. dev.to의 ‘Local AI’ 정리처럼, Llama/Mistral 계열의 경량 모델과 Ollama 같은 툴링이 성숙하면서 “클라우드 API 호출 = 비용/프라이버시/레이트리밋”이라는 전제가 흔들리고 있다. 커머스 상담의 많은 구간은 초고성능 추론이 아니라 정확한 상품 데이터(RAG) + 안정적 포맷팅이면 된다. 즉, (a) 로컬/프라이빗 모델로 기본 상담을 처리하고 (b) 결제 직전의 고난도 상담만 클라우드로 업그레이드하는 하이브리드 라우팅이 가능해진다.
그리고 ‘에이전트 비용 최적화’는 더 직접적인 레버다. dev.to의 에이전트 자가 감사 사례는 “조용한 낭비”가 얼마나 큰지 보여준다: 잘못된 모델 선택, 불필요한 컨텍스트 로딩, 브라우저 자동화 대신 API 사용 같은 개선으로 67% 토큰 절감이 가능했다. 대화형 커머스에 그대로 적용하면, 단위경제 공식은 이렇게 바뀐다: 마진 = (AOV×GM%) − (결제/물류/CS) − (LLM 토큰비 + 툴콜 비용). 여기서 토큰비는 ‘고정비’가 아니라 대화 설계로 깎을 수 있는 변동비다.
시사점은 곧바로 실험 설계로 연결된다. ① Activation 실험: ‘첫 답변에서 3개 추천 vs 1개 추천+추가 질문’ 중 무엇이 D1/CTR을 높이는가. ② CVR 실험: 비교표를 대화로 보여줄지, 카드 UI로 보여줄지에 따라 장바구니 진입률이 어떻게 달라지는가. ③ COGS 실험: 상담 단계를 3단으로 쪼개 “경량 모델→RAG→고급 모델” 라우팅 시 세션당 토큰/구매당 토큰이 얼마나 줄어드는가. ④ 채널 실험: ChatGPT 내 유입은 ‘광고’가 아니라 ‘발견(Discoverability)’이므로, 인기 질의/카테고리에서 노출되는 콘텐츠 패턴을 역으로 설계해 CAC를 더 내릴 수 있다.
전망: 결제와 물류까지 ChatGPT 안에서 연결되면(아모레퍼시픽의 단계적 확대 계획이 시사), 대화형 커머스는 “상담 챗봇”이 아니라 에이전틱 커머스 OS가 된다. 그때 경쟁은 브랜드/제품력이 아니라 세션 단위경제 최적화 능력으로 갈린다. 같은 매출을 내더라도 ‘세션당 토큰비’, ‘구매당 툴콜 수’, ‘반품/CS 전환을 줄이는 사전 상담 품질’이 곧 이익률이기 때문이다. 결국 이 채널에서 이기는 팀은, 대화를 UX로만 보지 않고 P&L로 디버깅하는 팀이다.