AI 도입이 자꾸 ‘기술 자랑’으로 끝나는 이유는 간단합니다. 데모는 그럴듯한데, 막상 전환 퍼널에 올리면 신뢰가 무너져요. 엔터프라이즈에서 할루시네이션은 단순 버그가 아니라 세일즈 리스크입니다. “이 답변, 근거 있나요?” 한 마디가 나오면 PoC는 멈추고, 보안/법무/현업 승인 라인은 길어지고, CAC는 그대로 올라갑니다.
여기서 “와 이거다!” 싶은 포인트가 코레일 사례입니다. 코레일은 망분리 업무망에서 돌아가는 사내 문서 AI 검색 ‘에어파인더’를 도입하면서, 업무 목적과 책임 수준에 따라 RAG(검색증강생성)와 CAG(문맥증강생성)를 선택하게 설계했습니다(네이트/구글뉴스 인용). 이건 기능이 아니라 신뢰를 운영하는 UX예요. 실무자가 ‘빠른 근거 찾기’가 필요할 때는 RAG로 출처를 딱 붙이고, 계약/법령 검토처럼 문맥이 중요한 작업은 CAG로 원문 전체를 넓게 참조해 왜곡을 줄입니다.
신뢰의 반대편에서 벌어지는 위험도 짚어야 합니다. dev.to 글은 오픈웹 검색으로 그라운딩을 걸면 오히려 더 그럴듯하게 거짓을 조립하는 “프랑켄슈타인 할루시네이션”이 생길 수 있다고 경고합니다. 키워드 몇 개를 주워 맞춰서 ‘진짜 같은’ 답을 만들면, 검증 비용은 더 커지고(사람이 더 오래 확인), 결국 영업/도입 비용으로 전가됩니다. 그래서 엔터프라이즈 AI는 “말 잘하는 모델”이 아니라 “모르면 멈추는 모델”이 성장에 유리합니다.
그로스 관점에서 이걸 CAC로 번역해보면, 레버는 두 개입니다. 첫째, PoC→전사 확산의 마찰 제거. 망분리, 부서별 데이터 분리, 인사 연동 권한 같은 설계는 ‘보안 비용’이 아니라 의사결정 시간을 줄이는 기능입니다. 세일즈 사이클이 짧아지면 동일한 파이프라인에서 더 많은 딜을 닫고, 결과적으로 CAC가 내려갑니다. 특히 B2B는 “정확도”보다 “감사 가능성(출처/권한/로그)”이 계약을 좌우하죠.
둘째, 비대면 추천/레퍼럴 채널의 구조적 CAC 절감. 핀포인트뉴스는 카드 모집인이 줄고 AI 비교·추천 서비스와 추천형 부업 모델이 늘면서 모집 비용이 5년 새 1,436억 원 감소했다고 전합니다(여신금융협회·금감원 수치 인용). 이 흐름의 핵심은 ‘AI가 영업을 대체’가 아니라, 추천이 스케일되는 유통 구조로 바뀐다는 점입니다. 제품이 표준화되어 비교가 쉬울수록(카드처럼) AI 추천은 강력한 채널이 되고, 레퍼럴은 성과형 보상으로 고정비를 가변비로 바꿉니다. “이거 바이럴 될 것 같은데?”가 아니라, 바이럴이 아니라도 CAC가 내려가는 구조예요.
시사점은 명확합니다. 신뢰형 AI는 (1) 내부에서는 RAG/CAG+권한+출처로 리스크를 줄여 전사 확산을 빠르게 만들고, (2) 외부에서는 추천/레퍼럴/비대면 영업에 붙여 유저 획득 비용의 체질을 개선합니다. 실행 체크리스트로는: ① 답변마다 출처 강제(없으면 생성 중단), ② ‘업무 유형’별 RAG vs CAG 라우팅, ③ 권한/부서 데이터 경계, ④ 검증 가능한 로그(누가 어떤 근거로 의사결정했는지)까지 묶어야 합니다. “빨리 테스트해봐야 돼!”라면, PoC KPI를 정확도 대신 세일즈 리드타임/승인 라인 통과율/현업 재사용률(D7)로 잡는 게 더 빠릅니다.
전망은 한 줄로 요약됩니다. 앞으로 엔터프라이즈 AI 경쟁은 모델 스펙이 아니라 신뢰 운영(grounding·권한·검증·중단)의 제품화에서 승부가 납니다. 그걸 해낸 팀은 전환율이 오르고, 세일즈 사이클이 짧아지고, 레퍼럴형 채널까지 붙으면 CAC가 구조적으로 내려갑니다. 결국 “똑똑한 AI”가 아니라 “안전하게 돈 벌게 하는 AI”가 이깁니다.