엔터프라이즈 RAG 세일즈에서 가장 비싼 구간은 모델 선택이 아니라 “우리 문서가 제대로 읽히고, 밖으로 새지 않으며, 운영 중에도 품질을 보장할 수 있나?”를 증명하는 시간이다. 이 불확실성이 길어질수록 PoC는 늘어나고 의사결정은 느려지며, 결과적으로 CAC는 구조적으로 상승한다. 그래서 RAG의 성장 레버는 ‘LLM 성능’이 아니라 비정형 데이터 연결 인프라와 검증 루프다.
aitimes는 한컴의 오픈소스 ‘OpenDataLoader PDF v2.0’이 깃허브 트렌딩 1위를 기록했다고 전했다. 포인트는 인기 자체가 아니라, 기업 데이터의 80~90%를 차지하는 PDF 같은 비정형 문서에서 추출 정확도가 AI 품질의 대부분을 좌우한다는 문제의식이다. 기존 파서가 표/다단 레이아웃에서 구조를 깨먹으면 RAG는 “검색은 됐는데 답이 틀린” 상태로 무너지고, 현업 신뢰를 잃는 순간 리텐션도 같이 무너진다.
한컴이 내세운 설계는 그로스 관점에서 특히 날카롭다. 규칙 기반으로 처리 가능한 영역은 즉시 처리하고, 복잡한 레이아웃에만 AI를 쓰는 하이브리드 방식으로 속도·비용을 잡았다(로컬 기준 페이지당 0.015초, 정확도 90% 주장). GPU 없이 CPU만으로 돌아가고 100% 로컬 모드를 지원한다는 메시지는, 보안 심사/인프라 제약 때문에 PoC가 멈추는 전형적인 병목을 직접 겨냥한다. 즉 “도입 장벽”을 기능이 아니라 운영 현실에서 깎아 CAC를 낮추는 접근이다.
보안 축에서도 같은 결론이 나온다. dev.to의 MemoraEU 사례는 ‘서버가 기억을 읽을 수 없는’ 제로-나릿지(Zero-knowledge) 메모리 레이어를 제시한다. 핵심은 콘텐츠는 클라이언트에서 암호화(AES-256-GCM)되고 키는 로컬에만 남으며, 서버는 벡터(임베딩)와 암호문 blob만 저장한다는 점이다. 엔터프라이즈가 두려워하는 건 “정책상 안 본다”가 아니라 “기술적으로도 못 본다”인데, 이 차이가 보안/컴플라이언스 검토 시간을 단축시키고 세일즈 사이클을 줄인다. 세일즈 사이클이 줄어들면 CAC는 내려간다. 단순하다.
하지만 ‘정확도’와 ‘보안’을 붙였다고 끝이 아니다. PoC가 프로덕션에서 죽는 이유는 대부분 계측 부재다. 속도, 품질, 실패율이 숫자로 안 잡히면 운영팀은 SLA를 못 세우고, 제품팀은 개선 우선순위를 못 정한다. 여기서 velog의 “기존 LangChain 프로젝트에 평가 붙이기” 가이드가 실전적으로 유효하다. 코드를 거의 건드리지 않고 데코레이터/어댑터로 TCR(작업완료율), 정확도, p95 레이턴시를 빠르게 뽑아 ‘현재 상태’를 만든다. 이건 기술 팁이 아니라, PoC→프로덕션 전환에서 리텐션과 확장성을 지키는 실행 루프다.
시사점은 명확하다. RAG 도입장벽을 낮추는 인프라(고정밀 PDF 파싱, 로컬/제로-나릿지 데이터 계층) + 평가/모니터링(품질·레이턴시·오류 계측)을 패키지로 제시하면, “우리 환경에서도 된다”는 확신을 더 빨리 만든다. 이 확신이 곧 전환율이다. 특히 보안팀/운영팀이 의사결정에 끼는 엔터프라이즈에서, 로컬 처리·키 비반출·외부 전송 최소화는 기능 대비 설득력이 압도적이다.
실행 관점에서 추천하는 다음 스텝은 3가지다. (1) 문서 파싱은 ‘정답률’이 아니라 다운스트림 지표로 본다: 검색 적중률, 재질문율, 휴먼 수정률을 코호트로 측정해 파서 교체의 ROI를 계산한다. (2) 보안은 문서로 설득하지 말고 아키텍처로 잠근다: 로컬 파싱, 제로-나릿지 저장, 최소 메타데이터 원칙을 기본값으로 두면 세일즈의 왕복이 줄어든다. (3) 평가를 출시 체크리스트가 아니라 상시 파이프라인으로 만든다: p95 레이턴시와 TCR을 릴리즈 게이트에 걸면, 확장 단계에서 리텐션이 무너지는 사고를 선제 차단한다.
전망은 ‘RAG 기능 경쟁’이 아니라 ‘도입 마찰(Friction) 제거 경쟁’으로 간다. 한컴의 오픈소스 PDF 파서가 트렌딩 1위를 찍은 건, 기업 데이터의 본진이 여전히 문서이고 그 문서를 “빠르고 정확하게, 밖으로 안 내보내고” 연결하는 것이 실제 구매 결정에 더 가깝다는 신호다(aitimes). 여기에 MemoraEU 같은 제로-나릿지 메모리 패턴이 확산되면, RAG는 모델이 아니라 데이터 계층에서 표준이 갈릴 가능성이 크다. 결국 CAC를 깎는 팀은 LLM을 고르는 팀이 아니라, 비정형 데이터·보안·평가를 하나의 프로덕션 루프로 묶어 세일즈 사이클을 단축시키는 팀이다.