AI 제품 그로스에서 판이 바뀌고 있습니다. “모델이 더 똑똑해졌는가?”보다 “이 회사, 믿고 써도 되는가?”가 설치·삭제·전환을 좌우해요. 기술 차별화가 약해질수록 신뢰(Trust)와 거버넌스(Governance)가 사실상 ‘성장 엔진’으로 올라탄 겁니다.
이 변화는 숫자로도 보입니다. VOI.id가 인용한 Sensor Tower 데이터에 따르면, OpenAI의 DoD(미 국방부) 협력 소식 직후 미국에서 ChatGPT 앱 삭제가 하루 295% 급등했고, 1점 리뷰도 폭증했습니다. 반면 Anthropic은 “국방부 파트너십을 맺지 않겠다”는 메시지 이후 Claude 다운로드가 크게 뛰며 앱스토어 1위까지 치고 올라갔죠(전자신문도 같은 흐름을 정리). 와… 이거다. ‘윤리 포지션’이 기능 업데이트보다 더 강한 유입/이탈 트리거가 된 겁니다.
맥락은 더 넓습니다. 인도 대법원이 하급 판사의 AI 생성 ‘가짜 판결문’ 인용을 단순 실수가 아닌 ‘직무상 비행’으로 규정한 사건(GeekNews)은, 이제 AI 리스크가 “품질 이슈”가 아니라 “제도/책임 이슈”로 번졌다는 신호예요. 그리고 한국에선 개인정보보호위원회가 주요 생성 AI 기업들과 처리방침 투명성(학습 활용 여부, 보유기간, 옵트아웃 등)을 구체화하는 간담회를 열고, 평가 점수까지 공개하며 기준을 올리고 있습니다(AI타임스). 즉, 시장의 의심과 규제의 기준이 동시에 올라가는 구간이에요.
그로스 관점에서 핵심은 하나: 신뢰는 ‘브랜드 이미지’가 아니라 퍼널 변수입니다. 논란이 터지면 Acquisition은 CAC가 튀고(유료 채널 효율 하락), Activation은 온보딩 동의/설명 단계에서 마찰이 늘고, Retention은 “찝찝함” 하나로 D7/D30이 꺾입니다. 특히 생산성/법률/교육처럼 “정확성+책임”이 중요한 카테고리는, 신뢰가 무너지면 LTV가 아니라 아예 재방문 이유가 사라져요. 유저가 여기서 이탈할 것 같은데… 사실 그 지점은 ‘기능’이 아니라 ‘불안’입니다.
시사점은 명확합니다. 이제 AI 제품 팀은 ‘신뢰 설계’를 제품 기능처럼 다뤄야 합니다. 예를 들면 (1) 사용 목적/제휴/데이터 사용을 한 화면에서 이해시키는 요약형 정책 UX, (2) 입력 데이터의 학습 사용 여부를 기본값+옵트아웃으로 명확히 분리, (3) 고위험 도메인(법률·의료·재무)에선 출처/근거 표시와 인간 검토 플로우를 기본 탑재, (4) 파트너십/정책 변화가 생길 때는 공지로 끝내지 말고 “내 데이터/내 설정에 미치는 영향”을 즉시 조정하게 만드는 컨트롤 패널. 빨리 테스트해봐야 돼요. 이건 ‘컴플라이언스’가 아니라 Activation과 Retention을 동시에 올리는 실험 레버입니다.
특히 “군사/감시”처럼 가치 충돌이 큰 이슈는, 침묵이 최악의 선택이 됩니다. VOI.id 사례처럼 삭제율이 튀면 회복 비용이 커요. 반대로 전자신문이 정리한 Claude의 급등은, 신뢰 포지셔닝이 ‘바이럴 훅’이 될 수 있음을 보여줍니다. 이거 바이럴 될 것 같은데? 핵심은 도덕적 선언이 아니라, 유저가 납득 가능한 운영 원칙(어떤 요청은 거절하고, 어떤 데이터는 학습하지 않고, 어떤 영역은 제한한다)을 제품 언어로 번역하는 것입니다.
전망: 앞으로 AI 시장의 경쟁 단위는 “모델 성능”에서 “신뢰 프로토콜”로 이동합니다. 규제 기관은 더 구체적인 공개를 요구할 것이고(개인정보위의 처리방침 평가처럼), 법원/전문직 영역은 ‘검증 책임’을 사용자 탓으로 돌리는 것을 점점 허용하지 않을 겁니다(인도 대법원 톤이 그 방향). 결국 이기는 팀은, 온보딩 마찰을 최소화하면서도 리스크를 통제하는 팀—즉, 신뢰를 비용이 아니라 성장 자산으로 설계한 팀입니다. 성능은 따라잡힙니다. 신뢰는 한 번 잃으면 CAC로도 못 메워요.