데이터가 부족할 때 ML은 어떻게 살아남나

데이터가 부족할 때 ML은 어떻게 살아남나

F0.5 메트릭 선택부터 연합학습·지식 증류까지, 데이터 희소성 앞에서 실무 ML이 꺼내든 생존 전략

데이터 희소성 F0.5 메트릭 Threshold 튜닝 연합학습 지식 증류 능동학습 ABSA 차분 프라이버시
광고

'데이터만 충분하면 된다'는 환상

ML 프로젝트 시작 시 가장 많이 듣는 말이 있습니다. "데이터만 충분하면 모델이 알아서 할 거야." 하지만 현실 프로덕션 환경은 그 반대를 증명하는 사례로 가득합니다. 레이블된 위성 이상 데이터는 전체 텔레메트리의 0.001% 미만이고, 해안 센서의 60%는 폭풍에 파괴되며, 30만 건 리뷰를 추론하면 파일럿 단계에서 보이지 않던 엣지 케이스가 폭발적으로 터져 나옵니다. 근거는 있냐고요? 최근 수집된 세 가지 실무 사례가 이 문제를 정면으로 다룹니다.

케이스 1: 메트릭을 잘못 고르면 비즈니스가 무너진다

스킨케어 리뷰 ABSA(Aspect-Based Sentiment Analysis) 파이프라인을 구축한 한 부트캠프 수강생의 사례(velog)는 '메트릭 선택의 비즈니스 맥락'이라는 교과서적 교훈을 담고 있습니다. KcELECTRA 기반 Stage 2 모델을 30만 건에 적용하자 '디자인' 카테고리 Precision이 0.17까지 붕괴했고, '사용감/성능'은 실제 대비 23%p 과다 검출되는 환각 현상이 발생했습니다.

흥미로운 지점은 이 팀이 F1 스코어 최적화를 포기하고 F0.5 메트릭을 도입한 결정입니다. F0.5는 Precision에 4배 가중치를 부여합니다. 왜냐고요? 리뷰 감성 분석에서 '있는 걸 못 잡는 것(Recall 하락)'보다 '없는 걸 있다고 세는 것(False Positive)'이 비즈니스 의사결정을 더 심각하게 왜곡하기 때문입니다. F1이 Recall 편향을 내재한다는 사실, 알고 계셨나요?

해결 전략은 두 트랙으로 나뉩니다. 첫째, none-threshold를 0.10에서 0.03으로 하향 보정해 FP를 줄이는 Threshold 튜닝. 둘째, 모델 예측을 완전히 포기하고 Tier 1~3 키워드 규칙으로 덮어씌우는 Rule Override. 특히 none-threshold를 높이면 오히려 과다 검출이 증가한다는 반직관적 사실을 실증 데이터로 확인한 뒤, 팀은 "직관을 믿지 말고 Grid Search로 지표 변화를 눈으로 확인하라"는 재발 방지 원칙을 세웠습니다. Ablation study 없이 임계값을 손으로 돌리다가 빠지는 함정을 정확히 짚은 셈입니다.

케이스 2: 데모와 프로덕션 사이의 NLP 간극

AI 언어 튜터를 직접 개발한 개발자의 회고(dev.to)는 '데모 영상에서는 완벽해 보였는데'로 시작하는 모든 NLP 프로젝트의 공통 서사를 담고 있습니다. 가장 인상적인 수치는 p50 latency 680ms, p95 1.1s 달성까지의 여정입니다. 초기 파이프라인은 2.4초였습니다. 사용자가 체감하는 허용 임계값(800~1200ms)을 훌쩍 초과한 수치죠.

성능 개선의 핵심은 모델 교체가 아니었습니다. DistilBERT 로컬 추론으로 오류 감지 레이턴시를 GPT-4 대비 400ms → 8ms로 줄이고, LLM 응답을 스트리밍하는 것만으로 체감 지연이 60% 이상 감소했습니다. 이건 correlation이 아니라 명확한 인과관계입니다—스트리밍은 total generation time을 바꾸지 않지만 perceived latency를 극적으로 낮춥니다.

데이터 희소성 측면에서는 20개 이상 언어의 토크나이제이션 다양성 문제가 핵심입니다. 일본어(MeCab), 아랍어(CamelTools), 중국어(jieba)를 단일 파이프라인에 우겨 넣으면 CJK·아랍어 계열에서 결과가 엉망이 됩니다. 언어별 라벨 데이터 부족 문제를 tokenisation 설계 단계에서 먼저 해결해야 한다는 교훈입니다.

케이스 3: 극단적 희소성, 연합학습으로 돌파하다

위성 이상 탐지 연구(dev.to)는 데이터 희소성의 극단을 보여줍니다. 확인된 이상 인스턴스 비율이 0.001% 미만인 환경에서 Isolation Forest와 One-Class SVM의 False Positive Rate는 실운용 테스트에서 30%를 넘겼습니다. 실운용에서 30% FPR이면 미션 컨트롤러가 경보 피로(alert fatigue)에 빠지는 건 시간 문제입니다.

이 연구가 제안한 프레임워크는 세 기둥으로 구성됩니다. 연합학습(Federated Learning)으로 위성별 민감 텔레메트리를 공유하지 않고 글로벌 모델을 갱신하고, 차분 프라이버시(Differential Privacy)의 지수 메커니즘으로 쿼리 선택 자체에 프라이버시를 부여하며, 능동학습(Active Learning)의 Monte Carlo Dropout 기반 불확실성 추정으로 레이블링 비용을 최소화합니다. 샘플 사이즈가 절대적으로 부족할 때, 어떤 데이터에 레이블을 붙일지 전략적으로 선택하는 능동학습은 단순 랜덤 샘플링 대비 레이블링 효율을 극적으로 높일 수 있습니다—물론 재현 실험의 통계적 유의성 검증은 여전히 숙제입니다.

케이스 4: 없는 데이터를 다른 모달리티로 메운다

기후 복원력 계획을 위한 교차모달 지식 증류(Cross-Modal Knowledge Distillation, CMKD) 연구(dev.to)는 데이터 희소성 문제를 프레이밍 자체를 바꿔 해결합니다. "30% 데이터 결측 시 LSTM 예측 오류 300% 증가"라는 수치는, 결측을 결측으로 다루면 모델이 붕괴한다는 것을 직접적으로 보여줍니다.

CMKD의 핵심 아이디어는 간단합니다. 위성 이미지(dense modality, teacher)에서 학습한 표현을 지상 센서 데이터(sparse modality, student)로 전이합니다. Teacher-Student 구조에 태스크 손실, 모달리티 간 증류 손실, 잠재 공간 정렬 손실을 결합한 복합 목적함수를 씁니다. 이 접근의 진짜 가치는 센서가 파괴되어 데이터가 아예 없는 극단적 상황에서도 위성 이미지를 통해 student가 추론 경로를 유지할 수 있다는 점입니다. 다만 품질 스코어 0.78이 보여주듯, 이 연구의 실증 결과는 아직 검증 단계—generalization 성능의 독립 재현이 필요합니다.

시사점: 데이터 희소성 앞에서 ML이 꺼내는 카드

네 사례를 관통하는 패턴이 보입니다.

첫째, 메트릭 선택은 모델 아키텍처만큼 중요합니다. F1이 유일한 정답이 아닙니다. 비즈니스에서 FP와 FN의 비용이 다르다면, 그 비대칭성을 메트릭에 먼저 인코딩해야 합니다. F0.5냐 F2냐는 엔지니어링 문제가 아니라 비즈니스 문제입니다.

둘째, 모델 재학습보다 후처리 파이프라인이 먼저입니다. ABSA 사례에서 v1→v4 파이프라인 진화는 모델 파라미터가 아니라 Threshold 튜닝과 규칙 기반 Override의 조합으로 이루어졌습니다. 데이터가 부족해 재학습이 어려울 때, 후처리 레이어는 빠른 이터레이션의 공간이 됩니다.

셋째, 데이터 희소성은 '없는 데이터를 구하는 문제'가 아닙니다. 연합학습은 데이터를 모으지 않고 모델을 모읍니다. 지식 증류는 데이터가 풍부한 다른 모달리티에서 지식을 빌립니다. 능동학습은 레이블링 예산을 전략적으로 배분합니다. 희소성을 우회하는 경로는 생각보다 다양합니다.

전망: 프로덕션 ML의 진짜 과제

'실제 운영 환경에서도 이 성능이 나올까요?'라는 질문은 여전히 유효합니다. ABSA 사례는 GPT-4o로 구축한 자동 레이블 1만 7천 건과 전문가 골든셋 618건 사이의 체계적 갭이 특정 카테고리 Precision을 17%로 붕괴시킨 사실을 보여줍니다. 이건 correlation이 아니라 라벨 노이즈가 모델 성능에 미치는 직접적 인과관계입니다. 자동 레이블링 파이프라인을 쓸 때는 반드시 골든셋 기반 품질 감사를 병행해야 합니다.

앞으로 데이터 희소성 문제는 더 빈번하게 마주치게 될 겁니다. 규제 산업(의료, 금융, 국방)의 AI 도입이 가속화될수록 데이터 공유 제약은 강해지고, 기후 위기는 센서 인프라를 파괴하는 빈도를 높입니다. 연합학습, 능동학습, 지식 증류, 그리고 정교한 후처리 파이프라인—이 네 가지는 선택지가 아니라 데이터 희소 환경에서 ML이 살아남기 위한 기본 레퍼토리가 되어가고 있습니다. Ablation study를 통해 각 컴포넌트의 기여도를 측정하는 작업, 이제부터 시작해야 합니다.

출처

더 많은 AI 트렌드를 Seedora 앱에서 확인하세요