10 KiB
짧은 후속 질문 및 맥락 의존 질문 해결 방법 연구
작성일: 2025-12-23
목적: 실패하는 질문 18개 해결을 위한 구체적 방법론 제시
참고: 테스트 결과 rb8001/tests/test_failed_questions_results.md
문제 요약
실패한 질문 유형:
- 짧은 후속 질문 (컨텍스트 필요): "어디서?", "언제?", "누구랑?", "뭐야?"
- 맥락 의존 질문: "그거 어떻게 됐어?", "결과는?", "그럼 어떻게 할까?"
- 모호한 질문: "어떻게 생각해?", "괜찮아?"
- 부정/거부 표현: "안 해도 돼", "취소해줘", "보내지 마"
- 비교/선택 질문: "어느 게 나아?", "A와 B 중에 뭐가 좋아?"
- 시간 관련 모호한 질문: "언제 했어?"
- 상태 확인: "지금 뭐 하고 있어?", "작업 끝났어?"
- 정보 요청: "너는 뭘 할 수 있어?"
현재 상태: CONTEXT_FOLLOWUP Intent는 구현되어 있으나 패턴 매칭이 제대로 작동하지 않음
해결 방법론 (연구 기반)
0. LLM 기반 직접 발화 확장 (Question Expansion)
이론적 배경:
- 최신 연구(2024-2025): LLM을 활용한 질문 확장(Question Expansion) 기법
- Few-shot prompting으로 짧은 질문을 맥락 포함 완전한 질문으로 변환
- 코드베이스에 이미 유사 구현 존재:
message_router.py:_resolve_pronoun_via_llm(대명사 해소)
현재 구현 상태:
message_service.py:225: CONTEXT_FOLLOWUP 시 컨텍스트를 추가하지만 질문 자체는 확장하지 않음message_router.py:268: 대명사 해소는 구현되어 있으나 짧은 질문 확장은 미구현
구현 방법:
1. 짧은 질문 감지 (len <= 10 또는 패턴 매칭)
2. LLM에 질문 확장 요청 (Few-shot 예시 포함)
3. 확장된 질문으로 의도 분류 재시도
프롬프트 템플릿:
"다음은 짧은 후속 질문입니다. 직전 대화 맥락을 참고하여 완전한 질문으로 확장하세요.
예시:
- 직전: "11월 18일 오전 6시 40분에 검진이 있습니다"
- 짧은 질문: "어디서?"
- 확장: "검진은 어디서 하시나요?"
- 직전: "이메일 보냈어"
- 짧은 질문: "결과는?"
- 확장: "이메일 발송 결과는 어떻게 되었나요?"
직전 대화:
사용자: {previous_message}
로빙: {previous_response}
현재 짧은 질문: {message}
확장된 질문만 출력하세요:"
장점:
- 구현이 간단하고 즉시 적용 가능
- LLM의 자연어 이해 능력 활용
- Few-shot 예시로 정확도 향상
단점:
- LLM 호출 비용 증가 (짧은 질문마다 추가 호출)
- 응답 지연 시간 증가 (약 500ms-1s)
비용 최적화:
- 확신도 < 0.5인 경우에만 확장 시도
- 확장된 질문을 캐싱하여 동일 패턴 재사용
- 배치 처리로 여러 짧은 질문을 한 번에 확장
참고 구현:
rb8001/app/router/message_router.py:268-317: 대명사 해소 유사 패턴rb8001/app/services/message_service.py:206-228: CONTEXT_FOLLOWUP 처리
1. Anaphora Resolution (지시어 해석) 기법
이론적 배경:
- 대화 시스템에서 "그거", "결과", "그럼" 같은 지시어(anaphora)는 이전 대화의 선행사(antecedent)를 참조
- 최신 연구(2024-2025)에서는 Transformer 기반 모델이 anaphora resolution에서 우수한 성능
구현 방법:
1. 최근 N턴 대화에서 명사구/엔티티 추출
2. 현재 질문의 지시어("그거", "결과")와 선행사 후보 매칭
3. 임베딩 유사도로 가장 가능성 높은 선행사 선택
4. 선행사를 포함한 확장 질문 생성 → LLM에 전달
예시:
- 입력: "그거 어떻게 됐어?"
- 이전 대화: "이메일 보냈어" → 선행사: "이메일"
- 확장: "이메일 어떻게 됐어?" → 정확한 의도 분류 가능
참고 논문: Neural Anaphora Resolution in Dialogue Systems (2024)
2. Hybrid LLM-ML 임계값 검증 (AppFolio 2024)
이론적 배경:
DOCS/journey/research/memory/classification/2024_hybrid_llm_ml_threshold.md참고- ML 모델로 1차 분류, 확신도 낮은 케이스만 LLM 재검증
- 비용 효율적이면서 정확도 향상
현재 문제:
- 짧은 질문이 UNKNOWN으로 분류되면 바로 LLM으로 가지만, 맥락 없이 처리됨
개선 방안:
1. FastPath (정규식) → 실패
2. SemanticIntentClassifier (임베딩) → 확신도 < 0.5
3. 맥락 확장 (Anaphora Resolution) → 선행사 포함 질문 생성
4. LLM 재검증 → 맥락 포함 질문으로 의도 분류
효과:
- 75% 케이스 자동화 유지
- 맥락 포함으로 LLM 정확도 향상
- 비용 증가 최소화 (10-20% 범위)
3. 세션 기반 슬롯 관리 강화
이론적 배경:
DOCS/journey/troubleshooting/251117_short_followup_context_3phase_implementation.md참고- 현재 SessionManager는 구현되어 있으나 Redis 미마이그레이션 상태
문제:
- "취소해줘", "보내지 마" 같은 부정 표현이 무엇을 취소/거부하는지 맥락 필요
- 세션 슬롯에 현재 진행 중인 작업 정보가 없음
개선 방안:
1. 세션 슬롯에 "active_action" 필드 추가
- 예: {active_action: "email_send", recipient: "김팀장", subject: "일정 확인"}
2. 부정 표현 감지 시 active_action 참조
- "취소해줘" → active_action이 "calendar_event"면 calendar_delete
- "보내지 마" → active_action이 "email_send"면 email_send_approval (거부)
3. Redis 마이그레이션으로 세션 영속성 확보
- 서버 재시작 시에도 세션 유지
- TTL 10분 → 30분으로 확장 (복잡한 작업 대응)
참고: Multi-turn Dialogue State Tracking (DST) 연구 (2024-2025)
4. 의도 확장: 새로운 Intent 추가
필요한 Intent:
-
CANCEL_REQUEST: 취소/거부 의도
- 패턴: "취소해줘", "안 해도 돼", "보내지 마", "하지 마"
- 처리: active_action 참조하여 구체적 취소 액션 결정
-
COMPARISON_QUERY: 비교/선택 질문
- 패턴: "어느 게 나아?", "A와 B 중에 뭐가 좋아?", "비교해줘"
- 처리: 이전 대화에서 비교 대상 추출, LLM으로 비교 분석
-
STATUS_CHECK: 상태 확인 질문
- 패턴: "작업 끝났어?", "지금 뭐 하고 있어?", "진행 상황은?"
- 처리: 세션의 active_action 상태 확인, 진행률 반환
-
CAPABILITY_QUERY: 기능 조회
- 패턴: "너는 뭘 할 수 있어?", "기능 알려줘", "할 수 있는 일은?"
- 처리: IntentType 목록을 자연어로 변환하여 반환
5. Ko-SRoBERTa 임베딩 활용 (고정밀 경로)
이론적 배경:
DOCS/journey/research/memory/embedding_search/2025_ko_sroberta_runtime_eval.md참고- Ko-SRoBERTa는 의도 분류에서 75% 정확도 (기존 53.6% → 75.0%)
현재 문제:
- SemanticIntentClassifier가 skill-embedding(384d) 사용 중
- 짧은 질문의 임베딩 유사도가 낮아 UNKNOWN으로 분류
개선 방안:
1. 고정밀 파이프라인 전용 Ko-SRoBERTa 서비스 분리
- skill-embedding-highres (768d) 신규 서비스
2. 짧은 질문/맥락 의존 질문은 고정밀 경로 사용
- len(message) <= 10 또는 확신도 < 0.5인 경우
- Ko-SRoBERTa로 재임베딩 → 유사도 재계산
3. 맥락 포함 임베딩
- "어디서?" + 직전 발화 → 결합 임베딩
- 선행사 포함 질문으로 확장 후 임베딩
효과:
- 의도 분류 정확도 21pt 향상 (challenge set 기준)
- 짧은 질문도 맥락과 결합하여 정확도 향상
6. 대화 로그 분석 기반 패턴 학습
이론적 배경:
- 웹 검색 결과: 대화 로그 분석을 통한 의도 인식 개선
- HITL 피드백 루프 활용 (
DOCS/journey/research/intent_classification/README.md)
구현 방법:
1. 실패한 질문 패턴 수집
- UNKNOWN으로 분류된 질문 + 직전 대화 맥락
- 리뷰 큐에 자동 진입 (low confidence)
2. 패턴 분석
- "어디서?" → 이전 의도가 calendar_event면 calendar_query
- "결과는?" → 이전 의도가 web_search면 web_search (재검색)
3. 규칙 기반 보완
- 패턴이 명확하면 FastPath에 규칙 추가
- 모호하면 LLM 프롬프트에 예시 추가
참고: Active Learning with Rationales (Sharma et al., 2015)
구현 우선순위
Phase 1: 즉시 적용 가능 (1-2주)
-
✅ Anaphora Resolution 기본 구현
- 지시어("그거", "결과") → 선행사 매칭
- 확장 질문 생성 로직
-
✅ 새로운 Intent 추가
- CANCEL_REQUEST, COMPARISON_QUERY, STATUS_CHECK, CAPABILITY_QUERY
- FastPath 패턴 매칭 추가
-
✅ 세션 active_action 필드 추가
- 부정 표현 처리 개선
Phase 2: 중기 개선 (1개월)
-
✅ Hybrid LLM-ML 임계값 검증 강화
- 맥락 확장 후 LLM 재검증
- 비용 효율성 유지
-
✅ Ko-SRoBERTa 고정밀 경로
- skill-embedding-highres 서비스 분리
- 짧은 질문 전용 경로
Phase 3: 장기 개선 (2-3개월)
-
✅ Redis 세션 마이그레이션
- 세션 영속성 확보
- TTL 확장 (10분 → 30분)
-
✅ 대화 로그 분석 자동화
- 실패 패턴 자동 학습
- 규칙 기반 보완 자동화
예상 효과
정량적 목표:
- 실패한 질문 18개 → 5개 이하로 감소 (72% → 22%)
- 짧은 후속 질문 정확도: 30% → 80% 이상
- 맥락 의존 질문 정확도: 30% → 70% 이상
정성적 개선:
- 사용자 경험: 자연스러운 대화 흐름 유지
- 시스템 신뢰도: 맥락 이해 능력 향상
- 운영 효율: UNKNOWN 감소로 리뷰 큐 부담 감소
참고 문헌
- Neural Anaphora Resolution in Dialogue Systems (2024)
- Hybrid LLM-ML Classification with Intelligent Threshold Verification (AppFolio, 2024)
- Multi-turn Dialogue State Tracking (DST) Research (2024-2025)
- Active Learning with Rationales (Sharma et al., 2015)
- Ko-SRoBERTa Runtime Evaluation (2025-11-15)
- Human-in-the-Loop Machine Learning (Narang)
작성일: 2025-12-23 상태: 연구 완료, 구현 대기