DOCS/journey/research/context_followup_question_solutions.md

10 KiB

짧은 후속 질문 및 맥락 의존 질문 해결 방법 연구

작성일: 2025-12-23 목적: 실패하는 질문 18개 해결을 위한 구체적 방법론 제시 참고: 테스트 결과 rb8001/tests/test_failed_questions_results.md


문제 요약

실패한 질문 유형:

  1. 짧은 후속 질문 (컨텍스트 필요): "어디서?", "언제?", "누구랑?", "뭐야?"
  2. 맥락 의존 질문: "그거 어떻게 됐어?", "결과는?", "그럼 어떻게 할까?"
  3. 모호한 질문: "어떻게 생각해?", "괜찮아?"
  4. 부정/거부 표현: "안 해도 돼", "취소해줘", "보내지 마"
  5. 비교/선택 질문: "어느 게 나아?", "A와 B 중에 뭐가 좋아?"
  6. 시간 관련 모호한 질문: "언제 했어?"
  7. 상태 확인: "지금 뭐 하고 있어?", "작업 끝났어?"
  8. 정보 요청: "너는 뭘 할 수 있어?"

현재 상태: CONTEXT_FOLLOWUP Intent는 구현되어 있으나 패턴 매칭이 제대로 작동하지 않음


해결 방법론 (연구 기반)

0. LLM 기반 직접 발화 확장 (Question Expansion)

이론적 배경:

  • 최신 연구(2024-2025): LLM을 활용한 질문 확장(Question Expansion) 기법
  • Few-shot prompting으로 짧은 질문을 맥락 포함 완전한 질문으로 변환
  • 코드베이스에 이미 유사 구현 존재: message_router.py:_resolve_pronoun_via_llm (대명사 해소)

현재 구현 상태:

  • message_service.py:225: CONTEXT_FOLLOWUP 시 컨텍스트를 추가하지만 질문 자체는 확장하지 않음
  • message_router.py:268: 대명사 해소는 구현되어 있으나 짧은 질문 확장은 미구현

구현 방법:

1. 짧은 질문 감지 (len <= 10 또는 패턴 매칭)
2. LLM에 질문 확장 요청 (Few-shot 예시 포함)
3. 확장된 질문으로 의도 분류 재시도

프롬프트 템플릿:
"다음은 짧은 후속 질문입니다. 직전 대화 맥락을 참고하여 완전한 질문으로 확장하세요.

예시:
- 직전: "11월 18일 오전 6시 40분에 검진이 있습니다"
- 짧은 질문: "어디서?"
- 확장: "검진은 어디서 하시나요?"

- 직전: "이메일 보냈어"
- 짧은 질문: "결과는?"
- 확장: "이메일 발송 결과는 어떻게 되었나요?"

직전 대화:
사용자: {previous_message}
로빙: {previous_response}

현재 짧은 질문: {message}

확장된 질문만 출력하세요:"

장점:

  • 구현이 간단하고 즉시 적용 가능
  • LLM의 자연어 이해 능력 활용
  • Few-shot 예시로 정확도 향상

단점:

  • LLM 호출 비용 증가 (짧은 질문마다 추가 호출)
  • 응답 지연 시간 증가 (약 500ms-1s)

비용 최적화:

  • 확신도 < 0.5인 경우에만 확장 시도
  • 확장된 질문을 캐싱하여 동일 패턴 재사용
  • 배치 처리로 여러 짧은 질문을 한 번에 확장

참고 구현:

  • rb8001/app/router/message_router.py:268-317: 대명사 해소 유사 패턴
  • rb8001/app/services/message_service.py:206-228: CONTEXT_FOLLOWUP 처리

1. Anaphora Resolution (지시어 해석) 기법

이론적 배경:

  • 대화 시스템에서 "그거", "결과", "그럼" 같은 지시어(anaphora)는 이전 대화의 선행사(antecedent)를 참조
  • 최신 연구(2024-2025)에서는 Transformer 기반 모델이 anaphora resolution에서 우수한 성능

구현 방법:

1. 최근 N턴 대화에서 명사구/엔티티 추출
2. 현재 질문의 지시어("그거", "결과")와 선행사 후보 매칭
3. 임베딩 유사도로 가장 가능성 높은 선행사 선택
4. 선행사를 포함한 확장 질문 생성 → LLM에 전달

예시:

  • 입력: "그거 어떻게 됐어?"
  • 이전 대화: "이메일 보냈어" → 선행사: "이메일"
  • 확장: "이메일 어떻게 됐어?" → 정확한 의도 분류 가능

참고 논문: Neural Anaphora Resolution in Dialogue Systems (2024)


2. Hybrid LLM-ML 임계값 검증 (AppFolio 2024)

이론적 배경:

  • DOCS/journey/research/memory/classification/2024_hybrid_llm_ml_threshold.md 참고
  • ML 모델로 1차 분류, 확신도 낮은 케이스만 LLM 재검증
  • 비용 효율적이면서 정확도 향상

현재 문제:

  • 짧은 질문이 UNKNOWN으로 분류되면 바로 LLM으로 가지만, 맥락 없이 처리됨

개선 방안:

1. FastPath (정규식) → 실패
2. SemanticIntentClassifier (임베딩) → 확신도 < 0.5
3. 맥락 확장 (Anaphora Resolution) → 선행사 포함 질문 생성
4. LLM 재검증 → 맥락 포함 질문으로 의도 분류

효과:

  • 75% 케이스 자동화 유지
  • 맥락 포함으로 LLM 정확도 향상
  • 비용 증가 최소화 (10-20% 범위)

3. 세션 기반 슬롯 관리 강화

이론적 배경:

  • DOCS/journey/troubleshooting/251117_short_followup_context_3phase_implementation.md 참고
  • 현재 SessionManager는 구현되어 있으나 Redis 미마이그레이션 상태

문제:

  • "취소해줘", "보내지 마" 같은 부정 표현이 무엇을 취소/거부하는지 맥락 필요
  • 세션 슬롯에 현재 진행 중인 작업 정보가 없음

개선 방안:

1. 세션 슬롯에 "active_action" 필드 추가
   - 예: {active_action: "email_send", recipient: "김팀장", subject: "일정 확인"}
   
2. 부정 표현 감지 시 active_action 참조
   - "취소해줘" → active_action이 "calendar_event"면 calendar_delete
   - "보내지 마" → active_action이 "email_send"면 email_send_approval (거부)
   
3. Redis 마이그레이션으로 세션 영속성 확보
   - 서버 재시작 시에도 세션 유지
   - TTL 10분 → 30분으로 확장 (복잡한 작업 대응)

참고: Multi-turn Dialogue State Tracking (DST) 연구 (2024-2025)


4. 의도 확장: 새로운 Intent 추가

필요한 Intent:

  1. CANCEL_REQUEST: 취소/거부 의도

    • 패턴: "취소해줘", "안 해도 돼", "보내지 마", "하지 마"
    • 처리: active_action 참조하여 구체적 취소 액션 결정
  2. COMPARISON_QUERY: 비교/선택 질문

    • 패턴: "어느 게 나아?", "A와 B 중에 뭐가 좋아?", "비교해줘"
    • 처리: 이전 대화에서 비교 대상 추출, LLM으로 비교 분석
  3. STATUS_CHECK: 상태 확인 질문

    • 패턴: "작업 끝났어?", "지금 뭐 하고 있어?", "진행 상황은?"
    • 처리: 세션의 active_action 상태 확인, 진행률 반환
  4. CAPABILITY_QUERY: 기능 조회

    • 패턴: "너는 뭘 할 수 있어?", "기능 알려줘", "할 수 있는 일은?"
    • 처리: IntentType 목록을 자연어로 변환하여 반환

5. Ko-SRoBERTa 임베딩 활용 (고정밀 경로)

이론적 배경:

  • DOCS/journey/research/memory/embedding_search/2025_ko_sroberta_runtime_eval.md 참고
  • Ko-SRoBERTa는 의도 분류에서 75% 정확도 (기존 53.6% → 75.0%)

현재 문제:

  • SemanticIntentClassifier가 skill-embedding(384d) 사용 중
  • 짧은 질문의 임베딩 유사도가 낮아 UNKNOWN으로 분류

개선 방안:

1. 고정밀 파이프라인 전용 Ko-SRoBERTa 서비스 분리
   - skill-embedding-highres (768d) 신규 서비스
   
2. 짧은 질문/맥락 의존 질문은 고정밀 경로 사용
   - len(message) <= 10 또는 확신도 < 0.5인 경우
   - Ko-SRoBERTa로 재임베딩 → 유사도 재계산
   
3. 맥락 포함 임베딩
   - "어디서?" + 직전 발화 → 결합 임베딩
   - 선행사 포함 질문으로 확장 후 임베딩

효과:

  • 의도 분류 정확도 21pt 향상 (challenge set 기준)
  • 짧은 질문도 맥락과 결합하여 정확도 향상

6. 대화 로그 분석 기반 패턴 학습

이론적 배경:

  • 웹 검색 결과: 대화 로그 분석을 통한 의도 인식 개선
  • HITL 피드백 루프 활용 (DOCS/journey/research/intent_classification/README.md)

구현 방법:

1. 실패한 질문 패턴 수집
   - UNKNOWN으로 분류된 질문 + 직전 대화 맥락
   - 리뷰 큐에 자동 진입 (low confidence)
   
2. 패턴 분석
   - "어디서?" → 이전 의도가 calendar_event면 calendar_query
   - "결과는?" → 이전 의도가 web_search면 web_search (재검색)
   
3. 규칙 기반 보완
   - 패턴이 명확하면 FastPath에 규칙 추가
   - 모호하면 LLM 프롬프트에 예시 추가

참고: Active Learning with Rationales (Sharma et al., 2015)


구현 우선순위

Phase 1: 즉시 적용 가능 (1-2주)

  1. Anaphora Resolution 기본 구현

    • 지시어("그거", "결과") → 선행사 매칭
    • 확장 질문 생성 로직
  2. 새로운 Intent 추가

    • CANCEL_REQUEST, COMPARISON_QUERY, STATUS_CHECK, CAPABILITY_QUERY
    • FastPath 패턴 매칭 추가
  3. 세션 active_action 필드 추가

    • 부정 표현 처리 개선

Phase 2: 중기 개선 (1개월)

  1. Hybrid LLM-ML 임계값 검증 강화

    • 맥락 확장 후 LLM 재검증
    • 비용 효율성 유지
  2. Ko-SRoBERTa 고정밀 경로

    • skill-embedding-highres 서비스 분리
    • 짧은 질문 전용 경로

Phase 3: 장기 개선 (2-3개월)

  1. Redis 세션 마이그레이션

    • 세션 영속성 확보
    • TTL 확장 (10분 → 30분)
  2. 대화 로그 분석 자동화

    • 실패 패턴 자동 학습
    • 규칙 기반 보완 자동화

예상 효과

정량적 목표:

  • 실패한 질문 18개 → 5개 이하로 감소 (72% → 22%)
  • 짧은 후속 질문 정확도: 30% → 80% 이상
  • 맥락 의존 질문 정확도: 30% → 70% 이상

정성적 개선:

  • 사용자 경험: 자연스러운 대화 흐름 유지
  • 시스템 신뢰도: 맥락 이해 능력 향상
  • 운영 효율: UNKNOWN 감소로 리뷰 큐 부담 감소

참고 문헌

  1. Neural Anaphora Resolution in Dialogue Systems (2024)
  2. Hybrid LLM-ML Classification with Intelligent Threshold Verification (AppFolio, 2024)
  3. Multi-turn Dialogue State Tracking (DST) Research (2024-2025)
  4. Active Learning with Rationales (Sharma et al., 2015)
  5. Ko-SRoBERTa Runtime Evaluation (2025-11-15)
  6. Human-in-the-Loop Machine Learning (Narang)

작성일: 2025-12-23 상태: 연구 완료, 구현 대기