- 7-8월 초기 구축 문서 12개를 _archive/troubleshooting/2025_07-08_initial_setup/로 이동 - book/300_architecture/390_human_in_the_loop_intent_learning.md를 journey/research/intent_classification/로 이동 (개발 여정 문서) - 빈 폴더 제거 (journey/assets/*)
23 lines
959 B
Markdown
23 lines
959 B
Markdown
# Memory · Classification
|
|
|
|
Ko-SRoBERTa 기반 의미 검색과 고전적인 ML 분류(나이브 베이즈 등)를 결합해 의도/메모리 분류 정확도를 높이기 위한 연구 노트 모음입니다.
|
|
|
|
## 포함 문서
|
|
|
|
| 파일 | 요약 |
|
|
|------|------|
|
|
| `2024_bert_embedding_feature_selection.md` | BERT 임베딩에서 상위 특징을 선택해 메모리 검색 성능을 높이는 방법 |
|
|
| `2024_hybrid_llm_ml_threshold.md` | LLM Confidence + ML 임계값을 조합한 하이브리드 분류 전략 |
|
|
|
|
## 어떻게 읽나
|
|
|
|
1. `2024_hybrid_llm_ml_threshold.md` → 현재 의도 분류기의 threshold 설계 근거
|
|
2. `2024_bert_embedding_feature_selection.md` → 임베딩 후처리/축약 기법
|
|
3. 의도 분류 흐름 전체는 `DOCS/research/intent_classification/README.md`와 연결
|
|
|
|
## TODO
|
|
|
|
- PT4AL 기반 쿼리 전략 실험 결과 추가
|
|
- 의도 재학습 배치 결과 공유
|
|
- ko-SRoBERTa fine-tuning 실험 로그 업로드
|