docs: 한국어 7감정 분류 모델 학습 가이드 추가

- AI Hub 표준 7개 감정 (Ekman 기반) 학습 방법
- 단일/멀티 GPU 학습 명령어
- 온도 보정 및 ONNX 자동 변환
- 예상 학습 시간 (RTX 3060 기준)
- 51124 서버 연동 방법
This commit is contained in:
Claude-51124 2025-08-08 14:40:41 +09:00
parent e97b3e614c
commit 2827cd1fb7

View File

@ -0,0 +1,176 @@
# 한국어 7감정 분류 모델 학습 가이드
작성일: 2025년 8월 8일
작성자: happybell80 & Claude
## 개요
AI Hub 표준 7개 감정(Ekman 기반) 분류 모델 학습을 위한 가이드입니다.
## 7개 감정 카테고리
```
fear, surprise, anger, sadness, neutral, happiness, disgust
```
## 데이터 준비
### CSV 형식
```csv
text,label
"오늘 정말 기분이 좋아요!",happiness
"갑자기 놀랐어요",surprise
"너무 화가 나요",anger
```
### 파일 구조
```
data/
├── train.csv # 학습 데이터
├── val.csv # 검증 데이터
└── test.csv # 테스트 데이터
```
## 학습 명령어
### 단일 GPU (RTX 3060)
```bash
python train_korean_emotion.py \
--model_name klue/bert-base \
--train_csv data/train.csv \
--val_csv data/val.csv \
--test_csv data/test.csv \
--output_dir outputs/kemo-bert-base \
--epochs 4 \
--batch_size 32 \
--max_len 128 \
--lr 2e-5 \
--fp16
```
### 멀티 GPU (2×RTX 3060)
```bash
accelerate launch train_korean_emotion.py \
--model_name klue/bert-base \
--train_csv data/train.csv \
--val_csv data/val.csv \
--test_csv data/test.csv \
--output_dir outputs/kemo-bert-base \
--epochs 4 \
--batch_size 32 \
--max_len 128 \
--lr 2e-5 \
--fp16
```
## 예상 학습 시간
### 하드웨어: i9 + 32GB RAM + RTX 3060 12GB × 2
- **단일 GPU**: 3 epochs 25-45분, 5 epochs 45-75분
- **듀얼 GPU**: 3 epochs 15-30분, 5 epochs 30-50분
## 주요 옵션
- `--use_class_weights`: 클래스 불균형 완화
- `--export_onnx`: ONNX 변환만 실행
- `--fp16`: 혼합 정밀도 학습 (메모리 절약)
## 산출물
```
outputs/kemo-bert-base/
├── pytorch_model.bin # 학습된 모델
├── config.json # 모델 설정
├── tokenizer_config.json # 토크나이저 설정
├── calibration.json # 온도 보정값
├── metrics.json # 성능 지표
└── model.onnx # ONNX 변환 (자동)
```
## 핵심 특징
### 1. 온도 보정 (Temperature Scaling)
- 검증 데이터로 자동 캘리브레이션
- 과신뢰 문제 해결
- `calibration.json`에 최적 온도 저장
### 2. 평가 지표
- **Macro F1**: 클래스별 균형 성능
- **ECE**: 신뢰도 캘리브레이션 오차
- **Brier Score**: 확률 예측 정확도
### 3. ONNX 자동 변환
- 학습 완료 후 자동 변환 시도
- 실패 시 `--export_onnx`로 재실행
## 51124 서버 연동
### 1. 로컬에서 학습 완료 후
```bash
# 모델 파일 압축
tar -czf kemo-bert-base.tar.gz outputs/kemo-bert-base/
```
### 2. 51124 서버로 전송
```bash
scp kemo-bert-base.tar.gz admin@51124:/home/admin/ivada_project/
```
### 3. 서버에서 ONNX 검증
```python
# 이미 .onnx 파일이 있으면 바로 사용
# 없으면 서버에서 변환
python convert_to_onnx.py --model_dir outputs/kemo-bert-base
```
## 추론 시 온도 보정 적용
```python
import json
import torch
# 캘리브레이션 로드
with open("calibration.json") as f:
T = json.load(f)["temperature"]
# 추론
logits = model(inputs)
calibrated_logits = logits / T
probs = torch.softmax(calibrated_logits, dim=-1)
```
## AI Hub 데이터 변환 예시
```python
import pandas as pd
# AI Hub 형식 → 학습 형식
df = pd.read_csv("aihub_emotion.csv")
df_train = pd.DataFrame({
"text": df["sentence"],
"label": df["emotion"].str.lower() # 소문자 변환
})
df_train.to_csv("data/train.csv", index=False)
```
## 문제 해결
### CUDA Out of Memory
- `--batch_size` 줄이기 (32 → 16)
- `--max_len` 줄이기 (128 → 64)
- `--fp16` 추가
### ONNX 변환 실패
```bash
# 별도 실행
python train_korean_emotion.py \
--export_onnx \
--output_dir outputs/kemo-bert-base
```
## 참고사항
- **모델 선택**: `klue/bert-base` 권장 (한국어 특화)
- **데이터 크기**: 39,000 문장 기준
- **최적 epochs**: 3-5 (과적합 주의)
- **학습률**: 2e-5 (BERT 계열 표준)