diff --git a/journey/research/LLM_모델_비교_분석.md b/journey/research/LLM_모델_비교_분석.md index 680376d..0c30264 100644 --- a/journey/research/LLM_모델_비교_분석.md +++ b/journey/research/LLM_모델_비교_분석.md @@ -145,11 +145,13 @@ ANTHROPIC_API_KEY=(Anthropic API 키) DEFAULT_LLM_MODEL=gemini-2.5-flash-lite ``` +**참고**: 기본값은 `rb8001/app/core/config.py`에서 `gemini-2.5-flash-lite`로 설정되어 있으며, 환경변수 `DEFAULT_LLM_MODEL`로 오버라이드 가능합니다. + ### 사용 예시 ```python # 환경변수에서 기본 모델 가져오기 (권장) from app.core.config import settings -default_model = settings.DEFAULT_LLM_MODEL # "gemini-2.5-flash-lite" +default_model = settings.DEFAULT_LLM_MODEL # "gemini-2.5-flash-lite" (기본값) # 모델 선택 로직 if task_type == "general": diff --git a/journey/troubleshooting/250906_gemini_model_optimization.md b/journey/troubleshooting/250906_gemini_model_optimization.md index 8029bce..39ba3db 100644 --- a/journey/troubleshooting/250906_gemini_model_optimization.md +++ b/journey/troubleshooting/250906_gemini_model_optimization.md @@ -19,6 +19,12 @@ - rb8001/app/llm/gemini_handler.py - rb8001/app/llm/llm_service.py +## 추가 개선 (2025-12-19) +- `config.py` 기본값을 `"gpt-4"`에서 `"gemini-2.5-flash-lite"`로 변경 +- 하드코딩된 폴백 값 제거: `ir_analyzer.py`, `naverworks_briefing.py`에서 `os.getenv("DEFAULT_LLM_MODEL", "gemini-2.5-flash-lite")` → `settings.DEFAULT_LLM_MODEL`로 통일 +- 모든 서비스가 `settings.DEFAULT_LLM_MODEL`을 일관되게 사용하도록 개선 + ## 교훈 - 환경변수로 모델 관리하면 서버별 최적화 가능 -- 최신 lite 모델이 구버전보다 빠르고 저렴 (35% 속도 향상, 4배 비용 절감) \ No newline at end of file +- 최신 lite 모델이 구버전보다 빠르고 저렴 (35% 속도 향상, 4배 비용 절감) +- 하드코딩된 폴백 값 제거로 설정 일관성 확보, `config.py` 기본값 변경으로 환경변수 미설정 시에도 올바른 모델 사용 \ No newline at end of file