DOCS/journey/troubleshooting/250906_gemini_model_optimization.md
Claude-51124 61f926fde2 docs: Gemini 2.5 Flash-Lite 기본값 통일 및 하드코딩 제거 반영
- LLM_모델_비교_분석.md: config.py 기본값 설명 추가
- 250906_gemini_model_optimization.md: 하드코딩 제거 및 config.py 기본값 변경 내용 추가
2025-12-24 15:33:56 +09:00

30 lines
1.4 KiB
Markdown

# Gemini 모델 최적화: gemini-2.5-flash-lite 전환
## 작성일: 2025-09-06
## 작성자: happybell80
## 문제 상황
- 여러 서비스에서 서로 다른 Gemini 모델 사용 (1.5-flash, 2.5-flash)
- 하드코딩된 모델명으로 인한 관리 어려움
- 비용 및 성능 최적화 필요
## 해결 과정
1. 테스트 결과: gemini-2.5-flash-lite가 가장 빠름 (0.93초)
2. 모든 서비스에 환경변수 GEMINI_MODEL 도입
3. 기본값을 gemini-2.5-flash-lite로 통일
## 수정 파일
- skill_news/app/services/news_summarizer.py
- company-x_hompage/src/collectors/summarize_news.py
- rb8001/app/llm/gemini_handler.py
- rb8001/app/llm/llm_service.py
## 추가 개선 (2025-12-19)
- `config.py` 기본값을 `"gpt-4"`에서 `"gemini-2.5-flash-lite"`로 변경
- 하드코딩된 폴백 값 제거: `ir_analyzer.py`, `naverworks_briefing.py`에서 `os.getenv("DEFAULT_LLM_MODEL", "gemini-2.5-flash-lite")``settings.DEFAULT_LLM_MODEL`로 통일
- 모든 서비스가 `settings.DEFAULT_LLM_MODEL`을 일관되게 사용하도록 개선
## 교훈
- 환경변수로 모델 관리하면 서버별 최적화 가능
- 최신 lite 모델이 구버전보다 빠르고 저렴 (35% 속도 향상, 4배 비용 절감)
- 하드코딩된 폴백 값 제거로 설정 일관성 확보, `config.py` 기본값 변경으로 환경변수 미설정 시에도 올바른 모델 사용