# Gemini 모델 최적화: gemini-2.5-flash-lite 전환 ## 작성일: 2025-09-06 ## 작성자: happybell80 ## 문제 상황 - 여러 서비스에서 서로 다른 Gemini 모델 사용 (1.5-flash, 2.5-flash) - 하드코딩된 모델명으로 인한 관리 어려움 - 비용 및 성능 최적화 필요 ## 해결 과정 1. 테스트 결과: gemini-2.5-flash-lite가 가장 빠름 (0.93초) 2. 모든 서비스에 환경변수 GEMINI_MODEL 도입 3. 기본값을 gemini-2.5-flash-lite로 통일 ## 수정 파일 - skill_news/app/services/news_summarizer.py - company-x_hompage/src/collectors/summarize_news.py - rb8001/app/llm/gemini_handler.py - rb8001/app/llm/llm_service.py ## 추가 개선 (2025-12-19) - `config.py` 기본값을 `"gpt-4"`에서 `"gemini-2.5-flash-lite"`로 변경 - 하드코딩된 폴백 값 제거: `ir_analyzer.py`, `naverworks_briefing.py`에서 `os.getenv("DEFAULT_LLM_MODEL", "gemini-2.5-flash-lite")` → `settings.DEFAULT_LLM_MODEL`로 통일 - 모든 서비스가 `settings.DEFAULT_LLM_MODEL`을 일관되게 사용하도록 개선 ## 교훈 - 환경변수로 모델 관리하면 서버별 최적화 가능 - 최신 lite 모델이 구버전보다 빠르고 저렴 (35% 속도 향상, 4배 비용 절감) - 하드코딩된 폴백 값 제거로 설정 일관성 확보, `config.py` 기본값 변경으로 환경변수 미설정 시에도 올바른 모델 사용