- LLM_모델_비교_분석.md: config.py 기본값 설명 추가 - 250906_gemini_model_optimization.md: 하드코딩 제거 및 config.py 기본값 변경 내용 추가
1.4 KiB
1.4 KiB
Gemini 모델 최적화: gemini-2.5-flash-lite 전환
작성일: 2025-09-06
작성자: happybell80
문제 상황
- 여러 서비스에서 서로 다른 Gemini 모델 사용 (1.5-flash, 2.5-flash)
- 하드코딩된 모델명으로 인한 관리 어려움
- 비용 및 성능 최적화 필요
해결 과정
- 테스트 결과: gemini-2.5-flash-lite가 가장 빠름 (0.93초)
- 모든 서비스에 환경변수 GEMINI_MODEL 도입
- 기본값을 gemini-2.5-flash-lite로 통일
수정 파일
- skill_news/app/services/news_summarizer.py
- company-x_hompage/src/collectors/summarize_news.py
- rb8001/app/llm/gemini_handler.py
- rb8001/app/llm/llm_service.py
추가 개선 (2025-12-19)
config.py기본값을"gpt-4"에서"gemini-2.5-flash-lite"로 변경- 하드코딩된 폴백 값 제거:
ir_analyzer.py,naverworks_briefing.py에서os.getenv("DEFAULT_LLM_MODEL", "gemini-2.5-flash-lite")→settings.DEFAULT_LLM_MODEL로 통일 - 모든 서비스가
settings.DEFAULT_LLM_MODEL을 일관되게 사용하도록 개선
교훈
- 환경변수로 모델 관리하면 서버별 최적화 가능
- 최신 lite 모델이 구버전보다 빠르고 저렴 (35% 속도 향상, 4배 비용 절감)
- 하드코딩된 폴백 값 제거로 설정 일관성 확보,
config.py기본값 변경으로 환경변수 미설정 시에도 올바른 모델 사용