DOCS/journey/troubleshooting/250906_gemini_model_optimization.md
Claude-51124 61f926fde2 docs: Gemini 2.5 Flash-Lite 기본값 통일 및 하드코딩 제거 반영
- LLM_모델_비교_분석.md: config.py 기본값 설명 추가
- 250906_gemini_model_optimization.md: 하드코딩 제거 및 config.py 기본값 변경 내용 추가
2025-12-24 15:33:56 +09:00

1.4 KiB

Gemini 모델 최적화: gemini-2.5-flash-lite 전환

작성일: 2025-09-06

작성자: happybell80

문제 상황

  • 여러 서비스에서 서로 다른 Gemini 모델 사용 (1.5-flash, 2.5-flash)
  • 하드코딩된 모델명으로 인한 관리 어려움
  • 비용 및 성능 최적화 필요

해결 과정

  1. 테스트 결과: gemini-2.5-flash-lite가 가장 빠름 (0.93초)
  2. 모든 서비스에 환경변수 GEMINI_MODEL 도입
  3. 기본값을 gemini-2.5-flash-lite로 통일

수정 파일

  • skill_news/app/services/news_summarizer.py
  • company-x_hompage/src/collectors/summarize_news.py
  • rb8001/app/llm/gemini_handler.py
  • rb8001/app/llm/llm_service.py

추가 개선 (2025-12-19)

  • config.py 기본값을 "gpt-4"에서 "gemini-2.5-flash-lite"로 변경
  • 하드코딩된 폴백 값 제거: ir_analyzer.py, naverworks_briefing.py에서 os.getenv("DEFAULT_LLM_MODEL", "gemini-2.5-flash-lite")settings.DEFAULT_LLM_MODEL로 통일
  • 모든 서비스가 settings.DEFAULT_LLM_MODEL을 일관되게 사용하도록 개선

교훈

  • 환경변수로 모델 관리하면 서버별 최적화 가능
  • 최신 lite 모델이 구버전보다 빠르고 저렴 (35% 속도 향상, 4배 비용 절감)
  • 하드코딩된 폴백 값 제거로 설정 일관성 확보, config.py 기본값 변경으로 환경변수 미설정 시에도 올바른 모델 사용