LiteLLM + Ollama Cloud/OpenRouter model drift kontrolü yapar, config farklarını çıkarır, kullanıcı onayıyla yeni modelleri ekler, LiteLLM'i yeniden başlatır ve çalıştığını doğrular. Use when user asks to sync/update/add new frontier models, check LiteLLM health/config, or compare cloud model catalogs.
Bu skill, LiteLLM kurulumunda model listesi drift'ini (Ollama Cloud + OpenRouter) tespit eder ve kullanıcı onayıyla güvenli şekilde günceller.
config.yaml içindeki model tanımlarını analiz et/Users/user/projects/litellm-proxy/config.yaml/Users/user/projects/litellm-proxyhttps://ollama.com/v1/modelshttps://ollama.com/search?c=cloudhttps://openrouter.ai/collections/free-modelsdocker ps ile LiteLLM container durumunu kontrol et.config.yaml varlığını doğrula.model_list içinde Ollama/OpenRouter kayıtları var mı bak.Eğer LiteLLM hiç yoksa:
Config içinde aşağıdakileri kontrol et:
api_base ve api_keyapi_keyEksikse kullanıcıdan iste:
Not: Anahtarları çıktıda maskele (xxxx...abcd), tam değeri yazma.
https://ollama.com/v1/models çağır - Ollama Cloud model listesihttps://openrouter.ai/collections/free-models sayfasını çek - OpenRouter free modellerTABLO 1: Ollama Cloud
| Durum | Sayı |
|---|---|
| Config'de mevcut | X |
| Cloud'da yeni aday | Y |
| Bizde olup cloud'da olmayan (eski) | Z |
TABLO 2: OpenRouter Free Models
| Durum | Sayı |
|---|---|
| Config'de mevcut | X |
| Free models'de yeni aday | Y |
Yeni aday detayları (her tablo için ayrı liste): Her provider için config'te olmayan modeleri ayrı listele:
Her provider için ayrı seçenek sun:
Onay olmadan config'e yazma.
Mevcut pattern'i koru:
Ollama Cloud kayıtları:
model_name: ollama/<model>-<index>litellm_params.model: openai/<model>api_base: https://ollama.com/v1api_key: mevcut index dağıtımına göre çoğaltOpenRouter kayıtları:
model_name: openrouter/<alias>-<index> veya mevcut şablona uygun isimlitellm_params.model: openrouter/<provider_model>api_key: mevcut dağıtım pattern'iYAML düzeni:
docker compose restart litellm-proxyGET /v1/models ile yeni model id'lerinin göründüğünü doğrulachat/completions smoke test çalıştırNot: health endpoint auth bekliyorsa 401/timeout olabilir; bu durumda doğrulamada /v1/models + completion testini esas al.
Şunları raporla:
# Config'teki modelleri gör
python3 - <<'PY'
import yaml, pathlib
p=pathlib.Path('/Users/user/projects/litellm-proxy/config.yaml')
d=yaml.safe_load(p.read_text())
print(len(d.get('model_list',[])))
PY
# LiteLLM model listesi
curl -s -H "Authorization: Bearer <LITELLM_MASTER_KEY>" http://localhost:4000/v1/models
# Smoke test
curl -s -X POST http://localhost:4000/v1/chat/completions \
-H "Authorization: Bearer <LITELLM_MASTER_KEY>" \
-H "Content-Type: application/json" \
-d '{"model":"ollama/glm-5.1-1","messages":[{"role":"user","content":"Reply OK"}],"max_tokens":80}'