Skip to content

Instantly share code, notes, and snippets.

@sidlors
Last active December 19, 2025 21:11
Show Gist options
  • Select an option

  • Save sidlors/3ebba2b296eb76d3cfaf081ed774f9e8 to your computer and use it in GitHub Desktop.

Select an option

Save sidlors/3ebba2b296eb76d3cfaf081ed774f9e8 to your computer and use it in GitHub Desktop.
tmuxai terminal with AI
# ~/.config/tmuxai/config.yaml
models:
primary:
provider: openrouter
# --- MODELO PRINCIPAL: Diagnóstico profundo y razonamiento ---
model: deepseek/deepseek-r1-0528:free
# --- ALTERNATIVAS RÁPIDAS (Descomenta solo UNA línea 'model:' a la vez) ---
# Para desarrollo de código y explicaciones claras:
# model: google/gemma-3-12b-it:free
# Para análisis de negocio y contexto general (NO gratuito, pero económico):
# model: anthropic/claude-3-haiku
# Para razonamiento estructurado y 'thinking' (alternativa a DeepSeek):
# model: qwen/qwen3-30b-a3b-thinking-2507
# Para diagnóstico y código (equilibrio velocidad/calidad):
# model: meta-llama/llama-3.2-3b-instruct:free
# Para código y respuestas concisas:
# model: qwen/qwen-2.5-7b-instruct
# Clásico confiable para tareas generales:
# model: mistralai/mistral-7b-instruct:free
api_key: "<<api_key_from_openrouter.ia>>"
parameters:
temperature: 0.2 # Baja para precisión en diagnóstico/código
max_tokens: 1024 # Suficiente para respuestas técnicas
#top_p: 0.9 # (0.0-1.0) Control de diversidad
#frequency_penalty: 0.0 # (-2.0 a 2.0) Penaliza repeticiones
#presence_penalty: 0.0 # (-2.0 a 2.0) Penaliza temas repetidos
# --- MODELOS SECUNDARIOS DEFINIDOS (Usa con /model <nombre> en TmuxAI) ---
qwen-coder:
provider: openrouter
model: qwen/qwen-2.5-7b-instruct
api_key: "<<api_key_from_openrouter.ia>>"
parameters:
temperature: 0.3
max_tokens: 1024
llama-fast:
provider: openrouter
model: meta-llama/llama-3.2-3b-instruct:free
api_key: "<<api_key_from_openrouter.ia>>"
parameters:
temperature: 0.4
max_tokens: 1024
ui:
show_tokens: false # Muestra contador de tokens usados
streaming: true # Respuestas en tiempo real (streaming)
multiline: true # Soporte para entradas multi-línea
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment