Claude Code gratis en local: tutorial sin humo (2025)

Instalar Ollama y Qwen Coder en VS Code: Tu IA privada

Instalar Ollama y Qwen Coder localmente

Categoría: Desarrollo / Inteligencia Artificial
Por Paco — Diario Vida IA. Promoviendo herramientas reales, sin humo.

Te voy a ser completamente honesto. Podría haber hecho un vídeo espectacular soltando humo sobre cómo «una nueva IA va a reemplazar a todos los programadores» usando herramientas de pago.

Pero prefiero el análisis honesto. Quería investigar a fondo si modelos gratuitos y locales como Qwen 2.5 Coder 7B valen realmente la pena para un programador en su día a día. ¿La respuesta corta? Sí, pero necesitas saber montarlo bien.

En este tutorial vamos a montar tu propio modelo de inteligencia artificial en tu PC. Privado. Gratis. Sin pagar APIs y sin que tu código viaje a los servidores de OpenAI o Anthropic. Lo vamos a conectar directamente a VS Code usando Ollama y Continue.dev.

⚠️ ANTES DE EMPEZAR: Verificación rápida de Hardware

Seamos realistas, esto no funciona en cualquier patata. Abre PowerShell y ejecuta esto para ver tu memoria real:

  • systeminfo | findstr /C:"Total Physical Memory"
  • RAM: Necesitas 16GB mínimo. Si tienes 8GB, olvídalo, vas a sufrir.
  • Disco Duro: Necesitas 15GB libres mínimo (5GB para el modelo + caché + margen).
  • GPU: Si tienes NVIDIA, genial (irá volando). Si no, funcionará usando la CPU, pero irá más lento.

Paso 1: Instalar Ollama (5 minutos)

Ollama es el motor que nos permite correr los modelos de IA localmente con una facilidad pasmosa.

  1. Ve a ollama.com/download/windows.
  2. Descarga OllamaSetup.exe y haz doble clic. No requiere permisos de administrador, se instala directo en tu cuenta de usuario.
  3. Al terminar, verás el icono de Ollama corriendo en segundo plano en la bandeja de tu sistema (abajo a la derecha).

Para verificar que todo ha ido bien, abre una ventana nueva de PowerShell y ejecuta:Copiar Comando

ollama --version

Nota: Si te dice «no se reconoce», cierra PowerShell y vuelve a abrirlo para que se actualice el PATH de Windows.

Paso 2: Mover los modelos a otra unidad (Truco Pro)

Por defecto, Ollama se comerá el espacio de tu disco principal (C:). Si tu unidad C: va justa de espacio, mueve la ubicación antes de descargar nada:

  1. Busca «Variables de entorno» en el menú de Inicio de Windows.
  2. Haz clic en «Editar variables de entorno del usuario».
  3. Crea una nueva variable con el nombre OLLAMA_MODELS y de valor ponle tu otra unidad, por ejemplo D:\ollama-models.
  4. Cierra Ollama desde la bandeja del sistema y vuélvelo a abrir. Listo.

Paso 3: Descargar Qwen 2.5 Coder 7B

Este es actualmente uno de los modelos abiertos más potentes para picar código, creado por Alibaba. Pesa unos 4.7GB, así que dale un rato a la barra de progreso.

En PowerShell ejecuta:Copiar Comando

ollama pull qwen2.5-coder:7b

Paso 4: Probar que funciona

Una vez descargado, vamos a encenderlo y probarlo directamente en la consola para asegurarnos de que tu máquina lo mueve bien.Copiar Comando

ollama run qwen2.5-coder:7b

Te abrirá un prompt interactivo. Pídele algo rápido, por ejemplo: «Escribe una función Python que valide un DNI español».

Si responde en menos de 15 segundos (sin GPU) o casi al instante (con GPU), tu setup funciona a la perfección. Para salir del chat de la consola, simplemente escribe /bye.

Paso 5: Instalar Continue.dev en VS Code

Tener un chat en la consola está bien, pero nosotros queremos la IA integrada en nuestro editor de código para que lea nuestros archivos y nos ayude de verdad.

  1. Abre VS Code.
  2. Ve a Extensiones (Ctrl+Shift+X) y busca «Continue».
  3. Instala la extensión oficial de Continue.dev. Te aparecerá su icono en la barra lateral.
  4. Haz clic en el icono y, cuando te lo ofrezca el asistente inicial, selecciona «Local with Ollama».

Si por algún motivo no te detecta el modelo automáticamente, o te pide configuración manual, puedes editar el archivo ~/.continue/config.json y añadir esto:Copiar Código

{
  "models": [
    {
      "title": "Qwen Coder 7B",
      "provider": "ollama",
      "model": "qwen2.5-coder:7b"
    }
  ]
}

El Test Final: Cómo saber si grabártelo a fuego en tu flujo de trabajo

Aquí viene la hora de la verdad. No te fíes de las demos de YouTube (ni siquiera de la mía). Coge código real tuyo. Yo hice el test refactorizando un script real de la Calculadora de Jornadas de Diario Vida, pero tú usa tu propio proyecto.

Pídele a Qwen vía el panel lateral de Continue.dev tres cosas fundamentales:

  • Refactor: «Refactoriza esta función para que sea más legible»
  • Tests: «Genera tests unitarios para esta función cubriendo casos límite»
  • Explicación: «Explica qué hace este código línea a línea»

El criterio honesto que debes usar es simple: Si las tres respuestas son útiles y puedes aplicarlas sin romper nada… enhorabuena, tienes un asistente de código de primer nivel, totalmente gratuito y que no envía ni una coma de tu código a internet.


¿Te ha gustado este artículo?

Únete a la newsletter. Recibe cada domingo herramientas de IA, programación y productividad probadas en la trinchera. Sin spam. Solo valor real.

  • ✔ Tips de IA prácticos cada semana.
  • ✔ Sistemas de productividad 100% útiles.
  • ✔ Herramientas analizadas de forma honesta.

🔒 MÁS DE 8.000 LECTORES YA RECIBEN LA NEWSLETTER CADA SEMANA Acepto recibir contenido semanal QUIERO MEJORAR MI VIDA

¿Te ha gustado este artículo?
Únete a la newsletter. Recibe cada domingo herramientas de IA y productividad probada. Sin spam. Solo valor real.
  • ✅ Tips de IA práctica cada semana
  • ✅ Sistemas de constancia de 500+ días
  • ✅ Herramientas probadas (no teoría)
🎁 REGALO: Recibe Prompts y Material Gratuito cada 15 dias.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *