Qué es el vibe coding y por qué todo el mundo habla de eso en 2026
El término vibe coding lo popularizó Andrej Karpathy en febrero de 2025 con un tuit que decía algo así como "ya no escribo código, le describo a la IA lo que quiero y ella lo hace; superviso un poco y acepto los cambios". En quince meses esa idea ha pasado de ser una broma de un ingeniero famoso a la forma real en que se construye software en startups, agencias y, cada vez más, también en grandes empresas.
La pregunta interesante en 2026 ya no es ¿usas IA para programar? (la respuesta es sí en el 80% de los devs profesionales, según la encuesta anual de Stack Overflow), sino ¿cuál usas, cómo la integras en tu flujo y qué precauciones tomas para no acabar con un repo lleno de código que no entiendes?. Este artículo aborda esas tres preguntas.
Antes de entrar en herramientas, una aclaración: vibe coding no significa "tirar prompts a ciegas". Los desarrolladores que mejores resultados sacan lo tratan como un pair programming serio donde la IA es el junior que escribe rápido y el humano es el senior que revisa, estructura el problema, pone pruebas y rechaza decisiones malas. La diferencia frente al pair programming clásico es que el junior trabaja a 200 palabras por minuto y nunca se cansa. Pero también olvida cosas, inventa APIs y te recomienda librerías deprecated cuando le conviene.
Breve historia: de IntelliSense a los agentes
Para entender lo que cambió en 2025-2026, conviene recordar de dónde venimos:
- 2003-2010: autocompletado básico (IntelliSense, Eclipse). Sugiere identificadores que ya existen en tu proyecto.
- 2018: TabNine usa modelos de lenguaje pequeños para sugerir líneas más largas.
- 2021: GitHub Copilot lanza con OpenAI Codex. Por primera vez una IA escribe funciones enteras a partir de un comentario.
- 2023: ChatGPT-4 demuestra que un LLM general puede mantener una conversación larga sobre código y refactorizar arquitecturas enteras. Empiezan los IDEs con chat lateral integrado (Cursor, Continue, JetBrains AI).
- 2024: Anthropic publica el Model Context Protocol (MCP), un estándar abierto para que las IAs hablen con tus herramientas (filesystem, git, base de datos, navegador). Es la pieza que faltaba para que la IA no solo sugiera código, sino que ejecute acciones.
- 2025: nacen los agentes. Claude Code, Cursor Composer, Copilot Workspace. La IA ya no espera tu siguiente prompt; planifica una tarea, ejecuta comandos, lee archivos, propone diffs y a veces incluso hace commits.
- 2026: el flujo dominante en proyectos nuevos es agente al volante, humano supervisando. En proyectos legacy todavía manda el humano, pero la IA cubre el 30-50% del tipeo.
Las tres herramientas que dominan ese flujo en 2026 son Claude Code, Cursor y GitHub Copilot. Las repaso una a una con sus virtudes y sus puntos ciegos.
Claude Code (Anthropic): el agente de terminal
Claude Code es el agente de Anthropic que vive en la terminal. No es una extensión de IDE: es una CLI que arrancas con claude en cualquier carpeta, ve los archivos, lee tu git status, ejecuta comandos, lee logs y propone cambios. Funciona con los modelos Claude más recientes (Opus 4.7 y Sonnet 4.6 en el momento de escribir este artículo).
Lo que hace bien:
- Razonamiento sobre proyectos grandes: la ventana de contexto extendida (200K-1M tokens según el plan) le permite cargar miles de archivos antes de proponer cambios. Eso evita el típico problema del LLM que sólo ve la función actual y rompe sin querer un caller.
- Edits seguros: aplica diffs en lugar de regenerar archivos completos, lo que reduce el riesgo de borrar cambios que tú habías hecho a mano.
- Hooks y skills configurables: en
settings.jsonpuedes definir hooks que se ejecutan antes de un commit, después de editar un archivo, etc. La comunidad ha publicado decenas de "skills" (rutinas reutilizables) para tareas frecuentes. - Autonomía bien calibrada: pide confirmación antes de operaciones destructivas (rm, force push, drop tabla) sin ser pesado en operaciones reversibles.
Lo que cuesta:
- Curva de aprendizaje si no estás cómodo en terminal. Quien viene de un IDE visual tarda dos o tres semanas en interiorizar el flujo.
- Coste: el plan Pro vale ~20 €/mes. El plan Max (con más tokens y modelos más potentes) está alrededor de los 100 €/mes. Caro si lo usas mucho, baratísimo si lo comparas con un día de trabajo de un senior.
Cursor (Anysphere): el IDE que reemplazó a VS Code para muchos
Cursor es un fork de VS Code con IA integrada en cada nivel: chat lateral, autocompletado predictivo (Cursor Tab), agente que escribe diffs (Cursor Composer) y un sistema de "rules" (.cursor/rules) que mantiene contexto y normas del proyecto entre sesiones.
Lo que hace bien:
- Continuidad con tu flujo de VS Code: extensiones, atajos, configuración… todo migra. Si hoy usas VS Code, en 30 segundos estás en Cursor con la misma experiencia + IA.
- Cursor Tab: el autocompletado predice ediciones múltiples a la vez (no solo la siguiente palabra). Renombras una variable y Cursor te ofrece renombrarla en los 8 sitios donde se usa con un solo Tab.
- Composer: el agente integrado puede tocar varios archivos a la vez con preview de cambios. Más visual que la terminal de Claude Code para quien viene del mundo IDE.
- Modelo configurable: puedes usar Claude, GPT, Gemini o modelos locales vía Ollama. Eso evita el lock-in.
Lo que cuesta:
- 20 €/mes el Pro (similar a Claude Code Pro), pero los modelos top consumen "fast credits" rápidamente. Quien lo usa a tope acaba pagando 40-60 €/mes en sobreconsumo.
- Para proyectos masivos (monorepos de millones de líneas) el Composer todavía pierde contexto antes que Claude Code. La estrategia de indexación es buena pero no infalible.
GitHub Copilot (Microsoft / OpenAI)
GitHub Copilot sigue siendo la herramienta más extendida del mundo en 2026, sobre todo en empresas grandes. Se integra como extensión en VS Code, JetBrains, Visual Studio, Neovim y Xcode. Microsoft lo ha empaquetado dentro de GitHub Copilot Workspace, un entorno web que toma una issue de GitHub, planifica la implementación y propone un PR completo.
Lo que hace bien:
- Integración profunda con GitHub: si tu flujo gira alrededor de issues, PRs y Actions, Copilot Workspace acelera el ciclo issue → PR de una forma que ni Claude Code ni Cursor igualan.
- Compliance empresarial: Microsoft ofrece versiones con SOC 2, residencia de datos en UE/EEUU, cero retención y filtros de IP/secretos. Para empresas reguladas (banca, sanidad, gobierno) suele ser la única opción aprobada.
- Precio competitivo en plan Business: 19 €/usuario/mes con factura empresa. Más barato que Claude Code Pro o Cursor para equipos.
Lo que cuesta:
- El modelo subyacente (GPT-4 / GPT-5) suele ir un paso por detrás de Claude en razonamiento sobre código nuevo. Para refactors complejos los devs que han probado las tres mayoritariamente prefieren Claude.
- La autonomía del agente (Workspace) está más limitada que Cursor Composer o Claude Code: hace planes y commits, pero no ejecuta comandos arbitrarios en tu máquina ni lee tu base de datos local.
Comparativa práctica: el mismo task en las tres herramientas
Para que la diferencia se entienda en concreto, propongo una tarea típica: "añade autenticación JWT a esta API Express, con refresh tokens y un middleware de roles". Imaginemos un repo Node 20 + TypeScript + Express + PostgreSQL ya existente.
Con Claude Code (terminal):
$ claude
> añade autenticación JWT con refresh tokens a esta API. Hay un endpoint
/auth/login en src/routes/auth.ts. Crea el middleware en src/middleware/auth.ts
y aplícalo a las rutas protegidas. Los roles (admin, user) están en la columna
role de la tabla users.
Claude Code lee la estructura del proyecto, propone un plan en 4 pasos (instalar jsonwebtoken, crear servicio de tokens, crear middleware, aplicarlo), pide confirmación, ejecuta cada paso, corre los tests si los hay, y termina con un resumen de los archivos modificados. Tiempo: ~5 minutos. Tú solo revisas el diff final.
Con Cursor (IDE):
Abres Composer (Cmd+I), pegas la misma instrucción, marcas la carpeta src/ como contexto. Cursor genera un plan visual con los archivos que va a tocar, te muestra un preview lado a lado de cada cambio, y te deja aceptar/rechazar uno a uno o todos a la vez. Tiempo: ~7 minutos (más control, más clicks). Útil cuando quieres revisar cada cambio antes de aplicarlo.
Con GitHub Copilot (Workspace):
Creas una issue "Add JWT authentication with refresh tokens and role-based middleware". Abres Workspace desde la issue. Copilot lee el repo, propone un plan, genera un PR con todos los cambios, abre el PR en GitHub y te etiqueta para review. Tiempo: ~10 minutos pero el resultado queda formalizado como PR con descripción, fácil de auditar y compartir con el equipo. Buen flujo si trabajas con múltiples desarrolladores.
Resumen: las tres llegan al mismo destino. La elección depende de tu preferencia de interfaz (terminal / IDE / web), tu equipo (solo / con compañeros) y tu compliance (empresa regulada o no).
Los riesgos reales que nadie te cuenta
Aquí entra la parte aburrida pero importante. Los blogs entusiasmados con vibe coding suelen omitir lo que pasa cuando llevas 6-12 meses dependiendo de IA para programar. Cinco riesgos concretos.
1. Alucinaciones técnicas
Los LLMs se inventan APIs. Te dicen que tal librería tiene un método bulkUpsert cuando no existe. Te recomiendan importar de un paquete que el modelo aprendió pero que ahora se llama distinto. Te sugieren usar una opción de configuración deprecada hace dos años. Con código nuevo no es grave (el linter o los tests cazan los errores), pero en código de producción puede pasar inadvertido durante semanas.
Mitigación: tests automatizados estrictos, revisión humana del diff completo, tipado fuerte (TypeScript con strict mode), y nunca aceptar un cambio sin entender qué hace.
2. Deuda técnica acelerada
Cuando escribir código es 5x más rápido, escribir código malo también es 5x más rápido. Repos de menos de un año pueden acumular deuda equivalente a la de proyectos legacy de 10 años: copy-paste masivo, abstracciones prematuras, dependencias innecesarias, comentarios generados que nadie ha leído. Las IA tienen una tendencia natural a "añadir más" en lugar de "reorganizar lo que hay".
Mitigación: refactors humanos planificados (por ejemplo, una jornada cada dos semanas dedicada a limpieza), code reviews donde alguien con experiencia decida qué borrar, métricas de calidad como cobertura de tests, complejidad ciclomática y duplicación.
3. Dependencia y atrofia de habilidades
Si llevas un año sin escribir un for loop a mano porque siempre lo hace la IA, las habilidades atrofian. Esto no es problema mientras la IA esté disponible y barata. El día que la API caiga, suba de precio o no se permita en un cliente regulado, te quedas con un equipo que sabe describir lo que quiere pero no necesariamente sabe construirlo desde cero.
Mitigación: rotaciones de "días sin IA" donde los desarrolladores resuelven tareas pequeñas a mano. Suena romántico pero algunas empresas grandes ya lo practican. Y por supuesto, formación continua que vaya más allá de "saber prompt".
4. Costes mensuales que se disparan
20 € de Pro suena poco. 100 € de Max ya escuece. Pero el coste real de un equipo de 5 personas usando Claude Code Max + Cursor Pro + GitHub Copilot Business son unos 1.300 €/mes recurrentes. A nivel anual son 15-20.000 €, equivalentes a un junior tres meses. Hay que pesarlo bien y elegir la combinación mínima que dé valor.
Mitigación: empezar con UNA herramienta y dos meses de prueba real. Medir productividad antes y después con datos (líneas de código revisado/día, tickets cerrados, bugs detectados). Si el ROI no es claro, no añadir herramientas extra "por si acaso".
5. Privacidad e IP
Cuando le pides a una IA que mire tu código, lo está enviando a un servidor remoto. Anthropic, OpenAI y Microsoft tienen políticas distintas (y cambiantes) sobre retención y entrenamiento. Hay versiones empresariales con SOC 2 y residencia en UE pero el plan personal/pro no tiene esas garantías. Para proyectos con código sujeto a NDA, secretos comerciales o propiedad intelectual delicada, la opción correcta es:
- Plan empresarial con cláusulas explícitas (Copilot Business, Claude for Enterprise, Cursor Teams).
- O modelos locales con Ollama, LM Studio o llama.cpp (Llama 3.3, Qwen 2.5 Coder, DeepSeek-Coder). Más lentos y peores en razonamiento profundo, pero el código no sale de tu máquina.
Si trabajas como freelance con cliente, mira el contrato antes de pasar el código del cliente por una IA pública. La mayoría de NDAs modernos incluyen cláusulas sobre IA generativa. Ignorarlas puede ser litigable.
Cuándo NO usar vibe coding
Hay contextos donde la IA aporta poco o introduce más riesgo del que ahorra. Cinco categorías honestas:
- Código de seguridad crítico: criptografía, autenticación, autorización en aplicaciones bancarias o sanitarias. La IA acierta el 95% pero el 5% son fallos sutiles que un atacante experto encuentra. Aquí el code review humano detallado es no negociable.
- Algoritmos altamente especializados: optimización numérica, procesamiento de señal, kernels CUDA, parsers performance-críticos. Los LLMs suelen producir código que "compila y casi funciona" pero está lejos del óptimo. Mejor escribir tú y usar la IA solo para revisar.
- Sistemas legacy con poca documentación: la IA no entiende las decisiones implícitas tomadas hace 8 años. Te propondrá refactors que rompen comportamiento esperado. Aquí la IA ayuda como "buscador interno" pero no como "implementador".
- Tu primer aprendizaje de un lenguaje o framework nuevo: si nunca has escrito Rust y le pides a Claude que te haga un servidor en Axum, vas a tener un servidor pero NO vas a saber Rust. Para aprender, escribe a mano y deja la IA solo para preguntas conceptuales.
- Cuando el coste de iterar es bajo: scripts de un solo uso, glue code de 20 líneas, queries SQL ad-hoc. Frecuentemente tardas más en describir qué quieres que en escribirlo a mano.
Cinco tips para sacar resultados decentes (y no destrozar tu repo)
Si después de leer todo lo anterior sigues queriendo usar IA para programar (es razonable, yo lo hago todos los días), aquí van cinco hábitos que separan a los devs que sacan provecho de los que se queman.
1. Empieza con un plan, no con código. Antes de pedir implementación, pide un plan de pasos. "Vamos a añadir autenticación JWT. Antes de tocar nada, propón el plan en 5 pasos numerados, qué archivos vas a tocar y qué dependencias vas a añadir." Si el plan no te convence, lo discutes ANTES de generar código. Ahorra horas.
2. Da contexto rico. Una IA con poco contexto inventa más. Pega los archivos relevantes, indica el estilo del proyecto, di qué bibliotecas ya usas, comparte el output de tree o git status. Cinco minutos de contexto bien dado superan media hora de iteraciones a ciegas.
3. Pide tests con cada feature. "Implementa esto Y escribe los tests" como una sola petición. Los tests sirven dos propósitos: pillan errores tempranamente y obligan a la IA a pensar en casos límite que de otra forma omite.
4. Revisa siempre el diff completo antes de hacer commit. No importa cuánto confíes en la IA, no importa cuántos meses lleves sin que falle. El día que falle será grave. Acostúmbrate a hacer git diff antes de cada commit y mirar línea a línea.
5. No te pelees con el modelo. Si tras 3 prompts no llegas al resultado, es señal de que la IA no entiende el problema o que el problema está mal planteado. Para. Reformula. O hazlo a mano. Insistir 10 veces produce respuestas cada vez peores y te quema. La IA no aprende dentro de una sesión: si no funcionó al tercer intento, no va a funcionar al décimo.
Conclusión: 2026 no es el fin del programador
Lo que ha cambiado en 2025-2026 no es la necesidad de saber programar. Es el rol diario del programador. Si antes el 70% del tiempo era escribir código y el 30% pensar, hoy es justo al revés: el 30% es supervisar lo que escribe la IA y el 70% es decidir qué hay que construir, cómo encajarlo, cómo probarlo y qué descartar.
Las tres herramientas que he revisado (Claude Code, Cursor, GitHub Copilot) son las que dominan el mercado occidental en 2026, pero no son las únicas. Continue, Aider, Windsurf, Sourcegraph Cody y muchas otras existen y compiten en nichos específicos. Lo importante es elegir UNA, dominarla durante unos meses, medir si te ayuda de verdad y solo después plantearte añadir otra.
Si te ha gustado esta panorámica, los siguientes artículos del Tier 1 que tengo en la cola son modelos de IA locales con Ollama (la alternativa privacy-first cuando no puedes mandar código a la nube), un deep dive sobre MCP (el estándar de Anthropic que está cambiando cómo las IAs hablan con tus herramientas) y una comparativa honesta de ChatGPT, Claude y Gemini para tareas no-code (escritura, análisis, multimodal). Los iré publicando en las próximas semanas.
Mientras tanto, si quieres practicar el flujo de vibe coding con algo pequeño, prueba a abrir nuestro Preview HTML en vivo y pídele a tu IA favorita un componente concreto ("hazme un loader CSS sin librerías") para luego pegarlo en el editor y ver el resultado al instante. Es la forma más rápida de probar prompts iterativos sin montar un proyecto completo.
¿Te ha sido útil este artículo?
Suscríbete a la newsletter mensual: un correo cuando publicamos algo igual de útil. Sin spam.
Los comentarios se activarán próximamente. ¿Quieres compartir algo sobre este artículo? Escríbenos en /contacto.