Hace dos días Google Labs publicó la mayor actualización de Stitch hasta la fecha. Lo que empezó como un generador de prototipos básico acaba de convertirse en lo que ellos llaman un “canvas de diseño nativo con IA”. Y junto a eso, acuñaron un término nuevo: vibe design.
Si llevas tiempo trabajando con IA en producción este lanzamiento no te sorprende. Es la siguiente pieza lógica de un puzzle que ya conocemos: primero fue el vibe coding, ahora llega el vibe design. La pregunta no es si esta tendencia va a crecer. La pregunta es si Stitch está a la altura de su promesa.
Voy a contarte exactamente qué hace, cómo funciona, y qué significa para los desarrolladores y diseñadores que ya trabajamos con IA en el día a día.
Qué es Google Stitch
Stitch es una herramienta de diseño de Google Labs que usa inteligencia artificial, concretamente Gemini 3 para generar interfaces de usuario (UI) a partir de lenguaje natural. Empiezas describiendo qué quieres construir, y Stitch genera pantallas completas, flujos de usuario y prototipos interactivos.
Pero la actualización del 18 de marzo de 2026 va mucho más allá de un generador de mockups. Google ha rediseñado Stitch desde cero para convertirlo en lo que llaman un canvas de diseño nativo con IA: un espacio de trabajo infinito donde puedes crear, iterar y colaborar con un agente de diseño en tiempo real.
El resultado es una herramienta que compite directamente con v0 de Vercel, Bolt.new y Lovable pero con el respaldo del ecosistema Google y, esto es clave, con un MCP server propio.
El “vibe design”: el hermano del vibe coding
Si has trabajado con Claude Code, Cursor o has explorado el spec-driven development con IA, el concepto te va a resultar familiar. La idea es la misma: en lugar de empezar con la herramienta (Figma, Sketch, código), empiezas con la intención.
En Stitch, puedes arrancar un diseño explicando:
- El objetivo de negocio que quieres lograr
- Cómo quieres que se sienta el usuario
- Imágenes, texto o código que te inspiran
El agente de diseño toma todo ese contexto y genera múltiples variaciones de alta fidelidad. Sin wireframes. Sin componentes arrastrados a mano. Sin bloqueos creativos.
Google lo resume así
“Puede ser un multiplicador de creatividad, ayudando a la gente a explorar muchas ideas rápidamente.” — Josh Woodward, VP de Google Labs
Es una frase de marketing, sí. Pero detrás hay algo real: el tiempo que antes tardabas en explorar cinco variaciones de una pantalla ahora se comprime en minutos. Eso tiene implicaciones prácticas muy concretas para los equipos de producto.
Lo que me parece genuinamente interesante: DESIGN.md
De todo lo que incluye esta actualización, lo que más me llama la atención técnicamente es DESIGN.md.
Es un archivo markdown que funciona como el sistema de diseño de tu proyecto, en un formato que los agentes de IA entienden directamente. Puedes:
- Extraerlo automáticamente a partir de cualquier URL
- Importarlo y exportarlo entre proyectos de Stitch
- Usarlo en otras herramientas de diseño o codificación
Si esto te suena a algo, es porque lo es: es básicamente el equivalente a un CLAUDE.md o un cursor rules, pero para el contexto de diseño. Un archivo de instrucciones para el agente que define tu sistema de diseño, tus patrones, tus reglas visuales.
La implicación es enorme: por primera vez tienes un formato portable y legible para máquinas que define cómo debería verse y comportarse tu producto. Eso cierra un gap que ha existido siempre entre el diseño y el código. Y el hecho de que exista incluso un skill específico para generar DESIGN.md automáticamente sugiere que Google quiere convertirlo en un estándar de facto.
El MCP server: esto sí cambia tu flujo de trabajo
El dato que menos titulares está generando pero que más impacto tiene para los desarrolladores: Stitch tiene un MCP server.
Esto significa que puedes integrar Stitch directamente en tu flujo de trabajo de IA. Si usas Claude Code, Cursor, Gemini CLI o cualquier herramienta compatible con el protocolo MCP, puedes llamar a Stitch para generar UIs dentro de tu pipeline habitual.
Junto al MCP server, Google ha publicado también:
- Un SDK para Node.js (
@google/stitch-sdk) con integración directa para el Vercel AI SDK y soporte de Gemini 3 como modelo - Un repositorio de Skills — ya con más de 2.7k estrellas en GitHub
- Exports directos a AI Studio y Antigravity
Vale la pena precisar: aunque el SDK está publicado por google-labs-code, el propio README advierte que no es un producto de Google con soporte oficial. Es código de Google Labs, no de Google Core. Dicho esto, el ecosistema de integraciones que están construyendo alrededor es lo que importa.
Lo que convierte a Stitch en algo diferente no es solo el MCP server: son las Skills. El repositorio incluye siete capacidades predefinidas para agentes de IA que cubren desde la generación multi-pantalla (stitch-loop) hasta la conversión a componentes React (react-components), la integración con shadcn/ui (shadcn-ui), o incluso la generación de vídeo walkthroughs de tus proyectos con Remotion (remotion). Eso último no lo he visto en ningún competidor.
Canvas infinito, agente de diseño y prototipado instantáneo
El canvas rediseñado merece mencionarse porque cambia la experiencia de uso de forma notable.
Canvas infinito. Todas tus ideas, desde los primeros bocetos hasta el prototipo final, viven en el mismo espacio. Puedes divergir y converger sin cambiar de herramienta.
Agente de diseño. Razona sobre la evolución completa del proyecto. No solo genera pantallas sueltas; entiende el contexto de lo que estás construyendo. Si te interesa entender cómo funcionan estos agentes internamente, te recomiendo leer sobre la arquitectura de un agente de IA.
Agent Manager. Si quieres explorar múltiples direcciones en paralelo, el Agent Manager organiza los hilos de trabajo para que no te pierdas.
Prototipos interactivos. Conectas pantallas en segundos y pulsas “Play” para ver el flujo completo funcionando. El agente puede generar automáticamente las pantallas siguientes basándose en las interacciones del usuario.
Voz. Puedes hablar directamente al canvas. “Dame tres opciones de menú”, “muéstrame esta pantalla en diferentes paletas de color”. El agente responde en tiempo real.
Stitch vs v0, Bolt, Figma AI — ¿dónde encaja?
| Herramienta | Fortaleza | Debilidad |
|---|---|---|
| Stitch | Ecosistema Google, MCP server, DESIGN.md, Skills (shadcn, React, Remotion) | Beta, SDK no oficialmente soportado |
| v0 (Vercel) | Genera código React/shadcn directamente | Más orientado a frontend que a diseño |
| Bolt.new | Full-stack desde descripción | Menos control sobre UI específica |
| Figma AI | Integración con el flujo de diseño existente | IA como feature, no como núcleo |
| Lovable | Buena UX para no técnicos | Menos potente para proyectos complejos |
La debilidad que le achacaba a Stitch en versiones anteriores de esta comparativa(la falta de integración con shadcn/ui o componentes React específicos) queda en parte resuelta por las Skills. No es tan fluido como v0, donde el output ya es código production-ready, pero la brecha se está cerrando.
Si eres desarrollador y ya tienes un setup con MCPs, Stitch es la opción más interesante ahora mismo. Si eres diseñador viniendo de Figma, la curva de cambio puede ser alta. Si eres fundador o indie developer sin equipo de diseño, el punto diferencial de Stitch es el control sobre el diseño antes de generar código.
Para quién es Stitch (y para quién no)
Stitch es para ti si:
- Desarrollas con IA y quieres integrar generación de UI en tu pipeline mediante MCP
- Necesitas explorar variaciones de diseño rápidamente sin depender de un diseñador
- Trabajas en proyectos donde un sistema de diseño portátil y agente-friendly (DESIGN.md) tiene valor
- Eres fundador construyendo un producto y quieres cerrar el gap diseño → código
Stitch no es para ti si:
- Necesitas algo listo para producción hoy — sigue siendo Beta y el SDK no tiene soporte oficial
- Tu flujo depende de output en código limpio y tipado desde el primer momento (v0 lo hace mejor)
- Trabajas en equipos grandes con procesos de diseño establecidos en Figma
¿Merece la pena probarlo ahora?
Sí. Y no solo porque sea nuevo.
El momento de probar Stitch es ahora precisamente porque está en Beta. Las herramientas en Beta de Google Labs que tienen tracción real acaban convirtiéndose en productos con más recursos y más relevancia en el ecosistema. Gemini Code Assist siguió ese camino. NotebookLM también. La evaluación técnica que hice de Comet AI Browser apunta en la misma dirección: los productos agenticos de primera oleada que llegan con ecosistema (MCP, Skills, SDK) son los que acaban teniendo masa crítica.
Lo que me parece significativo de este lanzamiento es la claridad de visión: Google no está intentando replicar Figma. Está apostando por un paradigma nuevo donde el diseño es una conversación con un agente, no una serie de operaciones sobre capas y componentes.
Si ese paradigma gana Stitch tiene todas las piezas para ser la herramienta de referencia: el modelo (Gemini 3), el ecosistema (MCP, Skills, AI Studio), y el formato estándar (DESIGN.md).
Lo que falta es tiempo y adopción. Y para eso, el mejor momento para empezar a explorar es hoy.
Fuentes: Post oficial de Google Labs · stitch-sdk en GitHub · stitch-skills en GitHub


