La Factura de Vercel Que Nadie Espera: Los 5 Factores Que Realmente Determinan Tu Coste en Next.js

Programación· 5 min de lectura

La Factura de Vercel Que Nadie Espera: Los 5 Factores Que Realmente Determinan Tu Coste en Next.js

Mira, todos hemos pasado por lo mismo.

Despliegas tu app de Next.js en Vercel. Todo funciona perfecto. Te quedas en el tier gratuito durante semanas. Y entonces, o empiezas a escalar, o añades algún workload de IA, y de repente la factura no tiene ningún sentido.

No es que Vercel sea caro o barato. Es que la mayoría de los desarrolladores no entiende qué están midiendo realmente. En 2026, con los agentes de IA corriendo sobre infraestructura serverless, esto se ha vuelto crítico.

Te lo cuento desde la trinchera: aquí están los cinco factores que determinan lo que realmente pagas.

1. Fluid Compute: La Métrica Que Lo Cambia Todo Para IA

Este es el que menos gente entiende y el que más impacto tiene si construyes con IA.

El modelo tradicional de serverless cobra por tiempo de ejecución total. Da igual si tu función está procesando activamente o si está esperando que una API externa responda. Pagas por todo.

Fluid Compute cambia eso: solo pagas cuando la CPU está activamente ejecutando código. Durante las esperas de I/O — peticiones a APIs externas, lecturas de base de datos, streaming de respuestas de LLMs — no acumulas coste.

Para un desarrollador construyendo agentes de IA, esto es brutal. Los workloads de IA típicamente tienen mucho tiempo de espera: llamas a Claude, esperas la respuesta, la procesas. Con el modelo tradicional, estás pagando por toda esa espera. Con Fluid Compute, no.

[@portabletext/react] Unknown block type "code", specify a component for it in the `components.types` prop

Si construyes con el AI SDK 6 de Vercel — que ya soporta más de 20 proveedores con API unificada — y tienes workloads con mucho streaming, Fluid Compute puede marcar una diferencia significativa en tu factura.

2. Edge vs. Serverless: Elegir Mal Sale Caro

Vercel tiene dos tipos de funciones y la mayoría de los desarrolladores los usa intercambiablemente. Error.

Edge Functions corren en V8 isolates distribuidos globalmente. Los cold starts son de menos de 50ms. Son perfectas para funciones ligeras: middleware de autenticación, redirects, personalización geográfica, responses rápidas.

Serverless Functions corren en Node.js completo. Más potentes, más flexibles, pero con cold starts más lentos. Perfectas para lógica de negocio pesada, operaciones con base de datos, integraciones complejas.

El problema típico que veo: gente poniendo lógica pesada en Edge Functions porque “suenan más rápidas”, o poniendo funciones simples en Serverless porque “es lo que conocen”.

[@portabletext/react] Unknown block type "code", specify a component for it in the `components.types` prop
[@portabletext/react] Unknown block type "code", specify a component for it in the `components.types` prop

Audit rápido: revisa cuáles de tus funciones tienen runtime: 'edge' y si realmente lo necesitan.

3. El Tier Gratuito Tiene Límites Concretos (Y Uno Te Va a Pillar)

El tier gratuito de Vercel incluye 100GB de ancho de banda y 100.000 invocaciones. Para proyectos personales y MVPs, es más que suficiente.

Lo que te va a pillar no es el ancho de banda. Es el límite de cron jobs.

En el tier gratuito tienes 2 cron jobs diarios, con precisión horaria únicamente. En Pro tienes 40 cron jobs diarios con precisión a nivel de minuto.

Si estás construyendo cualquier cosa que requiera automatización — agentes que publican contenido, sistemas de notificaciones, sincronización de datos — el límite de crons del tier gratuito te va a forzar a buscar alternativas o a subir de plan mucho antes de lo que esperas.

Esta fue mi situación el año pasado cuando construí el agente de contenido. Necesitaba ejecutar jobs cada 30 minutos. En el tier gratuito, imposible. La precisión horaria no era suficiente.

4. Preview URLs: La Herramienta Que Nadie Está Usando Bien

Técnicamente esto no afecta tu factura directamente, pero sí tu velocidad de iteración, y en 2026 eso tiene valor económico real.

Cada push a git genera una URL única de preview. No necesitas desplegar en staging, no necesitas configurar entornos adicionales. Cualquier persona del equipo — o un cliente — puede revisar cambios antes de que lleguen a producción.

El workflow que uso:

  1. Rama de feature → push → URL de preview automática
  2. Comparto la URL por Slack con el cliente o stakeholder
  3. Feedback asíncrono sin llamadas, sin “espera que lo subo al servidor de pruebas”
  4. Merge cuando hay aprobación

Para freelancers y solopreneurs en España, esto elimina fricción enorme en el proceso de revisión con clientes.

5. Spend Management: Evita el Bill Shock Antes de Que Ocurra

Vercel tiene herramientas específicas para que no te llegue una factura inesperada. La mayoría de la gente no las configura porque asume que no va a escalar tan rápido.

Lo que deberías configurar desde el primer día:

  • Budget alerts: Vercel puede pausar automáticamente tu proyecto si superas un límite de gasto que tú defines
  • Attack Challenge Mode: protección automática si detecta tráfico anómalo que podría disparar tu factura
  • Spend Management dashboards: revisa qué funciones están consumiendo más recursos en tiempo real

No esperes a que escale para configurarlo. Configúralo el día que despliegas.

La Auditoría Rápida Que Deberías Hacer Ahora

Si ya tienes proyectos en producción en Vercel, este es el checklist:

[ ] Revisa tu split Edge vs. Serverless
¿Tienes funciones pesadas en Edge? ¿Funciones ligeras en Serverless? Corrige el desajuste.

[ ] Activa Fluid Compute si tienes workloads de IA
Si llamas a LLMs, el modelo de CPU activa puede reducir tu coste de forma significativa.

[ ] Audita tus cron jobs
¿Cuántos necesitas? ¿Con qué frecuencia? Eso determina si el tier gratuito es viable para ti.

[ ] Configura spend management
Aunque estés en el tier gratuito, configura alertas. Un pico de tráfico inesperado puede sorprenderte.

[ ] Activa preview URLs en tu workflow
Si no las estás usando con clientes, estás perdiendo velocidad de revisión.

La verdad es que Vercel es una plataforma muy bien diseñada para Next.js. El problema nunca es el precio, siempre es no entender qué métricas estás optimizando. Con Fluid Compute en 2026, los workloads de IA son especialmente rentables si sabes cómo estructurar tus funciones.

¿Cuál de estos cinco puntos te ha pillado desprevenido? Cuéntamelo en comentarios.

Brian Mena

Brian Mena

Ingeniero informatico construyendo productos digitales rentables: SaaS, directorios y agentes de IA. Todo desde cero, todo en produccion.

LinkedIn