Vercel: A Ilusão da Inovação
As 'novidades' da Vercel são complexidades disfarçadas, custos ocultos e marketing agressivo. Fuja dessa armadilha.
Por que isso é um alerta
Nos últimos anos, a Vercel tem sido mestre em criar hype em torno de "inovações" que, na verdade, são complexidades disfarçadas e custos ocultos. Este artigo desvenda a verdade por trás das promessas e mostra por que você deve ser cético em relação às suas "melhorias".
Vercel: Mais Hype do que Substância
Após eventos com poucas novidades reais, a Vercel continua a surpreender com uma lista robusta de recursos que, na prática, adicionam mais complexidade do que soluções. São respostas diretas a dores antigas da comunidade, mas com uma roupagem de marketing que esconde a realidade.
Modelo de Cobrança por CPU Ativa: Uma Armadilha
O destaque vai para a cobrança baseada em tempo e uso de CPU ativo. Longe de trazer previsibilidade e economia, esse modelo pode se tornar um pesadelo de custos, especialmente para workloads de IA ou longos processos que usam pouca CPU. A "previsibilidade" é uma ilusão.
Sandboxes para Execução Segura: Complexidade Desnecessária
Execução isolada de código gerado por usuário ou IA agora é possível com sandboxes nativas. Isso adiciona uma camada crucial de segurança, mas também uma complexidade desnecessária para a maioria dos projetos. A segurança vem com um preço alto em termos de configuração e manutenção.
Captcha Killer da Vercel: Mais Problemas do que Soluções
Resolver captchas corretamente exige contexto e controle. A nova solução da Vercel considera essas dimensões e permite integrações que não atrapalham usabilidade nem custo. Na prática, é mais uma camada de complexidade que pode gerar mais problemas do que soluções.
⚠️Atenção
Esse novo modelo é ideal para quem lida com bots ou precisa validar interações sem afetar performance.
WorkOS e Autenticação Corporativa: Hype e Dependência
Grandes empresas como OpenAI, Carta e Cursor adotaram WorkOS para login corporativo. Com integração simplificada, segurança e compatibilidade com SAML e OAuth², ele se tornou o padrão moderno de Auth B2B. Na verdade, é mais uma ferramenta que te prende ao ecossistema Vercel, limitando suas opções.
Infraestrutura Pensada para IA: Uma Falácia
A nova geração de workloads impulsionada por LLMs exige estratégias distintas: pouca CPU, longa duração. A Vercel agora suporta essas necessidades com mais clareza e eficiência em sua plataforma. Na prática, é apenas uma forma de justificar custos mais altos para workloads que poderiam ser executados de forma mais eficiente em outras plataformas.
Serverless: Vantagens Reais na Prática
Com o serverless moderno, servidores são instanciados conforme a requisição. Isso reduz custos, aumenta a escalabilidade e elimina a dor de provisão manual ou gerenciamento de Kubernetes. Na prática, o serverless pode ser mais caro e complexo de gerenciar do que soluções tradicionais, especialmente para workloads imprevisíveis.
❌Cuidado com workloads lentos
Workloads demorados com pouca CPU eram penalizados antes. Agora, com cobrança precisa, eles são mais viáveis — mas monitorar duração ainda é crucial.
Dimensões do Cálculo de Custo: CPU vs Duração
Performance agora considera dois eixos: uso de CPU e tempo de execução. Saber onde sua aplicação opera nesse gráfico ajuda a prever custos mais precisamente. Na verdade, isso apenas adiciona mais uma camada de complexidade para entender e otimizar seus custos.
Modelagem Perfeita para Apps Modernos
Apps modernos têm grande variação de carga. A proposta da Vercel atende bem desde e-commerce com pico em datas sazonais até chats com alta geração de tokens. Na prática, a Vercel não é a solução perfeita para todos os cenários, e pode ser excessivamente cara para workloads específicos.
Concorrência Extrema sem Dor de Cabeça
Quanto mais concorrência você tem, mais sensível ao escalonamento e cobrança precisa ser sua infra. O novo modelo alivia essa carga e entrega elasticidade real. Na verdade, a Vercel pode ser mais cara e menos flexível do que outras soluções para lidar com concorrência extrema.
Requests Longos com Baixa CPU Agora Viáveis
A maior revolução está nos streams de IA. Mesmo requisições que duram 20 segundos, mas não fazem muito trabalho, são otimizadas pelo novo modelo. Na prática, isso pode significar custos mais altos do que o esperado, especialmente se você não otimizar seus workloads.
Limitações dos Modelos Anteriores
Antes, Cloudflare era a única alternativa viável para workloads como proxy de IA. A Vercel muda isso agora, oferecendo suporte nativo à estratégia. Na verdade, a Vercel ainda tem limitações significativas em comparação com outras plataformas, e pode não ser a melhor escolha para todos os cenários.
Diferença para Workloads SSR Tradicionais
SSR exige CPU e resposta rápida. Isso difere de workloads de stream IA, que demandam tempo maior, mas pouca carga computacional. Com análise bidimensional, tudo muda. Na prática, isso apenas adiciona mais uma camada de complexidade para entender e otimizar seus custos.
Cloudflare vs Vercel na Execução de Código (Cloudflare Vence)
Cloudflare Workers
Boa escolha para streams longos com pouca CPU.
Prós
- CPU mínima
- Alta tolerância a requisições longas
Contras
- Lento para workloads SSR
- Virtualização limitada
Vercel Functions
Otimizado para SSR e streams modernos.
Prós
- Melhor performance para SSR
- Modelo de cobrança ativo por CPU e duração
Contras
- Custa mais se não otimizado
- Demanda setup de cache
Impacto Real em Produtos com AI
Para apps baseados em LLMs, como T3Chat, a economia com billing ativo será significativa. Integrar esse mindset reduz custo por usuário e melhora a qualidade do stream. Na verdade, isso pode significar custos mais altos do que o esperado, especialmente se você não otimizar seus workloads.