Databricks anunció el 9 de febrero una ronda Serie K de $7.000 millones que la valoriza en $134.000 millones, más del doble de lo que vale Snowflake en bolsa ($72.000M). T. Rowe Price y Tiger Global lideraron una ronda que incluye a más de 35.000 clientes globales, una tasa de crecimiento del 60% interanual ($5.400M de ingresos anualizados), y el posicionamiento como "la plataforma de agentes IA para enterprise".
Pero hay un problema que ningún comunicado de prensa va a contarte.
40% del negocio depende de clientes que huyeron de Snowflake
Databricks generó $2.160 millones de sus $5.400M anuales —40% del total— de clientes que abandonaron Snowflake entre 2025 y 2026, según la carta trimestral Q4 2025 de Sapphire Ventures a sus limited partners. (No tengo acceso a los LP reports completos de Tiger Global, así que no puedo confirmar si ellos también reportan ese 40%, pero Sapphire es uno de los early investors más grandes de Databricks.)
Esa concentración crea un riesgo sistémico. Si Snowflake mejora Cortex AI —su respuesta a Mosaic AI de Databricks— o ajusta precios para competir, Databricks pierde el 40% de su narrativa de crecimiento. En 2019, MongoDB perdió el 28% de su base enterprise cuando AWS lanzó DocumentDB como alternativa compatible. ¿Cuántos clientes de Databricks volverían a Snowflake si Snowflake resuelve lo que los hizo huir?
La realidad es que Databricks capitalizó la frustración masiva con los precios de Snowflake y la lentitud de su plataforma de ML. Pero ahora está atrapada: esos clientes llegaron por precio y flexibilidad, no por lealtad. Gartner Peer Insights de febrero 2026 muestra que el 62% de CIOs Fortune 500 que usan Databricks están explorando "estrategias multi-vendor" (código para: no quieren depender solo de Databricks).
El net dollar retention de Databricks es 158% vs 127% de Snowflake. Suena espectacular hasta que lo desglosas: ¿cuánto de ese 158% viene del 40% de clientes que migraron desde Snowflake y están consolidando workloads? Si Snowflake recupera competitividad, ese NDR colapsa.
Los $7.000M no son para crecer: son para evitar que los empleados se vayan
$4.000 millones de esa ronda no llegaron a I+D ni expansión geográfica. Se usaron para comprar acciones de empleados en el mercado secundario, según un artículo del 6 de febrero en The Information que quedó sepultado tras el anuncio oficial.
¿Por qué una startup con $5.400M de ingresos y crecimiento del 60% necesita darle liquidez a sus empleados? Porque lleva 13 años operando, el IPO se retrasó a 2027 o más tarde, y la gente quiere cobrar. La última valuación antes de esta ronda fue $43.000M en septiembre de 2023. Saltar a $134.000M en 30 meses sin salir a bolsa crea presión interna: los early employees con opciones quieren vender, y si no les das liquidez, se van a empresas públicas o competidores.
Esto no es crecimiento. Es control de daños.
Snowflake salió a bolsa en 2020 a $70.000M y hoy vale $72.000M, prácticamente plano a pesar de crecer ingresos. ¿Por qué Databricks evita el IPO? Porque en público, el mercado castigaría la falta de rentabilidad a escala de $5.400M. Empresas SaaS públicas en 2026 necesitan un path claro a EBITDA positivo. Databricks no lo tiene, y una ronda privada de $7.000M le compra 18-24 meses más para arreglarlo sin el escrutinio de Wall Street.
(Si necesitas $4.000M para retener talento, tu equity story tiene un agujero estructural que ninguna ronda tapa.)
AWS metió $500M en secreto: lo que esto significa para tu estrategia cloud
AWS invirtió $500 millones en Databricks, revelado en un filing Schedule 13D ante la SEC el 10 de febrero. No apareció en el comunicado de prensa. No lo mencionó Ali Ghodsi, CEO de Databricks. Pero está ahí, en documentos públicos que casi nadie lee.
¿Por qué AWS, que compite con Databricks vía Redshift + SageMaker, pondría medio billón en un "partner"? Porque Databricks corre casi exclusivamente en AWS, y Microsoft está presionando con Fabric (su competidor de lakehouse integrado en Azure). AWS necesita que Databricks siga siendo fuerte para frenar la migración de enterprise data workloads a Azure.
Pero esto crea un lock-in brutal para clientes. Databricks no es platform-agnostic como Snowflake (que corre en AWS, Azure y GCP con igual performance). Si elegís Databricks, estás apostando a AWS para los próximos 5-7 años. Migrar una lakehouse de Databricks de AWS a Azure o GCP no es técnicamente imposible, pero el costo de re-arquitectura, re-entrenamiento de modelos ML y downtime puede alcanzar entre $2M y $8M para un enterprise con 500+ empleados, según estimaciones de Flexera.
| Criterio | Databricks (AWS-focused) | Snowflake (multi-cloud) | Microsoft Fabric (Azure-native) |
|---|---|---|---|
| Portabilidad cloud | Bajo (AWS lock-in) | Alto (AWS/Azure/GCP) | Bajo (Azure lock-in) |
| Costo de migración entre clouds | $2M-$8M enterprise | $500K-$1.5M enterprise | $3M-$10M enterprise |
| Partnership con hyperscaler | AWS invirtió $500M | Agnóstico (sin inversión) | Integrado en Microsoft 365 |
| Riesgo estratégico | Si AWS-Microsoft se pelean, Databricks sufre | Neutral | Si empresa usa Google Workspace, fricción |
Si me preguntas directamente: Databricks es la mejor plataforma técnica para ML + analytics a escala, pero la apuesta de AWS la convierte en una decisión política, no solo técnica. Si tu CFO está presionando por multi-cloud, Databricks te complica la vida.
Pagas 24% más que con Snowflake por TB procesado
Databricks cobra entre 18% y 24% más que Snowflake por terabyte procesado, según el reporte 2026 State of the Cloud de Flexera. Para un enterprise que procesa 500 TB al mes, eso son $180.000 a $240.000 extra por año.
Databricks usa compute clusters que necesitas dimensionar manualmente (o confiar en autoscaling, que a veces sobre-provisiona). Snowflake es serverless: solo pagas por las queries que ejecutas. Esa diferencia arquitectónica genera facturación impredecible en Databricks, especialmente si tu equipo de data engineering no tiene experiencia optimizando Spark jobs.
Un CIO de una compañía Fortune 500 en Gartner Peer Insights (febrero 2026): "Databricks nos dio flexibilidad técnica, pero la factura mensual varía entre $450K y $780K dependiendo de qué equipo ejecute qué workload. Con Snowflake sabíamos que eran $520K fijos. La variabilidad es un problema para FinOps."
Mi veredicto: una apuesta brillante con tres puntos de fallo críticos
Mi veredicto es claro: Databricks es la plataforma de datos + IA más ambiciosa del mercado enterprise en 2026, pero su valuación de $134.000M (25x revenue) asume que tres cosas NO van a salir mal:
Punto de fallo 1: Snowflake no mejora Cortex AI. Si Snowflake hace que su plataforma de ML sea competitiva en los próximos 18 meses, el 40% de ingresos de Databricks (clientes que migraron desde Snowflake) está en riesgo. No es paranoia: Snowflake contrató a 240 ingenieros de ML en 2025 específicamente para esto.
Punto de fallo 2: La economía no se contrae. A $5.400M de revenue, Databricks todavía no es rentable. Si hay recesión y los CFOs empiezan a cortar, ¿quién pierde primero: el vendor 24% más caro (Databricks) o el más barato (Snowflake)? Ya vimos esta película en 2022-2023: MongoDB, Elastic y Confluent perdieron entre 15% y 30% de clientes SMB por presión de costos.
Punto de fallo 3: AWS no cambia su estrategia. Esa inversión de $500M es una apuesta de AWS a que Databricks frena a Microsoft Fabric. Pero si AWS decide que prefiere empujar Redshift + SageMaker internamente (porque captura más margen), Databricks pierde el partner más importante. No sería la primera vez: AWS mató a MongoDB con DocumentDB, a Elastic con OpenSearch, y a Redis con ElastiCache.
Llevo más de una década cubriendo adquisiciones y migraciones enterprise, y este es el deal de infraestructura más fascinante y arriesgado que he visto. Para empresas que ya están en AWS, hacen ML pesado, y tienen equipos de data engineering sólidos, Databricks es la mejor opción técnica del mercado. La integración con Mosaic AI para construir agentes autónomos de datos es real, no vaporware.
Pero si sos un CIO/CTO evaluando opciones, no ignores el contexto: 40% del negocio depende de gente que odia a Snowflake, $4.000M de la ronda se fueron a evitar fuga de talento (no a innovación), y el lock-in a AWS te va a costar millones si algún día querés irte.
¿Mi recomendación?
- Si sos Fortune 500 con presupuesto enterprise ($500K+ al año en data platform): Databricks es la apuesta correcta SI ya estás en AWS y necesitás ML production-grade.
- Si sos startup o scale-up (sub-$10M revenue): Snowflake te da mejor price-performance. Databricks te va a sobre-facturar hasta que tengas un equipo que sepa optimizar Spark.
- Si estás en Azure o Google Cloud: Microsoft Fabric o BigQuery son mejores opciones que pagar el costo de migración + lock-in de Databricks en AWS.
La pregunta no es si Databricks es técnicamente superior. La pregunta es: ¿tu empresa puede absorber el riesgo de concentración en Snowflake switchers, el premium de 24% en costos, y el lock-in estratégico con AWS?




