GU605 BannerMas Alla Banner
Anthropic se blinda con varios gigavatios de TPU de Google tras admitir de facto que su infraestructura ya no da abasto

Anthropic se blinda con varios gigavatios de TPU de Google tras admitir de facto que su infraestructura ya no da abasto

por Edgar Otero

Anthropic ha anunciado un nuevo acuerdo con Google y Broadcom para asegurarse varios gigavatios de capacidad de próxima generación basada en TPUs a partir de 2027. La compañía presenta el movimiento como su mayor compromiso de computación hasta la fecha, una pieza clave para seguir escalando Claude y responder a una demanda que, según sus propios datos, se ha disparado en 2026. Más allá del titular, la noticia deja una lectura bastante clara: Anthropic necesita blindar ya su infraestructura porque el crecimiento actual empieza a tensionar su capacidad real de servicio.

La empresa asegura que su run-rate revenue ya supera los 30.000 millones de dólares, frente a unos 9.000 millones a finales de 2025, y que el número de clientes empresariales que gastan más de un millón anual se ha duplicado en menos de dos meses, superando ya el millar. Son cifras muy llamativas, pero también sirven para recordar algo menos vistoso: en inteligencia artificial no basta con vender mucho software si luego faltan chips, energía y capacidad de despliegue para sostener ese crecimiento.

De hecho, el anuncio encaja casi como la continuación natural del episodio que vimos hace apenas unos días, cuando Anthropic empezó a cobrar un extra a los usuarios más intensivos de Claude Code por la presión que herramientas agénticas externas estaban generando sobre su infraestructura. Entonces la empresa hablaba de limitaciones operativas y patrones de uso para los que sus planes no estaban diseñados. Ahora llega este nuevo paso: asegurar potencia masiva a futuro porque el éxito comercial ya está chocando con el límite físico del sistema.

Más negocio no resuelve por sí solo el cuello de botella de la IA

Anthropic insiste en que mantiene una estrategia diversificada de hardware, combinando AWS Trainium, Google TPU y GPU de NVIDIA, y recuerda que Amazon sigue siendo su proveedor principal de nube y entrenamiento. Pero este acuerdo con Google y Broadcom deja ver que las TPU están ganando peso como parte de la estructura que necesita Claude para seguir creciendo. También refuerza, aunque sea de pasada, la posición de Google como socio estratégico cada vez más importante dentro del ecosistema de Anthropic.

La cuestión de fondo es que el mercado de la IA ya no se decide solo por quién tiene el modelo más potente. También se juega en quién consigue desplegar más capacidad, más rápido y con menos coste operativo por token. El software escala, pero la infraestructura no lo hace gratis. Puedes aumentar precios, endurecer límites o captar más clientes empresariales, pero si la demanda de agentes, programación y automatización sigue subiendo, el cuello de botella termina apareciendo en los centros de datos.

Ahí es donde esta noticia conecta con una tendencia más amplia del sector. Hace poco vimos cómo Google presentaba TurboQuant para comprimir la memoria de la IA hasta seis veces sin penalizar el rendimiento, precisamente con el objetivo de reducir uno de los grandes costes de la inferencia moderna. Esa clase de avances importa mucho porque la industria ya no necesita solo modelos más capaces, sino también sistemas mucho más eficientes.

La siguiente gran batalla será mantener la inteligencia sin disparar el coste

Eso no significa que la eficiencia vaya a resolverlo todo. De hecho, una IA más eficiente también puede absorber más demanda y ampliar todavía más el uso total del sistema. Pero incluso con esa paradoja, la dirección parece inevitable: la eficiencia sin pérdida de inteligencia será cada vez más importante. No solo para abaratar el servicio, sino para evitar que el crecimiento comercial se vuelva insostenible en términos de infraestructura.

El anuncio de Anthropic va justo en esa línea. A corto plazo, la compañía necesita más capacidad porque Claude se le está quedando grande para la infraestructura disponible. A medio plazo, necesita además modelos y técnicas de inferencia más eficientes para que ese crecimiento no se convierta en una espiral de coste y escasez. Más gigavatios ayudan, pero no bastan por sí solos. La IA que viene necesitará mucho más hardware, sí, pero también mucha más inteligencia a la hora de usarlo.

Fin del Artículo. ¡Cuéntanos algo en los Comentarios!

Redactor del Artículo: Edgar Otero

Edgar Otero

Soy técnico en sistemas informáticos, empecé a experimentar un Pentium II, aunque lo mío siempre ha sido el software. Desde que actualicé de Windows 95 a Windows 98 no he dejado de instalar sistemas. Tuve mi época Linuxera y fui de los que pidió el CD gratuito de Canonical. Actualmente uso macOS para trabajar y tengo un portátil con Windows 11 en el que también he instalado Chrome OS Flex. En definitiva, experimentar, probar y presionar botones.

Comentarios y opiniones sobre: Anthropic se blinda con varios gigavatios de TPU de Google tras admitir de facto que su infraestructura ya no da abasto ¿Qué opinas? ¿Alguna pregunta?
NitroV16AI Banner