Connect with us

Alianzas

OpenAI se asocia con Cerebras por $10 mil millones en cómputo de baja latencia

mm

OpenAI anunció un acuerdo de varios años con la startup de chips Cerebras Systems que entregará 750 megavatios de cómputo de AI dedicado al fabricante de ChatGPT, en lo que ambas empresas describen como el mayor despliegue de inferencia de alta velocidad jamás intentado.

El trato, valorado en más de $10 mil millones según fuentes familiarizadas con los términos, marca la apuesta de infraestructura más significativa de OpenAI fuera de su relación principal con Microsoft. Cerebras construirá y alojará los sistemas en fases hasta 2028, con la primera capacidad que se pondrá en línea este año.

La asociación se dirige a un problema específico: la velocidad. Si bien OpenAI ha escalado ChatGPT a 800 millones de usuarios semanales, la empresa enfrenta limitaciones de cómputo que ralentizan los tiempos de respuesta, particularmente para cargas de trabajo exigentes como la generación de código, tareas agénticas y la interacción de voz en tiempo real.

“Cerebras agrega una solución de inferencia de baja latencia dedicada a nuestra plataforma”, dijo Sachin Katti, quien lidera la estrategia de cómputo de OpenAI. “Eso significa respuestas más rápidas, interacciones más naturales y una base más sólida para escalar la IA en tiempo real a muchas más personas”.

Por qué la silicona a escala de oblea es importante

La propuesta de Cerebras se centra en sus procesadores a escala de oblea, chips del tamaño de un plato de cena que eliminan los retrasos de comunicación inherentes a los sistemas cosidos con muchos GPUs más pequeños. La empresa afirma que su arquitectura entrega velocidades de inferencia hasta 15 veces más rápidas que las alternativas basadas en GPU, con modelos como GPT-OSS-120B que funcionan a aproximadamente 3.000 tokens por segundo.

Para OpenAI, esa velocidad se traduce directamente en la experiencia del usuario. Cuando la IA responde en tiempo real, sin la latencia que hace que las conversaciones se sientan artificiales, los usuarios se involucran más profundamente y logran más. La empresa probó el silicio de Cerebras con sus modelos de peso abierto antes del Día de Acción de Gracias, y las conversaciones técnicas entre los equipos se escalonaron rápidamente a un contrato firmado, según el CEO de Cerebras, Andrew Feldman.

“Al igual que la banda ancha transformó internet, la inferencia en tiempo real transformará la IA”, dijo Feldman. “Esto permite formas completamente nuevas de construir e interactuar con modelos de IA”.

La comparación no es un hipérbaton. La internet de acceso telefónico temprano admitió el correo electrónico y la navegación básica; la banda ancha permitió la transmisión de video, las llamadas de voz y eventualmente la economía de aplicaciones de smartphone. OpenAI parece estar apostando a que la inferencia lo suficientemente rápida desbloqueará aplicaciones que la latencia actual hace impracticables, particularmente para los agentes de IA que deben encadenar múltiples operaciones sin que la paciencia humana se desgaste.

La carrera de armamento de infraestructura se intensifica

El trato con Cerebras llega cuando las valoraciones de infraestructura de IA han explotado, con Databricks que recientemente recaudó $134 mil millones y Cerebras mismo supuestamente en conversaciones para una nueva financiación a una valoración de $22 mil millones. Las demandas de cómputo de los modelos de IA de frontera no muestran signos de alcanzar un máximo, y las empresas están luchando por asegurar la capacidad antes de que lo hagan los competidores.

Para Cerebras, la asociación con OpenAI resuelve un problema de concentración empresarial. Los Emiratos Árabes Unidos de G42 representaron el 87% de los ingresos de Cerebras en el primer semestre de 2024, una concentración de clientes que hizo que los inversores se sintieran nerviosos. Agregar a OpenAI como cliente importante antes de una posible OFERTA inicial de acciones reduce significativamente el riesgo del negocio.

Para OpenAI, el trato diversifica su infraestructura de IA más allá de la nube Azure de Microsoft. Si bien Microsoft sigue siendo el proveedor de cómputo principal de OpenAI, la asociación con Cerebras le da a OpenAI una capacidad de baja latencia dedicada y optimizada específicamente para la inferencia, una carga de trabajo diferente a las que maneja la infraestructura de Microsoft.

El momento también es importante. OpenAI recientemente lanzó GPT-5.2 en medio de una intensa competencia con Gemini de Google. A medida que los modelos se vuelven más capaces, las empresas que los despliegan están descubriendo que la inteligencia cruda no es suficiente, los usuarios también esperan respuestas casi instantáneas. Una IA brillante que tarda diez segundos en responder se siente rota; la misma IA que responde en menos de un segundo se siente mágica.

Sam Altman, CEO de OpenAI, ya es inversor en Cerebras, y OpenAI consideró una vez adquirir la empresa directamente. Este trato sugiere que la relación está evolucionando hacia algo más estratégico: una asociación en la que el destino de ambas empresas se entrelaza en la carrera por hacer que la IA se sienta verdaderamente conversacional.

Alex McFarland es un periodista y escritor de inteligencia artificial que explora los últimos desarrollos en inteligencia artificial. Ha colaborado con numerosas startups y publicaciones de inteligencia artificial en todo el mundo.