31 C
Colombia
viernes, julio 4, 2025

El nuevo cálculo de IA: el ecosistema de costo del 80% de Google versus el ecosistema de OpenAI


Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


El ritmo implacable de la innovación generativa de IA no muestra signos de desaceleración. En solo las últimas dos semanas, Operai dejó caer su poderosos modelos de razonamiento O3 y O4-Mini junto con el Serie GPT-4.1mientras que Google respondió con Gemini 2.5 Flash, iterando rápidamente en su buque insignia Géminis 2.5 Professional lanzado poco antes. Para los líderes técnicos empresariales que navegan por este vertiginoso paisaje, elegir la plataforma AI correcta requiere mirar mucho más allá de los puntos de referencia de modelos que cambian rápidamente

Mientras que los puntos de referencia del modelo versus-model adoptan los titulares, la decisión para los líderes técnicos es mucho más profunda. Elegir una plataforma de IA es un compromiso con un ecosistema, que impacta todo, desde costos de cómputo y la estrategia de desarrollo de agentes para modelar la confiabilidad y la integración empresarial.

Pero quizás el diferenciador más marcado, burbujeante debajo de la superficie pero con profundas implicaciones a largo plazo, radica en la economía del {hardware} que alimenta a estos gigantes de IA. Google ejerce una ventaja de costo masiva gracias a su silicio personalizado, potencialmente ejecutando sus cargas de trabajo de IA a una fracción del costo OpenAI incurre en la dependencia de las GPU dominantes del mercado (y de alto margen) de NVIDIA.

Este análisis profundiza más allá de los puntos de referencia para comparar los ecosistemas de AI de Google y OpenAI/Microsoft en los factores críticos que las empresas deben considerar hoy: la disparidad significativa en la economía de cálculo de la calculadora, las estrategias divergentes para construir agentes de IA, las compensaciones cruciales en las capacidades y la confiabilidad del modelo y las realidades y las realidades del ajuste de la empresa y la distribución. El análisis se basa en Una discusión en video en profundidad que explora estos cambios sistémicos Entre el desarrollador de IA y el desarrollador de IA Sam Witteveen a principios de esta semana.

1. Comput Economics: TPU “Arma secreta” de Google vs. Impuesto a Nvidia de OpenAi

La ventaja más significativa, pero a menudo poco discutida, que Google tiene es su “arma secreta”: su inversión de una década en unidades de procesamiento de tensores personalizados (TPU). Openai y el mercado más amplio dependen en gran medida de las GPU poderosas pero caras de Nvidia (como la H100 y A100). Google, por otro lado, diseña e implementa sus propias TPU, como la Generación de Ironwood recientemente reveladapara sus cargas de trabajo de IA principales. Esto incluye capacitación y servir modelos de Géminis.

¿Por qué importa esto? Hace una gran diferencia de costos.

NVIDIA Comando GPUS asombrosos márgenes brutos, estimados por analistas para estar en el rango del 80% para chips centrales de datos como el H100 y las próximas GPU B100. Esto significa que Openai (a través de Microsoft Azure) paga una prima appreciable, el “impuesto nvidia”, por su poder de cálculo. Google, mediante la fabricación de TPUS internas, evita efectivamente este marcado.

Si bien las GPU de fabricación pueden costar NVIDIA $ 3,000- $ 5,000, los hiperscalers como Microsoft (suministrando OpenAI) pagan $ 20,000- $ 35,000+ por unidad en volumen, de acuerdo a a informes. Las conversaciones y el análisis de la industria sugieren que Google puede estar obteniendo su poder de cálculo de IA en aproximadamente el 20% del costo incurrido por quienes compran GPU NVIDIA de alta gama. Si bien los números exactos son internos, la implicación es un 4x-6x rentabilidad Ventaja por unidad de cómputo para Google a nivel de {hardware}.

Esta ventaja estructural se refleja en el precio de la API. Comparando los modelos insignia, O3 O3 es aproximadamente 8 veces más caro para tokens de entrada y 4 veces más caros para tokens de salida que el Gemini 2.5 Professional de Google (para longitudes de contexto estándar).

Este diferencial de costos no es académico; Tiene profundas implicaciones estratégicas. Es possible que Google pueda mantener precios más bajos y ofrecer una mejor “inteligencia por dólar”, dando a las empresas un costo complete complete de propiedad (TCO) más predecible, y eso es exactamente lo que esta haciendo ahora mismo en la práctica.

Mientras tanto, los costos de Openai están intrínsecamente vinculados al poder de fijación de precios de Nvidia y los términos de su acuerdo de Azure. De hecho, los costos de cálculo representan un 55-60% del complete de gastos operativos de $ 9B de Openai en 2024, según algunos informes, y están proyectado a superar el 80% en 2025 como thescala EY. Mientras que el crecimiento de los ingresos proyectados de OpenAI es astronómico, potencialmente llegó a $ 125 mil millones para 2029 Según los pronósticos internos reportados – Administrar este gasto de cómputo sigue siendo un desafío crítico, Conducir su búsqueda de silicio personalizado.

2. Agentes marcos: el enfoque del ecosistema abierto de Google versus uno integrado de OpenAI

Más allá del {hardware}, los dos gigantes buscan estrategias divergentes para construir e implementar los agentes de IA preparados para automatizar los flujos de trabajo empresariales.

Google está haciendo un claro impulso para la interoperabilidad y un ecosistema más abierto. En la nube las próximas dos semanas, se reveló El protocolo de agente a agente (A2A), diseñado para permitir que los agentes construidos en diferentes plataformas se comuniquen, junto con su Package de desarrollo de agentes (ADK) y el Hub del espacio de agentes para descubrir y administrar agentes. Mientras que la adopción de A2A enfrenta obstáculos, los jugadores clave como Anthrope no han firmado (VentureBeat contactó a Anthrope sobre esto, pero Anthrope declinó hacer comentarios), y algunos desarrolladores debaten su necesidad junto con el protocolo de contexto modelo (MCP) existente de Anthrope. La intención de Google es clara: para fomentar un mercado de agentes múltiples de proveedores, potencialmente alojados en su jardín de agentes o a través de una tienda de aplicaciones de agentes rumoreados.

Operai, por el contrario, parece enfocado en crear agentes potentes y de uso de herramientas estrechamente integrados dentro de su propia pila. El nuevo modelo O3 ejemplifica esto, capaz de hacer cientos de llamadas de herramientas dentro de una sola cadena de razonamiento. Los desarrolladores aprovechan las respuestas API y agentes SDK, junto con herramientas como la nueva CLI Codex, para construir agentes sofisticados que operan dentro del límite de confianza de OpenAI/Azure. Si bien marcos como el autógeno de Microsoft ofrecen cierta flexibilidad, la estrategia central de OpenAI parece menos acerca de la comunicación multiplataforma y más de maximizar las capacidades de agente verticalmente dentro de su entorno controlado.

  • La comida para llevar en la empresa: Las empresas priorizan la flexibilidad y la capacidad de mezclar y combinar agentes de varios proveedores (por ejemplo, que enchufan un agente de Salesforce a Vertex AI) puede encontrar atractivo el enfoque abierto de Google. Aquellos profundamente invertidos en el ecosistema de Azure/Microsoft o que prefieren una pila de agentes de alto rendimiento más gestionado verticalmente podría inclinarse hacia OpenAi.

3. Capacidades del modelo: paridad, rendimiento y puntos débiles

El implacable ciclo de liberación significa que el liderazgo modelo es fugaz. Mientras que el O3 de OpenAI actualmente supera a Gemini 2.5 Professional en algunos puntos de referencia de codificación como SWE Bench Verified and Aider, Gemini 2.5 Professional coincide o lidera en otros como GPQA y AIME. Gemini 2.5 Professional también es el líder basic en la tabla de clasificación de la area del modelo de idioma grande (LLM). Sin embargo, para muchos casos de uso empresarial, los modelos han alcanzado la paridad aproximada en las capacidades centrales.

El actual La diferencia radica en sus distintas compensaciones:

  • Contexto vs. Profundidad de razonamiento: Gemini 2.5 Professional cuenta con una ventana de contexto masiva de 1 millón de token (con 2M planeado), splendid para procesar grandes bases de código o conjuntos de documentos. O3 O3 ofrece una ventana de 200k, pero enfatiza el razonamiento profundo y asistido por herramientas dentro de un solo turno, habilitado por su enfoque de aprendizaje de refuerzo.
  • Confiabilidad versus riesgo: Esto está emergiendo como un diferenciador crítico. Mientras que O3 muestra un razonamiento impresionante, la tarjeta modelo de OpenAi para 03 reveló que alucina significativamente más (2 veces la tasa de O1 en Personqa). Algunos análisis sugieren que esto podría provenir de su Razonamiento complejo y mecanismos de uso de herramientas. Gemini 2.5 Professional, aunque tal vez a veces se percibe como menos innovador en su estructura de salida, a menudo es descrito por los usuarios como más confiables y predecibles para las tareas empresariales. Las empresas deben sopesar las capacidades de vanguardia de O3 contra este aumento documentado en el riesgo de alucinación.
  • La comida para llevar en la empresa: El modelo “mejor” depende de la tarea. Para analizar grandes cantidades de contexto o priorizar salidas predecibles, Gemini 2.5 Professional tiene una ventaja. Para las tareas que exigen el razonamiento múltiple más profundo, donde el riesgo de alucinación se puede administrar cuidadosamente, O3 es un contendiente poderoso. Como Sam Witteveen señaló en nuestro Podcast en profundidad sobre estolas pruebas rigurosas dentro de casos de uso empresarial específicos son esenciales.

4. Enterprise Match & Distribution: Profundidad de integración versus alcance del mercado

En última instancia, la adopción a menudo depende de la facilidad con la que una plataforma se encuentra en la infraestructura y los flujos de trabajo existentes de una empresa.

La fortaleza de Google se encuentra en una profunda integración para los clientes existentes de Google Cloud y Workspace. Los modelos Gemini, Vertex AI, Agentspace y herramientas como BigQuery están diseñados para trabajar perfectamente juntos, ofreciendo un plano de management unificado, gobernanza de datos y un tiempo de valor potencialmente más rápido para las empresas ya invertido en el ecosistema de Google. Google es cortejando activamente a grandes empresasmostrando implementaciones con empresas como Wendy’s, Wayfair y Wells Fargo.

Openai, a través de Microsoft, cuenta con un alcance y accesibilidad de mercado incomparables. La enorme base de usuarios de ChatGPT (~ 800m MAU) crea una amplia familiaridad. Más importante aún, Microsoft está integrando agresivamente los modelos OpenAI (incluida la última serie O) en sus ubicuos servicios de copilotes y azules de Microsoft 365, lo que hace que las potentes capacidades de IA estén disponibles para potencialmente cientos de millones de usuarios empresariales, a menudo dentro de las herramientas que ya usan diariamente. Para las organizaciones que ya están estandarizadas en Azure y Microsoft 365, la adopción de OpenAI puede ser una extensión más pure. Además, el uso extenso de las API de OpenAI por parte de los desarrolladores significa que muchas indicaciones y flujos de trabajo empresariales ya están optimizados para los modelos OpenAI.

  • La decisión estratégica: La elección a menudo se cut back a las relaciones de proveedores existentes. Google ofrece una historia convincente e integrada para sus clientes actuales. OpenAI, alimentado por el motor de distribución de Microsoft, ofrece una accesibilidad amplia y una adopción potencialmente más fácil para la gran cantidad de empresas centradas en Microsoft.

Google vs Openai/Microsoft tiene compensaciones para empresas

La guerra generativa de la plataforma de IA entre Google y OpenAI/Microsoft se ha movido mucho más allá de las simples comparaciones de modelos. Si bien ambos ofrecen capacidades de vanguardia, representan diferentes apuestas estratégicas y presentan ventajas y compensaciones distintas para la empresa.

Las empresas deben sopesar los enfoques diferentes para los marcos de agentes, las compensaciones matizadas entre las capacidades del modelo como la longitud de contexto versus el razonamiento de vanguardia y los aspectos prácticos del alcance de la integración y distribución empresarial.

Sin embargo, avanzar sobre todos estos factores es la clara realidad del costo de cálculo, que surge como quizás el diferenciador a largo plazo más crítico y definitorio, especialmente si OpenAi no logra abordarlo rápidamente. La estrategia de TPU integrada verticalmente de Google, lo que le permite evitar potencialmente el “impuesto NVIDIA” de ~ 80% integrado en los precios de GPU que las cargas abiertos, representa una ventaja económica elementary, potencialmente una que cambia el juego.

Esto es más que una diferencia menor de precios; Impacta todo, desde la asequibilidad de la API y la previsibilidad de TCO a largo plazo hasta la escalabilidad pura de las implementaciones de IA. A medida que las cargas de trabajo de IA crecen exponencialmente, la plataforma con el motor económico más sostenible, impulsado por la costumbre del {hardware}, tiene una potente ventaja estratégica. Google está aprovechando esta ventaja y al mismo tiempo presiona una visión abierta para la interoperabilidad del agente.

OpenAI, respaldado por la escala de Microsoft, contrarresta con modelos de uso de herramientas profundamente integrados y un alcance de mercado incomparable, aunque quedan preguntas sobre su estructura de costos y su confiabilidad del modelo.

Para tomar la decisión correcta, los líderes técnicos empresariales deben mirar más allá de los puntos de referencia y evaluar estos ecosistemas en función de sus implicaciones de TCO a largo plazo, su enfoque preferido para la estrategia y la apertura de los agentes, su tolerancia a los riesgos de confiabilidad del modelo versus el poder de razonamiento crudo, su pila de tecnología existentes y sus necesidades de aplicación específicas.

Mira el video donde Sam Witteveen y yo desglosamos:

https://www.youtube.com/watch?v=dzzdjnd-yfw


Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles