32.3 C
Colombia
lunes, julio 7, 2025

Problema de billones de dólares de AI – unite.ai


Al ingresar a 2025, el sector de inteligencia synthetic se encuentra en un punto de inflexión essential. Si bien la industria continúa atrayendo niveles de inversión y atención sin precedentes, especialmente dentro del panorama de IA generativo, la dinámica del mercado subyacente a number of sugiere que nos dirigimos hacia un gran cambio en el panorama de la IA en el próximo año.

A partir de mi experiencia, liderando una startup de IA y observando la rápida evolución de la industria, creo que este año provocará muchos cambios fundamentales: de los modelos conceptuales de grandes (LCMS) que se espera que surja como competidores serios para modelos de idiomas grandes (LLM), el aumento del aumento del aumento de {Hardware} especializado de IA, para las grandes compañías tecnológicas que comienzan las principales construcciones de infraestructura de IA que finalmente los pondrán en condiciones de superar a las startups como OpenAi y Anthrope, y quién sabe, tal vez incluso asegurar su monopolio de IA después de todo.

Desafío único de las compañías de IA: ni software program ni {hardware}

El problema elementary radica en cómo las empresas de IA operan en un punto medio previamente invisible entre el software program tradicional y las empresas de {hardware}. A diferencia de las compañías de software program puras que invierten principalmente en capital humano con gastos operativos relativamente bajos, o compañías de {hardware} que hacen que las inversiones de capital a largo plazo con caminos claros hacia los rendimientos, las compañías de IA enfrentan una combinación única de desafíos que hacen que sus modelos de financiación actuales sean precariosos.

Estas compañías requieren un gasto de capital inicial masivo para grupos e infraestructura de GPU, gastando $ 100-200 millones anuales solo en recursos informáticos solo. Sin embargo, a diferencia de las compañías de {hardware}, no pueden amortizar estas inversiones durante períodos prolongados. En cambio, operan en ciclos comprimidos de dos años entre rondas de financiación, cada vez que necesitan demostrar un crecimiento exponencial y un rendimiento de vanguardia para justificar su próximo marcado de valoración.

Problema de diferenciación de LLMS

A este desafío estructural es una tendencia preocupante: la rápida convergencia de las capacidades del modelo de lenguaje grande (LLM). Startups, como el Unicornio Mistral AI y otros han demostrado que los modelos de código abierto pueden lograr el rendimiento Comparable a sus contrapartes de código cerrado, pero la diferenciación técnica que anteriormente justificaba las valoraciones altas del cielo es cada vez más difícil de mantener.

En otras palabras, si bien cada nuevo LLM cuenta con un rendimiento impresionante basado en puntos de referencia estándar, no se está llevando a cabo un cambio realmente significativo en la arquitectura del modelo subyacente.

Las limitaciones actuales en este dominio provienen de tres áreas críticas: disponibilidad de datosya que nos estamos quedando sin materials de entrenamiento de alta calidad (como Confirmado por Elon Musk recientemente); métodos de curaciónya que todos adoptan enfoques de retroalimentación humana similares pioneros por OpenAI; y arquitectura computacionalya que confían en el mismo grupo limitado de {hardware} especializado de GPU.

Lo que emerge es un patrón donde las ganancias provienen cada vez más de la eficiencia en lugar de la escala. Las empresas se están centrando en comprimir más conocimiento en menos tokens y desarrollar mejores artefactos de ingeniería, como sistemas de recuperación como trapos gráficos (generación de recuperación y auge). Esencialmente, nos estamos acercando a una meseta pure donde arrojar más recursos al problema produce rendimientos decrecientes.

Debido al ritmo de innovación sin precedentes en los últimos dos años, esta convergencia de capacidades de LLM está ocurriendo más rápido de lo que cualquiera anticipó, creando una carrera contra el tiempo para las empresas que recaudaron fondos.

Según las últimas tendencias de investigación, la próxima frontera para abordar este problema es la aparición de Modelos conceptuales grandes (LCM) Como una nueva arquitectura innovadora que compite con LLM en su dominio central, que es la comprensión del lenguaje pure (PNL).

Técnicamente hablando, LCMS poseerá varias ventajas, incluido el potencial de un mejor rendimiento con menos iteraciones y la capacidad de lograr resultados similares con equipos más pequeños. Creo que estos LCM de próxima generación serán desarrollados y comercializados por equipos spin-off, el famoso “ex huge huge tech” que fundan nuevas nuevas empresas para encabezar esta revolución.

Monetización de la línea de tiempo de la línea de tiempo

La compresión de los ciclos de innovación ha creado otro problema crítico: el desajuste entre el tiempo de comercialización y la monetización sostenible. Si bien estamos viendo una velocidad sin precedentes en la verticalización de las aplicaciones de IA, con agentes de IA de voz, por ejemplo, que van del concepto a los productos generadores de ingresos en los pocos meses, esta rápida comercialización enmascara un problema más profundo.

Considere esto: una startup de IA valorada en $ 20 mil millones hoy probablemente necesitará generar alrededor de $ 1 mil millones en ingresos anuales dentro de 4-5 años para justificar hacer pública a un múltiplo razonable. Esto requiere no solo la excelencia tecnológica, sino también una transformación dramática de todo el modelo de negocio, desde I + D centrado hasta las ventas, todo mientras mantiene el ritmo de la innovación y la gestión de enormes costos de infraestructura.

En ese sentido, las nuevas nuevas empresas centradas en LCM que surgirán en 2025 estarán en mejores posiciones para recaudar fondos, con valoraciones iniciales más bajas que los convierten en objetivos de financiación más atractivos para los inversores.

Escasez de {hardware} y alternativas emergentes

Echemos un vistazo más de cerca específicamente a la infraestructura. Hoy, cada nuevo clúster de GPU se compra incluso antes de que los grandes jugadores lo construyan, lo que obliga a los jugadores más pequeños a comprometerse con contratos a largo plazo con proveedores de la nube o arriesgarse a ser excluido del mercado por completo.

Pero esto es lo que es realmente interesante: mientras todos luchan por las GPU, ha habido un cambio fascinante en el panorama de {hardware} que todavía se está pasando por alto en gran medida. La arquitectura precise de GPU, llamada GPGPU (GPU de propósito normal), es increíblemente ineficiente para lo que la mayoría de las empresas realmente necesitan en la producción. Es como usar una supercomputadora para ejecutar una aplicación de calculadora.

Es por eso que creo que el {hardware} AI especializado será el próximo gran cambio en nuestra industria. Las empresas, como Groq y Cerebras, están construyendo {hardware} específico de inferencia de 4 a 5 veces más barato de operar que las GPU tradicionales. Sí, hay un mayor costo de ingeniería por adelantado para optimizar sus modelos para estas plataformas, pero para las empresas que ejecutan cargas de trabajo de inferencia a gran escala, las ganancias de eficiencia son claras.

Densidad de datos y el aumento de modelos más pequeños e inteligentes

Pasar a la próxima frontera de innovación en IA probablemente requerirá no solo una mayor potencia computacional, especialmente para modelos grandes como LCM, sino también conjuntos de datos más ricos y más completos.

Curiosamente, los modelos más pequeños y más eficientes están comenzando a desafiar a los más grandes al capitalizar cuán densamente están capacitados en los datos disponibles. Por ejemplo, modelos como Feefree de Microsoft o GEMA2B de Google, funcionan con muchos menos parámetros, a menudo alrededor de 2 a 3 mil millones, logran niveles de rendimiento comparables a modelos mucho más grandes con 8 mil millones de parámetros.

Estos modelos más pequeños son cada vez más competitivos debido a su alta densidad de datos, lo que los hace robustos a pesar de su tamaño. Este cambio hacia modelos compactos, pero potentes, se alinea con las compañías estratégicas de ventajas como Microsoft y Google Maintain: Entry a conjuntos de datos masivos y diversos a través de plataformas como Bing y Google Search.

Esta dinámica revela dos “guerras” críticas que se desarrollan en el desarrollo de la IA: una sobre el poder de cálculo y otro sobre los datos. Si bien los recursos computacionales son esenciales para superar los límites, la densidad de datos se está volviendo igualmente, si no más, crítica. Las empresas con acceso a vastas conjuntos de datos están posicionadas de manera única para entrenar modelos más pequeños con una eficiencia y robustez incomparable, lo que solidifica su dominio en el panorama de IA en evolución.

¿Quién ganará la Guerra AI?

En este contexto, a todos les gusta preguntarse quién en el panorama precise de la IA está mejor posicionado para salir ganando. Aquí hay algo de comida para pensar.

Las principales empresas de tecnología han estado preparando grupos completos de GPU antes de la construcción, creando un entorno de escasez para jugadores más pequeños. Oracle’s más de 100,000 GPU pedido y movimientos similares de Meta y Microsoft ejemplifican esta tendencia.

Habiendo invertido cientos de miles de millones en iniciativas de IA, estas compañías requieren miles de ingenieros e investigadores especializados de IA. Esto crea una demanda sin precedentes de talento que solo puede satisfacerse a través de adquisiciones estratégicas, lo que probablemente resulte en que muchas nuevas empresas se absorban en los próximos meses.

Mientras que 2025 se gastará en I + D a gran escala y construcciones de infraestructura para tales actores, para 2026, estarán en condiciones de atacar como nunca antes debido a recursos inigualables.

Esto no quiere decir que las compañías de IA más pequeñas estén condenadas, mucho de eso. El sector continuará innovando y creando valor. Es possible que algunas innovaciones clave en el sector, como LCMS, sean dirigidas por actores más pequeños y emergentes en el próximo año, junto con Meta, Google/Alphabet y OpenAi con antrópico, todos los cuales están trabajando en proyectos emocionantes en este momento.

Sin embargo, es possible que veamos una reestructuración elementary de cómo las empresas de IA son financiadas y valoradas. A medida que el capital de riesgo se vuelve más discriminatorio, las empresas necesitarán demostrar caminos claros hacia la economía de la unidad sostenible, un desafío explicit para las empresas de código abierto que compiten con alternativas propietarias de recursos bien recursos.

Para las empresas de IA de código abierto específicamente, el camino hacia adelante puede requerir centrarse en aplicaciones verticales específicas donde sus capacidades de transparencia y personalización proporcionan ventajas claras sobre soluciones propietarias.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles