25.3 C
Colombia
lunes, julio 7, 2025

Stargate creará empleos. Pero no para los humanos.


El martes, pensaba que podría escribir una historia sobre el Implicaciones de la derogación de la administración Trump de la orden ejecutiva de Biden en AI. (La mayor implicación: que los laboratorios ya no se les pide que denuncien capacidades peligrosas al gobierno, aunque pueden hacerlo de todos modos). Pero luego dos historias de IA más grandes y más importantes cayeron: una de ellas técnicas y una de ellas económicas.

Inscribirse aquí Para explorar los grandes y complicados problemas que enfrenta el mundo y las formas más eficientes de resolverlos. Enviado dos veces por semana.

Stargate es un programa de empleos, pero tal vez no para los humanos

La historia económica es Stargate. Junto con compañías como Oracle y SoftBank, el cofundador de Operai, Sam Altman, anunció un Alucinante planificó una inversión de $ 500 mil millones En “Nueva infraestructura de IA para OpenAi”, es decir, para los centros de datos y las centros de energía que se necesitarán para alimentarlas.

La gente inmediatamente tenía preguntas. Primero, estaba el de Elon Musk declaración pública que “en realidad no tienen el dinero”, seguido por la réplica de la CEO de Microsoft Satya Nadella: “Soy bueno por mis $ 80 mil millones. ” (Microsoft, recuerde, tiene una gran participación en OpenAi).

Segundo, algunos desafiado La afirmación de Openai de que el programa “creará cientos de miles de empleos estadounidenses”.

¿Por qué? Bueno, la única forma believable para que los inversores recuperen su dinero en este proyecto es si, como la compañía ha estado apostando, Operai pronto desarrollará sistemas de IA que puedan hacer la mayoría de los trabajos que los humanos pueden hacer en una computadora. Los economistas son debatir ferozmente exactamente que impactos económicos Eso lo habría hecho, si se produjo, aunque la creación de cientos de miles de trabajos no parece uno, al menos no a largo plazo. (Divulgación: Vox Media es uno de los varios editores que han firmado acuerdos de asociación con OpenAI. Nuestros informes siguen siendo editorialmente independientes).

La automatización de masas ha sucedido antes, al comienzo de la revolución industrial, y algunas personas Espere sinceramente Eso a largo plazo será algo bueno para la sociedad. (Mi opinión: eso realmente, realmente depende de si tenemos un plan para mantener la responsabilidad democrática y la supervisión adecuada, y para compartir los beneficios del nuevo y alarmante mundo de ciencia ficción. En este momento, no tenemos eso, así que yo, así que yo ‘No estoy animando la posibilidad de ser automatizado).

Pero incluso si está más entusiasmado con la automatización que yo, “reemplazaremos todo el trabajo de oficina con AIS”, que se entiende bastante ampliamente como el modelo de negocio de OpenAI, es un plan absurdo para girar como un programa de empleos. Pero entonces, una inversión de $ 500 mil millones para eliminar innumerables empleos probablemente no conseguiría el imprimatur de Donald Trump, como lo ha hecho Stargate.

Deepseek puede haber descubierto refuerzo en la retroalimentación de IA

La otra gran historia de esta semana fue Deepseek R1, un nuevo lanzamiento Desde la startup de IA china, Deepseek, que la compañía anuncia como rival a OpenAi’s O1. Lo que hace que R1 sea un gran problema es menos las implicaciones económicas y más las técnicas.

Para enseñar a los sistemas de IA a dar buenas respuestas, calificamos las respuestas que nos dan y las capacitamos a casa en las que calificamos altamente. Este es el “aprendizaje de refuerzo de la retroalimentación humana” (RLHF), y ha sido el enfoque principal para capacitar a LLMS modernos desde que un equipo de Operai lo hizo funcionar. (El proceso es descrito en este artículo de 2019.)

Pero RLHF no es como obtuvimos el Programa de juegos de IA extremely sobrehumano Alphazero. Eso fue entrenado utilizando una estrategia diferente, basada en el juego propio: la IA pudo inventar nuevos rompecabezas para sí mismo, resolverlos, aprender de la solución y mejorar desde allí.

Esta estrategia es particularmente útil para enseñar un modelo cómo hacer rápidamente Cualquier cosa que pueda hacer gastos de manera costosa y lenta. Alphazero podría considerar lenta y en el tiempo con muchas políticas diferentes, descubrir cuál es la mejor y luego aprender de la mejor solución. Es este tipo de autoestima lo que hizo posible que Alphazero mejore ampliamente en los motores de juego anteriores.

Entonces, por supuesto, los laboratorios han estado tratando de descubrir algo related para modelos de idiomas grandes. La concept básica es easy: permite que un modelo considere una pregunta durante mucho tiempo, potencialmente usando muchos cálculos costosos. Luego lo capacita en la respuesta que finalmente encontró, tratando de producir un modelo que pueda obtener el mismo resultado de manera más económica.

Pero hasta ahora, “los laboratorios importantes no parecían tener mucho éxito con este tipo de RL de administración automática”, ingeniero de aprendizaje automático Peter Schmidt-Nielsen escribió En una explicación del significado técnico de Deepseek R1. Lo que tiene los ingenieros tan impresionados con (y tan alarmado por) R1 es que el equipo parece haber progresado significativamente usando esa técnica.

Esto significaría que a los sistemas de IA se les puede enseñar a hacer de manera rápida y económica cualquier cosa que sepan de manera lenta y costosa, lo que haría algunas de las mejoras rápidas e impactantes en las capacidades que el mundo presenció con Alphazero, solo en áreas de la economía. Mucho más importante que jugar juegos.

Otro hecho notable aquí: estos avances provienen de una compañía china de IA. Dado que las compañías de IA de EE. UU. No tenemos tímido al usar el amenaza del dominio de la IA chino Para impulsar sus intereses, y dado que realmente hay una carrera geopolítica en torno a esta tecnología, que cube mucho sobre cuán rápido puede estar al día China.

Mucha gente que conozco está harta de escuchar sobre la IA. Están hartos de Ai se inclina en sus alimentos para las noticias y productos de inteligencia synthetic que son peores que los humanos pero la tierra barata, y no están enraizando exactamente a OpenAi (o cualquier otra persona) para convertirse en el Los primeros billonarios del mundo automatizan industrias enteras.

Pero creo que en 2025, la IA realmente va a importar, no por si estos sistemas poderosos se desarrollan, lo que en este punto se ve bien en marcha, sino si la sociedad está lista para ponerse de pie e insistir en que se hace de manera responsable.

Cuando los sistemas de IA comienzan a actuar de forma independiente y cometen delitos graves (todos los principales laboratorios son Trabajando en “Agentes” Eso puede actuar de forma independiente en este momento), ¿haremos responsables a sus creadores? Si OpenAi hace un Oferta ridículamente baja a su entidad sin fines de lucro En su transición al estatus completamente con fines de lucro, ¿intervendrá el gobierno para hacer cumplir la ley sin fines de lucro?

Muchas de estas decisiones se tomarán en 2025, y las apuestas son muy altas. Si AI te inquieta, esa es una razón mucho más para exigir acción, lo que es una razón para desconectarte.

Una versión de esta historia apareció originalmente en el Futuro perfecto hoja informativa. ¡Regístrese aquí!

Nota del editor, 25 de enero de 2025, 9 am ET: Esta historia se ha actualizado para incluir una divulgación sobre la relación de Vox Media con OpenAI.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles