33.7 C
Colombia
sábado, julio 5, 2025

AGI está llegando más rápido de lo que pensamos: debemos prepararnos ahora


Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información


Figuras destacadas de la IA, incluidos Dario Amodei de Anthropic y Sam Altman de OpenAI, sugieren que una “IA poderosa” o incluso una superinteligencia podrían aparecer en los próximos dos a diez años, lo que podría remodelar nuestro mundo.

En su reciente ensayo Máquinas de gracia amorosaAmodei ofrece una exploración reflexiva del potencial de la IA, sugiriendo que una IA poderosa, lo que otros han denominado inteligencia synthetic basic (AGI), podría lograrse ya en 2026. Mientras tanto, en La period de la inteligenciaAltman escribe que “es posible que tengamos superinteligencia en unos pocos miles de días” (o en 2034). Si están en lo cierto, en algún momento de los próximos dos a diez años, el mundo cambiará dramáticamente.

Como líderes en investigación y desarrollo de IA, Amodei y Altman están a la vanguardia en ampliar los límites de lo que es posible, lo que hace que sus concepts sean particularmente influyentes cuando miramos hacia el futuro. Amodei outline poderosa IA como “más inteligente que un ganador del Premio Nobel en los campos más relevantes: biología, programación, matemáticas, ingeniería, escritura…” Altman no outline explícitamente la superinteligencia en su ensayo, aunque se entiende que son sistemas de inteligencia synthetic que superan las capacidades intelectuales humanas en todos los dominios. .

No todo el mundo comparte este cronograma optimista, aunque estos puntos de vista menos optimistas no han disminuido el entusiasmo entre los líderes tecnológicos. Por ejemplo, el cofundador de OpenAI, Ilya Sutskever, es ahora cofundador de Protected Superintelligence (SSI), una startup dedicada al avance de la IA con un enfoque que prioriza la seguridad. Cuando anunciando En junio pasado, Sutskever dijo en SSI: “Buscaremos una superinteligencia segura de manera directa, con un enfoque, un objetivo y un producto”. Hablando de los avances de la IA hace un año Cuando todavía estaba en OpenAI, señaló: “Va a ser monumental, trascendental. Habrá un antes y un después”. En su nuevo puesto en SSI, Sutskever ya ha recaudó mil millones de dólares para financiar los esfuerzos de la empresa.

Estos pronósticos se alinean con la estimación de Elon Musk de que la IA superará a toda la humanidad para 2029. Musk dijo recientemente que la IA podría hacer cualquier cosa que cualquier humano pueda hacer en los próximos dos años. Añadió que la IA podría hacer lo que todos los humanos juntos pueden hacer en tres años más, en 2028 o 2029. Estas predicciones también son consistentes con la visión de larga information del futurista Ray Kurzweil de que la AGI se alcanzaría en 2029. Kurzweil Hizo esta predicción ya en 1995 y escribió sobre esto en este libro más vendido de 2005: “La singularidad está cerca.”

El futurista Ray Kurzweil mantiene su predicción del AGI para 2029.

La inminente transformación

Como estamos al borde de estos posibles avances, debemos evaluar si estamos realmente preparados para esta transformación. Listo o no, si estas predicciones son correctas, pronto llegará un mundo fundamentalmente nuevo.

Un niño nacido hoy podría ingresar al jardín de infantes en un mundo transformado por AGI. ¿Se quedarán muy atrás los cuidadores de IA? De repente, la visión futurista de Kazuo Ishiguro en “Klara y el sol” de un androide amigo synthetic para aquellos niños cuando lleguen a la adolescencia no parece tan descabellado. La perspectiva de contar con compañeros y cuidadores de IA sugiere un mundo con profundos cambios éticos y sociales, que podrían desafiar nuestros marcos existentes.

Más allá de los compañeros y cuidadores, las implicaciones de estas tecnologías no tienen precedentes en la historia de la humanidad y ofrecen tanto una promesa revolucionaria como un riesgo existencial. Las posibles ventajas que podrían surgir de La poderosa IA es profunda. Más allá de los avances robóticos, esto podría incluir el desarrollo de curas para el cáncer y la depresión hasta lograr finalmente la energía de fusión. Algunos ven esta época venidera como una period de abundancia con personas que tienen nuevas oportunidades de creatividad y conexión. Sin embargo, las posibles desventajas son igualmente trascendentales, desde un enorme desempleo y desigualdad de ingresos hasta armas autónomas desbocadas.

A corto plazo, el científico investigador principal del MIT Sloan, Andrew McAfee, considera que la IA mejorará, en lugar de reemplazar, los trabajos humanos. En un reciente Pódcast pivoteargumentó que la IA proporciona “un ejército de empleados, colegas y entrenadores” disponibles a pedido, incluso cuando a veces asume “grandes porciones” de trabajos.

Pero esta visión mesurada del impacto de la IA puede tener una fecha de finalización. Elon Musk dicho que a largo plazo “probablemente ninguno de nosotros tendrá trabajo”. Este marcado contraste resalta un punto essential: lo que parezca cierto sobre las capacidades y los impactos de la IA en 2024 puede ser radicalmente diferente en el mundo AGI, que podría estar a solo varios años de distancia.

Templar las expectativas: equilibrar el optimismo con la realidad

A pesar de estos pronósticos ambiciosos, no todos están de acuerdo en que una poderosa IA esté en el horizonte cercano o que sus efectos sean tan claros. El escéptico del aprendizaje profundo, Gary Marcus, ha estado advirtiendo durante algún tiempo que las tecnologías de inteligencia synthetic actuales no son capaces de realizar AGI, argumentando que la tecnología carece de las habilidades de razonamiento profundo necesarias. Es famoso que apuntó a la reciente predicción de Musk de que la IA pronto sería más inteligente que cualquier ser humano y ofreció 1 millón de dólares para demostrar que estaba equivocado.

AGI está llegando más rápido de lo que pensamos: debemos prepararnos ahora

Linus Torvalds, creador y desarrollador líder del sistema operativo Linux, dijo recientemente que pensó que la IA cambiaría el mundo, pero actualmente es “90% advertising and marketing y 10% realidad”. Sugirió que, por ahora, la IA puede ser más una exageración que una sustancia.

Quizás dar crédito a la afirmación de Torvald sea una papel nuevo de OpenAI que muestra sus principales modelos de lenguajes de gran frontera (LLM), incluidos GPT-4o y o1, que luchan por responder preguntas simples para las que existen respuestas objetivas. El artículo describe un nuevo punto de referencia “SimpleQA” “para medir la factibilidad de los modelos de lenguaje”. El que mejor desempeño es o1-preview, pero produjo respuestas incorrectas a la mitad de las preguntas.

Rendimiento de los LLM de vanguardia en el nuevo punto de referencia SimpleQA de OpenAI. Fuente: Presentamos SimpleQA.

De cara al futuro: preparación para la period de la IA

Las predicciones optimistas sobre el potencial de la IA contrastan con el estado precise de la tecnología, como se muestra en puntos de referencia como SimpleQA. Estas limitaciones sugieren que, si bien el campo avanza rápidamente, se necesitan algunos avances significativos para lograr un verdadero AGI.

Sin embargo, quienes están más cerca del desarrollo de la tecnología de IA prevén un rápido avance. En un reciente Pódcast de bifurcación duraex asesor principal de OpenAI para la preparación de AGI Miles Brundage dijo: “Creo que la mayoría de las personas que saben de lo que están hablando están de acuerdo [AGI] Pasará bastante rápido y lo que eso significa para la sociedad no es algo que necesariamente pueda predecirse”. Brundage añadió: “Creo que la jubilación llegará para la mayoría de las personas antes de lo que creen…”

La Ley de Amara, acuñada en 1973 por Roy Amara de Stanford, cube que a menudo sobreestimamos el impacto a corto plazo de las nuevas tecnologías mientras subestimamos su potencial a largo plazo. Si bien el cronograma actual de llegada de AGI puede no coincidir con las predicciones más agresivas, su eventual aparición, tal vez en sólo unos pocos años, podría remodelar la sociedad más profundamente de lo que incluso los optimistas de hoy imaginan.

Sin embargo, la brecha entre las capacidades actuales de IA y la verdadera AGI sigue siendo significativa. Dado lo que está en juego –desde avances médicos revolucionarios hasta riesgos existenciales– este amortiguador es valioso. Ofrece un momento essential para desarrollar marcos de seguridad, adaptar nuestras instituciones y prepararnos para una transformación que alterará fundamentalmente la experiencia humana. La pregunta no es sólo cuándo llegará AGI, sino también si estaremos preparados para ello cuando lo haga.

Gary Grossman es vicepresidente ejecutivo de práctica tecnológica en Edelman y líder world del Centro de Excelencia de IA de Edelman.

Tomadores de decisiones de datos

¡Bienvenido a la comunidad VentureBeat!

DataDecisionMakers es el lugar donde los expertos, incluidos los técnicos que trabajan con datos, pueden compartir conocimientos e innovación relacionados con los datos.

Si desea leer sobre concepts de vanguardia e información actualizada, mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers.

Incluso podrías considerar contribuyendo con un artículo propio!

Leer más de DataDecisionMakers


Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles