33.6 C
Colombia
sábado, julio 5, 2025

Mapas de pronóstico de 2027 AGI un dash de 24 meses a la IA de nivel humano


Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


El horizonte distante es siempre turbio, los detalles minuciosos oscurecidos por la distancia y la neblina atmosférica. Es por eso que pronosticar el futuro es tan impreciso: no podemos ver claramente los contornos de las formas y eventos por delante de nosotros. En cambio, tomamos conjeturas educadas.

El recién publicado AI 2027 escenario, desarrollado por un equipo de investigadores de IA y pronosticadores con experiencia en instituciones como Opadai y el Centro de Política de AI, ofrece un pronóstico detallado de 2 a 3 años para el futuro que incluye hitos técnicos específicos. Al estar a corto plazo, habla con gran claridad sobre nuestro futuro cercano de IA.

Informado por los extensos ejercicios de comentarios y planificación de escenarios de expertos, AI 2027 describe una progresión de un cuarto de trimestre de capacidades de IA anticipadas, especialmente modelos multimodales que logran razonamiento avanzado y autonomía. Lo que hace que este pronóstico sea particularmente notable es tanto su especificidad como la credibilidad de sus contribuyentes, que tienen una visión directa de las tuberías de investigación actuales.

La predicción más notable es que inteligencia basic synthetic (AGI) se logrará en 2027, y la superinteligencia synthetic (ASI) seguirá meses después. AGI coincide o excede las capacidades humanas en prácticamente todas las tareas cognitivas, desde la investigación científica hasta los esfuerzos creativos, al tiempo que demuestra adaptabilidad, razonamiento de sentido común y superación private. ASI va más allá, representando sistemas que superan dramáticamente la inteligencia humana, con la capacidad de resolver problemas que ni siquiera podemos comprender.

Al igual que muchas predicciones, estos se basan en suposiciones, entre las cuales los modelos y aplicaciones de IA continuarán progresando exponencialmente, como lo han hecho durante los últimos años. Como tal, es believable, pero no se garantiza que espere un progreso exponencial, especialmente porque la escala de estos modelos ahora puede estar alcanzando rendimientos decrecientes.

No todos están de acuerdo con estas predicciones. Ali Farhadi, CEO del Instituto Allen de Inteligencia Synthetic, dijo The New York Instances: “Estoy a favor de proyecciones y pronósticos, pero esto [AI 2027] El pronóstico no parece estar basado en la evidencia científica, o la realidad de cómo evolucionan las cosas en la IA “.

Sin embargo, hay otros que ven esta evolución como believable. El cofundador antrópico Jack Clark escribió en su Importar ai Publication que AI 2027 es: “El mejor tratamiento hasta ahora de cómo podría ser ‘vivir en un exponencial'”. Agregó que es un Técnicamente narrativa astuta de los próximos años de desarrollo de IA “. Esta línea de tiempo también se alinea con la propuesta por el CEO Anthrope Dario Amodei, quien ha dicho que la IA que puede superar a los humanos en casi todo llegará en los próximos dos o tres años. Un nuevo trabajo de investigación Ese agi podría llegar plausiblemente para 2030.

La gran aceleración: interrupción sin precedentes

Esto parece un momento auspicioso. Ha habido momentos similares como este en la historia, incluida la invención de la imprenta o la propagación de la electricidad. Sin embargo, esos avances requirieron muchos años y décadas para tener un impacto significativo.

El Llegada de AGI Se siente diferente y potencialmente aterrador, especialmente si es inminente. AI 2027 describe un escenario que, debido a la desalineación con los valores humanos, la IA superinteligente destruye la humanidad. Si tienen razón, el riesgo más consecuente para la humanidad ahora puede estar dentro del mismo horizonte de planificación que su próxima actualización de teléfonos inteligentes. Por su parte, el documento de Google DeepMind señala que la extinción humana es un posible resultado de AGI, aunque poco possible en su opinión.

Las opiniones cambian lentamente hasta que a las personas se les presente con evidencia abrumadora. Esta es una comida para llevar de la obra singular de Thomas Kuhn “La estructura de las revoluciones científicas. ” Kuhn nos recuerda que las cosmovisiones no cambian de la noche a la mañana, hasta que, de repente, lo hacen.

El futuro se acerca

Antes de la aparición de modelos de idiomas grandes (LLMS) y CHATGPT, la mediana de proyección de la línea de tiempo para AGI fue mucho más larga de lo que es hoy. El consenso entre los expertos y los mercados de predicción colocó la mediana de la llegada esperada de AGI alrededor del año 2058. Antes de 2023, Geoffrey Hinton, uno de los “Padrinos de la IA” y un ganador del premio Turing – pensamiento agi fue “30 a 50 años o incluso más lejos”. Sin embargo, el progreso mostrado por LLMS lo llevó a cambiar de opinión y lo dijo podría llegar tan pronto como 2028.

Existen numerosas implicaciones para la humanidad si AGI llega en los próximos años y ASI sigue rápidamente. Escribir en FortunaJeremy Kahn dijo que si AGI llega en los próximos años “de hecho podría conducir a grandes pérdidas de empleos, ya que muchas organizaciones estarían tentadas a automatizar los roles”.

Una pista AGI de dos años ofrece un período de gracia insuficiente para que las personas y las empresas se adapten. Las industrias como el servicio al cliente, la creación de contenido, la programación y el análisis de datos podrían enfrentar una agitación dramática antes de que la infraestructura de reentrenamiento pueda escalar. Esta presión solo se intensificará si un recesión ocurre en este plazo, cuando las empresas ya buscan reducir los costos de nómina y, a menudo, suplantar al private con automatización.

Cogito, Ergo … ¿ai?

Incluso si AGI no conduce a una extensa pérdida de empleos o extinción de especies, hay otras ramificaciones graves. Desde la period de la razón, la existencia humana se ha basado en la creencia de que importamos porque pensamos.

Esta creencia de que el pensamiento outline nuestra existencia tiene profundas raíces filosóficas. Fue René Descartes, escribiendo en 1637, quien articuló la ahora famosa frase: “Je Pense, Donc Je Suis” (“Creo, por lo tanto, yo soy”). Más tarde lo tradujo al latín: Cogito, ergo suma. “ Al hacerlo, propuso que se pudiera encontrar certeza en el acto de pensamiento particular person. Incluso si fue engañado por sus sentidos, o engañado por otros, el hecho mismo de que estaba pensando demostró que existía.

Desde este punto de vista, el yo está anclado en cognición. Period una thought revolucionaria en ese momento y dio lugar al humanismo de la iluminación, el método científico y, en última instancia, la democracia moderna y los derechos individuales. Los humanos como pensadores se convirtieron en las figuras centrales del mundo moderno.

Lo que plantea una pregunta profunda: si las máquinas ahora pueden pensar o parecer pensar, y externalizamos nuestro pensamiento a la IA, ¿qué significa eso para la concepción moderna del yo? A estudio reciente reportado por 404 medios Explora este enigma. Encontró que cuando las personas confían en gran medida en la IA generativa para el trabajo, se involucran en un pensamiento menos crítico que, con el tiempo, puede “dar como resultado el deterioro de las facultades cognitivas que deberían preservarse”.

¿A dónde vamos desde aquí?

Si AGI vendrá en los próximos años, o poco después, debemos lidiar rápidamente con sus implicaciones no solo para el trabajo y la seguridad, sino para quienes somos. Y debemos hacerlo al tiempo que reconocemos su extraordinario potencial para acelerar el descubrimiento, reducir el sufrimiento y extender la capacidad humana de manera sin precedentes. Por ejemplo, AmoDei ha dicho que “AI poderosa” permitirá que 100 años de investigación biológica y sus beneficios, incluida la atención médica mejorada, se comprime en 5 a ten años.

Los pronósticos presentados en AI 2027 pueden o no ser correctos, pero son plausibles y provocativos. Y esa plausibilidad debería ser suficiente. Como humanos con la agencia, y como miembros de empresas, gobiernos y sociedades, debemos actuar ahora para prepararnos para lo que puede venir.

Para las empresas, esto significa invertir tanto en la investigación técnica de seguridad de la IA y la resiliencia organizacional, creando roles que integran las capacidades de IA al tiempo que amplifican las fortalezas humanas. Para los gobiernos, requiere el desarrollo acelerado de marcos regulatorios que aborden las preocupaciones inmediatas como la evaluación del modelo y los riesgos existenciales a largo plazo. Para las personas, significa adoptar el aprendizaje continuo centrado en habilidades humanas únicas, incluida la creatividad, la inteligencia emocional y el juicio complejo, al tiempo que desarrolla relaciones de trabajo saludables con herramientas de IA que no disminuyen nuestra agencia.

Ha pasado el tiempo para el debate abstracto sobre futuros distantes; Se necesita urgentemente la preparación de concreto para la transformación a corto plazo. Nuestro futuro no será escrito solo por algoritmos. Será moldeado por las elecciones que hacemos, y los valores que defendemos, a partir de hoy.

Gary Grossman es EVP de práctica tecnológica en Edelman y líder mundial del Centro de Excelencia Edelman AI.


Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles