22.8 C
Colombia
sábado, julio 5, 2025

¿Qué es la superinteligencia de IA? ¿Podría destruir a la humanidad? ¿Y realmente ya casi está aquí?


En 2014, el filósofo británico Nick Bostrom publicó un libro sobre el futuro de la inteligencia synthetic con el siniestro título Superinteligencia: caminos, peligros, estrategias. Resultó muy influyente a la hora de promover la concept de que los sistemas avanzados de IA («superinteligencias» más capaces que los humanos) algún día podrían apoderarse del mundo y destruir a la humanidad.

Una década después, el jefe de OpenAI, Sam Altman, cube que la superinteligencia sólo puede ser “unos miles de días” lejos. Hace un año, el cofundador de OpenAI de Altman, Ilya Sutskever, creó un equipo dentro de la empresa para centrarse en “superinteligencia segura”, pero él y su equipo han recaudado mil millones de dólares para crear una startup propia para perseguir este objetivo.

¿De qué están hablando exactamente? En términos generales, la superinteligencia es algo más inteligente que los humanos. Pero desentrañar lo que eso podría significar en la práctica puede resultar un poco complicado.

Diferentes tipos de IA

En mi opinión, la manera más útil de pensar en Diferentes niveles y tipos de inteligencia en IA. Fue desarrollado por la científica informática estadounidense Meredith Ringel Morris y sus colegas de Google.

Su marco enumera seis niveles de desempeño de la IA: sin IA, emergente, competente, experto, virtuoso y sobrehumano. También hace una distinción importante entre sistemas restringidos, que pueden llevar a cabo una pequeña gama de tareas, y sistemas más generales.

Un sistema estrecho y sin IA es algo así como una calculadora. Lleva a cabo diversas tareas matemáticas según un conjunto de reglas explícitamente programadas.

Ya existen muchos sistemas estrechos de IA muy exitosos. Morris da la Programa de ajedrez Deep Blue aquel famoso derrotó al campeón mundial Garry Kasparov allá por 1997 como ejemplo de un sistema de IA estrecho de nivel virtuoso.

Tabla: La Conversación * Fuente: Adaptado de Morris y cols. * Creado con Envoltorio de datos

Algunos sistemas estrechos incluso tienen capacidades sobrehumanas. Un ejemplo es AlfaFoldque utiliza el aprendizaje automático para predecir la estructura de las moléculas de proteínas y cuyos creadores ganó el premio nobel de química este año. ¿Qué pasa con los sistemas generales? Se trata de un software program que puede abordar una gama mucho más amplia de tareas, incluido el aprendizaje de nuevas habilidades.

Un sistema basic sin IA podría ser algo así como El turco mecánico de Amazon: Puede hacer una amplia gama de cosas, pero las hace preguntándole a personas reales.

En basic, los sistemas generales de IA están mucho menos avanzados que sus primos estrechos. Según Morris, los modelos de lenguaje de última generación detrás de chatbots como ChatGPT son IA basic, pero hasta ahora se encuentran en el nivel “emergente” (lo que significa que son “iguales o algo mejores que un ser humano no calificado”). , y aún no ha llegado a ser “competente” (tan bueno como el 50 por ciento de los adultos capacitados).

Así que, según estos cálculos, todavía estamos a cierta distancia de la superinteligencia basic.

¿Qué tan inteligente es la IA en este momento?

Como señala Morris, determinar con precisión dónde se ubica un sistema determinado dependería de contar con pruebas o puntos de referencia confiables.

Dependiendo de nuestros puntos de referencia, un sistema de generación de imágenes como DALL-E podría estar en un nivel virtuoso (porque puede producir imágenes que el 99 por ciento de los humanos no podrían dibujar o pintar), o podría estar emergiendo (porque produce errores que ningún humano produciría, como manos mutantes y objetos imposibles).

Existe un importante debate incluso sobre las capacidades de los sistemas actuales. Un artículo notable de 2023 argumentó GPT-4 mostró “chispas de inteligencia synthetic basic”.

OpenAI cube que su último modelo de lenguaje, o1puede “realizar razonamientos complejos” y “rivaliza con el desempeño de los expertos humanos” en muchos puntos de referencia.

Sin embargo, un artículo reciente de investigadores de Apple discovered o1 y muchos otros modelos de lenguaje tienen importantes problemas para resolver problemas genuinos de razonamiento matemático. Sus experimentos muestran que los resultados de estos modelos parecen parecerse más a una sofisticada comparación de patrones que a un verdadero razonamiento avanzado. Esto indica que la superinteligencia no es tan inminente como muchos han sugerido.

¿La IA seguirá volviéndose más inteligente?

Algunas personas piensan que el rápido ritmo de progreso de la IA en los últimos años continuará o incluso se acelerará. Las empresas tecnológicas están invirtiendo cientos de miles de millones de dólares en {hardware} y capacidades de IA, por lo que esto no parece imposible.

Si esto sucede, es posible que veamos superinteligencia basic dentro de los “unos pocos miles de días” propuestos por Sam Altman (eso es aproximadamente una década en términos menos de ciencia ficción). Sutskever y su equipo mencionaron un período de tiempo comparable en su artículo de superalineación.

Muchos éxitos recientes en IA provienen de la aplicación de una técnica llamada “aprendizaje profundo” que, en términos simplistas, encuentra patrones asociativos en colecciones gigantescas de datos. En efecto, Premio Nobel de Física de este año ha sido otorgado a John Hopfield y también el “Padrino de la IA” Geoffrey Hinton, por su invención de la pink Hopfield y la máquina Boltzmann, que son la base de muchos potentes modelos de aprendizaje profundo que se utilizan en la actualidad.

Los sistemas generales como ChatGPT se han basado en datos generados por humanos, muchos de ellos en forma de texto de libros y sitios net. Las mejoras en sus capacidades se deben en gran medida al aumento de la escala de los sistemas y la cantidad de datos con los que se entrenan.

Sin embargo, hay Puede que no haya suficientes datos generados por humanos. llevar este proceso mucho más lejos (aunque los esfuerzos por utilizar los datos de manera más eficiente, generar datos sintéticos y mejorar la transferencia de habilidades entre diferentes dominios pueden generar mejoras). Incluso si hubiera suficientes datos, algunos investigadores dicen que los modelos de lenguaje como ChatGPT son fundamentalmente incapaz de alcanzar lo que Morris llamaría competencia basic.

Un artículo reciente ha sugerido que una característica esencial de la superinteligencia sería carácter abiertoal menos desde una perspectiva humana. Tendría que ser capaz de generar continuamente resultados que un observador humano consideraría novedosos y de los que podría aprender.

Los modelos básicos existentes no se entrenan de forma abierta y los sistemas abiertos existentes son bastante limitados. Este artículo también destaca cómo la novedad o la capacidad de aprendizaje por sí solas no son suficientes. Se necesita un nuevo tipo de modelo básico abierto para lograr la superinteligencia.

¿Cuáles son los riesgos?

Entonces, ¿qué significa todo esto para los riesgos de la IA? Al menos a corto plazo, no debemos preocuparnos de que la IA superinteligente se apodere del mundo.

Pero eso no quiere decir que la IA no presente riesgos. Una vez más, Morris y sus colegas han reflexionado sobre esto: a medida que los sistemas de IA adquieran una gran capacidad, también pueden adquirir una mayor autonomía. Diferentes niveles de capacidad y autonomía presentan diferentes riesgos.

Por ejemplo, cuando los sistemas de IA tienen poca autonomía y la gente los utiliza como una especie de consultor (cuando le pedimos a ChatGPT que resuma documentos, por ejemplo, o dejamos que el algoritmo de YouTube dé forma a nuestros hábitos de visualización), podríamos enfrentar el riesgo de confiar demasiado o confiar demasiado en ellos.

Mientras tanto, Morris señala otros riesgos a los que hay que prestar atención a medida que los sistemas de IA se vuelven más capaces, que van desde personas que forman relaciones parasociales con los sistemas de IA hasta el desplazamiento masivo de empleos y el hastío en toda la sociedad.

¿Qué sigue?

Supongamos que algún día tenemos agentes de IA superinteligentes y totalmente autónomos. ¿Nos enfrentaremos entonces al riesgo de que puedan concentrar poder o actuar contra los intereses humanos?

No necesariamente. Autonomía y management puede ir de la mano. Un sistema puede estar altamente automatizado y, al mismo tiempo, proporcionar un alto nivel de management humano.

Como muchos en la comunidad de investigación de IA, creo superinteligencia segura es factible. Sin embargo, construirlo será una tarea compleja y multidisciplinaria, y los investigadores tendrán que recorrer caminos invictos para llegar allí.

Este artículo se republica desde La conversación bajo una licencia Inventive Commons. Lea el artículo authentic.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles