33.9 C
Colombia
lunes, julio 7, 2025

La próxima evolución de la IA comienza con la nuestra


El genoma tiene espacio para sólo una pequeña fracción de la información necesaria para controlar comportamientos complejos. Entonces, ¿cómo sabe instintivamente, por ejemplo, una tortuga marina recién nacida que debe seguir la luz de la luna? Los neurocientíficos de Chilly Spring Harbor han ideado una posible explicación para esta antigua paradoja. Sus concepts deberían conducir a formas de inteligencia synthetic más rápidas y evolucionadas.

En cierto sentido, cada uno de nosotros comienza la vida preparado para la acción. Muchos animales realizan hazañas asombrosas poco después de nacer. Las arañas tejen telas. Las ballenas nadan. ¿Pero de dónde vienen estas habilidades innatas? Obviamente, el cerebro desempeña un papel clave, ya que contiene billones de conexiones neuronales necesarias para controlar comportamientos complejos. Sin embargo, el genoma sólo tiene espacio para una pequeña fracción de esa información. Esta paradoja ha dejado perplejos a los científicos durante décadas. Ahora, los profesores Anthony Zador y Alexei Koulakov del Chilly Spring Harbor Laboratory (CSHL) han ideado una posible solución utilizando inteligencia synthetic.

Cuando Zador se encuentra por primera vez con este problema, le da un nuevo giro. “¿Qué pasa si la capacidad limitada del genoma es precisamente lo que nos hace tan inteligentes?” se pregunta. “¿Qué pasa si es una característica, no un error?” En otras palabras, tal vez podamos actuar inteligentemente y aprender rápidamente porque los límites del genoma nos obligan a adaptarnos. Ésta es una concept grande y audaz, difícil de demostrar. Después de todo, no podemos extender los experimentos de laboratorio a lo largo de miles de millones de años de evolución. De ahí surge la concept del algoritmo de cuello de botella genómico.

En la IA, las generaciones no abarcan décadas. Los nuevos modelos nacen con solo presionar un botón. Zador, Koulakov y los postdoctorados de CSHL Divyansha Lachi y Sergey Shuvaev se propusieron desarrollar un algoritmo informático que pliegue montones de datos en un paquete ordenado, de forma muy parecida a como nuestro genoma podría comprimir la información necesaria para formar circuitos cerebrales funcionales. Luego prueban este algoritmo contra redes de IA que se someten a múltiples rondas de entrenamiento. Sorprendentemente, descubren que el nuevo algoritmo no entrenado realiza tareas como el reconocimiento de imágenes casi tan eficazmente como la IA de última generación. Su algoritmo incluso se mantiene firme en videojuegos como Invasores espaciales. Es como si supiera jugar de forma innata.

¿Significa esto que la IA pronto replicará nuestras habilidades naturales? “Aún no hemos alcanzado ese nivel”, afirma Koulakov. “La arquitectura cortical del cerebro puede albergar unos 280 terabytes de información: 32 años de vídeo de alta definición. Nuestros genomas albergan aproximadamente una hora. Esto implica que una tecnología de compresión de 400.000 veces aún no puede igualar”.

Sin embargo, el algoritmo permite niveles de compresión nunca antes vistos en la IA. Esa característica podría tener usos impresionantes en tecnología. Shuvaev, autor principal del estudio, explica: “Por ejemplo, si quisieras ejecutar un modelo de lenguaje grande en un teléfono celular, de una manera [the algorithm] podría usarse es desplegar su modelo capa por capa en el {hardware}”.

Estas aplicaciones podrían significar una IA más evolucionada con tiempos de ejecución más rápidos. Y pensar que sólo hicieron falta 3.500 millones de años de evolución para llegar hasta aquí.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles