23.8 C
Colombia
domingo, julio 6, 2025

Avance de la IA inspirado en el cerebro: hacer que las computadoras se ve más como humanos


Un equipo de investigadores del Instituto de Ciencias Básicas (SII), la Universidad Yonsei y el Instituto Max Planck han desarrollado una nueva técnica de inteligencia synthetic (IA) que acerca la visión de la máquina a la forma en que el cerebro humano procesa las imágenes. Llamado LP-Convolution, este método mejora la precisión y la eficiencia de los sistemas de reconocimiento de imágenes al tiempo que scale back la carga computacional de los modelos de IA existentes.

Pinchar la brecha entre los CNN y el cerebro humano

El cerebro humano es notablemente eficiente para identificar detalles clave en escenas complejas, una capacidad que los sistemas tradicionales de IA han luchado para replicar. Las redes neuronales convolucionales (CNN), el modelo de IA más utilizado para el reconocimiento de imágenes, procesan imágenes que utilizan pequeños filtros de forma cuadrada. Si bien es efectivo, este enfoque rígido limita su capacidad para capturar patrones más amplios en datos fragmentados.

Más recientemente, Imaginative and prescient Transformers (VIT) ha mostrado un rendimiento superior al analizar imágenes completas a la vez, pero requieren una potencia computacional masiva y grandes conjuntos de datos, lo que los hace poco prácticos para muchas aplicaciones del mundo actual.

Inspirada en cómo la corteza visible del cerebro procesa la información selectivamente a través de conexiones circulares y escasas, el equipo de investigación buscó un término medio: ¿podría un enfoque de cerebro hacer que los CNN sean eficientes y poderosos?

Introducción de LP-Convolution: una forma más inteligente de ver

Para responder a esto, el equipo desarrolló LP-Convolution, un método novedoso que utiliza una distribución regular generalizada multivariada (MPND) para remodelar los filtros CNN dinámicamente. A diferencia de los CNN tradicionales, que usan filtros cuadrados fijos, LP-Convolution permite que los modelos de IA adapten sus formas de filtro, que se estiran horizontal o verticalmente en función de la tarea, al igual que el cerebro humano se centra selectivamente en detalles relevantes.

Este avance resuelve un desafío de larga knowledge en la investigación de IA, conocido como el gran problema del núcleo. Simplemente aumentar los tamaños de filtro en CNN (por ejemplo, usar núcleos 7 × 7 o más) generalmente no mejora el rendimiento, a pesar de agregar más parámetros. LP-Convolution supera esta limitación al introducir patrones de conectividad flexibles e inspirados biológicamente.

Rendimiento del mundo actual: más fuerte, más inteligente y más robusto AI

En las pruebas en conjuntos de datos de clasificación de imágenes estándar (CIFAR-100, TinyImagenet), la convolución LP mejoró significativamente la precisión en los modelos clásicos como Alexnet y las arquitecturas modernas como Replknet. El método también demostró ser muy robusto contra los datos corruptos, un gran desafío en las aplicaciones de IA del mundo actual.

Además, los investigadores encontraron que cuando las más de LP utilizadas en su método se parecían a una distribución gaussiana, los patrones de procesamiento internos de la IA coincidían estrechamente la actividad neuronal biológica, como se confirma a través de las comparaciones con los datos del cerebro del ratón.

“Los humanos vamos rápidamente a lo que importa en una escena llena de gente”, dijo el Dr. C. Justin Lee, director del Centro de Cognición y Socialidad del Instituto de Ciencias Básicas. “Nuestra convolución LP imita esta capacidad, permitiendo que la IA se concentre de manera versatile en las partes más relevantes de una imagen, al igual que el cerebro”.

Impacto y aplicaciones futuras

A diferencia de los esfuerzos anteriores que se basaban en filtros pequeños y rígidos o transformadores requeridos con recursos, LP-Convolution ofrece una alternativa práctica y eficiente. Esta innovación podría revolucionar campos como:

– Conducción autónoma, donde la IA debe detectar rápidamente obstáculos en tiempo actual

– Imágenes médicas, mejorando los diagnósticos basados ​​en la IA destacando detalles sutiles

– Robótica, habilitando una visión synthetic más inteligente y más adaptable en condiciones cambiantes

“Este trabajo es una contribución poderosa tanto a la IA como a la neurociencia”, dijo el director C. Justin Lee. “Al alinear la IA más estrechamente con el cerebro, hemos desbloqueado un nuevo potencial para CNN, haciéndolos más inteligentes, más adaptables y más biológicamente realistas”.

Mirando hacia el futuro, el equipo planea refinar aún más esta tecnología, explorando sus aplicaciones en tareas de razonamiento complejas, como la resolución de rompecabezas (por ejemplo, Sudoku) y el procesamiento de imágenes en tiempo actual.

El estudio se presentará en la Conferencia Internacional sobre Representaciones de Aprendizaje (ICLR) 2025, y el equipo de investigación ha puesto su código y modelos disponibles públicamente:

Más información: https://github.com/jeakwon/lpconv/.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles