30.8 C
Colombia
lunes, julio 21, 2025

Los modelos de lenguaje de atajos matemáticos únicos que utilizan para predecir escenarios dinámicos | MIT Information



Digamos que estás leyendo una historia o jugando un juego de ajedrez. Es posible que no haya notado, pero en cada paso del camino, su mente realizó un seguimiento de cómo estaba cambiando la situación (o “estado del mundo”). Puede imaginar esto como una especie de secuencia de la lista de eventos, que utilizamos para actualizar nuestra predicción de lo que sucederá a continuación.

Los modelos de idiomas como ChatGPT también rastrean cambios dentro de su propia “mente” al terminar un bloque de código o anticipar lo que escribirá a continuación. Por lo basic, hacen conjeturas educadas utilizando transformadores (arquitecturas internas que ayudan a los modelos a comprender los datos secuenciales, pero los sistemas a veces son incorrectos debido a los patrones de pensamiento defectuoso. Identificar y ajustar estos mecanismos subyacentes ayuda a los modelos de lenguaje a convertirse en pronosticadores más confiables, especialmente con tareas más dinámicas como pronosticar el clima y los mercados financieros.

¿Pero estos sistemas de IA procesan situaciones en desarrollo como nosotros? Un nuevo papel De los investigadores en el Laboratorio de Informática e Inteligencia Synthetic del MIT (CSAIL) y el Departamento de Ingeniería Eléctrica y Ciencias de la Computación muestran que los modelos utilizan atajos matemáticos inteligentes entre cada paso progresivo en una secuencia, lo que eventualmente hace predicciones razonables. El equipo hizo esta observación al pasar bajo el capó de los modelos de lenguaje, evaluando qué tan cerca podían realizar un seguimiento de los objetos que cambian la posición rápidamente. Sus hallazgos muestran que los ingenieros pueden controlar cuando los modelos de lenguaje utilizan soluciones particulares como una forma de mejorar las capacidades predictivas de los sistemas.

Juegos con cáscara

Los investigadores analizaron el funcionamiento interno de estos modelos utilizando un experimento inteligente que recuerda a un juego de concentración clásico. ¿Alguna vez tuvo que adivinar la ubicación last de un objeto después de colocarlo debajo de una taza y barajarse con contenedores idénticos? El equipo utilizó una prueba comparable, donde el modelo adivinó la disposición last de dígitos particulares (también llamado permutación). Los modelos recibieron una secuencia inicial, como “42135” e instrucciones sobre cuándo y dónde mover cada dígito, como mover el “4” a la tercera posición y en adelante, sin conocer el resultado last.

En estos experimentos, los modelos basados en transformadores aprendieron gradualmente a predecir los arreglos finales correctos. Sin embargo, en lugar de barajar los dígitos en función de las instrucciones que se les dio, los sistemas agregaron información entre estados sucesivos (o pasos individuales dentro de la secuencia) y calcularon la permutación last.

Un patrón de referencia que el equipo observó, llamado “algoritmo asociativo”, esencialmente organiza los pasos cercanos en los grupos y luego calcula una suposición last. Puede pensar que este proceso está estructurado como un árbol, donde la disposición numérica inicial es la “raíz”. A medida que avanza por el árbol, los pasos adyacentes se agrupan en diferentes ramas y se multiplican juntos. En la parte superior del árbol se encuentra la combinación last de números, calculado multiplicando cada secuencia resultante en las ramas juntas.

La otra forma en que los modelos lingüísticos supusieron la permutación last fue a través de un mecanismo astuto llamado “algoritmo asociativo de paridad”, que esencialmente cut back las opciones antes de agruparlas. Determina si la disposición last es el resultado de un número par o impar de reordenamientos de dígitos individuales. Luego, el mecanismo agrupa secuencias adyacentes de diferentes pasos antes de multiplicarlas, al igual que el algoritmo asociativo.

“Estos comportamientos nos dicen que los transformadores realizan una simulación por escaneo asociativo. En lugar de seguir los cambios en el estado paso a paso, los modelos los organizan en jerarquías”, cube el estudiante de doctorado del MIT y afiliado de CSAIL Belinda Li SM ’23, un autor principal en el documento. “¿Cómo alentamos a los transformadores a aprender un mejor seguimiento de estado? En lugar de imponer que estos sistemas formen inferencias sobre los datos de una manera secuencial y comparable a la humana, tal vez deberíamos atender los enfoques que usan naturalmente cuando el estado de rastreo cambia”.

“Una vía de investigación ha sido expandir la computación del tiempo de prueba a lo largo de la dimensión de profundidad, en lugar de la dimensión del token, al aumentar el número de capas de transformadores en lugar del número de tokens de cadena de pensamiento durante el razonamiento de tiempo de prueba”, agrega Li. “Nuestro trabajo sugiere que este enfoque permitiría a los transformadores construir árboles de razonamiento más profundos”.

A través del vaso de aspecto

Li y sus coautores observaron cómo los algoritmos asociativos y asociativos de paridad funcionaron usando herramientas que les permitieron mirar dentro de la “mente” de los modelos de idiomas.

Primero usaron un método llamado “sondeo”, que muestra qué información fluye a través de un sistema de IA. Think about que podría investigar el cerebro de un modelo para ver sus pensamientos en un momento específico; de manera comparable, la técnica mapea las predicciones de experiencia media del sistema sobre la disposición last de los dígitos.

Luego se utilizó una herramienta llamada “parcheo de activación” para mostrar dónde el modelo de lenguaje procesa cambia a una situación. Implica entrometerse con algunas de las “concepts” del sistema, inyectar información incorrecta en ciertas partes de la purple mientras mantiene constantes otras partes, y ver cómo el sistema ajustará sus predicciones.

Estas herramientas revelaron cuándo los algoritmos cometerían errores y cuándo los sistemas “descubrieron” cómo adivinar correctamente las permutaciones finales. Observaron que el algoritmo asociativo aprendió más rápido que el algoritmo asociativo de paridad, al tiempo que funciona mejor en secuencias más largas. Li atribuye las dificultades de este último con instrucciones más elaboradas a una excesiva dependencia de la heurística (o reglas que nos permiten calcular una solución razonable rápidamente) para predecir las permutaciones.

“Hemos descubierto que cuando los modelos de idiomas usan una heurística al principio de la capacitación, comenzarán a desarrollar estos trucos en sus mecanismos”, cube Li. “Sin embargo, esos modelos tienden a generalizarse peor que los que no dependen de la heurística. Descubrimos que ciertos objetivos de pre-entrenamiento pueden disuadir o alentar estos patrones, por lo que en el futuro, podemos buscar técnicas de diseño que desalienten a los modelos de recoger malos hábitos”.

Los investigadores señalan que sus experimentos se realizaron en los modelos de lenguaje a pequeña escala ajustados en los datos sintéticos, pero descubrieron que el tamaño del modelo tenía poco efecto en los resultados. Esto sugiere que los modelos de lenguaje más grandes, como GPT 4.1, probablemente producirían resultados similares. El equipo planea examinar sus hipótesis más de cerca probando modelos de lenguaje de diferentes tamaños que no se han ajustado, evaluando su rendimiento en tareas dinámicas del mundo actual, como el código de seguimiento y siguiendo cómo evolucionan las historias.

Postdoc de la Universidad de Harvard Keyon Vafa, quien no participó en el documento, cube que los hallazgos de los investigadores podrían crear oportunidades para avanzar en los modelos de idiomas. “Muchos usos de los modelos de idiomas grandes dependen del estado de seguimiento: cualquier cosa, desde proporcionar recetas hasta escribir código hasta realizar un seguimiento de los detalles en una conversación”, cube. “Este documento hace un progreso significativo en la comprensión de cómo los modelos de lenguaje realizan estas tareas. Este progreso nos proporciona información interesante sobre lo que los modelos de idiomas están haciendo y ofrece nuevas estrategias prometedoras para mejorarlas”.

Li escribió el documento con el estudiante universitario del MIT, Zifan “Carl” Guo, y el autor principal Jacob Andreas, quien es profesor asociado de Ingeniería Eléctrica e Informática y Investigador Principal de CSAIL. Su investigación fue apoyada, en parte, por la filantropía abierta, el MIT Quest for Intelligence, la Nationwide Science Basis, el Programa Clare Boothe Luce para Mujeres en STEM y una Comunidad de Investigación Sloan.

Los investigadores presentaron su investigación en la Conferencia Internacional sobre Aprendizaje Autor (ICML) esta semana.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles