23.7 C
Colombia
domingo, julio 6, 2025

AI conoce a la teoría de juegos: cómo se desempeñan los modelos de idiomas en escenarios sociales como humanos


Los modelos de idiomas grandes (LLM), la IA avanzada detrás de las herramientas como ChatGPT, están cada vez más integrados en la vida diaria, ayudando con tareas como escribir correos electrónicos, responder preguntas e incluso apoyar las decisiones de atención médica. Pero, ¿pueden estos modelos colaborar con otros de la misma manera que lo hacen los humanos? ¿Pueden comprender las situaciones sociales, hacer compromisos o establecer confianza? Un nuevo estudio de investigadores de Helmholtz Munich, el Instituto Max Planck de Cibernética Biológica y la Universidad de Tübingen, revela que si bien la IA de hoy es inteligente, todavía tiene mucho que aprender sobre la inteligencia social.

Jugando juegos para comprender el comportamiento de la IA

Para descubrir cómo se comportan las LLM en situaciones sociales, los investigadores aplicaron la teoría del juego conductual, un método que generalmente se usa para estudiar cómo las personas cooperan, compiten y toman decisiones. El equipo tenía varios modelos de IA, incluido GPT-4, participó en una serie de juegos diseñados para simular interacciones sociales y evaluar factores clave como la equidad, la confianza y la cooperación.

Los investigadores descubrieron que GPT-4 sobresalió en juegos que exigían razonamiento lógico, particularmente al priorizar sus propios intereses. Sin embargo, luchó con las tareas que requerían trabajo en equipo y coordinación, a menudo quedando cortos en esas áreas.

“En algunos casos, la IA parecía casi demasiado racional para su propio bien”, dijo el Dr. Eric Schulz, autor principal del estudio. “Podría detectar una amenaza o un movimiento egoísta al instante y responder con represalia, pero luchó por ver el panorama normal de la confianza, la cooperación y el compromiso”.

Enseñar a la IA a pensar socialmente

Para alentar un comportamiento más consciente socialmente, los investigadores implementaron un enfoque directo: llevaron a la IA a considerar la perspectiva del otro jugador antes de tomar su propia decisión. Esta técnica, llamada cadena social de pensamiento (scOT), resultó en mejoras significativas. Con Scot, la IA se volvió más cooperativa, más adaptable y más efectiva para lograr resultados mutuamente beneficiosos, incluso al interactuar con jugadores humanos reales.

“Una vez que empujamos el modelo a razonar socialmente, comenzó a actuar de manera que se sentía mucho más humana”, dijo Elif Akata, primer autor del estudio. “Y curiosamente, los participantes humanos a menudo no podían decir que estaban jugando con una IA”.

Aplicaciones en salud y atención al paciente

Las implicaciones de este estudio llegan mucho más allá de la teoría del juego. Los hallazgos sientan las bases para desarrollar más sistemas de IA centrados en el humano, particularmente en entornos de salud donde la cognición social es esencial. En áreas como la salud psychological, el manejo de enfermedades crónicas y el cuidado de ancianos, el apoyo efectivo depende no solo de la precisión y la entrega de información, sino también de la capacidad de la IA para generar confianza, interpretar señales sociales y fomentar la cooperación. Al modelar y refinar estas dinámicas sociales, el estudio allana el camino para una IA más inteligente socialmente, con implicaciones significativas para la investigación en salud y la interacción humana-AI.

“Una IA que puede alentar a un paciente a permanecer en su medicamento, apoyar a alguien a través de la ansiedad o guiar una conversación sobre elecciones difíciles”, dijo Elif Akata. “Ahí es donde se dirige este tipo de investigación”.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles