24 C
Colombia
lunes, julio 7, 2025

La gente simpatiza con los robots de IA acosados


En un estudio del Imperial Faculty de Londres, los humanos mostraron simpatía y protegieron a los robots de IA que estaban excluidos del tiempo de juego.

Los investigadores dicen que el estudio, que utilizó un juego de pelota digital, destaca la tendencia de los humanos a tratar a los agentes de IA como seres sociales, una inclinación que debe tenerse en cuenta al diseñar robots de IA.

El estudio se publica en Comportamiento humano y tecnologías emergentes.

El autor principal, Jianan Zhou, de la Escuela de Ingeniería de Diseño Dyson de Imperial, dijo: “Esta es una visión única de cómo los humanos interactúan con la IA, con implicaciones interesantes para su diseño y nuestra psicología”.

Cada vez más se requiere que las personas interactúen con agentes virtuales de IA al acceder a los servicios, y muchos también los utilizan como compañeros para la interacción social. Sin embargo, estos hallazgos sugieren que los desarrolladores deberían evitar diseñar agentes demasiado parecidos a los humanos.

La autora principal, la Dra. Nejra van Zalk, también de la Escuela de Ingeniería de Diseño Dyson de Imperial, dijo: “Un pequeño pero creciente conjunto de investigaciones muestra hallazgos contradictorios sobre si los humanos tratan a los agentes virtuales de IA como seres sociales. Esto plantea preguntas importantes sobre cómo las personas perciben e interactúan”. con estos agentes.

“Nuestros resultados muestran que los participantes tendían a tratar a los agentes virtuales de IA como seres sociales, porque intentaban incluirlos en el juego de lanzamiento de pelotas si sentían que la IA estaba siendo excluida. Esto es común en las interacciones entre humanos, y nuestros Los participantes mostraron la misma tendencia a pesar de que sabían que estaban lanzando una pelota a un agente digital. Curiosamente, este efecto fue más fuerte en los participantes de mayor edad”.

A la gente no le gusta el ostracismo, ni siquiera hacia la IA

Sentir empatía y tomar medidas correctivas contra la injusticia es algo que la mayoría de los humanos parecen estar programados para hacer. Estudios anteriores que no involucraron IA encontraron que las personas tendían a compensar a los objetivos excluidos lanzándoles la pelota con más frecuencia, y que también tendían a no agradarles al perpetrador del comportamiento excluyente mientras sentían preferencia y simpatía hacia el objetivo.

Para llevar a cabo el estudio, los investigadores observaron cómo respondieron 244 participantes humanos cuando observaron que un agente digital de IA period excluido del juego por otro humano en un juego llamado ‘Cyberball’, en el que los jugadores se pasan una pelota digital entre sí en la pantalla. . Los participantes tenían entre 18 y 62 años.

En algunos juegos, el humano no participante lanzó la pelota un buen número de veces al bot, y en otros, el humano no participante excluyó descaradamente al bot al lanzar la pelota solo al participante.

Se observó a los participantes y posteriormente se les encuestó para conocer sus reacciones para comprobar si estaban a favor de lanzar la pelota al robotic después de que lo trataran injustamente y por qué.

Descubrieron que la mayoría de las veces, los participantes intentaban rectificar la injusticia hacia el robotic prefiriendo lanzarle la pelota. Los participantes de mayor edad tenían más probabilidades de percibir injusticia.

Precaución humana

Los investigadores dicen que a medida que los agentes virtuales de IA se vuelven más populares en tareas colaborativas, un mayor compromiso con los humanos podría aumentar nuestra familiaridad y desencadenar el procesamiento automático. Esto significaría que los usuarios probablemente incluirían intuitivamente agentes virtuales como miembros reales del equipo e interactuarían socialmente con ellos.

Esto, dicen, puede ser una ventaja para la colaboración laboral, pero podría ser preocupante cuando los agentes virtuales se utilizan como amigos para reemplazar las relaciones humanas o como asesores sobre salud física o psychological.

Jianan dijo: “Al evitar diseñar agentes demasiado parecidos a los humanos, los desarrolladores podrían ayudar a las personas a distinguir entre interacción digital y actual. También podrían adaptar su diseño a rangos de edad específicos, por ejemplo, teniendo en cuenta cómo nuestras diferentes características humanas afectan nuestra percepción. “

Los investigadores señalan que Cyberball podría no representar cómo interactúan los humanos en escenarios de la vida actual, que generalmente ocurren a través del lenguaje hablado o escrito con chatbots o asistentes de voz. Esto podría haber entrado en conflicto con las expectativas de los usuarios de algunos participantes y haber generado sentimientos de extrañeza, lo que afectó sus respuestas durante el experimento.

Por lo tanto, ahora están diseñando experimentos similares utilizando conversaciones cara a cara con agentes en diversos contextos, como en el laboratorio o en entornos más informales. De esta manera, pueden probar hasta dónde se extienden sus hallazgos.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles