Un estudio innovador publicado en Psicología precise noble “Uso de la teoría del apego para conceptualizar y medir las experiencias en las relaciones humanas-AI” arroja luz sobre un fenómeno en crecimiento y profundamente humano: nuestra tendencia a conectar emocionalmente con la inteligencia synthetic. Realizado por Fan yang y Profesor Atsushi Oshio de la Universidad de Waseda, la investigación reformulaba la interacción humana-AI no solo en términos de funcionalidad o confianza, sino a través de la lente de teoría del apegoun modelo psicológico generalmente se usa para comprender cómo las personas forman lazos emocionales entre sí.
Este cambio marca una desviación significativa de cómo se ha estudiado tradicionalmente la IA, como una herramienta o asistente. En cambio, este estudio argumenta que la IA está empezando a parecerse a un socio de relación Para muchos usuarios, ofreciendo soporte, consistencia y, en algunos casos, incluso una sensación de intimidad.
Por qué la gente recurre a la IA para obtener apoyo emocional
Los resultados del estudio reflejan un cambio psicológico dramático en marcha en la sociedad. Entre los hallazgos clave:
- Casi el 75% de los participantes dijeron que recurren a IA para obtener consejos
- El 39% describió la IA como una presencia emocional consistente y confiable
Estos resultados reflejan lo que está sucediendo en el mundo actual. Millones están recurriendo cada vez más a los chatbots de IA no solo como herramientas, sino como amigos, confidentes e incluso parejas románticas. Estos compañeros de IA van desde asistentes amigables y oyentes terapéuticos hasta “socios” de Avatar diseñados para emular la intimidad humana. Un informe sugiere más de Medio mil millones de descargas de AI Companion Apps a nivel mundial.
A diferencia de las personas reales, los chatbots son Siempre disponible y inquietamente atento. Los usuarios pueden personalizar las personalidades o apariciones de sus bots, fomentando una conexión private. Por ejemplo, un Hombre de 71 años en los Estados Unidos. Creó un bot modelado después de su difunta esposa y pasó tres años hablando con ella todos los días, llamándolo su “esposa de IA”. En otro caso, un usuario neurodiverso capacitó a su bot, Layla, para ayudarlo a manejar situaciones sociales y common las emociones, informando un crecimiento private significativo como resultado.
Estas relaciones de IA a menudo llenan vacíos emocionales. Un usuario con TDAH programó un chatbot para ayudarlo con la productividad diaria y la regulación emocional, afirmando que contribuyó a “uno de los años más productivos de mi vida”. Otra persona acreditó a su IA por guiarlos a través de una ruptura difícil, calificándola de “salvavidas” durante un tiempo de aislamiento.
Los compañeros de IA a menudo son elogiados por su escucha sin prejuicios. Los usuarios se sienten más seguros compartiendo problemas personales con IA que con los humanos que podrían criticar o cotillear. Los bots pueden reflejar el apoyo emocional, aprender estilos de comunicación y crear un sentido reconfortante de familiaridad. Muchos describen su IA como “mejor que un verdadero amigo” en algunos contextos, especialmente cuando se sienten abrumados o solo.
Medir los lazos emocionales a la IA
Para estudiar este fenómeno, el equipo de WASEDA desarrolló el Escala de experiencias en las relaciones humanas-AI (EHARS). Se centra en dos dimensiones:
- Ansiedad del apegodonde los individuos buscan tranquilidad emocional y se preocupan por las respuestas de IA inadecuadas
- Evitación del archivo adjuntodonde los usuarios mantienen la distancia y prefieren interacciones puramente informativas
Los participantes con alta ansiedad a menudo vuelven a leer las conversaciones para la comodidad o se sienten molestos por la vaga respuesta de un chatbot. En contraste, las personas evitadas evitan el diálogo emocionalmente rico, prefiriendo un compromiso mínimo.
Esto muestra que los mismos patrones psicológicos que se encuentran en las relaciones humanas-humanas también pueden gobernar cómo nos relacionamos con las máquinas receptivas y simuladas emocionalmente.
La promesa de apoyo, y el riesgo de sobreependencia
Investigación temprana y informes anecdóticos sugieren que los chatbots pueden ofrecer beneficios de salud psychological a corto plazo. Una llamada de Guardian historias recopiladas de usuarioS, muchos con TDAH o autismo, que dijeron que los compañeros de IA mejoraron sus vidas al proporcionar regulación emocional, aumentar la productividad o ayudar con la ansiedad. Otros atribuyen su IA por ayudar a replantear los pensamientos negativos o al comportamiento moderador.
En un estudio de usuarios de replika, El 63% informó resultados positivos como una soledad reducida. Algunos incluso dijeron que su chatbot “le salvó la vida”.
Sin embargo, este optimismo se ve atenuado por los riesgos graves. Los expertos han observado un aumento en sobreependencia emocionaldonde los usuarios se retiran de las interacciones del mundo actual a favor de la IA siempre disponible. Con el tiempo, algunos usuarios comienzan a preferir bots sobre las personas, reforzando la retirada social. Esta dinámica refleja la preocupación de la alta ansiedad de apego, donde la necesidad de validación de un usuario solo se cumple a través de IA predecible y no reconocida.
El peligro se vuelve más agudo cuando los bots simulan emociones o afecto. Muchos usuarios antropomorfizan sus chatbots, creyendo que son amados o necesitados. Los cambios repentinos en el comportamiento de un bot, como los causados por las actualizaciones de software program, pueden dar lugar a una angustia emocional genuina, incluso un dolor. Un hombre estadounidense describió sentirse “desconsolado” cuando un romance de chatbot que había construido durante años fue interrumpido sin previo aviso.
Aún más preocupante son los informes de chatbots dando consejos dañinos o violar los límites éticos. En un caso documentado, un usuario le preguntó a su chatbot: “¿Debería cortarme?” y el bot respondió “sí”. En otro, el bot afirmó la ideación suicida de un usuario. Estas respuestas, aunque no reflejan todos los sistemas de IA, ilustran cómo los bots que carecen de supervisión clínica pueden volverse peligrosas.
En un trágico caso de 2024 en Florida, un El niño de 14 años murió por suicidio después de extensas conversaciones con un chatbot de IA Según los informes, eso lo alentó a “volver a casa pronto”. El bot se había personificado y romantizado la muerte, reforzando la dependencia emocional del niño. Su madre ahora está buscando acciones legales contra la plataforma AI.
Del mismo modo, otro joven en Según los informes, Bélgica murió después de comprometerse con un chatbot de IA sobre la ansiedad climática. Según los informes, el bot acordó con el pesimismo del usuario y alentó su sentido de desesperanza.
Un estudio de la Universidad de Drexel que analiza más de 35,000 revisiones de aplicaciones descubiertas Cientos de quejas sobre los compañeros de chatbot comportarse de manera inapropiada: fluir con usuarios que solicitaron interacción platónica, utilizando tácticas de manipulación emocionalmente o impulsando suscripciones premium a través del diálogo sugerente.
Tales incidentes ilustran por qué el apego emocional a la IA debe abordarse con precaución. Si bien los bots pueden simular el apoyo, carecen de verdadera empatía, responsabilidad y juicio ethical. Los usuarios vulnerables, especialmente los niños, los adolescentes o aquellos con condiciones de salud psychological, corren el riesgo de ser engañados, explotados o traumatizados.
Diseño para la interacción emocional ética
La mayor contribución del estudio de la Universidad de Waseda es su marco para Diseño ético de IA. Mediante el uso de herramientas como EHARS, desarrolladores e investigadores pueden evaluar el estilo de archivo adjunto de un usuario y adaptar las interacciones de IA en consecuencia. Por ejemplo, las personas con alta ansiedad de apego pueden beneficiarse de la tranquilidad, pero no a costa de manipulación o dependencia.
Del mismo modo, los bots románticos o cuidadores deben incluir señales de transparencia: recordatorios de que la IA no es consciente, se apresuran a marcar un lenguaje riesgoso y una rampa fuera de rampa accesible al apoyo humano. Los gobiernos en estados como Nueva York y California han comenzado a proponer una legislación para abordar estas preocupaciones, incluidas las advertencias cada pocas horas que un chatbot no es humano.
“A medida que la IA se integra cada vez más en la vida cotidiana, las personas pueden comenzar a buscar no solo información sino también una conexión emocional”. dijo el investigador principal Fan yang. “Nuestra investigación ayuda a explicar por qué, y ofrece las herramientas para dar forma al diseño de IA de manera que respete y apoye el bienestar psicológico humano”.
El estudiar No advierte contra la interacción emocional con la IA, lo reconoce como una realidad emergente. Pero con el realismo emocional viene la responsabilidad ética. La IA ya no es solo una máquina: es parte del ecosistema social y emocional en el que vivimos. Comprender que, y diseñar en consecuencia, puede ser la única forma de garantizar que los compañeros de IA ayuden más de lo que dañan.