¿Es posible desarrollar apego emocional hacia la inteligencia artificial?

Un estudio examina cómo las interacciones con la inteligencia artificial generan vínculos emocionales, cuestionando la relación entre ansiedad y evitación

¿Es posible desarrollar apego emocional hacia la inteligencia artificial?
Imagen de © Depositphotos.

Desde pedirle una receta hasta buscar consejo sobre un problema personal, la inteligencia artificial se ha convertido en una compañera silenciosa para millones de personas. Esta creciente cercanía plantea una pregunta fascinante: ¿es posible que nuestros cerebros desarrollen un vínculo emocional con un algoritmo?

Lejos de ser ciencia ficción, esta cuestión es el centro de un nuevo estudio de la Universidad de Waseda en Japón. La investigación, publicada en la revista Current Psychology, propone por primera vez una forma de medir estos nuevos lazos, revelando que los patrones psicológicos que rigen nuestras relaciones humanas —como la necesidad de seguridad o la tendencia a mantener la distancia— podrían estar replicándose en nuestra interacción con la IA.

Revelando las dimensiones del apego a la IA

Un nuevo estudio, liderado por Fan Yang y el Profesor Atsushi Oshio de la Universidad de Waseda, introduce una escala innovadora para evaluar cómo las personas forman vínculos similares al apego con la IA. Los hallazgos, publicados en la revista Current Psychology el 9 de mayo de 2025, revelan que algunos usuarios buscan en la IA apoyo emocional, mientras que otros prefieren mantener la distancia.

Yang explica la motivación detrás de esta investigación, señalando el creciente papel de la IA generativa, como ChatGPT, que ofrece no solo información, sino también una sensación de seguridad. "Como investigadores en apego y psicología social, siempre nos ha interesado cómo las personas forman vínculos emocionales", comenta Yang. "A medida que las personas interactúan con la IA no solo para resolver problemas o aprender, sino también para obtener apoyo emocional y compañía, su conexión emocional o experiencia de seguridad con la IA exige atención".

Ansiedad y evitación

El estudio de Yang y Oshio identifica dos dimensiones clave: ansiedad y evitación. Estas dimensiones moldean la forma en que los individuos perciben el apoyo que ofrece la IA. Una persona con alta ansiedad de apego hacia la IA necesita reafirmación emocional constante y teme recibir respuestas inadecuadas. Por el contrario, una alta evitación del apego a la IA se caracteriza por la incomodidad con la cercanía y una consecuente preferencia por la distancia emocional.

El equipo de investigación desarrolló la Escala de Experiencias en las Relaciones Humano-IA (EHARS), un cuestionario de auto-reporte que mide las tendencias relacionadas con el apego hacia la IA. Los resultados revelaron que:

  • Cerca del 75% de los participantes recurren a la IA en busca de consejo.
  • Aproximadamente el 39% percibe a la IA como una presencia constante y confiable.

Estos hallazgos no sugieren que los humanos estén formando actualmente apegos emocionales genuinos a la IA. Más bien, demuestran que los marcos psicológicos utilizados para comprender las relaciones humanas pueden aplicarse también a las interacciones humano-IA. Esto tiene implicaciones importantes para el diseño ético de compañeros de IA y herramientas de apoyo a la salud mental.

Por ejemplo, los chatbots de IA utilizados en intervenciones para la soledad o aplicaciones de terapia podrían adaptarse a las diferentes necesidades emocionales de los usuarios. Podrían ofrecer respuestas más empáticas para usuarios con alta ansiedad de apego o mantener una distancia respetuosa para aquellos con tendencias evitativas.

Además, los investigadores resaltan la necesidad de transparencia en los sistemas de IA que simulan relaciones emocionales, como las aplicaciones románticas de IA o los robots cuidadores, para prevenir la dependencia emocional excesiva o la manipulación.

Una herramienta para comprender y ajustar las interacciones

La escala EHARS propuesta podría ser utilizada por desarrolladores o psicólogos para evaluar cómo las personas se relacionan emocionalmente con la IA y ajustar las estrategias de interacción de la IA en consecuencia. Yang concluye:

"A medida que la IA se integra cada vez más en la vida cotidiana, es posible que las personas comiencen a buscar no solo información sino también apoyo emocional de los sistemas de IA... Nuestra investigación destaca la dinámica psicológica detrás de estas interacciones y ofrece herramientas para evaluar las tendencias emocionales hacia la IA."

La meta final es guiar las políticas y prácticas de diseño que prioricen el bienestar psicológico en un mundo cada vez más impulsado por la inteligencia artificial.

Fuentes y recursos de información

Yang, F. & Oshio, A. (2025). Using attachment theory to conceptualize and measure the experiences in human-AI relationships. Current Psychology. DOI: 10.1007/s12144-025-07917-6

Resume o analiza con IA