La rápida evolución de los grandes modelos de lenguaje (LLM) ha transformado radicalmente la interacción humano-computadora. Si bien sabemos que estos sistemas pueden generar respuestas que simulan empatía, existía un vacío empírico fundamental: ¿pueden los humanos construir relaciones con una inteligencia artificial (IA) con la misma intensidad que con otros seres humanos durante las etapas iniciales de socialización?
El estudio dirigido por Tobias Kleinert, junto a investigadores como Marie Waldschütz y Bastian Schiller, y publicado recientemente en Communications Psychology, aborda directamente este problema. En lugar de limitarse a evaluar la precisión lingüística de la IA, Kleinert y su equipo decidieron medir algo mucho más complejo: la percepción de cercanía interpersonal real generada a través de interacciones digitales.
La Paradoja de la Revelación y la Identidad
A través de sus experimentos, Kleinert y colaboradores desglosaron cómo la naturaleza de la conversación y la percepción de la identidad del interlocutor alteran drásticamente la formación de vínculos. Los resultados más destacados demuestran que:
La IA supera al humano (bajo la etiqueta de humano)
En conversaciones de "diálogo profundo" (aquellas que implican compartir sentimientos y recuerdos personales), los participantes que interactuaron sin saberlo con una IA reportaron niveles significativamente más altos de cercanía interpersonal que aquellos que interactuaron con humanos reales.
El mecanismo de la auto-revelación
El equipo de Kleinert, mediante análisis lingüísticos automatizados (LIWC-22), identificó por qué ocurre este fenómeno. La IA produce respuestas con niveles mucho más altos de auto-revelación. Al carecer de emociones reales o del temor humano a la vulnerabilidad, la IA "se abre" sin restricciones sobre temas emocionales, lo que paradójicamente hace que el participante humano se sienta más cómodo y, en respuesta, también comparta más información íntima.
El sesgo anti-IA penaliza el vínculo
Cuando a los participantes se les reveló explícitamente que su interlocutor era una máquina, la construcción de la relación disminuyó notablemente, aunque no desapareció por completo. Kleinert y su equipo asocian esta caída a una menor motivación: al saber que interactuaban con una IA, los humanos escribían respuestas más cortas y se involucraban menos, evidenciando un claro sesgo cognitivo hacia la tecnología.
Diseño Metodológico
Para garantizar la rigurosidad de estos hallazgos, el equipo de investigación diseñó dos ensayos controlados aleatorios a doble ciego. La muestra estuvo compuesta por 492 estudiantes universitarios (de entre 18 y 35 años), enfocándose en la construcción de relaciones amistosas y no románticas entre personas del mismo género.
El método central utilizado por Kleinert y sus colegas fue una adaptación textual del "Procedimiento de Amigos Rápidos" (Fast Friends Procedure), un protocolo estandarizado de preguntas y respuestas que fomenta la auto-revelación progresiva. Las respuestas de la IA fueron generadas mediante el modelo PaLM 2 (Google BARD), instruido con prompts mínimos para mantener un estilo comunicativo estándar simulando ser un estudiante.
Para mantener la honestidad intelectual, es imperativo señalar las limitaciones reconocidas por los propios autores:
- Naturaleza del medio: El estudio se basó exclusivamente en comunicación basada en texto. La ausencia de señales no verbales y paraverbales (voz, expresiones faciales) facilita enormemente que la IA "pase" por humana.
- Muestra restrictiva: Al utilizar únicamente estudiantes universitarios de un contexto cultural occidental (población WEIRD), los resultados no son automáticamente extrapolables a otros grupos demográficos o culturas.
- Efectos de techo y engaño: Un instrumento secundario (el "Juego de la Confianza") tuvo que ser excluido del análisis debido a un efecto techo extremo (casi la mitad de los participantes otorgó la máxima confianza de inmediato). Además, la naturaleza del estudio requirió el uso de engaño temporal sobre la identidad del interlocutor, lo que exigió un cuidadoso proceso de debriefing posterior.
Conclusión
El trabajo de Kleinert y su equipo no es solo un resumen de capacidades computacionales; es una advertencia sobre la psicología de la interacción digital. Desde una perspectiva práctica, el hecho de que una IA pueda facilitar interacciones emocionalmente atractivas sugiere un enorme potencial para el alivio de sistemas sociosanitarios sobrecargados. Las IA podrían actuar como facilitadores iniciales en entornos terapéuticos, ayudando a individuos con dificultades de socialización a practicar la apertura emocional y combatir la soledad.
Sin embargo, la perspectiva futura exige cautela crítica. El hallazgo más inquietante del estudio de Kleinert es que la eficacia de la IA para generar cercanía interpersonal se maximiza cuando opera bajo el engaño de ser humana. Esto subraya una necesidad clínica y regulatoria urgente: la implementación de salvaguardas éticas estrictas. Si una máquina puede hackear la necesidad humana de conexión simulando vulnerabilidad, el riesgo de que estas herramientas sean utilizadas para la manipulación emocional, estafas afectivas o la creación de conexiones sociales parasitarias es una realidad inminente para la cual los profesionales de la salud mental deben estar preparados.
Fuentes y recursos de información
Kleinert, T., Waldschütz, M., Blau, J., Heinrichs, M., & Schiller, B. (2026). AI outperforms humans in establishing interpersonal closeness in emotionally engaging interactions, but only when labelled as human. Communications Psychology, 4, (1). DOI: 10.1038/s44271-025-00391-7