Cada vez más personas recurren a las inteligencias artificiales generativas para analizar sus relaciones amorosas. ¿Una solución milagrosa o un parche en una pierna de madera digital?
¿Alguna vez te has quedado mirando un mensaje de tu pareja (o ex-pareja) preguntándote frenéticamente: «Pero, ¿qué significa esto exactamente?»? Si es así, debes saber que ya no eres el/la único/a en buscar respuestas... en ChatGPT. Sí, has leído bien. La inteligencia artificial generativa, esa tecnología capaz de crear contenido original después de haber procesado montañas de datos, ahora se inmiscuye en la arena más íntima que existe: nuestras relaciones interpersonales. Entonces, ¿la IA es el nuevo gurú del amor 2.0? Adentrémonos en los recovecos de nuestros corazones... y de nuestros «prompts».
22/05/2025 22:32 JérômeLa historia de Green, un neoyorquino de 29 años, da qué pensar. En plena ruptura, cuál no sería su sorpresa al recibir un correo de su ex. Un mensaje que, según su remitente, no pretendía ser ofensivo ni malintencionado. ¿La prueba? Había sido «pasado varias veces por ChatGPT para asegurarse de que no hiriera a nadie», cuenta Green. Un enfoque que primero le resultó gracioso, pero luego le molestó. «Me dejó atónito que una relación tan personal y llena de cuidados se redujera a la opinión de ChatGPT», confiesa, subrayando que la IA no tiene conocimiento del contexto ni de la historia de su relación. Una sensación de impersonalidad que habla por sí sola.
Si Green sufrió el uso de ChatGPT por parte de un tercero, otros, como Kate, una residente de Denver de 35 años, lo utilizan voluntariamente para analizar sus propias relaciones. Desde hace unos dos meses y medio, somete sus intercambios de mensajes a la IA. «Le pedí que analizara nuestras conversaciones y me diera un resumen», explica, refiriéndose especialmente a una relación incipiente que le genera ansiedad. Estilo de apego, aspectos saludables de la relación, y la pregunta del millón: ¿quién quiere más a quién?
Las respuestas de ChatGPT pueden ser «iluminadoras», hasta el punto de que Kate las comparte con sus amigas. Pero admite que también pueden alimentar su ansiedad, ya que la IA puede hacer suposiciones sobre el comportamiento de su pareja (sugiriendo que se está distanciando cuando simplemente está ocupado) que la llevan a pasar horas redactando nuevas consultas («prompts»). Su terapeuta, la de verdad, no es precisamente fan: «Kate, prométeme que nunca más volverás a hacer esto», le dijo.
Google y su Project Mariner: ¿La IA del futuro hará nuestras maletas (y la compra) por nosotros?
¿Por qué este entusiasmo por confiar nuestros estados de ánimo a una máquina? Para Kate, ChatGPT es un oído atento sin juicios, sin horarios ni problemas personales. «Si enviara tantos mensajes a mis amigos como consultas a ChatGPT, les reventaría el teléfono», reconoce. Andrew, de 36 años y residente en Seattle, comparte este sentimiento. Tras una ruptura por mensaje ambiguo, su primer impulso fue preguntarle a ChatGPT: «¿Ha terminado conmigo?». La IA, tan perpleja como él, al menos le ofreció cierta validación sin tener que «molestar a sus amigos con [sus] lamentaciones».
Sin embargo, como señala Daniel Kimmel, psiquiatra clínico de la Universidad de Columbia, hay un riesgo al delegar este «trabajo emocional» en una IA. «Nuestras amistades dependen de estos vínculos», explica, recordando que los humanos han pasado cientos de miles de años desarrollando su propio «simulador emocional». La IA, en cambio, carece de esa experiencia. ¿Su ventaja? Un «motor predictivo extremadamente potente» que interpreta palabras. «Ahí está el límite de la IA: solo puede operar con palabras», aclara Kimmel. Lo que escapa a la máquina es todo «lo que no son palabras», esa parte «inefable» de nuestras interacciones.
Esta práctica plantea una pregunta peliaguda: la confidencialidad. ¿No es arriesgado proporcionar detalles tan íntimos a ChatGPT? Kate lo ha pensado: «Dios mío, si alguien viera mi historial de prompts, podrían sacar conclusiones descabelladas sobre quién eres». Andrew habla de un «pacto de confianza optimista» con la plataforma, encontrándola a veces más fiable que los humanos, que podrían convertir sus confesiones en moneda de cambio.
Por parte de OpenAI, la empresa detrás de ChatGPT, una portavoz, Taya Christianson, indicó a WIRED que la herramienta está diseñada para ser objetiva, neutral y centrada en la seguridad, pero que no sustituye a un profesional de la salud mental.
¿Lo sabías?
Según Taya Christianson, portavoz de OpenAI, la empresa colabora con el MIT Media Lab para estudiar «cómo el uso de la IA con implicación emocional —lo que llaman uso afectivo— puede afectar al bienestar de los usuarios». ¡Una investigación que llega en el momento justo!
IA sesgada, justicia vulnerada: cómo nuestros algoritmos aprenden a discriminar
La irrupción de ChatGPT en nuestros jardines secretos amorosos es un fenómeno fascinante. Por un lado, una herramienta percibida como un confidente disponible y sin juicios, capaz de ofrecer una perspectiva "objetiva" sobre situaciones complejas. Por otro, una máquina carente de contexto emocional real, que puede aumentar la ansiedad y plantear serias cuestiones de confidencialidad. Si algunos usuarios, como Kate, intentan reducir su uso siguiendo los consejos de su terapeuta, la tendencia parece bien afianzada, alimentada por creadores de contenido en TikTok que comparten trucos y prompts para analizar discusiones o obtener consejos amorosos.
Entonces, ¿ChatGPT, futuro consejero matrimonial o mero gadget para corazones agitados? Una cosa es segura: para los matices sutiles de un «te quiero» o el calor de un abrazo, la inteligencia humana aún tiene mucho que decir. Y quizás eso sea lo mejor, ¿no?
Jerome
Experto en desarrollo web, SEO e inteligencia artificial, mi experiencia práctica en la creación de sistemas automatizados se remonta a 2009. Hoy en día, además de redactar artículos para descifrar la actualidad y los desafíos de la IA, diseño soluciones a medida e intervengo como consultor y formador para una IA ética, eficiente y responsable.