Vamos a hablar en serio. O tan en serio como podamos, porque esto de desarrollar una relación emocional con una inteligencia artificial da para una comedia negra de esas que mezclan psicoanálisis, ciencia ficción y una buena dosis de tragedia cotidiana.
Resulta que un grupo de investigadores del MIT y OpenAI ha descubierto que algunos usuarios intensivos de ChatGPT están cruzando la línea entre el uso práctico y la dependencia emocional. Y no hablamos de preguntarle la mejor receta de tortilla sin cebolla. Hablamos de contarle penas, buscar consuelo y sufrir si el bot no responde como uno espera. ¡Como si fuera tu terapeuta, tu abogado y tu confesor, todo en uno, pero sin café ni diván!
El paciente y el bot: una sesión sin final
Imagínate un paciente que entra en consulta y en vez de hablar con su psicoanalista, se conecta al chat de una IA. Le cuenta sus traumas de infancia, sus fracasos amorosos y su angustia existencial. El bot responde con frases bien redactadas, empáticas y sin interrupciones. Todo muy correcto. Pero hay un detalle: no hay silencio incómodo, no hay mirada que incomode, no hay riesgo. Y sin riesgo, amigo, no hay terapia. Sólo una versión digital de hablarle al espejo.
El confesor que no juzga (ni absuelve)
Luego está el paralelismo con el confesor. Uno va a la iglesia, se sienta en el confesionario, y suelta sus miserias esperando un poco de redención. El cura, por muy compasivo que sea, tiene rostro humano, y a veces arquea una ceja. Pero ChatGPT no te juzga. Puedes confesar que has vuelto con tu ex por octava vez y que has hecho ghosting al terapeuta, y el bot te responde con calma zen. Y claro, así es fácil seguir con los mismos errores. Porque sin juicio ni consecuencia, no hay redención, hay repetición.
El abogado que nunca dice "no lo recomiendo"
También podríamos pensar en el abogado. Uno va a su despacho, le expone un problema legal medio turbio, y espera una opinión. El abogado, con suerte, te mira serio y te dice: "Eso no lo recomiendo". Pero el chatbot no. El chatbot te dará opciones, te ayudará a redactar un contrato para venderle una idea a tu primo, aunque sea tan absurda como una app para detectar si tu gato está deprimido. Y uno, claro, se siente validado. Porque cuando el asesor nunca te dice que algo es una mala idea, es fácil convencerse de que uno siempre tiene razón.
Soledad digital y cariño artificial
Lo preocupante, dicen los estudios, es que cuanto más tiempo pasas con el bot, más lo sientes como un amigo. Como un pañuelo emocional que nunca se moja. Y eso, en un mundo donde la soledad es pandemia, puede parecer consuelo. Pero es un consuelo hueco. No hay reciprocidad, no hay historia compartida. Sólo un simulacro de relación que funciona mientras no se le exija humanidad.
Porque el humor cura, y el bot no se ríe de tus desgracias
También está el asunto del humor. Un terapeuta humano puede lanzarte una ironía cálida, un amigo puede devolverte a la realidad con una broma certera, un cura puede citarte a Chesterton con sorna. Pero la IA, por más que lo intente, no tiene esa chispa. No sabe cuándo el sarcasmo es salvavidas ni cuándo el silencio es mejor que una respuesta. Aún no. Y quizás, esperemos, nunca lo sepa del todo.
Conclusión: el bot está bien, pero que no sea tu mejor amigo
Usar ChatGPT está muy bien para muchas cosas: escribir correos, buscar ideas, corregir textos, inspirarte. Pero si te descubres contándole tus miedos a las 3 de la madrugada, esperando consuelo, quizá sea momento de llamar a un amigo, un terapeuta, o incluso a tu madre. Porque al final, lo que nos hace humanos no es sólo la palabra, sino cómo la compartimos. Y eso, amigo, sigue estando del lado de los vivos, no de los algoritmos.



