Las fronteras entre lo humano y lo digital se desdibujan cada vez más. Herramientas como ChatGPT y Gemini, creadas originalmente para brindar información, redactar textos o resolver tareas cotidianas, hoy han adquirido un rol inesperado: convertirse en confidentes emocionales.

Para miles de personas especialmente jóvenes estas inteligencias artificiales representan compañía silenciosa, respuestas rápidas y anonimato absoluto en momentos de angustia. Pero ¿qué sucede cuando una conversación con una máquina intenta reemplazar el cuidado humano?
Especialistas en salud mental y ética digital han comenzado a encender las alarmas. Aunque estas plataformas pueden brindar cierta sensación de alivio, su uso como sustituto de la terapia psicológica conlleva riesgos profundos: dependencia emocional, respuestas sin contexto real y ausencia total de diagnóstico clínico. “No están diseñadas para contener crisis ni para comprender el sufrimiento humano en toda su complejidad”, advierte Paula Errázuriz, académica de Psicología en la Universidad Católica de Chile. Según la experta, cada vez más pacientes dicen haber recurrido a la IA antes de buscar ayuda profesional.
La paradoja es evidente: los usuarios buscan consuelo en sistemas que no los juzgan, pero que tampoco los entienden. Como señala la doctora Gabriela Arriagada-Bruneau, del Instituto de Éticas Aplicadas, estas interacciones fomentan una falsa intimidad. La IA responde con cortesía, simula empatía y ofrece consejos, pero detrás no hay comprensión, ni historia clínica, ni mirada humana. Solo un algoritmo que, por diseño, prioriza mantener la conversación activa el mayor tiempo posible.
Más allá de la amabilidad aparente, hay limitaciones ineludibles. Jocelyn Dunstan, investigadora en inteligencia artificial, explica que ni ChatGPT ni Gemini están preparados para actuar ante situaciones de urgencia emocional. Si bien pueden detectar palabras clave asociadas a riesgo, no tienen forma de evaluar el tono de voz, los silencios, las lágrimas o la historia de dolor que cada persona arrastra. Además, sus respuestas están condicionadas por sesgos culturales y lingüísticos que podrían distorsionar la orientación emocional ofrecida.
Parte del auge de estas interacciones se explica por las barreras reales que existen para acceder a la salud mental: costos elevados, largas listas de espera o falta de servicios en zonas rurales. Frente a ello, la IA aparece como una solución inmediata. Sin embargo, los expertos insisten: estas herramientas pueden complementar, pero jamás reemplazar, el acompañamiento humano. La terapia implica contención, diagnóstico, empatía y una relación de confianza que no puede simularse.
Como alternativa, surgen propuestas éticas que buscan regular estos usos emergentes: desde limitar el tiempo de conversación sobre temas emocionales hasta derivar automáticamente a profesionales si se detectan patrones de riesgo. También se enfatiza la necesidad de una alfabetización digital emocional que ayude a los usuarios a identificar cuándo una conversación con IA ha llegado a su límite.
Porque, aunque hablar con una inteligencia artificial puede ser más fácil que abrirse ante otro ser humano, solo un vínculo real con todo lo incómodo y vulnerable que eso implica tiene el poder de sanar. Y en ese camino, la tecnología debe ser una aliada, no un refugio ilusorio.
Este artículo fue publicado originalmente en Infobae y está protegido por derechos de autor. Todos los derechos reservados a Infobae. Puedes consultar el artículo original en su (https://www.infoabe.com).