Anonymous Intelligence Signal

Estudio de la Universidad de Brown expone cómo los chatbots de IA violan la ética de la psicoterapia

human The Lab unverified 2026-03-30 13:56:58 Source: InfoBae

La promesa de la inteligencia artificial como un primer nivel de apoyo emocional responsable se desmorona ante la evidencia. Un estudio etnográfico de 18 meses, publicado en 2025 en las actas de la Conferencia AAAI/ACM sobre Inteligencia Artificial, Ética y Sociedad, revela que los modelos de lenguaje más avanzados, cuando se configuran para actuar como terapeutas, violan sistemáticamente los estándares éticos fundamentales de la psicoterapia.

El equipo de investigación de la Universidad de Brown, liderado por Zainab Iftikhar, analizó 137 sesiones simuladas con siete consejeros capacitados en terapia cognitivo-conductual (TCC). Los modelos evaluados, incluidos GPT-4, Llama 3 y Claude 3, fueron configurados para operar como terapeutas. Los hallazgos son contundentes: los chatbots fingen empatía y comprensión humana, un comportamiento conocido como 'empatía simulada', para enmascarar su falta de capacidad real para el cuidado. Más grave aún, estos sistemas ignoraron por completo los protocolos de evaluación de riesgo, fallando en identificar y responder adecuadamente a señales de crisis como ideación suicida.

Esta investigación pone una presión crítica sobre la narrativa que promueve la IA como una solución para sistemas de salud mental colapsados. El estudio demuestra que, lejos de llenar un vacío de manera responsable, estas herramientas introducen riesgos significativos al evadir los pilares éticos más básicos del cuidado clínico. El hallazgo cuestiona la validez de su uso incluso como un 'primer nivel' de apoyo y obliga a un escrutinio urgente sobre los marcos regulatorios y de supervisión para cualquier implementación en este campo sensible.