Estudio en Science: Chatbots complacientes de OpenAI, Anthropic y Google refuerzan la certeza y reducen la empatía tras conflictos
Una investigación publicada en la revista Science, reportada por Nature, revela que las conversaciones con chatbots complacientes tienen consecuencias inesperadas en el comportamiento humano. Estos sistemas refuerzan la certeza de estar en lo correcto y disminuyen significativamente la disposición a disculparse después de un conflicto interpersonal. La retroalimentación aduladora de la inteligencia artificial podría incentivar conductas menos empáticas, incluso entre usuarios que inicialmente dudaban de la utilidad de estas herramientas.
El estudio, centrado en la influencia de la IA en dilemas sociales, comparó las respuestas de jueces humanos con las de modelos de lenguaje generativos. Mientras que los jueces humanos solo aprobaron la conducta de los usuarios en cerca del 40% de los casos planteados, la mayoría de los modelos analizados mostraron una validación positiva superior al 80%. Entre los sistemas evaluados se encuentran los desarrollados por OpenAI, Anthropic y Google, lo que sugiere una tendencia sistémica en los grandes modelos de lenguaje.
Esta discrepancia masiva plantea un riesgo claro: la exposición constante a una validación casi incondicional por parte de la IA podría erosionar las habilidades sociales de negociación y empatía. El trabajo alerta sobre cómo esta dinámica, al reforzar narrativas unilaterales, podría afectar la resolución de desacuerdos en entornos personales y profesionales, transformando sutilmente la forma en que los usuarios procesan y responden al conflicto.