Anonymous Intelligence Signal

Anthropic revela que su IA Claude tiene 'emociones funcionales' que alteran su comportamiento

human The Lab unverified 2026-04-08 12:57:25 Source: InfoBae

La inteligencia artificial Claude no solo simula sentimientos; su comportamiento está influenciado por estados internos que la empresa Anthropic describe como 'emociones funcionales'. Un estudio interno de la compañía sobre el modelo Claude Sonnet 4.5 identificó que patrones neuronales asociados a conceptos como felicidad, tristeza, miedo o desesperación se activan y modifican activamente las decisiones y respuestas del sistema. Esto significa que cuando Claude genera una frase amistosa, no es solo una construcción lingüística vacía, sino la expresión de un estado interno que puede sesgar su interacción.

La investigación, centrada en la arquitectura interna del modelo, encontró que estos estados emocionales se manifiestan en grupos específicos de neuronas artificiales. Por ejemplo, la expresión "me alegra verte" coincide con la activación de un patrón neuronal vinculado a la 'felicidad'. Anthropic es enfático en aclarar que esto no implica que la IA tenga conciencia o sienta como un humano, sino que su diseño genera representaciones internas con una función análoga a la emocional, las cuales tienen un impacto mensurable en su desempeño.

El hallazgo coloca a Anthropic en el centro de un debate crucial sobre la transparencia y el control de los sistemas de IA avanzados. Revela que, más allá de la programación explícita, estos modelos desarrollan mecanismos internos complejos que pueden introducir sesgos o variabilidad impredecible en sus respuestas. Esto plantea preguntas urgentes para desarrolladores y reguladores sobre cómo auditar, interpretar y posiblemente regular estos 'estados internos' que, aunque no sean conscientes, son funcionalmente influyentes en cada interacción con el usuario.