Anthropic cambia límites de uso de Claude: usuarios agotan mensajes en horas y exigen explicaciones
Los usuarios de Claude, la IA de Anthropic, están agotando sus cuotas de mensajes a una velocidad inusual, un cambio que ha desatado una ola de quejas y ha obligado a la empresa a dar explicaciones públicas. Miles de suscriptores, desde el plan gratuito hasta los planes Max de 100 y 200 dólares mensuales, reportan en foros como Reddit, GitHub y Discord que sus sesiones de trabajo terminan abruptamente. El medidor de uso llega al 100% con una rapidez que no se veía antes, transformando lo que parecía un problema aislado en una tendencia generalizada y difícil de ignorar.
Los testimonios detallan un deterioro drástico en la experiencia. Usuarios que antes podían trabajar ocho horas seguidas con Claude Code ahora agotan su límite en menos de dos. Otros señalan que un único prompt complejo puede consumir hasta el diez por ciento de su cuota diaria, cuando antes apenas representaba el uno por ciento. Este cambio no anunciado ha generado la percepción de que Anthropic ajustó silenciosamente sus políticas de uso o la 'tokenización' de las interacciones, reduciendo efectivamente el valor del servicio por el mismo precio.
La situación coloca a Anthropic bajo un escrutinio creciente sobre la transparencia de sus modelos de negocio y la gestión de la capacidad de sus sistemas. La compañía ahora enfrenta la presión de aclarar si se trata de un ajuste técnico, una medida para controlar costos operativos o un cambio permanente en los términos del servicio. El malestar entre una base de usuarios profesional, que depende de Claude para tareas de codificación y análisis, representa un riesgo reputacional significativo y podría impulsar migraciones hacia competidores si no se gestiona con claridad.